KR20210124012A - 이미지 인식 방법, 장치 및 저장 매체 - Google Patents

이미지 인식 방법, 장치 및 저장 매체 Download PDF

Info

Publication number
KR20210124012A
KR20210124012A KR1020207034853A KR20207034853A KR20210124012A KR 20210124012 A KR20210124012 A KR 20210124012A KR 1020207034853 A KR1020207034853 A KR 1020207034853A KR 20207034853 A KR20207034853 A KR 20207034853A KR 20210124012 A KR20210124012 A KR 20210124012A
Authority
KR
South Korea
Prior art keywords
trunk
detection result
feature
result
detection
Prior art date
Application number
KR1020207034853A
Other languages
English (en)
Inventor
밍유안 장
진이 우
하이유 자오
Original Assignee
센스타임 인터내셔널 피티이. 리미티드.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 센스타임 인터내셔널 피티이. 리미티드. filed Critical 센스타임 인터내셔널 피티이. 리미티드.
Publication of KR20210124012A publication Critical patent/KR20210124012A/ko

Links

Images

Classifications

    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Abstract

본 발명의 실시예는 안면과 동작 부위의 연관 정확도를 향상시킬 수 있는 이미지 인식 방법, 장치 및 저장 매체를 공개하되, 상기 방법은, 인식될 이미지를 검출하여 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하는 단계 - 하나의 안면 검출 결과는 하나의 안면의 검출 박스를 포함하고, 하나의 동작 부위 검출 결과는 하나의 동작 부위의 검출 박스를 포함하며, 하나의 트렁크 검출 결과는 하나의 트렁크의 검출 박스를 포함함 - ; 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득하는 단계; 각각의 트렁크 검출 결과를 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득하는 단계; 및 적어도 하나의 제1 결과 조합과 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득하는 단계를 포함한다.

Description

이미지 인식 방법, 장치 및 저장 매체
관련 출원의 상호 참조
본원 발명은 2020년 4월 1일에 제출한 명칭이 “IMAGE RECOGNITION METHOD, APPARATUS, AND STORAGE MEDIUM(이미지 인식 방법, 장치 및 저장 매체)”인 싱가포르 특허 출원 10202003027Q의 우선권을 주장하는 바, 상기 싱가포르 특허 출원의 모든 내용은 참조로서 본원 발명에 인용된다.
본 발명의 실시예는 이미지 처리 기술에 관한 것이지만 이에 한정되지 않으며, 특히 이미지 인식 방법, 장치 및 저장 매체에 관한 것이다.
이미지 인식 기술의 발전에 따라, 이미지 인식 장치는 이미지 화면 중의 안면과 예컨대 사람의 손과 같은 동작 부위를 연관 매칭시킬 수 있는데, 즉 안면과 동작 부위가 동일한 사람에게 속하는 것인지 여부를 인식할 수 있다. 현재, 흔히 사용하는 안면과 동작 부위를 연관시키는 방법은 두 가지인 바, 한 가지는 먼저 이미지로부터 복수 개의 안면 및 복수 개의 동작 부위를 각각 인식한 다음, 딥 러닝 모델을 이용하여 안면과 동작 부위 사이의 관계를 추정하는 것이고; 다른 한 가지는 인체 키 포인트의 연관 알고리즘에 기반하여 안면과 동작 부위를 연관시키는 것이다.
하지만, 딥 러닝 모델을 이용하여 안면과 동작 부위 사이의 관계를 추정할 경우, 각각의 안면, 동작 부위의 조합에 대해 모두 딥 러닝 모델을 적용해야 하는데, 안면과 동작 부위의 거리가 비교적 멀면, 딥 러닝 모델은 안면과 동작 부위의 관계를 직접 판단하는 난이도가 비교적 높음으로써, 안면과 동작 부위의 연관 정확도가 비교적 낮아지게 되고; 인체 키 포인트의 연관 알고리즘을 이용할 경우, 이미지에 복수 개의 인체가 존재할 시 키 포인트는 일부 인체 정보를 유실할 수 있으므로, 안면과 동작 부위의 연관 정확도가 비교적 낮아지게 된다.
본 발명의 실시예는 안면과 동작 부위의 연관 정확도를 향상시킬 수 있는 이미지 인식 방법, 장치 및 저장 매체를 제공한다.
본 발명의 기술적 해결수단은 하기와 같이 구현된다.
본 발명의 실시예는,
인식될 이미지에 대해 이미지 검출을 수행하여 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하는 단계 - 하나의 안면 검출 결과는 하나의 안면의 검출 박스를 포함하고, 하나의 동작 부위 검출 결과는 하나의 동작 부위의 검출 박스를 포함하며, 하나의 트렁크 검출 결과는 하나의 트렁크의 검출 박스를 포함함 - ;
상기 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득하는 단계;
상기 각각의 트렁크 검출 결과를 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득하는 단계; 및
상기 적어도 하나의 제1 결과 조합과 상기 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득하는 단계를 포함하는 이미지 인식 장치를 제공한다.
본 발명의 실시예는,
인식될 이미지에 대해 이미지 검출을 수행하여 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하는 검출 모듈 - 하나의 안면 검출 결과는 하나의 안면의 검출 박스를 포함하고, 하나의 동작 부위 검출 결과는 하나의 동작 부위의 검출 박스를 포함하며, 하나의 트렁크 검출 결과는 하나의 트렁크의 검출 박스를 포함함 - ;
상기 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득하고; 상기 각각의 트렁크 검출 결과를 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득하는 조합 모듈; 및
상기 적어도 하나의 제1 결과 조합과 상기 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득하는 연관 모듈을 포함하는 이미지 인식 장치를 제공한다.
본 발명의 실시예는,
컴퓨터 실행 가능한 명령을 저장하는 메모리; 및
상기 메모리에 저장된 컴퓨터 실행 가능한 명령을 실행할 경우, 본 발명의 실시예가 제공하는 이미지 인식 방법을 구현하는 프로세서를 포함하는 전자 기기를 제공한다.
본 발명의 실시예는, 컴퓨터 실행 가능한 명령이 저장되고, 컴퓨터 실행 가능한 명령이 프로세서에 의해 실행될 경우, 상기 프로세서가 본 발명의 실시예가 제공하는 이미지 인식 방법을 구현하도록 하는 저장 매체를 제공한다.
본 발명의 실시예는, 컴퓨터 실행 가능한 코드를 포함하고, 상기 컴퓨터 실행 가능한 코드가 기기에서 실행될 경우, 상기 기기 중의 프로세서는 본 발명의 실시예가 제공하는 이미지 인식 방법의 단계의 명령을 실행하는 컴퓨터 프로그램을 제공한다.
본 발명의 실시예는 하기와 같은 유리한 효과를 가진다.
본 발명의 실시예에서, 인식될 이미지를 검출할 경우, 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하고, 이어서 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 이용하여 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득하는 동시에, 다시 각각의 트렁크 검출 결과를 이용하여 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득하며, 마지막으로 적어도 하나의 제1 결과 조합과 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득한다. 상기 방식을 통해, 트렁크 검출 결과와 안면 검출 결과의 관계, 및 트렁크 검출 결과와 동작 부위 검출 결과의 관계를 판단함으로써, 트렁크 검출 결과를 이용하여 안면 검출 결과와 동작 부위 검출 결과를 연관시키므로, 안면과 동작 부위를 판단하는 난이도를 감소시키는 동시에, 이미지 중 인체의 키 정보(key information)를 유실할 수 없으며, 안면과 동작 부위의 연관 정확도를 향상시킨다.
도 1은 본 발명의 실시예가 제공하는 이미지 인식 시나리오(100)의 모식도이다.
도 2는 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 1이다.
도 3은 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 2이다.
도 4는 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 3이다.
도 5는 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 4이다.
도 6은 본 발명의 실시예가 제공하는 트렁크 검출 영역의 폭, 높이 및 면적의 모식도이다.
도 7은 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 5이다.
도 8은 본 발명의 실시예가 제공하는 이미지 인식 장치의 구조 모식도 1이다.
도 9는 본 발명의 실시예가 제공하는 전자 기기의 구조 모식도 2이다.
아래, 본 발명의 실시예 중의 도면과 결부시켜 본 발명의 실시예에 따른 기술적 해결수단을 명확하고 완전하게 설명한다.
본 발명의 실시예는 이미지 인식 시나리오를 제공하고, 도 1에 도시된 바와 같이, 도 1은 본 발명의 실시예가 제공하는 이미지 인식 시나리오(100)의 모식도이며, 이미지 인식 시나리오(100)는 인식될 영역(200)에 대해 이미지 인식을 수행하는 이미지 인식 장치(300)를 포함하고, 인식될 영역(200)은 적어도 하나의 인물 객체(인물 객체(400-1), 인물 객체(400-2) 및 인물 객체(400-3)를 예시적으로 도시함)를 구비하며, 여기서, 각각의 인물 객체(400)는 모두 안면으로 구분될 수 있다. 이미지 인식 장치(300)는 인식될 영역(200)의 정면 또는 측면에 설치되어 평행 각도로 인식될 영역(200)에 대해 이미지 인식을 수행할 수 있다. 구체적으로, 이미지 인식 장치(300)는 먼저 인식될 영역(200)에 대해 이미지 수집을 수행하고, 다음, 수집된 이미지로부터 트렁크 검출 결과(500)(트렁크 검출 결과(500-1), 트렁크 검출 결과(500-2) 및 트렁크 검출 결과(500-3) 를 예시적으로 도시함), 안면 검출 결과(600)(안면 검출 결과(600-1), 안면 검출 결과(600-2) 및 안면 검출 결과(600-3)를 예시적으로 도시함), 및 동작 부위 검출 결과(700)(동작 부위 검출 결과(700-1), 동작 부위 검출 결과(700-2) 및 동작 부위 검출 결과(700-3)를 예시적으로 도시함)를 검출하며, 그 다음, 이러한 검출 결과에 대해 연관 분석을 수행함으로써, 이미지 화면 중의 안면과 동작 부위의 관계를 결정하는데, 즉 동작 부위 검출 결과(700)가 인물 객체(400) 중의 어느 인물 객체인지를 결정함으로써, 동작 부위 검출 결과(700) 중의 어느 하나의 동작 부위 검출 결과가 활동할 경우, 이미지 인식 장치는 이것이 인물 객체(400) 중의 어느 인물 객체가 상기 동작 부위를 통해 활동한 것인지를 판단할 수 있다.
본 발명의 일부 실시예에서, 동작 부위는 인물 객체(400)의 손일 수 있고, 다른 부위일 수도 있음을 이해할 수 있다.
도 2를 참조하면, 도 2는 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 1이고, 본 발명의 실시예가 제공하는 이미지 인식 방법은 하기와 같은 단계를 포함한다.
단계 S101에서, 인식될 이미지를 검출하여 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하고; 하나의 안면 검출 결과는 하나의 안면의 검출 박스를 포함하며, 하나의 동작 부위 검출 결과는 하나의 동작 부위의 검출 박스를 포함하고, 하나의 트렁크 검출 결과는 하나의 트렁크의 검출 박스를 포함한다.
본 발명의 실시예에서, 이미지 화면을 인식하여 이미지 화면 중의 안면과 동작 부위를 연관시키는 시나리오에서 구현되되, 예를 들면, 수업에서의 각각의 학생의 안면과 동작 부위를 연관시켜 수업에서의 상이한 학생의 행동의 시나리오를 구분하고, 또한 예를 들면, 버스에서의 각각의 승객의 안면과 동작 부위를 연관시켜 버스에서의 상이한 승객의 행동의 시나리오 등을 구분한다. 이미지 인식 시, 먼저 설치된 이미지 수집 기기를 통해 검출 영역의 이미지 화면을 실시간으로 수집하고, 실시간으로 수집된 이미지 화면을 인식될 이미지로 사용한다. 실시간으로 수집된 이미지에는 복수 개의 인물의 영상이 존재하지만, 사람과 사람 사이의 가려짐으로 인해, 안면과 동작 부위 사이의 대응 관계를 파악할 수 없는데, 즉 어느 동작 부위가 어느 안면에 속하는지를 분별할 수 없다. 인식될 이미지를 획득한 후, 미리 저장된 검출 모델을 이용하여 인식될 이미지 중의 모든 안면, 모든 동작 부위 및 모든 트렁크를 모두 검출할 수 있고, 안면의 검출 박스를 사용하여 안면 이미지 박스를 선택하며, 동작 부위의 검출 박스를 사용하여 동작 부위 이미지 박스를 선택하고, 트렁크의 검출 박스를 사용하여 트렁크 이미지 박스를 선택함으로써, 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득할 수 있다.
설명할 것은, 검출 영역은 이미지 인식 시나리오 중의 이미지 인식이 필요한 어느 하나의 영역을 의미하고, 검출 영역은 인위적으로 설치된 것일 수 있으며, 이미지 처리 기술을 이용하여 자동으로 분석해낸 것일 수도 있다. 실제적으로, 복수 개의 이미지 수집 기기를 통해 각각의 검출 영역의 이미지를 수집할 수 있다.
상기 이미지 수집 기기는 고화질 사진기 등일 수 있는데, 이때, 획득된 인식될 이미지는 한 장의 검출 영역의 사진이고; 이미지 수집 기기는 비디오 카메라일 수도 있으며, 획득된 인식될 이미지는 검출 영역의 비디오 시퀀스임을 이해할 수 있다.
본 발명의 일부 실시예에서, 이미지 수집 기기는 컬러 수집 기기일 수 있고, 수집된 인식될 이미지는 컬러 이미지이며, 이미지 수집 기기는 그레이스케일 수집 기기일 수도 있고, 수집된 인식될 이미지는 그레이스케일 이미지이다.
상기 검출 모델은 이미 트레이닝된 검출 모델이고, 상기 모델은 콘볼루션 뉴럴 네트워크(Convolutional Neural Network, CNN) 모델과 같은 이미지를 처리할 수 있는 딥 러닝 모델일 수 있고, 다른 네트워크 모델일 수도 있음을 이해할 수 있으며, 본 발명의 실시예는 여기서 한정하지 않는다.
설명할 것은, 본 발명의 실시예 중의 검출 모델은 안면 트레이닝 이미지, 동작 부위 트레이닝 이미지 및 트렁크 트레이닝 이미지를 이용하여 공동으로 트레이닝된 하나의 모델인데, 이때, 하나의 검출 모델을 이용하여 인식될 이미지 중의 안면 검출 결과, 동작 부위 검출 결과 및 트렁크 검출 결과를 모두 검출할 수 있고; 물론, 본 발명의 실시예 중의 검출 모델은 3개의 상이한 모델일 수도 있으며, 이 3개의 모델은 각각 안면 트레이닝 이미지, 동작 부위 트레이닝 이미지 및 트렁크 트레이닝 이미지를 이용하여 트레이닝된 것인데, 이때, 인식될 이미지를 이 3개의 모델에 각각 입력하여 안면 검출 결과, 동작 부위 검출 결과 및 트렁크 검출 결과를 각각 획득할 수 있다.
본 발명의 실시예에서, 동작 부위는 인물의 영상에서 예컨대 인물의 손, 발 등 다양한 동작을 수행하는 부위를 의미하고, 트렁크 부위는 인물의 영상에서 동작 부위 및 안면을 제외한 부분을 의미한다.
단계 S102에서, 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득한다.
적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득한 후, 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과와 적어도 하나의 안면 검출 결과 중의 각각의 안면 검출 결과를 조합하여, 트렁크 검출 결과와 안면 검출 결과의 조합을 획득하고, 상기 조합을 제1 결과 조합로 사용한다. 적어도 하나의 트렁크 검출 결과는 하나 또는 복수 개의 트렁크 검출 결과를 구비하고, 적어도 하나의 안면 검출 결과도 하나 또는 복수 개의 안면 검출 결과를 구비하므로, 적어도 하나의 제1 결과 조합을 획득할 수 있다.
또한, 획득된 제1 결과 조합의 개수는 트렁크 검출 결과의 개수와 안면 검출 결과의 개수의 승적과 같다. 하나의 트렁크 검출 결과와 각각의 안면 검출 결과를 조합할 경우, 안면 검출 결과의 개수의 제1 결과 조합을 획득할 수 있고; 트렁크 검출 결과의 개수는 적어도 하나이므로, 트렁크 검출 결과와 안면 검출 결과의 개수의 승적 만큼의 제1 결과 조합을 획득할 수 있다.
예시적으로, 검출 영역으로부터 2개의 트렁크 검출 결과, 3개의 안면 검출 결과(가려진 원인으로 인해 1개의 인물의 트렁크 부위가 검출되지 않음)가 검출되고, 여기서, 2개의 트렁크 검출 결과가 각각 트렁크 결과-1, 트렁크 결과-2이며, 3개의 안면 검출 결과가 각각 안면 결과-1, 안면 결과-2 및 안면 결과-3일 경우, 트렁크 결과-1을 안면 결과-1, 안면 결과-2 및 안면 결과-3과 각각 조합하여 3개의 제1 결과 조합, 즉 <트렁크 결과-1, 안면 결과-1>, <트렁크 결과-1, 안면 결과-2> 및 <트렁크 결과-1, 안면 결과-3>를 획득한 후, 다시 트렁크 결과-2를 안면 결과-1, 안면 결과-2 및 안면 결과-3과 각각 조합하여 3개의 제1 결과 조합, 즉 <트렁크 결과-2, 안면 결과-1>, <트렁크 결과-2, 안면 결과-2> 및 <트렁크 결과-2, 안면 결과-3>를 다시 획득할 수 있다. 이로써, 모두 6개의 제1 결과 조합을 획득한다.
단계 S103에서, 각각의 트렁크 검출 결과를 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득한다.
각각의 트렁크 검출 결과, 및 적어도 하나의 동작 부위 검출 결과 중의 각각의 동작 부위 검출 결과를 이용하여 조합하여 트렁크 검출 결과 및 동작 부위 검출 결과의 조합을 획득하고, 상기 조합을 제2 결과 조합으로 사용한다. 또한, 제1 조합 결과와 유사하게, 적어도 하나의 트렁크 검출 결과는 하나 또는 복수 개의 트렁크 검출 결과를 구비하고, 적어도 하나의 동작 부위 검출 결과도 하나 또는 복수 개의 동작 부위 검출 결과를 구비하므로, 적어도 하나의 제2 결과 조합을 획득할 수 있다.
제1 조합 결과와 유사하게, 이미지 인식 장치에 의해 획득된 제2 결과 조합의 개수는 트렁크 검출 결과의 개수와 동작 부위 검출 결과의 개수의 승적과 동일함을 이해할 수 있다.
예시적으로, 이미지 인식 장치에 의해 검출 영역으로부터 2개의 트렁크 검출 결과, 4개의 동작 부위 검출 결과가 검출되고, 여기서, 트렁크 검출 결과가 각각 트렁크 결과-1, 트렁크 결과-2이며, 동작 부위 검출 결과가 각각 동작 부위 결과-1, 동작 부위 결과-2, 동작 부위 결과-3 및 동작 부위 결과-4일 경우, 트렁크 결과-1을 동작 부위 결과-1, 동작 부위 결과-2, 동작 부위 결과-3 및 동작 부위 결과-4와 각각 조합하여 4개의 제2 결과 조합, 즉 <트렁크 결과-1, 동작 부위 결과-1>, <트렁크 결과-1, 동작 부위 결과-2>, <트렁크 결과-1, 동작 부위 결과-3> 및 <트렁크 결과-1, 동작 부위 결과-4>를 획득하고, 이어서, 다시 트렁크 결과-2를 동작 부위 결과-1, 동작 부위 결과-2, 동작 부위 결과-3 및 동작 부위 결과-4와 각각 조합하여 4개의 제2 결과 조합, 즉 <트렁크 결과-2, 동작 부위 결과-1>, <트렁크 결과-2, 동작 부위 결과-2>, <트렁크 결과-2, 동작 부위 결과-3> 및 <트렁크 결과-2, 동작 부위 결과-4>를 다시 획득할 수 있다. 이로써, 모두 8개의 제2 결과 조합을 획득한다.
단계 S104에서, 적어도 하나의 제1 결과 조합과 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득한다.
적어도 하나의 제1 결과 조합 및 적어도 하나의 제2 결과 조합을 획득한 후, 적어도 하나의 결과 조합 중의 각각의 제1 결과 조합과 적어도 하나의 제2 결과 조합 중의 각각의 제2 결과 조합을 연관시킬 수 있는데, 즉 안면 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 판단하고 판단 결과를 연관 결과로 사용하여, 검출 영역에 대한 이미지 인식을 완성함으로써, 검출 영역 중의 각각의 안면과 각각의 동작 부위 사이의 관계를 판단할 수 있다. 여기서, 연관 결과는 동일한 트렁크에 각각 대응되는 하나의 안면 및 하나의 사람 손을 의미하되, 다시 말하면 동일한 사람에게 속하는 트렁크, 안면 및 사람 손을 획득한 것이다.
설명할 것은, 본 발명의 실시예에서, 제1 결과 조합과 제2 결과 조합을 연관시킬 경우, 먼저 각각의 제1 결과 조합 중 트렁크 검출 결과 및 안면 검출 결과가 동일한 사람에게 속하는지 여부를 판단하고, 다음, 각각의 제2 결과 조합 중 트렁크 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 판단하며, 하나의 제1 결과 조합 중의 트렁크 검출 결과 및 안면 검출 결과가 동일한 사람에게 속하고 또한 상기 제1 결과 조합 중의 트렁크 검출 결과를 포함하는 제2 결과 조합 중의 트렁크 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하면, 상기 제1 결과 조합과 상기 제2 결과 조합은 서로 연관되는데, 즉 상기 제1 결과 조합 중의 안면 검출 결과 및 상기 제2 결과 조합 중의 동작 부위 검출 결과는 동일한 사람에게 속하되, 즉 트렁크 검출 결과를 이용하여 안면 검출 결과와 동작 부위 검출 결과를 연관시킬 수 있다.
본 발명의 실시예에서, 인식될 이미지를 검출하여, 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하고, 이어서 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 이용하여 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득하는 동시에, 다시 각각의 트렁크 검출 결과를 이용하여 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득하며, 마지막으로 적어도 하나의 제1 결과 조합과 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득함으로써, 검출 영역에 대한 이미지 인식을 완성한다. 상기 방식을 통해, 트렁크 검출 결과와 안면 검출 결과의 관계, 및 트렁크 검출 결과와 동작 부위 검출 결과의 관계를 판단할 수 있음으로써, 트렁크 검출 결과를 이용하여 안면 검출 결과와 동작 부위 검출 결과를 연관시키므로, 안면과 동작 부위를 판단하는 난이도를 감소시키는 동시에, 이미지 중 인체의 키 정보를 유실할 수 없으며, 안면과 동작 부위의 연관 정확도를 향상시킨다.
도 3을 참조하면, 도 3은 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 2이고, 본 발명의 일부 실시예에서, 적어도 하나의 제1 결과 조합과 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득하는 단계, 즉 단계 S104의 구체적인 구현 과정은 하기와 같은 단계 S1041 ~ 단계 S1044를 포함할 수 있다.
단계S1041에서, 각각의 트렁크 검출 결과, 각각의 안면 검출 결과, 및 각각의 동작 부위 검출 결과에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 각각의 안면 검출 결과에 대응되는 안면 특징 시퀀스, 및 각각의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스를 획득한다.
적어도 하나의 제1 결과 조합과 적어도 하나의 제2 결과 조합을 연관시킬 경우, 먼저 제1 결과 조합 중의 트렁크 검출 결과에 대응되는 특징 시퀀스, 및 안면 검출 결과에 대응되는 특징 시퀀스을 알아야 하고, 마찬가지로, 제2 결과 조합 중의 동작 부위 검출 결과에 대응되는 특징 시퀀스도 알아야 하는데, 이는 이러한 특징 시퀀스에 따라, 트렁크 검출 결과와 안면 검출 결과가 연관되는지 여부, 트렁크 검출 결과와 동작 부위 검출 결과가 연관되는지 여부를 각각 판단하기 위한 것이다. 따라서, 먼저 각각의 트렁크 검출 결과, 각각의 안면 검출 결과 및 각각의 동작 부위 검출 결과에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 각각의 안면 검출 결과에 대응되는 안면 특징 시퀀스 및 각각의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스를 획득해야 한다.
설명할 것은, 본 발명의 일부 실시예에서, 특징 시퀀스는 위치 특징 및 외관 특징으로 구성되는데, 다시 말하면, 트렁크 특징 시퀀스는 트렁크 위치 특징과 트렁크 외관 특징으로 조합된 것이고, 안면 특징 시퀀스는 안면 위치 특징과 안면 외관 특징으로 조합된 것이며, 마찬가지로, 동작 부위 특징 시퀀스는 동작 부위 위치 특징과 동작 부위 외관 특징으로 조합된 것이다.
단계 S1042에서, 트렁크 특징 시퀀스 및 안면 특징 시퀀스에 따라, 각각의 제1 결과 조합의 트렁크 검출 결과와 안면 검출 결과를 연관시켜 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득한다.
획득된 트렁크 특징 시퀀스 및 안면 특징 시퀀스를 이용하여, 각각의 제1 결과 조합 중의 트렁크 검출 결과 및 안면 검출 결과가 동일한 사람에게 속하는지 여부를 판단하고 판단 결과를 제1 서브 연관 결과로 사용함으로써, 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과, 즉 적어도 하나의 제1 서브 연관 결과를 획득할 수 있다.
설명할 것은, 동일한 사람의 트렁크 검출 결과 및 안면 검출 결과에 있어서, 위치 관계에서 일정한 법칙이 존재할 수 있는데, 예를 들면, 사람의 얼굴과 사람의 트렁크 사이에 지나치게 멀지도 않고 지나치게 가깝지도 않은 하나의 거리 범위가 존재하고, 동시에, 동일한 사람의 트렁크 검출 결과 및 안면 검출 결과에 있어서, 외관에서도 유사한 부분이 존재하는데, 예를 들면, 얼굴과 트렁크의 목의 피부색이 비교적 비슷하고, 트렁크 특징 시퀀스는 트렁크 위치 특징과 트렁크 외관 특징으로 조합된 것이며, 안면 특징 시퀀스는 안면 위치 특징과 안면 외관 특징으로 조합된 것이므로, 트렁크 특징 시퀀스 및 안면 특징 시퀀스를 이용하여 트렁크 검출 결과 및 안면 검출 결과가 동일한 사람에게 속하는지 여부를 판단함으로써, 제1 서브 연관 결과를 획득할 수 있다.
단계 S1043에서, 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스에 따라, 각각의 제2 결과 조합의 트렁크 검출 결과와 동작 부위 검출 결과를 연관시켜 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득한다.
또한, 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스를 이용하여, 트렁크 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 판단하고 판단 결과를 제2 서브 연관 결과로 사용할 수 있음으로써, 각각의 제2 결과 조합과 일대일로 대응되는 적어도 하나의 제2 서브 연관 결과를 획득할 수 있다.
단계 S1042와 유사하게, 동일한 사람의 트렁크 검출 결과 및 동작 부위 검출 결과에 있어서, 위치 관계에서 일정한 법칙이 존재할 수 있는데, 예를 들면, 사람의 손과 같은 사람의 동작 부위와 사람의 트렁크 사이에 하나의 거리 범위가 존재하고, 마찬가지로, 동일한 사람의 트렁크 검출 결과 및 동작 부위 검출 결과에 있어서, 외관에서도 유사한 부분이 존재하는데, 예를 들면, 동작 부위와 예컨대 손목, 팔 등 트렁크의 일부분의 피부색이 비교적 비슷하고, 마찬가지로, 동작 부위 특징 시퀀스는 동작 부위 위치 특징과 동작 부위 외관 특징으로 조합된 것이므로, 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스를 이용하여 트렁크 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 판단함으로써, 제2 서브 연관 결과를 획득할 수 있다.
단계 S1044에서, 각각의 제1 서브 연관 결과 및 각각의 제2 서브 연관 결과에 따라 연관 결과를 결정한다.
제1 서브 연관 결과 및 제2 서브 연관 결과를 획득한 후, 제1 서브 연관 결과 및 제2 서브 연관 결과를 분석하고, 최종 분석 결과를 연관 결과로 사용할 수 있음으로써, 안면 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 판단하여 검출 영역에 대한 이미지 인식 과정을 완성할 수 있다.
본 발명의 실시예에서, 먼저 각각의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 각각의 안면 검출 결과에 대응되는 안면 특징 시퀀스 및 각각의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스를 각각 추출하고, 이어서 트렁크 특징 시퀀스 및 안면 특징 시퀀스에 따라, 각각의 제1 결과 조합 중의 트렁크 검출 결과와 안면 검출 결과를 연관시켜 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득하며, 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스에 따라, 각각의 제2 결과 조합 중의 트렁크 검출 결과와 동작 부위 검출 결과를 연관시켜 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득하고, 마지막으로 각각의 제1 서브 연관 결과 및 각각의 제2 서브 연관 결과에 따라 마지막 연관 결과를 결정할 수 있음으로써, 적어도 하나의 제1 결과 조합과 적어도 하나의 제2 결과 조합을 연관시키는 과정을 완성하고, 인식될 이미지 중의 트렁크 검출 결과, 안면 검출 결과 및 동작 부위 검출 결과 사이의 관계를 판단하며, 검출 영역에 대한 이미지 인식 과정을 완성한다.
본 발명의 일부 실시예에서, 각각의 제1 서브 연관 결과 및 각각의 제2 서브 연관 결과에 따라 연관 결과를 결정하는 단계, 즉 단계 S1044의 구체적인 구현 과정은 하기와 같은 단계 S1044a ~ 단계 S1044c를 포함할 수 있다.
단계 S1044a에서, 각각의 제1 서브 연관 결과에 따라, 적어도 하나의 제1 결과 조합 중 트렁크 검출 결과와 안면 검출 결과가 서로 연관되는 연관 제1 결과 조합을 결정한다.
각각의 제1 서브 연관 결과를 획득한 후, 각각의 제1 서브 연관 결과에 따라, 각각의 제1 결과 조합 중 트렁크 검출 결과와 안면 검출 결과가 서로 연관되는지 여부를 판단할 수 있는데, 즉 각각의 제1 결과 조합 중 트렁크 검출 결과 및 안면 검출 결과가 동일한 사람에게 속하는지 여부를 판단할 수 있고, 다음, 각각의 제1 결과 조합으로부터 트렁크 검출 결과와 안면 검출 결과가 서로 연관되는 제1 결과 조합을 선택하여 연관 제1 결과 조합으로 사용할 수 있다.
단계 S1044b에서, 각각의 제2 서브 연관 결과에 따라, 적어도 하나의 제2 결과 조합 중 트렁크 검출 결과와 동작 부위 검출 결과가 서로 연관되는 연관 제2 결과 조합을 결정한다.
유사하게, 각각의 제2 서브 연관 결과를 획득한 후, 각각의 제2 서브 연관 결과에 따라, 각각의 제2 결과 조합 중 트렁크 검출 결과와 동작 부위 검출 결과가 서로 연관되는지 여부를 판단할 수 있는데, 즉 각각의 제2 결과 조합 중 트렁크 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 판단할 수 있고, 다음, 각각의 제2 결과 조합으로부터 트렁크 검출 결과와 동작 부위 검출 결과가 서로 연관되는 제2 결과 조합을 선택하여 연관 제2 결과 조합으로 사용할 수 있다.
단계 S1044c에서, 동일한 트렁크 검출 결과를 구비하는 연관 제1 결과 조합과 연관 제2 결과 조합이 서로 연관되는 것으로 결정하여, 상기 연관 결과를 획득하고; 여기서, 하나의 연관 제1 결과 조합 중의 안면 검출 결과에 의해 표징되는 안면은 이와 연관되는 연관 제2 결과 조합 중의 동작 부위 검출 결과에 의해 표징되는 동작 부위와 서로 연관된다.
트렁크 검출 결과에 따라 연관 제1 결과 조합과 연관 제2 결과 조합을 분류하고, 동일한 트렁크 검출 결과를 구비하는 연관 제1 결과 조합과 연관 제2 결과 조합은 필연적으로 서로 연관되는데, 이때, 연관 결과는 동일한 트렁크 검출 결과를 구비하는 연관 제1 결과 조합 중의 안면 검출 결과와 연관 제2 결과 조합 중의 동작 부위 검출 결과가 연관된 것이다.
본 발명의 실시예에서, 제1 서브 연관 결과 및 제2 서브 연관 결과에 따라 연관 제1 결과 조합 및 연관 제2 결과 조합을 선택하여 동일한 트렁크 검출 결과를 구비하는 연관 제1 결과 조합과 연관 제2 결과 조합을 서로 연관시킬 수 있음으로써, 안면 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 판단함으로써, 연관 결과를 획득할 수 있다.
본 발명의 일부 실시예에서, 트렁크 특징 시퀀스 및 안면 특징 시퀀스에 따라, 각각의 제1 결과 조합의 트렁크 검출 결과와 안면 검출 결과를 연관시켜 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득하는 단계, 즉 단계 S1042의 구체적인 구현 과정은 하기와 같은 단계 S1042a ~ 단계 S1042b를 포함할 수 있다.
단계 S1042a에서, 하나의 제1 결과 조합 중의 안면 검출 결과에 대응되는 안면 특징 시퀀스, 및 상기 제1 결과 조합 중의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스에 따라, 상기 제1 결과 조합에 대응되는 제1 조합 특징을 스플라이싱한다.
하나의 제1 결과 조합 중의 트렁크 검출 결과와 안면 검출 결과를 연관시킬 경우, 먼저 상기 제1 결과 조합 중의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 및 안면 검출 결과에 대응되는 안면 특징 시퀀스를 스플라이싱하고, 획득된 스플라이싱 결과를 제1 조합 특징으로 사용하므로, 제1 조합 특징과 제1 결과 조합은 일대일로 대응된다.
트렁크 특징 시퀀스와 안면 특징 시퀀스의 시작과 끝을 서로 연결하여 스플라이싱할 수 있고, 획득된 제1 조합 특징은 유일한 특징 시퀀스이며; 트렁크 특징 시퀀스 및 안면 특징 시퀀스를 각각 매트릭스 요소로 사용하여 특징 매트릭스를 스플라이싱해낼 수도 있는데, 이때, 제1 조합 특징은 생성된 특징 매트릭스이다. 물론, 다른 방식을 이용하여 트렁크 특징 시퀀스 및 안면 특징 시퀀스를 스플라이싱하여 제1 조합 특징을 획득할 수도 있음을 이해할 수 있으며, 본 발명의 실시예는 여기서 한정하지 않는다.
단계 S1042b에서, 각각의 제1 결과 조합에 대응되는 제1 조합 특징을 이용하여 각각의 제1 결과 조합을 분류하여 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득한다.
다시 말하면, 조합 특징을 분류하기 위한 기설정 분류 모듈을 이용하여 각각의 제1 결과 조합에 대응되는 제1 조합 특징을 기설정 분류 모듈에 입력하여 분류할 수 있고, 마지막으로 기설정 분류 모듈에 의해 출력된 결과를 제1 서브 연관 결과로 사용한다.
설명할 것은, 기설정 분류 모듈에 의해 출력된 결과는 두 가지일 뿐인데, 그 중 한 가지는 제1 결과 조합 중의 트렁크와 안면 사이에 연관 관계가 존재하는 것으로 표징하는 연관이고; 다른 한 한가지는 제1 결과 조합 중의 트렁크와 안면 사이에 연관 관계가 존재하지 않는 것으로 표징하는 비연관이다.
본 발명의 일부 실시예에서, 기설정 분류 모듈에 의해 출력된 결과는 구체적으로 수치로 표시할 수 있는데, 예를 들면, 1로 제1 결과 조합 중의 트렁크와 안면 사이에 연관 관계가 존재하는 것을 표시하고, 0으로 제1 결과 조합 중의 트렁크와 안면 사이에 연관 관계가 존재하지 않는 것을 표시한다.
기설정 분류 모듈은, 대량의 조합 특징 시퀀스를 트레이닝 데이터로서 이용하고, 이러한 조합 특징 시퀀스의 연관 결과를 모니터링 아이템으로 사용하여 트레이닝된 바이너리 모델(binary model)이다. 기설정 분류 모듈은 다층 퍼셉트론(multilayer perceptron) 또는 다른 모델일 수도 있음을 이해할 수 있으며, 본 발명의 실시예는 여기서 한정하지 않는다.
본 발명의 실시예에서, 각각의 제1 결과 조합 중의 트렁크 특징 시퀀스 및 안면 특징 시퀀스를 스플라이싱하여 각각의 제1 결과 조합에 대응되는 제1 조합 특징을 획득함으로써, 기설정 분류 모듈을 이용하여 제1 조합 특징에 따라 제1 결과 조합을 분류하여 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득할 수 있다. 이로써, 트렁크 검출 결과와 안면 검출 결과가 연관되는지 여부를 결정하여 제1 서브 연관 결과를 획득할 수 있다.
본 발명의 일부 실시예에서, 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스에 따라, 각각의 제2 결과 조합의 트렁크 검출 결과와 동작 부위 검출 결과를 연관시켜 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득하는 단계, 즉 단계 S1043의 구체적인 구현 과정은 하기와 같은 단계 S1043a ~ 단계 S1043b를 포함할 수 있다.
단계 S1043a에서, 하나의 제2 결과 조합 중의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 및 상기 제2 결과 조합 중의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스에 따라, 상기 제2 결과 조합에 대응되는 제2 조합 특징을 스플라이싱한다.
실제 응용에서, 시작과 끝을 스플라이싱하거나 매트릭스를 스플라이싱하는 방식에 따라 하나의 제2 결과 조합 중의 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스를 스플라이싱할 수 있고, 획득된 스플라이싱 결과를 상기 제2 결과 조합에 대응되는 제2 조합 특징으로 사용한다. 각각의 제2 결과 조합 중의 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스에 대해 모두 상기 동작을 수행하여 각각의 제2 결과 조합에 대응되는 제2 조합 특징을 획득한다.
설명할 것은, 트렁크 특징 시퀀스 및 안면 특징 시퀀스와 동일한 스플라이싱 방식을 이용하여 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스를 스플라이싱할 수 있고, 트렁크 특징 시퀀스 및 안면 특징 시퀀스와 상이한 스플라이싱 방식을 이용하여 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스를 스플라이싱할 수도 있다.
단계 S1043b에서, 각각의 제2 결과 조합에 대응되는 제2 조합 특징을 이용하여 각각의 제2 결과 조합을 분류하여 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득한다.
다음, 제2 조합 특징을 다시 기설정 분류 모듈에 입력하여 분류 산출을 수행하고, 기설정 분류 모듈에 의해 출력된 산출 결과를 제2 결과 조합에 대응되는 제2 서브 연관 결과로 사용함으로써, 제2 결과 조합 중의 트렁크 검출 결과와 동작 부위 검출 결과를 연관시키는 과정을 완성한다.
본 발명의 실시예에서, 각각의 제2 결과 조합 중의 트렁크 특징 시퀀스 및 동작 부위 특징 시퀀스를 이용하여 제2 조합 특징을 스플라이싱할 수 있고, 기설정 분류 모듈을 이용하여 제2 조합 특징을 분류하여 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득함으로써, 제2 결과 조합 중의 트렁크 검출 결과와 동작 부위 검출 결과가 연관되는지 여부를 판단할 수 있다.
도 4를 참조하면, 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 3이고, 본 발명의 일부 실시예에서, 각각의 트렁크 검출 결과, 각각의 안면 검출 결과, 및 각각의 동작 부위 검출 결과에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 각각의 안면 검출 결과에 대응되는 안면 특징 시퀀스, 및 각각의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스를 획득하는 단계, 즉 단계 S1041의 구체적인 구현 과정은 하기와 같은 단계 S1041a ~ 단계 S1041c를 포함할 수 있다.
단계 S1041a에서, 각각의 트렁크 검출 결과 중의 트렁크 이미지, 각각의 안면 검출 결과 중의 안면 이미지, 및 각각의 동작 부위 검출 결과 중의 동작 부위 이미지에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과의 트렁크 외관 특징, 각각의 안면 검출 결과의 안면 외관 특징 및 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 획득한다.
각각의 트렁크 검출 결과, 각각의 안면 검출 결과 및 각각의 동작 부위 검출 결과에 대해 각각 특징 추출을 수행할 경우, 먼저 각각의 트렁크 검출 결과 중의 트렁크 이미지를 캡처하고, 각각의 안면 검출 결과 중의 안면 이미지를 캡처하며, 각각의 동작 부위 검출 결과 중의 동작 부위 이미지를 캡처하고, 다음, 이러한 트렁크 이미지, 안면 이미지 및 동작 부위 이미지에 대해 특징 추출을 수행하여, 트렁크 이미지에 대응되는 트렁크 외관 특징, 안면 이미지에 대응되는 안면 외관 특징, 및 동작 부위 이미지에 대응되는 동작 부위 외관 특징을 각각 획득한다.
본 발명의 실시예에서, 인식될 이미지의 특징맵으로부터 직접 트렁크 외관 특징, 안면 외관 특징 및 동작 부위 외관 특징을 각각 획득할 수 있고, 다른 외관 특징 추출 알고리즘을 이용하여 트렁크 이미지, 안면 이미지 및 동작 부위 이미지로부터 트렁크 외관 특징, 안면 외관 특징 및 동작 부위 외관 특징을 각각 획득할 수도 있음을 이해할 수 있다. 외관 특징을 획득하는 구체적인 방법은 실제 상황에 따라 설정할 수 있으며, 본 발명의 실시예는 여기서 한정하지 않는다.
설명할 것은, 본 발명의 실시예에서, 각각의 트렁크 검출 결과 중의 트렁크 이미지, 각각의 안면 검출 결과 중의 안면 이미지, 및 각각의 동작 부위 검출 결과 중의 동작 부위 이미지에 대해 모두 특징 추출을 수행하므로, 획득된 트렁크 외관 특징의 개수는 트렁크 검출 결과의 개수와 같고, 마찬가지로, 안면 외관 특징의 개수는 안면 검출 결과의 개수와 같으며, 동작 부위 외관 특징의 개수는 동작 부위 검출 결과의 개수와 같다.
본 발명의 실시예에서, 획득된 트렁크 외관 특징, 안면 외관 특징 및 동작 부위 외관 특징은 유일한 특징 벡터일 수 있고, 다른 형태의 특징일 수도 있으며, 본 발명의 실시예는 여기서 한정하지 않는다.
단계 S1041b에서, 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 위치 특징을 결정하고; 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보에 따라 각각의 안면 검출 결과의 안면 위치 특징을 결정하며; 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 결정한다.
인식될 이미지로부터 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보를 획득한 다음, 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과에 대응되는 트렁크 위치 특징을 구축하고, 마찬가지로, 인식될 이미지로부터 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보, 및 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보를 획득하며, 이러한 좌표 정보에 따라 각각의 안면 검출 결과에 대응되는 안면 위치 특징, 및 각각의 동작 부위 검출 결과에 대응되는 동작 부위 위치 특징을 구축한다.
본 발명의 실시예에서, 획득된 트렁크 위치 특징의 개수는 트렁크 검출 결과의 개수와 같고, 획득된 안면 위치 특징의 개수는 안면 검출 결과의 개수와 같으며, 획득된 동작 부위 위치 특징의 개수는 동작 부위 검출 결과의 개수와 같음을 이해할 수 있다.
본 발명의 일부 실시예에서, 직접 좌표 정보를 이용하여 위치 특징을 구축할 수 있고, 먼저 좌표 정보를 이용하여 검출 영역의 높이, 폭, 면적 등 파라미터를 산출한 다음, 이러한 파라미터를 이용하여 위치 특징을 구축할 수도 있으며, 본 발명의 실시예는 여기서 한정하지 않는다.
단계 S1041c에서, 각각의 트렁크 검출 결과의 트렁크 외관 특징 및 트렁크 위치 특징을 이용하여 각각의 트렁크 검출 결과의 트렁크 특징 시퀀스를 스플라이싱하고, 각각의 안면 검출 결과의 안면 외관 특징 및 안면 위치 특징을 이용하여 각각의 안면 검출 결과의 안면 특징 시퀀스를 스플라이싱하며, 각각의 동작 부위 검출 결과의 동작 부위 외관 특징 및 동작 부위 위치 특징을 이용하여 각각의 동작 부위 검출 결과의 동작 부위 특징 시퀀스를 스플라이싱한다.
트렁크 외관 특징의 개수, 및 트렁크 위치 특징의 개수는 모두 트렁크 검출 결과의 개수와 같으므로, 획득된 트렁크 특징 시퀀스의 개수도 필연적으로 트렁크 검출 결과의 개수와 같고, 마찬가지로, 안면 특징 시퀀스의 개수도 안면 검출 결과의 개수와 같으며, 동작 부위 특징 시퀀스의 개수도 동작 부위 검출 결과의 개수와 같다.
본 발명의 실시예에서, 각각의 트렁크 검출 결과의 트렁크 외관 특징, 각각의 안면 검출 결과의 안면 외관 특징 및 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 각각 추출하고, 각각의 트렁크 검출 결과의 트렁크 검출 박스의 좌표 정보, 각각의 안면 검출 결과의 안면 검출 박스의 좌표 정보, 및 각각의 동작 부위 검출 결과의 동작 부위 검출 박스의 좌표 정보에 따라, 트렁크 위치 특징, 안면 위치 특징 및 동작 부위 위치 특징을 생성하며, 마지막으로 이러한 외관 특징 및 위치 특징에 대해 대응되는 스플라이싱을 수행하여, 각각의 트렁크 검출 결과의 트렁크 특징 시퀀스, 각각의 안면 검출 결과의 안면 특징 시퀀스 및 각각의 동작 부위 검출 결과의 동작 부위 특징 시퀀스를 획득할 수 있음으로써, 각각의 트렁크 검출 결과, 각각의 안면 검출 결과 및 각각의 동작 부위 검출 결과에 대한 특징 추출 과정을 완성할 수 있다.
도 5를 참조하면, 도 5는 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 4이고, 본 발명의 일부 실시예에서, 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 위치 특징을 결정하고; 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보에 따라 안면 위치 특징을 결정하며; 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 결정하는 단계, 즉 단계 S1041b의 구체적인 구현 과정은 하기와 같은 단계 S201 ~ 단계 S204를 포함할 수 있다.
단계 S201에서, 각각의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터를 생성하고; 각각의 안면 검출 박스의 좌표 정보를 이용하여 각각의 안면 검출 결과의 안면 영역 위치 파라미터를 생성하며; 각각의 동작 부위 검출 박스의 좌표 정보를 사용하여 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터를 생성한다.
본 발명의 일부 실시예에서, 하나의 트렁크 검출 결과의 트렁크 영역 위치 파라미터는 상기 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보, 상기 트렁크 검출 결과 중의 트렁크 검출 박스의 폭, 높이 및 면적 중 적어도 하나를 포함하고; 하나의 안면 검출 결과의 안면 영역 위치 파라미터는 상기 안면 검출 결과 중의 안면 검출 박스의 좌표 정보, 상기 안면 검출 결과 중의 안면 검출 박스의 폭, 높이 및 면적 중 적어도 하나를 포함하며; 마찬가지로, 하나의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터는 상기 동작 부위 검출 결과의 동작 부위 검출 박스의 좌표 정보, 상기 동작 부위 검출 결과 중의 동작 부위 검출 박스의 폭, 높이 및 면적 중 적어도 하나를 포함한다.
다음, 획득된 트렁크 검출 박스의 4개의 좌표 정보를 이용하여 트렁크 검출 박스의 길이, 폭 및 면적을 산출한 다음, 트렁크 검출 박스의 4개의 좌표 정보 중 트렁크 검출 박스의 길이, 트렁크 검출 박스의 폭 및 트렁크 검출 박스의 면적으로부터 하나 또는 복수 개의 파라미터를 선택하여 트렁크 검출 박스의 위치 파라미터로 사용한다. 마찬가지로, 트렁크 검출 영역 위치 파라미터와 동일한 방식을 이용하여 안면 영역 위치 파라미터, 및 동작 부위 검출 영역 위치 파라미터를 획득할 수 있다.
단계 S202에서, 기설정된 트렁크 시퀀스 비트, 기설정된 트렁크 특징 구축 모델 및 트렁크 특징 구축 파라미터에 기반하여, 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터에 따라 각각의 트렁크 검출 결과의 트렁크 위치 시퀀스를 구축하고, 각각의 트렁크 검출 결과의 트렁크 위치 시퀀스에 따라 각각의 트렁크 검출 결과의 트렁크 위치 특징을 생성하고; 여기서, 트렁크 특징 구축 파라미터는 기설정된 트렁크 시퀀스 비트에 따라 생성된다.
다시 말하면, 기설정된 트렁크 시퀀스 비트에 따라, 구축하고자 하는 트렁크의 위치 시퀀스의 길이를 결정할 수 있음으로써, 트렁크의 위치 시퀀스의 길이에 따라 트렁크 서브 구축 파라미터를 결정한 다음, 기설정된 트렁크 시퀀스 비트 중의 일부 비트 아래첨자를 선택하는데, 예를 들면, 모든 짝수 비트, 모든 홀수 비트 등을 선택한 다음, 이러한 비트의 비트 아래첨자, 및 서브 구축 파라미터에 따라 트렁크 특징 구축 파라미터를 생성한다. 그 다음, 트렁크 특징 구축 파라미터 및 트렁크 특징 구축 모델을 이용하여 각각의 트렁크 검출 결과의 트렁크 위치 특징을 구축함으로써, 트렁크 위치 특징으로 스플라이싱하여 각각의 트렁크 검출 결과의 트렁크 위치 특징을 생성한다. 여기서, 기설정된 트렁크 시퀀스 비트는 설정된 트렁크 시퀀스 아래첨자의 비트를 의미한다.
설명할 것은, 본 발명의 실시예에서, 선택된 비트 아래첨자를 이용하여 트렁크 서브 구축 파라미터와 비교하여 비트 아래첨자 비율을 획득하고, 이어서 비트 아래첨자 비율을 지수로 사용하며, 트렁크 서브 구축 파라미터의 배수를 기준 수로 사용하여 지수 연산을 수행하고, 지수 연산의 결과를 트렁크 특징 구축 파라미터로 사용한다.
예시적으로, 본 발명의 실시예는 트렁크 특징 구축 파라미터를 구축하는 공식을 제공하고, 식 (1)과 같이,
Figure pct00001
여기서,
Figure pct00002
은 배수이고, 실제 상황에 따라 설정할 수 있으며,
Figure pct00003
는 트렁크 서브 구축 파라미터이고,
Figure pct00004
는 기설정된 트렁크 시퀀스 비트 중의 짝수 비트이고,
Figure pct00005
는 트렁크 특징 구축 파라미터이다. 이미지 인식 장치가 기설정된 트렁크 시퀀스 비트를 획득하여 트렁크의 위치 시퀀스의 길이를 결정한 후, 트렁크의 위치 시퀀스의 길이에 따라 트렁크 서브 구축 파라미터
Figure pct00006
를 결정할 수 있고, 기설정된 트렁크 시퀀스 비트 중의 모든 짝수 비트 아래첨자를 획득한 다음, 이러한 파라미터를 식 (1)에 대입시켜 트렁크 특징 구축 파라미터를 획득할 수 있다.
본 발명의 실시예에서, 기설정된 트렁크 시퀀스 비트는 실제에 따라 결정된 것일 수 있음을 이해할 수 있으며, 본 발명의 실시예는 여기서 한정하지 않는다. 예시적으로, 기설정된 트렁크 시퀀스 비트는 0, 1, 2,
Figure pct00007
, 255일 수 있는데, 이때, 모두 256개의 아래첨자가 있고; 기설정된 트렁크 시퀀스 비트는 1, 2,
Figure pct00008
128일 수도 있는데, 이때, 모두 128개의 아래첨자가 있다.
설명할 것은, 이미지 인식 장치가 기설정된 트렁크 시퀀스 비트를 획득할 경우, 구축하고자 하는 트렁크의 위치 시퀀스의 길이는 실제적으로 결정된 것이다. 구축하고자 하는 위치 시퀀스의 길이는 기설정된 트렁크 시퀀스 비트의 마지막 하나의 아래첨자와 관련된다. 본 발명의 실시예에서, 시퀀스 아래첨자의 비트가 0부터 시작할 수 있으면, 트렁크의 위치 시퀀스의 길이는 기설정된 시퀀스 비트의 마지막 하나의 아래첨자-1이고, 시퀀스 아래첨자의 비트도 1부터 시작할 수 있으면, 트렁크의 위치 시퀀스의 길이는 기설정된 시퀀스 비트의 마지막 하나의 아래첨자와 같다. 또한, 트렁크의 위치 시퀀스의 길이가 결정된 후, 트렁크 특징 구축 파라미터 중의 트렁크 서브 구축 파라미터도 결정된다.
본 발명의 일부 실시예에서, 트렁크 특징 구축 파라미터 중의 트렁크 서브 구축 파라미터는 트렁크의 위치 시퀀스의 길이와 같은데, 예를 들면, 트렁크의 위치 시퀀스의 길이가 256일 경우, 트렁크의 서브 구축 파라미터도 256이고; 트렁크 특징 구축 파라미터 중의 트렁크 서브 구축 파라미터는 트렁크의 위치 시퀀스의 길이의 절반일 수도 있는데, 예를 들면, 트렁크의 위치 시퀀스의 길이가 256일 경우, 트렁크 서브 구축 파라미터는 128이지만, 본 발명의 실시예는 여기서 한정하지 않는다.
설명할 것은, 트렁크 영역 위치 파라미터는 트렁크 검출 박스의 좌표, 길이, 폭 및 면적 중 적어도 하나를 포함하고 또한 각각의 트렁크 영역 위치 파라미터에 대해 위치 시퀀스를 구축한 것이므로, 위치 시퀀스의 개수는 영역 위치 파라미터의 개수와 같다.
예시적으로, 트렁크 검출 영역의 4개의 좌표(트렁크 검출 박스의 4개의 각의 좌표일 수 있음)만 트렁크 영역 위치 파라미터로서 이용할 경우, 하나의 트렁크 검출 영역에 대해 4개의 위치 시퀀스를 획득할 수 있고, 또한, 이 4개의 위치 시퀀스는 이 4개의 좌표와 일대일로 대응되며; 4개의 좌표, 높이, 폭 및 면적을 공동으로 트렁크 영역 위치 파라미터로서 이용할 경우, 하나의 트렁크 검출 영역에 대해 7개의 트렁크 위치 시퀀스를 획득할 수 있고, 또한, 이 7개의 위치 시퀀스는 4개의 좌표, 높이, 폭 및 면적과 각각 대응된다.
기설정된 트렁크 특징 구축 모델은 기설정된 트렁크 시퀀스 비트 중의 각각의 아래첨자 비트에 대해 위치 요소를 구축하기 위한 것으로, 기설정된 트렁크 특징 구축 모델은 코사인 구축 모델일 수 있고, 사인 구축 모델일 수도 있으며, 다른 구축 모델일 수도 있음을 이해할 수 있으며, 본 발명의 실시예는 여기서 한정하지 않는다.
트렁크 위치 시퀀스의 개수는 트렁크 영역 위치 파라미터의 개수와 같으므로, 트렁크 영역 위치 파라미터에 하나의 파라미터만 존재할 경우, 트렁크 위치 시퀀스도 하나만 존재하는데, 이때, 트렁크 위치 시퀀스를 직접 트렁크 위치 특징으로 사용할 수 있고; 트렁크 영역 위치 파라미터에 복수 개의 파라미터가 존재할 경우, 트렁크 위치 시퀀스도 복수 개가 존재하는데, 이때, 복수 개의 트렁크 위치 시퀀스를 시작과 끝을 연결하여 트렁크 위치 특징을 스플라이싱할 수 있다.
하나 또는 복수 개의 트렁크 위치 시퀀스를 획득하므로, 트렁크 위치 특징의 길이는 트렁크 위치 시퀀스의 길이와 위치 시퀀스의 개수의 승적임을 이해할 수 있다.
단계 S203에서, 기설정된 안면 시퀀스 비트, 기설정된 안면 특징 구축 모델 및 안면 특징 구축 파라미터에 기반하여, 각각의 안면 검출 결과의 안면 영역 위치 파라미터에 따라 각각의 안면 검출 결과의 안면 위치 시퀀스를 구축하고, 각각의 안면 검출 결과의 안면 위치 시퀀스에 따라 각각의 안면 검출 결과의 안면 위치 특징을 생성하며; 여기서, 안면 특징 구축 파라미터는 기설정된 안면 시퀀스 비트에 따라 생성된다.
단계 S204에서, 기설정된 동작 부위 시퀀스 비트, 기설정된 동작 부위 특징 구축 모델 및 동작 부위 특징 구축 파라미터에 기반하여, 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 시퀀스를 구축하고, 각각의 동작 부위 검출 결과의 동작 부위 위치 시퀀스에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 생성하며; 여기서, 동작 부위 특징 구축 파라미터는 기설정된 동작 부위 시퀀스 비트에 따라 생성된다.
단계 S201과 유사한 방식을 이용하여 각각의 안면 검출 결과의 안면 위치 특징, 및 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 획득할 수 있다. 설명할 것은, 기설정된 트렁크 시퀀스 비트, 기설정된 안면 시퀀스 비트 및 기설정된 동작 부위 시퀀스 비트는 동일할 수 있거나, 상이할 수도 있으며, 본 발명의 실시예는 여기서 한정하지 않는다.
본 발명의 실시예에서, 트렁크 검출 박스의 좌표 정보, 안면 검출 박스의 좌표 정보 및 동작 부위 검출 박스의 좌표 정보 각각에 따라 트렁크 영역 위치 파라미터, 안면 영역 위치 파라미터 및 동작 부위 영역 위치 파라미터를 생성하고, 이러한 위치 파라미터, 기설정된 시퀀스 비트, 기설정된 특징 구축 모델 및 생성된 특징 구축 파라미터에 기반하여, 트렁크 위치 시퀀스, 안면 위치 시퀀스 및 동작 부위 위치 시퀀스를 획득함으로써, 트렁크 위치 특징, 안면 위치 특징 및 동작 부위 위치 특징을 획득할 수 있다. 이로써, 트렁크 위치 특징, 안면 위치 특징 및 동작 부위 위치 특징에 대한 생성을 완성할 수 있다.
본 발명의 일부 실시예에서, 기설정된 시퀀스 비트가 짝수 비트일 경우, 기설정된 특징 구축 모델은 사인 구축 모델일 수 있고; 상기 위치 시퀀스는 단계 S205 ~ 단계 S208에 의해 결정되는데, 구체적으로 하기와 같다.
단계 S205에서, 각각의 검출 결과의 영역 위치 파라미터와 특징 구축 파라미터를 비교하여 각각의 검출 결과의 제1 파라미터 비율을 획득한다.
예시적으로, 본 발명의 실시예는 제1 파라미터 비율을 생성하는 과정을 제공하고, 식 (2)와 같이,
Figure pct00009
여기서,
Figure pct00010
는 영역 위치 파라미터이고,
Figure pct00011
는 산출된 특징 구축 파라미터이며,
Figure pct00012
는 제1 파라미터 비율이다. 각각의 검출 결과의 영역 위치 파라미터를 획득하고 특징 구축 파라미터를 산출한 후, 이러한 파라미터를 식 (2)에 대입시켜 각각의 검출 결과의 제1 파라미터 비율을 각각 획득할 수 있다.
설명할 것은, 하나의 검출 결과의 영역 위치 파라미터는 검출 영역의 좌표, 길이, 폭 및 면적 중 적어도 하나를 포함하므로, 상기 검출 결과의 하나 또는 복수 개의 제1 파라미터 비율을 각각 결정할 있고, 이러한 제1 파라미터 비율은 모두 영역 위치 파라미터와 대응된다.
단계 S206에서, 사인 구축 모델을 이용하여 각각의 검출 결과의 제1 파라미터 비율에 대해 사인 값 산출을 수행하여 제1 위치 요소를 획득한다.
제1 파라미터 비율을 획득한 후, 기설정된 시퀀스 비트 중의 각각의 비트 아래첨자에 대해 위치 요소의 구축을 수행할 수 있다. 본 발명의 실시예에서, 비트 아래첨자가 짝수일 경우, 즉 기설정된 시퀀스 비트가 짝수 비트일 경우, 제1 파라미터 비율을 사인 구축 모델에 대입시켜 사인 값 산출을 수행할 수 있고, 획득된 사인 값을 제1 위치 요소로 기록한다. 이로써, 기설정된 시퀀스 비트 중의 모든 짝수 비트에 대한 제1 위치 요소의 산출을 완성한다.
예시적으로, 본 발명의 실시예는 짝수 비트의 제1 위치 요소를 산출하는 과정을 제공하고, 식 (3)과 같이,
Figure pct00013
여기서,
Figure pct00014
는 제 1 파라미터 비율이고,
Figure pct00015
는 기설정된 시퀀스 비트 중의 짝수 비트를 의미하며,
Figure pct00016
는 산출된 제1 위치 요소이다. 제1 파라미터 비율을 획득한 후, 제1 파라미터 비율을 식 (3)에 대입시켜 제1 위치 요소를 산출할 수 있다.
설명할 것은, 제1 위치 요소는 짝수 비트에서의 위치 요소를 의미하고, 기설정된 시퀀스 비트에는 복수 개의 짝수 비트가 존재할 수 있으므로, 제1 위치 요소는 어느 하나의 요소를 특별히 의미하지 않으며, 모든 짝수 비트에서의 제1 위치 요소를 모두 의미한다.
단계 S207에서, 각각의 검출 결과의 제1 위치 요소에 따라 각각의 검출 결과의 위치 시퀀스를 결정한다.
하나의 검출 결과에 있어서, 상기 검출 결과의 제1 위치 요소를 획득한 후, 비트 아래첨자의 순서에 따라 상기 검출 결과의 모든 제1 위치 요소를 배열 통합하고, 통합 결과를 상기 검출 결과의 위치 시퀀스로 사용한다.
단계 S208에서, 기설정된 시퀀스 비트가 기설정된 트렁크 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 트렁크 특징 구축 모델이고, 특징 구축 파라미터는 트렁크 특징 구축 파라미터이며, 검출 결과는 트렁크 검출 결과이고, 영역 위치 파라미터는 트렁크 영역 위치 파라미터이며, 위치 시퀀스는 트렁크 위치 시퀀스이고; 기설정된 시퀀스 비트가 기설정된 안면 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 안면 특징 구축 모델이고, 특징 구축 파라미터는 안면 특징 구축 파라미터이며, 검출 결과는 안면 검출 결과이고, 영역 위치 파라미터는 안면 영역 위치 파라미터이며, 위치 시퀀스는 안면 위치 시퀀스이고; 기설정된 시퀀스 비트가 기설정된 동작 부위 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 동작 부위 특징 구축 모델이고, 특징 구축 파라미터는 동작 부위 특징 구축 파라미터이며, 검출 결과는 동작 부위 검출 결과이고, 영역 위치 파라미터는 동작 부위 영역 위치 파라미터이며, 위치 시퀀스는 동작 부위 위치 시퀀스이다.
본 발명의 실시예에서, 사인 구축 모델을 이용하여 기설정된 시퀀스 비트 중의 짝수 비트를 위해 제1 위치 요소를 생성하고, 제1 위치 요소를 이용하여 위치 시퀀스를 획득함으로써, 위치 특징을 획득할 수 있다. 이로써, 위치 시퀀스를 획득하는 방식을 이용하여 트렁크 위치 특징, 안면 위치 특징 및 동작 부위 위치 특징을 구축할 수 있다.
본 발명의 일부 실시예에서, 기설정된 시퀀스 비트가 홀수 비트일 경우, 기설정된 특징 구축 모델은 코사인 구축 모델일 수 있고; 상기 위치 시퀀스는 단계 S209 ~ 단계 S212에 의해 결정되는데, 구체적으로 하기와 같다.
단계 S209에서, 각각의 검출 결과의 영역 위치 파라미터와 특징 구축 파라미터를 비교하여 각각의 검출 결과의 제2 파라미터 비율을 획득한다.
단계 S210에서, 코사인 구축 모델을 이용하여 각각의 검출 결과의 제2 파라미터 비율에 대해 코사인 값 산출을 수행하여 제2 위치 요소를 획득한다.
비트 아래첨자가 홀수일 경우, 즉 기설정된 시퀀스 비트가 홀수 비트일 경우, 제2 파라미터 비율을 코사인 구축 모델에 대입시켜 산출할 수 있고, 획득된 코사인 값을 각각 제2 위치 요소로 기록한다.
예시적으로, 본 발명의 실시예는 홀수 비트의 제2 위치 요소를 산출하는 과정을 제공하고, 식 (4)와 같이,
Figure pct00017
여기서,
Figure pct00018
는 제 1 파라미터 비율이고,
Figure pct00019
은 기설정된 시퀀스 비트 중의 홀수 비트를 의미하며,
Figure pct00020
는 산출된 제2 위치 요소이다. 제2 파라미터 비율을 식 (4)에 대입시켜 제2 위치 요소를 산출한다.
제1 위치 요소와 유사하게, 제2 위치 요소는 어느 하나의 트렁크 위치 요소를 특별히 의미하지 않으며, 모든 홀수 비트에서의 위치 요소를 모두 의미함을 이해할 수 있다.
단계 S211에서, 각각의 검출 결과의 제2 위치 요소에 따라 각각의 검출 결과의 위치 시퀀스를 결정한다.
단계 S212에서, 기설정된 시퀀스 비트가 기설정된 트렁크 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 트렁크 특징 구축 모델이고, 특징 구축 파라미터는 기설정된 트렁크 특징 구축 파라미터이며, 검출 결과는 트렁크 검출 결과이고, 영역 위치 파라미터는 트렁크 영역 위치 파라미터이며, 위치 시퀀스는 트렁크 위치 시퀀스이고; 기설정된 시퀀스 비트가 기설정된 안면 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 안면 특징 구축 모델이고, 특징 구축 파라미터는 기설정된 안면 특징 구축 파라미터이며, 검출 결과는 안면 검출 결과이고, 영역 위치 파라미터는 안면 영역 위치 파라미터이며, 위치 시퀀스는 안면 위치 시퀀스이고; 기설정된 시퀀스 비트가 기설정된 동작 부위 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 동작 부위 특징 구축 모델이고, 특징 구축 파라미터는 기설정된 동작 부위 특징 구축 파라미터이며, 검출 결과는 동작 부위 검출 결과이고, 영역 위치 파라미터는 동작 부위 영역 위치 파라미터이며, 위치 시퀀스는 동작 부위 위치 시퀀스이다.
본 발명의 실시예에서, 코사인 구축 모델을 이용하여 기설정된 시퀀스 비트 중의 홀수 비트를 위해 제2 위치 요소를 생성하고, 제2 위치 요소를 이용하여 위치 시퀀스를 획득할 수 있다. 이로써, 이미지 인식 장치는 위치 시퀀스를 획득하는 방식을 이용하여 트렁크 위치 특징, 안면 위치 특징 및 동작 부위 위치 특징을 구축할 수 있다.
본 발명의 일부 실시예에서, 각각의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터를 생성하고; 각각의 안면 검출 박스의 좌표 정보를 이용하여 각각의 안면 검출 결과의 안면 영역 위치 파라미터를 생성하며, 각각의 동작 부위 검출 박스의 좌표 정보를 사용하여 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터를 생성하는 단계, 즉 단계 S201의 구체적인 구현 과정은 하기와 같은 단계 S2011 ~ 단계 S2014를 포함할 수 있다.
단계 S2011에서, 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보에 따라, 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 폭, 높이 및 면적을 산출하고; 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보에 따라, 각각의 안면 검출 결과 중의 안면 검출 박스의 폭, 높이 및 면적을 산출하며; 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보에 따라, 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 폭, 높이 및 면적을 산출한다.
트렁크 검출 박스 좌상단의 횡축 좌표와 트렁크 검출 박스 우상단의 횡축 좌표를 이용하여 획득한 차이 값을 트렁크 검출 박스의 폭으로 사용하고, 트렁크 검출 박스 좌하단의 종축 좌표와 트렁크 검출 박스 좌상단의 종축 좌표를 이용하여 획득한 차이 값을 트렁크 검출 박스의 높이로 사용하며, 마지막으로 폭과 높이의 승적을 구하여 트렁크 검출 박스의 면적을 획득할 수 있다. 동시에, 트렁크 검출 박스의 폭을 구하는 방법과 동일한 방법을 이용하여 안면 검출 박스의 폭 및 동작 부위 검출 박스의 폭을 각각 구할 수 있고, 트렁크 검출 박스의 높이를 구하는 방법과 동일한 방법을 이용하여 안면 검출 박스의 높이 및 동작 부위 검출 박스의 높이를 각각 구할 수 있으며, 트렁크 검출 박스의 면적을 구하는 방법과 동일한 방법을 이용하여 안면 검출 박스의 면적 및 동작 부위 검출 박스의 면적을 각각 구할 수 있다.
예시적으로, 본 발명은 트렁크 검출 박스의 폭, 높이 및 면적의 모식도를 제공하고, 도 6에 도시된 바와 같이,
Figure pct00021
는 트렁크 검출 박스 좌상단의 좌표이며,
Figure pct00022
는 트렁크 검출 박스 우상단의 좌표이고,
Figure pct00023
는 트렁크 검출 박스 좌하단의 좌표이며,
Figure pct00024
는 트렁크 검출 박스 우하단의 좌표이다. 이때, 트렁크 검출 박스의 폭은
Figure pct00025
이고, 트렁크 검출 박스의 높이는
Figure pct00026
이며, 대응되게, 트렁크 검출 박스의 면적은
Figure pct00027
이다.
단계 S2012에서, 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보, 폭, 높이 및 면적 중 적어도 하나를 이용하여, 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터를 구성한다.
각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 4개의 좌표, 트렁크 검출 박스의 폭, 트렁크 검출 박스의 높이 및 트렁크 검출 박스의 면적을 획득한 후, 이러한 파라미터로부터 하나 또는 복수 개의 파라미터를 선택하여 트렁크 영역 위치 파라미터로 사용할 수 있음으로써, 이미지 인식 장치는 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터를 획득한다.
단계 S2013에서, 각각의 안면 검출 결과 중의 안면 검출 영역의 좌표 정보, 폭, 높이 및 면적 중 적어도 하나에 따라, 각각의 안면 검출 결과의 안면 영역 위치 파라미터를 구성한다.
마찬가지로, 각각의 안면 검출 결과의 안면 검출 박스의 4개의 좌표, 안면 검출 박스의 폭, 안면 검출 박스의 높이 및 안면 검출 박스의 면적을 획득한 후, 이러한 파라미터로부터 하나 또는 복수 개의 파라미터를 선택하여 각각의 안면 검출 결과의 안면 영역 위치 파라미터로 사용할 수 있다.
단계 S2014에서, 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보, 폭, 높이 및 면적 중 적어도 하나를 이용하여, 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터를 구성한다.
유사하게, 각각의 동작 부위 검출 결과의 동작 부위 검출 박스의 4개의 좌표, 동작 부위 검출 박스의 폭, 동작 부위 검출 박스의 높이 및 동작 부위 검출 박스의 면적 중의 하나 또는 복수 개의 파라미터를 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터로 사용한다.
본 발명의 실시예에서, 트렁크 검출 박스의 좌표 정보, 안면 검출 박스의 좌표 정보 및 동작 부위 검출 박스의 좌표 정보를 이용하여, 트렁크 검출 영역 위치 파라미터, 안면 검출 영역 위치 파라미터 및 동작 부위 검출 영역 위치 파라미터를 각각 획득함으로써, 후속적으로 이러한 위치 파라미터를 이용하여 위치 시퀀스를 획득할 수 있다.
도 7을 참조하면, 도 7은 본 발명의 실시예가 제공하는 이미지 인식 방법의 하나의 선택 가능한 흐름 모식도 5이고, 본 발명의 일부 실시예에서, 각각의 트렁크 검출 결과 중의 트렁크 이미지, 각각의 안면 검출 결과 중의 안면 이미지, 및 각각의 동작 부위 검출 결과 중의 동작 부위 이미지에 대해 각각 외관 특징 추출을 수행하여, 각각의 트렁크 검출 결과의 트렁크 외관 특징, 각각의 안면 검출 결과의 안면 외관 특징 및 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 획득하는 단계, 즉 단계 S1041a의 구체적인 구현 과정은 하기와 같은 단계 S301 ~ 단계 S304를 포함할 수 있다.
단계 S301에서, 인식될 이미지에 대응되는 적어도 하나의 특징맵을 획득한다.
특징 추출 시, 후속적으로 직접 특징맵으로부터 외관 특징을 추출하기 위해, 먼저 인식될 이미지에 대해 영역 검출을 수행할 시 생성된 특징맵으로부터 추출해야 한다. 설명할 것은, 이미지 인식 장치가 영역 검출을 수행할 경우, 인식될 이미지를 복수 개의 상이한 채널에 입력하여 콘볼루션 연산을 수행하되, 여기서, 하나의 채널은 하나의 콘볼루션 커널에 대응되고, 하나의 콘볼루션 커널은 하나의 특징맵을 획득할 수 있으므로, 이미지 인식 장치는 모두 적어도 하나의 특징맵을 획득할 수 있으며, 특징맵의 개수는 채널의 개수와 같다.
예시적으로, 이미지 인식 장치가 인식될 이미지를 각각 64 채널에 입력하여 콘볼루션 연산을 수행할 경우, 이미지 인식 장치는 64개의 특징맵을 획득할 수 있다.
단계 S302에서, 적어도 하나의 특징맵 중의 각각의 특징맵으로부터 각각의 트렁크 검출 결과의 트렁크 특징맵을 획득하고; 각각의 트렁크 검출 결과의 트렁크 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 트렁크 특징 서브 영역을 획득하며, 각각의 트렁크 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 트렁크 검출 결과에 대응되는 적어도 하나의 트렁크 외관 서브 특징을 획득하고; 각각의 트렁크 검출 결과에 대응되는 적어도 하나의 트렁크 외관 서브 특징을 이용하여 각각의 트렁크 검출 결과의 트렁크 외관 특징을 구축한다.
즉, 각각의 특징맵으로부터 각각의 트렁크 검출 결과의 트렁크 이미지에 대응되는 이미지를 각각 획득하여 각각의 트렁크 검출 결과의 트렁크 특징맵을 획득한다. 기설정된 서브 영역 분할 규칙에 따라 트렁크 특징맵을 각각 복수 개의 트렁크 특징 서브 영역으로 분할한다. 트렁크 특징 서브 영역에 하나 또는 복수 개의 특징 픽셀이 존재할 수 있으므로, 이러한 특징 픽셀로부터 가장 큰 하나의 특징 픽셀을 선택하여 해당 트렁크 서브 영역에 대응되는 트렁크 외관 서브 특징으로 사용할 수 있음으로써, 각각의 트렁크 검출 결과에 대응되는 적어도 하나의 트렁크 외관 서브 특징을 획득한다. 하나의 트렁크 외관 서브 특징을 획득할 경우, 상기 트렁크 외관 서브 특징을 직접 트렁크 외관 특징으로 사용할 수 있다. 복수 개의 트렁크 외관 서브 특징을 각각 획득할 경우, 복수 개의 트렁크 외관 서브 특징 중의 각각의 트렁크 외관 서브 특징을 시작과 끝을 연결하는 방식으로 트렁크 외관 특징을 스플라이싱할 수 있다.
특징맵은 인식될 이미지가 콘볼루션을 거쳐 획득된 것이므로, 특징맵과 인식될 이미지의 사이즈는 상이하기에, 트렁크 검출 박스의 좌표 정보에 대해 사이즈 변환을 수행하여 트렁크 매핑 박스의 좌표 정보를 획득할 수 있음으로써, 트렁크 매핑 박스의 좌표 정보에 따라, 트렁크 매핑 박스에 의해 박스 선택(box selection)된 이미지 콘텐츠를 획득하고, 이 부분 콘텐츠를 트렁크 특징맵으로 사용함을 이해할 수 있다.
설명할 것은, 트렁크 검출 박스의 좌표 정보에 대해 사이즈 변환을 수행한 후, 획득된 트렁크 매핑 박스의 좌표 정보는 부동 소수점 수(floating point number)일 수 있는데, 이때, 직접 부동 소수점 수의 좌표 정보를 이용하여 트렁크 특징맵을 획득할 수 있고, 부동 소수점 수의 좌표 정보를 정수의 좌표 정보로 전환시킨 다음 트렁크 특징맵을 획득할 수도 있다.
설명할 것은, 본 발명의 일부 실시예에서, 트렁크 서브 영역을 계속하여 분할하여 트렁크 서브 영역의 분할 결과를 획득할 수 있고, 분할 결과의 중간 위치의 특징 픽셀을 획득한 다음, 이러한 중간 위치의 특징 픽셀을 비교하여 가장 큰 중간 위치의 특징 픽셀을 트렁크 서브 영역에 대응되는 트렁크 외관 서브 특징으로 사용한다. 여기서, 트렁크 서브 영역의 좌표 정보는 부동 소수점 수일 수 있으므로, 분할 결과의 중간 위치도 하나의 부동 소수점 수, 즉 특징맵 중 분할 결과를 직접 검색할 수 없는 중간 위치에 대응되는 특징 픽셀일 수 있는데, 이때, 이미지 인식 장치는 이중선형성 차이 값 방법을 이용하여, 분할 결과의 중간 위치와 거리가 비교적 가까운 특징 픽셀에 따라, 분할 결과의 중간 위치의 특징 픽셀을 산출함으로써, 트렁크 외관 서브 특징을 획득할 수 있다.
단계 S303에서, 적어도 하나의 특징맵의 각각의 특징맵으로부터 각각의 안면 검출 결과의 안면 특징맵을 획득하고; 각각의 안면 검출 결과의 안면 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 안면 특징 서브 영역을 획득하며, 각각의 안면 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 안면 검출 결과에 대응되는 적어도 하나의 안면 외관 서브 특징을 획득하고; 각각의 안면 검출 결과에 대응되는 적어도 하나의 안면 외관 서브 특징을 이용하여 각각의 안면 검출 결과의 안면 외관 특징을 구축한다.
단계 S304에서, 적어도 하나의 특징맵의 각각의 특징맵으로부터 각각의 동작 부위 검출 결과의 동작 부위 특징맵을 획득하고; 각각의 동작 부위 검출 결과의 동작 부위 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 동작 부위 특징 서브 영역을 획득하며, 각각의 동작 부위 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 동작 부위 검출 결과에 대응되는 적어도 하나의 동작 부위 외관 서브 특징을 획득하고; 각각의 동작 부위 검출 결과에 대응되는 적어도 하나의 동작 부위 외관 서브 특징을 이용하여 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 구축한다.
설명할 것은, 단계 S303 및 단계 S304의 구현 과정은 단계 S302와 비교적 유사하므로, 본 발명의 실시예는 여기서 더 이상 설명하지 않는다.
본 발명의 실시예에서, 특징맵으로부터 각각의 트렁크 검출 결과의 트렁크 이미지에 대응되는 트렁크 외관 특징, 각각의 안면 검출 결과 중의 안면 이미지에 대응되는 안면 외관 특징, 및 각각의 동작 부위 검출 결과 중의 동작 부위 이미지에 대응되는 동작 부위 외관 특징을 획득하여, 후속적으로 이러한 외관 특징에 따라 트렁크 특징 시퀀스, 안면 특징 시퀀스 및 동작 부위 특징 시퀀스를 각각 획득할 수 있다.
본 발명의 일부 실시예에서, 인식될 이미지를 검출하여 적어도 하나의 트렁크 검출 결과, 적어도 하나의 안면 검출 결과 및 적어도 하나의 동작 부위 검출 결과를 획득하는 단계, 즉 단계 S101의 구체적인 구현 과정은 하기와 같은 단계 S1011 ~ 단계 S1014를 포함할 수 있다.
단계 S1011에서,단계 S1011에서, 기설정 검출 영역 생성 규칙에 따라, 인식될 이미지를 위해 적어도 하나의 후보 검출 박스를 생성한다.
인식될 이미지를 검출할 경우, 우선 미리 저장된 기설정 검출 영역 생성 규칙에 따라, 인식될 이미지를 위해 복수 개의 후보 검출 박스를 생성함으로써, 이미지 인식 장치가 인식될 이미지를 복수 개의 크기가 상이한 이미지 블록으로 분할하는 것으로 이해할 수 있다.
기설정 검출 영역 생성 규칙은 하나의 초기 검출 박스에 대해 사이즈 변환을 수행하여 복수 개의 검출 박스의 규칙을 획득하는 것을 의미할 수 있고, 예컨대 슬라이딩 윈도 생성 등 다른 검출 박스 생성 규칙을 의미할 수도 있음을 이해할 수 있으며, 본 발명의 실시예는 여기서 구체적으로 한정하지 않는다.
단계 S1012에서, 적어도 하나의 후보 검출 박스 중의 각각의 후보 검출 박스에 의해 박스 선택된 이미지에 대해 트렁크 확률을 산출하고; 트렁크 확률 및 기설정 중합도 임계값에 따라, 적어도 하나의 후보 검출 박스로부터 적어도 하나의 트렁크 검출 박스를 선택하여 적어도 하나의 트렁크 검출 결과를 획득한다.
각각의 후보 검출 박스 중의 이미지 콘텐츠를 추출한 다음, 미리 저장된 검출 모델을 이용하여 각각의 이미지 콘텐츠를 각각 인식하여, 각각의 이미지 콘텐츠가 각각 트렁크 이미지인 확률, 즉 트렁크 확률을 획득한다. 각각의 이미지 콘텐츠의 트렁크 확률에 따라, 기설정 중합도 임계값과 결합하여 모든 후보 검출 박스로부터 트렁크 검출 박스를 검색하고, 트렁크 검출 박스 중의 트렁크 이미지와 함께 트렁크 검출 결과를 조합하여 적어도 하나의 트렁크 검출 결과를 획득한다.
단계 S1013에서, 적어도 하나의 후보 검출 박스 중의 각각의 후보 검출 박스에 의해 박스 선택된 이미지에 대해 안면 확률을 산출하고; 안면 확률 및 기설정 중합도 임계값에 따라, 적어도 하나의 후보 검출 박스로부터 적어도 하나의 안면 검출 박스를 선택하여 적어도 하나의 안면 검출 결과를 획득한다.
단계 S1014에서, 적어도 하나의 후보 검출 박스 중의 각각의 후보 검출 박스에 의해 박스 선택된 이미지에 대해 동작 부위 확률을 산출하고; 동작 부위 확률 및 기설정 중합도 임계값에 따라, 적어도 하나의 후보 검출 박스로부터 적어도 하나의 동작 부위 검출 박스를 선택하여 적어도 하나의 동작 부위 검출 결과를 획득한다.
기설정 중합도 임계값은 거리가 서로 비교적 가까운 복수 개의 검출 박스로부터 하나의 검출 박스를 선택하기 위한 것인데, 즉 획득된 적어도 하나의 트렁크 검출 박스는 검출 박스를 거쳐 동작이 제거된 것이므로, 후보 검출 박스의 개수는 트렁크 검출 결과의 개수, 안면 검출 결과의 개수 및 동작 부위 검출 결과의 개수의 합보다 크거나 같음을 이해할 수 있다.
본 발명의 실시예에서, 인식될 이미지 중의 모든 후보 검출 박스에 의해 박스 선택된 이미지 콘텐츠로부터 인식하여 트렁크 확률, 안면 확률 및 동작 부위 확률을 획득하여, 이러한 확률에 따라 적어도 하나의 트렁크 검출 결과, 적어도 하나의 안면 검출 결과 및 적어도 하나의 동작 부위 검출 결과를 획득할 수 있음으로써, 후속적으로 적어도 하나의 트렁크 검출 결과, 적어도 하나의 안면 검출 결과 및 적어도 하나의 동작 부위 검출 결과를 조합할 수 있다.
본 발명의 일부 실시예에서, 단계 S1011에서의 기설정 검출 영역 생성 규칙은 단계 S1011a ~ 단계 S1011b를 포함할 수 있다.
단계 S1011a에서, 기설정된 초기 사이즈에 따라 초기 검출 박스를 생성한다.
단계 S1011b에서, 초기 검출 박스에 대해 사이즈 변환 및 인장 변환을 수행하여 적어도 하나의 후보 검출 박스를 획득한다.
즉, 먼저 기설정된 초기 사이즈의 검출 박스를 생성하고, 상기 검출 박스를 초기 검출 박스로 사용하며, 다음, 초기 검출 박스의 사이즈를 변환시켜 복수 개의 후보 검출 박스를 획득하는 동시에, 초기 검출 박스의 면적이 변하지 않도록 확보하는 전제 하에 초기 검출 박스의 폭 및 높이를 인장하여 계속하여 후보 검출 박스를 획득함으로써, 기설정 검출 박스 생성 규칙에 따라 적어도 하나의 후보 검출 박스를 획득할 수 있다.
본 발명의 실시예에서, 기설정된 초기 사이즈에 따라 초기 검출 박스를 생성한 다음, 초기 검출 박스를 변환시켜 적어도 하나의 후보 검출 박스를 획득할 수 있음으로써, 이미지 인식 장치는 적어도 하나의 후보 검출 박스에 의해 박스 선택된 이미지 콘텐츠를 사용하여 이러한 이미지 콘텐츠의 트렁크 확률, 안면 확률 및 동작 부위 확률을 산출함으로써, 적어도 하나의 트렁크 검출 결과, 적어도 하나의 안면 검출 결과 및 적어도 하나의 동작 부위 검출 결과를 획득할 수 있다.
본 발명의 일부 실시예에서, 트렁크 확률, 안면 확률, 동작 부위 확률 및 기설정 중합도 임계값에 따라, 적어도 하나의 후보 검출 박스로부터 적어도 하나의 트렁크 검출 박스, 적어도 하나의 안면 검출 박스 및 적어도 하나의 동작 부위 검출 박스를 선택함으로써, 적어도 하나의 트렁크 검출 결과, 적어도 하나의 안면 검출 결과 및 적어도 하나의 동작 부위 검출 결과를 획득하는 단계, 즉 단계 S1013의 구체적인 구현 과정은 하기와 같은 단계 S1013a ~ 단계 S1013g를 포함할 수 있다.
단계 S1013a에서, 트렁크 확률, 안면 확률 및 동작 부위 확률에 따라, 적어도 하나의 후보 검출 박스로부터 적어도 하나의 임시 트렁크 검출 영역, 적어도 하나의 임시 안면 검출 영역 및 적어도 하나의 임시 동작 부위 검출 영역을 각각 선택한다.
각각의 후보 검출 박스에 모두 트렁크 확률, 안면 확률 및 동작 부위 확률인 3개의 확률이 대응되므로, 이때, 각각의 후보 검출 박스의 트렁크 확률, 안면 확률 및 동작 부위 확률을 서로 비교할 수 있는데, 트렁크 확률이 가장 크면, 상기 후보 검출 박스는 임시 트렁크 검출 박스이고, 안면 확률이 가장 크면, 상기 후보 검출 박스는 임시 안면 검출 박스이며, 동작 부위 확률이 가장 크면, 상기 후보 검출 박스는 임시 동작 부위 검출 박스이다. 이로써, 각각의 후보 검출 박스 트렁크 확률, 안면 확률 및 동작 부위 확률에 대한 비교를 완성한 후, 적어도 하나의 임시 트렁크 검출 박스, 적어도 하나의 임시 안면 검출 박스 및 적어도 하나의 임시 동작 부위 검출 박스를 획득할 수 있다.
단계 S1013b에서, 트렁크 확률이 가장 큰 임시 트렁크 검출 박스를 제1 트렁크 검출 박스로 사용하고; 제1 트렁크 검출 박스 및 제1 트렁크 검출 박스에 의해 박스 선택된 트렁크 이미지를 이용하여 제1 트렁크 검출 결과를 조합하며; 적어도 하나의 임시 트렁크 검출 박스로부터 제1 트렁크 검출 박스와의 중합도가 기설정 중합도 임계값을 초과하는 임시 트렁크 검출 박스를 제거하여 적어도 하나의 중간 트렁크 검출 박스를 획득하고; 적어도 하나의 중간 트렁크 검출 박스를 적어도 하나의 임시 트렁크 검출 박스로 사용하고, 적어도 하나의 트렁크 검출 결과를 획득할 때까지 상기 과정을 계속하여 수행한다.
다시 말하면, 모든 임시 트렁크 검출 박스의 트렁크 확률을 비교하여 그 중에서 트렁크 확률이 가장 큰 임시 트렁크 검출 박스를 선택하여 제1 트렁크 검출 박스로 사용하는 동시에, 제1 트렁크 검출 박스, 및 제1 트렁크 검출 박스에 의해 박스 선택된 트렁크 이미지를 이용하여 제1 트렁크 검출 결과를 조합하는데, 이때, 이미지 인식 장치는 하나의 트렁크 검출 결과를 획득할 수 있다. 이미지 인식 장치는 제1 트렁크 검출 박스와 적어도 하나의 임시 트렁크 검출 박스 중의 다른 임시 검출 박스의 중합도를 산출하되, 중합도가 기설정 중합도 임계값을 초과할 경우, 이미지 인식 장치는 임시 검출 박스와 제1 트렁크 검출 박스가 비교적 가깝고 이에 의해 박스 선택된 트렁크 이미지와 제1 트렁크 검출 박스에 의해 박스 선택된 트렁크 이미지의 중합도가 비교적 높은 것으로 인정하는데, 이때, 이 임시 검출 박스를 제거한다. 모든 중합도가 기설정 중합도 임계값을 초과하는 임시 트렁크 검출 박스의 제거 작업을 완성한 후, 적어도 하나의 중간 트렁크 검출 박스를 획득할 수 있다.
상기 과정을 수행한 후, 하나의 트렁크 검출 결과를 이미 획득하였고, 상기 트렁크 검출 박스와 거리가 비교적 가까운 검출 박스를 제거하는데, 이때, 계속하여 적어도 하나의 중간 트렁크 검출 박스를 적어도 하나의 임시 트렁크 검출 박스로 사용하고, 상기 과정을 계속하여 수행하되, 이렇게 반복적으로 순환함으로써, 적어도 하나의 트렁크 검출 결과를 획득할 수 있다.
단계 S1013c에서, 안면 확률이 가장 큰 임시 안면 검출 박스를 제1 안면 검출 박스로 사용하고; 제1 안면 검출 박스 및 제1 안면 검출 박스에 의해 박스 선택된 안면 이미지를 이용하여 제1 안면 검출 결과를 조합하며; 적어도 하나의 임시 안면 검출 박스로부터 제1 안면 검출 박스와의 중합도가 기설정 중합도 임계값을 초과하는 임시 안면 검출 박스를 제거하여 적어도 하나의 중간 안면 검출 박스를 획득하고; 적어도 하나의 중간 안면 검출 박스를 적어도 하나의 임시 안면 검출 박스로 사용하고, 적어도 하나의 안면 검출 결과를 획득할 때까지 상기 과정을 계속하여 수행한다.
단계 S1013d에서, 동작 부위 확률이 가장 큰 임시 동작 부위 검출 박스를 제1 동작 부위 검출 박스로 사용하고; 제1 동작 부위 검출 박스 및 제1 동작 부위 검출 박스에 의해 박스 선택된 동작 부위 이미지를 이용하여 제1 동작 부위 검출 결과를 조합하며; 적어도 하나의 임시 동작 부위 검출 박스로부터 제1 동작 부위 검출 박스와의 중합도가 기설정 중합도 임계값을 초과하는 임시 동작 부위 검출 박스를 제거하여 적어도 하나의 중간 동작 부위 검출 박스를 획득하고; 적어도 하나의 중간 동작 부위 검출 박스를 적어도 하나의 임시 동작 부위 검출 박스로 사용하고, 적어도 하나의 동작 부위 검출 결과를 획득할 때까지 상기 과정을 계속하여 수행한다.
설명할 것은, 단계 1013c 및 단계 S1013d의 구현 과정은 단계 S1013b와 비교적 유사하므로, 본 발명의 실시예는 여기서 더 이상 설명하지 않는다.
본 발명의 실시예에서, 먼저, 적어도 하나의 임시 트렁크 검출 박스로부터 제1 트렁크 검출 박스를 선택함으로써, 제1 트렁크 검출 결과를 획득하고, 적어도 하나의 임시 안면 검출 박스로부터 제1 안면 검출 박스를 선택함으로써, 제1 안면 검출 결과를 획득하며, 적어도 하나의 임시 동작 부위 검출 박스로부터 제1 동작 부위 검출 박스를 선택함으로써, 제1 동작 부위 검출 결과를 획득하고, 제1 트렁크 검출 박스, 제1 안면 검출 박스 및 제1 동작 부위 검출 박스와 각각 거리가 비교적 가까운 검출 박스를 삭제하되, 이렇게 반복적으로 순환할 수 있음으로써, 적어도 하나의 트렁크 검출 결과, 적어도 하나의 안면 검출 결과 및 적어도 하나의 동작 부위 검출 결과를 획득할 수 있다.
아래, 실제 응용 시나리오 중의 이미지 인식 과정을 예로 들어 본 발명의 실시예가 제공하는 이미지 인식 방법을 설명한다. 본 발명의 실시예는 도 1에 의해 제공된 실제 응용 시나리오를 예로 들어 이미지 인식 방법에 포함되는 과정을 설명한다.
단계 S401에서, 콘볼루션 뉴럴 네트워크 모델을 이용하여 실제 응용 시나리오의 이미지 중의 트렁크 검출 결과, 안면 검출 결과 및 동작 부위 검출 결과를 검출한다
설명할 것은, 이때 이러한 트렁크, 안면과 동작 부위 사이의 관계를 모른다.
단계 S402에서, 실제 응용 시나리오의 이미지의 64개의 특징맵을 획득한다.
단계 S403에서, 단계 S401에서 획득된 트렁크 이미지, 안면 이미지 및 동작 부위 이미지를 64개의 특징맵에 매핑하여, 트렁크 이미지에 대응되는 64개의 트렁크 특징맵, 안면 이미지에 대응되는 64개의 안면 특징맵 및 동작 부위 이미지에 대응되는 64개의 동작 부위 특징맵을 획득한다.
단계 S404에서, 각각의 트렁크 특징맵을 49개의 트렁크 특징 서브 영역으로 분할하고, 각각의 안면 특징맵을 49개의 안면 특징 서브 영역으로 분할하며, 각각의 동작 부위 특징맵을 49개의 동작 부위 특징 서브 영역으로 분할한다.
이미지 인식 장치는 모두 64×49=3136개의 트렁크 특징 서브 영역, 64×49=3136개의 안면 특징 서브 영역, 및 64×49=3136개의 동작 부위 특징 서브 영역을 획득할 수 있다.
단계 S405에서, 각각의 트렁크 특징 서브 영역의 트렁크 외관 서브 특징, 각각의 안면 특징 서브 영역의 안면 외관 서브 특징, 동작 부위 특징 서브 영역의 동작 부위 외관 서브 특징을 각각 추출한다.
이미지 인식 장치는 하나의 특징 서브 영역에 대해 하나의 외관 서브 특징을 추출함으로써, 3136개의 트렁크 외관 서브 특징, 3136개의 안면 외관 서브 특징 및 3136개의 동작 부위 외관 서브 특징을 획득할 수 있다.
단계 S405에서, 각각 트렁크 외관 서브 특징, 안면 외관 서브 특징 및 동작 부위 외관 서브 특징에 따라, 트렁크 외관 특징, 안면 외관 특징 및 동작 부위 외관 특징을 획득한다.
실제 응용에서, 각각의 외관 서브 특징을 0 ~ 9 사이로 양자화할 수 있음으로써, 획득된 트렁크 외관 특징, 안면 외관 특징 및 동작 부위 외관 특징은 모두 길이가 3136인 하나의 유일한 특징 벡터이다.
단계 S406에서, 트렁크 검출 영역, 안면 검출 영역 및 동작 부위 검출 영역의 좌표를 이용하여, 트렁크 검출 영역의 폭, 높이 및 면적, 안면 검출 영역의 폭, 높이 및 면적, 및 동작 부위 검출 영역의 폭, 높이 및 면적을 각각 구한다.
하나의 검출 영역의 좌표가 (x1, y1, x2, y2)이면, 여기서, x1은 검출 영역 좌상단의 횡축 좌표이고, y1은 검출 영역 좌상단의 종축 좌표이며, x2는 검출 영역 우하단의 횡축 좌표이고, y2는 검출 영역 우하단의 종축 좌표이다. 다음, 이 4개의 좌표에 따라, 검출 영역의 폭x2-x1을 구하고, 검출 영역의 높이 y2-y1을 구하며, 검출 영역의 면적(x2-x2)×(y2-y1)을 구한다. 설명할 것은, 이미지 인식 장치는 폭, 높이를 구한 후, 폭을 이용하여 x1 및 x2를 정규화(normalization)하고, 높이를 이용하여 y1 및 y2를 정규화하여, 정규화된 좌표를 획득한 다음, 정규화된 좌표를 이용하여 검출 영역에 대응되는 정규화 폭, 정규화 높이 및 정규화 면적을 구한다.
단계 S407에서, 트렁크 검출 영역의 좌표, 폭, 높이 및 면적을 트렁크 영역 위치 파라미터로 사용하고, 안면 검출 영역의 좌표, 폭, 높이 및 면적을 안면 영역 위치 파라미터로 사용하며, 동작 부위 검출 영역의 좌표, 폭, 높이 및 면적을 동작 부위 영역 위치 파라미터로 사용한다.
단계 S408에서, 트렁크 영역 위치 파라미터 중의 각각의 파라미터, 안면 영역 위치 파라미터 중의 각각의 파라미터, 및 동작 부위 영역 위치 파라미터 중의 각각의 파라미터에 대해 길이가 256인 위치 시퀀스를 구축한다.
0, 1, 2,
Figure pct00028
, 255를 선택하여 기설정된 시퀀스 비트로 사용하고, 길이가 256인 시퀀스를 구축한다. 여기서, 기설정 특징 구축 모델은 각각 식 (5) 및 식 (6)과 같고,
Figure pct00029
여기서,
Figure pct00030
는 위치 파라미터이며,
Figure pct00031
는 짝수 비트이고,
Figure pct00032
는 짝수 비트의 위치 요소이며,
Figure pct00033
는 홀수 비트의 위치 요소이다.
단계 S409에서, 트렁크 영역 위치 파라미터 중의 각각의 파라미터의 256의 위치 시퀀스를 스플라이싱하여 1792의 트렁크 위치 특징을 획득하고, 안면 영역 위치 파라미터 중의 각각의 파라미터의 256의 위치 시퀀스를 스플라이싱하여 1792의 안면 위치 특징을 획득하며, 동작 부위 영역 위치 파라미터 중의 각각의 파라미터의 256의 위치 시퀀스를 스플라이싱하여 1792의 동작 부위 위치 특징을 획득한다.
단계 S410에서, 1792의 트렁크 위치 특징 및 3136의 트렁크 외관 특징을 스플라이싱하여 4928의 트렁크 특징 시퀀스를 획득하고, 1792의 안면 위치 특징 및 3136의 안면 외관 특징을 스플라이싱하여 4928의 안면 특징 시퀀스를 획득하며, 1792의 동작 부위 위치 특징 및 3136의 동작 부위 외관 특징을 스플라이싱하여 4928의 동작 부위 특징 시퀀스를 획득한다.
단계 S411에서, 적어도 하나의 트렁크 검출 결과 및 적어도 하나의 안면 검출 결과를 둘둘씩 조합하여 적어도 하나의 제1 결과 조합을 획득하고, 적어도 하나의 트렁크 검출 결과 및 적어도 하나의 동작 부위 검출 결과를 둘둘씩 조합하여 적어도 하나의 제2 결과 조합을 획득한다.
단계 S412에서, 각각의 제1 결과 조합 중의 4928의 트렁크 특징 시퀀스 및 4928의 안면 특징 시퀀스를 이용하여 길이가 9856인 제1 조합 특징을 스플라이싱하고, 다층 퍼셉트론을 이용하여 제1 조합 특징에 대해 바이너리를 수행하여 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득한다.
즉, 각각의 제1 결과 조합 중의 트렁크 검출 결과 및 안면 검출 결과가 동일한 사람에게 속하는지 여부를 판단한다.
단계S413에서, 각각의 제2 결과 조합 중의 4928의 트렁크 특징 시퀀스 및 4928의 동작 부위 특징 시퀀스를 이용하여 길이가 9856인 제2조합 특징을 스플라이싱하고, 다층 퍼셉트론을 이용하여 제2 조합 특징에 대해 바이너리를 수행하여 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득한다.
즉, 각각의 제2 결과 조합 중의 트렁크 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 판단한다.
단계 S414에서, 제1 서브 연관 결과 및 제2 서브 연관 결과를 이용하여 안면 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는지 여부를 결정하여 이미지 인식 과정을 완성한다.
제1 서브 연관 결과가 트렁크 검출 결과 및 안면 검출 결과가 동일한 사람에게 속하는 것이고 또한 제2 서브 연관 결과가 트렁크 검출 결과 및 동작 부위 검출 결과가 동일한 사람에게 속하는 것일 경우, 안면 검출 결과와 동작 부위 검출 결과는 연관된다. 나머지 경우는 안면 검출 결과와 동작 부위 검출 결과가 모두 연관되지 않는 것이다.
상기 방식을 통해, 트렁크 검출 결과와 안면 검출 결과의 관계, 및 트렁크 검출 결과와 동작 부위 검출 결과의 관계를 판단할 수 있음으로써, 트렁크 검출 결과를 이용하여 안면 검출 결과와 동작 부위 검출 결과를 연관시킬 수 있으므로, 안면과 동작 부위를 판단하는 난이도를 감소시키는 동시에, 이미지 중 인체의 키 정보를 유실할 수 없으며, 안면과 동작 부위의 연관 정확도를 향상시킨다.
본 발명의 실시예는 이미지 인식 방법에 대응되는 이미지 인식 장치를 제공한다. 도 8을 참조하면, 도 8은 본 발명의 실시예가 제공하는 이미지 인식 장치의 구조 모식도 1이고, 본 발명의 실시예가 제공하는 이미지 인식 장치(300)는,
인식될 이미지에 대해 이미지 검출을 수행하여 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하는 검출 모듈(310) - 하나의 안면 검출 결과는 하나의 안면의 검출 박스를 포함하고, 하나의 동작 부위 검출 결과는 하나의 동작 부위의 검출 박스를 포함하며, 하나의 트렁크 검출 결과는 하나의 트렁크의 검출 박스를 포함함 - ;
상기 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득하고; 상기 각각의 트렁크 검출 결과를 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득하는 조합 모듈(320); 및
상기 적어도 하나의 제1 결과 조합과 상기 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득하는 연관 모듈(330)을 포함한다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 상기 각각의 트렁크 검출 결과, 각각의 안면 검출 결과, 및 각각의 동작 부위 검출 결과에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 각각의 안면 검출 결과에 대응되는 안면 특징 시퀀스, 및 각각의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스를 획득하고; 상기 트렁크 특징 시퀀스 및 상기 안면 특징 시퀀스에 따라, 각각의 제1 결과 조합의 트렁크 검출 결과와 안면 검출 결과를 연관시켜 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득하며; 상기 트렁크 특징 시퀀스 및 상기 동작 부위 특징 시퀀스에 따라, 각각의 제2 결과 조합의 트렁크 검출 결과와 동작 부위 검출 결과를 연관시켜 각각의 제2 결과 조합에 대응되는 적어도 하나의 제2 서브 연관 결과를 획득하고; 각각의 제1 서브 연관 결과 및 각각의 제2 서브 연관 결과에 따라 상기 연관 결과를 결정한다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 각각의 제1 서브 연관 결과에 따라, 적어도 하나의 제1 결과 조합 중 트렁크 검출 결과 및 안면 검출 결과가 서로 연관되는 연관 제1 결과 조합을 결정하고; 각각의 제2 서브 연관 결과에 따라, 상기 적어도 하나의 제2 결과 조합 중 트렁크 검출 결과와 동작 부위 검출 결과가 서로 연관되는 연관 제2 결과 조합을 결정하며; 동일한 트렁크 검출 결과를 구비하는 연관 제1 결과 조합과 연관 제2 결과 조합이 서로 연관되는 것으로 결정하고, 여기서, 하나의 연관 제1 결과 조합 중의 안면 검출 결과에 의해 표징되는 안면은 이와 연관되는 연관 제2 결과 조합 중의 동작 부위 검출 결과에 의해 표징되는 동작 부위와 서로 연관된다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 하나의 제1 결과 조합 중의 안면 검출 결과에 대응되는 안면 특징 시퀀스, 및 상기 제1 결과 조합 중의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스에 따라, 상기 제1 결과 조합에 대응되는 제1 조합 특징을 스플라이싱하고; 각각의 제1 결과 조합에 대응되는 제1 조합 특징을 이용하여 각각의 제1 결과 조합을 분류하여 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득한다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 하나의 제2 결과 조합 중의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 및 상기 제2 결과 조합 중의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스에 따라, 상기 제2 결과 조합에 대응되는 제2 조합 특징을 스플라이싱하고; 각각의 제2 결과 조합에 대응되는 제2 조합 특징을 이용하여 각각의 제2 결과 조합을 분류하여 상기 제2 서브 연관 결과를 획득한다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 상기 각각의 트렁크 검출 결과 중의 트렁크 이미지, 상기 각각의 안면 검출 결과 중의 안면 이미지, 및 상기 각각의 동작 부위 검출 결과 중의 동작 부위 이미지에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과의 트렁크 외관 특징, 각각의 안면 검출 결과의 안면 외관 특징 및 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 획득하고; 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 위치 특징을 결정하며; 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보에 따라 각각의 안면 검출 결과의 안면 위치 특징을 결정하고; 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 결정하며; 각각의 트렁크 검출 결과의 트렁크 외관 특징 및 트렁크 위치 특징을 이용하여 각각의 트렁크 검출 결과의 트렁크 특징 시퀀스를 스플라이싱하고, 각각의 안면 검출 결과의 안면 외관 특징 및 안면 위치 특징을 이용하여 각각의 안면 검출 결과의 안면 특징 시퀀스를 스플라이싱하며, 각각의 동작 부위 검출 결과의 동작 부위 외관 특징 및 동작 부위 위치 특징을 이용하여 각각의 동작 부위 검출 결과의 트렁크 특징 시퀀스를 스플라이싱한다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 각각의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터를 생성하고; 각각의 안면 검출 박스의 좌표 정보를 이용하여 각각의 안면 검출 결과의 안면 영역 위치 파라미터를 생성하며; 각각의 동작 부위 검출 박스의 좌표 정보를 사용하여 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터를 생성하고; 기설정된 트렁크 시퀀스 비트, 기설정된 트렁크 특징 구축 모델 및 트렁크 특징 구축 파라미터에 기반하여, 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터에 따라 각각의 트렁크 검출 결과의 트렁크 위치 시퀀스를 구축하며, 각각의 트렁크 검출 결과의 트렁크 위치 시퀀스에 따라 각각의 트렁크 검출 결과의 트렁크 위치 특징을 생성하고; 여기서, 상기 트렁크 특징 구축 파라미터는 상기 기설정된 트렁크 시퀀스 비트에 따라 생성되며; 기설정된 안면 시퀀스 비트, 기설정된 안면 특징 구축 모델 및 안면 특징 구축 파라미터에 기반하여, 각각의 안면 검출 결과의 안면 영역 위치 파라미터에 따라 각각의 안면 검출 결과의 안면 위치 시퀀스를 구축하고, 각각의 안면 검출 결과의 안면 위치 시퀀스에 따라 각각의 안면 검출 결과의 안면 위치 특징을 생성하며; 여기서, 상기 안면 특징 구축 파라미터는 상기 기설정된 안면 시퀀스 비트에 따라 생성되고; 기설정된 동작 부위 시퀀스 비트, 기설정된 동작 부위 특징 구축 모델 및 동작 부위 특징 구축 파라미터에 기반하여, 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 시퀀스를 구축하며, 각각의 동작 부위 검출 결과의 동작 부위 위치 시퀀스에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 생성하고; 여기서, 상기 동작 부위 특징 구축 파라미터는 상기 기설정된 동작 부위 시퀀스 비트에 따라 생성된다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 상기 기설정된 시퀀스 비트가 짝수 비트일 경우, 기설정된 특징 구축 모델은 사인 구축 모델이고, 이런 경우, 각각의 검출 결과의 영역 위치 파라미터와 특징 구축 파라미터를 비교하여 각각의 검출 결과의 제1 파라미터 비율을 획득하며; 상기 사인 구축 모델을 이용하여 각각의 검출 결과의 제1 파라미터 비율에 대해 사인 값 산출을 수행하여 각각의 검출 결과의 제1 위치 요소를 획득하고; 각각의 검출 결과의 제1 위치 요소에 따라 각각의 검출 결과의 제1 위치 시퀀스를 결정하며; 기설정된 시퀀스 비트가 기설정된 트렁크 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 트렁크 특징 구축 모델이고, 특징 구축 파라미터는 트렁크 특징 구축 파라미터이며, 검출 결과는 트렁크 검출 결과이고, 영역 위치 파라미터는 트렁크 영역 위치 파라미터이며, 제1 위치 시퀀스는 트렁크 위치 시퀀스이고; 기설정된 시퀀스 비트가 기설정된 안면 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 안면 특징 구축 모델이고, 특징 구축 파라미터는 안면 특징 구축 파라미터이며, 검출 결과는 안면 검출 결과이고, 영역 위치 파라미터는 안면 영역 위치 파라미터이며, 위치 시퀀스는 안면 위치 시퀀스이고; 기설정된 시퀀스 비트가 기설정된 동작 부위 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 동작 부위 특징 구축 모델이고, 특징 구축 파라미터는 동작 부위 특징 구축 파라미터이며, 검출 결과는 동작 부위 검출 결과이고, 영역 위치 파라미터는 동작 부위 영역 위치 파라미터이며, 위치 시퀀스는 동작 부위 위치 시퀀스이다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 상기 기설정된 시퀀스 비트가 홀수 비트일 경우, 기설정된 특징 구축 모델은 코사인 구축 모델이고, 이런 경우,
각각의 검출 결과의 영역 위치 파라미터와 상기 특징 구축 파라미터를 비교하여 각각의 검출 결과의 제2 파라미터 비율을 획득하며;
상기 코사인 구축 모델을 이용하여 각각의 검출 결과의 제2 파라미터 비율에 대해 코사인 값 산출을 수행하여 각각의 검출 결과의 제2 위치 요소를 획득하고;
각각의 검출 결과의 제2 위치 요소에 따라 각각의 검출 결과의 위치 시퀀스를 결정하며;
기설정된 시퀀스 비트가 기설정된 트렁크 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 트렁크 특징 구축 모델이고, 특징 구축 파라미터는 트렁크 특징 구축 파라미터이며, 검출 결과는 트렁크 검출 결과이고, 영역 위치 파라미터는 트렁크 영역 위치 파라미터이며, 위치 시퀀스는 트렁크 위치 시퀀스이고;
기설정된 시퀀스 비트가 기설정된 안면 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 안면 특징 구축 모델이고, 특징 구축 파라미터는 안면 특징 구축 파라미터이며, 검출 결과는 안면 검출 결과이고, 영역 위치 파라미터는 안면 영역 위치 파라미터이며, 위치 시퀀스는 안면 위치 시퀀스이고;
기설정된 시퀀스 비트가 기설정된 동작 부위 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 동작 부위 특징 구축 모델이고, 특징 구축 파라미터는 동작 부위 특징 구축 파라미터이며, 검출 결과는 동작 부위 검출 결과이고, 영역 위치 파라미터는 동작 부위 영역 위치 파라미터이며, 위치 시퀀스는 동작 부위 위치 시퀀스이다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보에 따라, 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 폭, 높이 및 면적을 산출하고; 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보에 따라, 각각의 안면 검출 결과 중의 안면 검출 박스의 폭, 높이 및 면적을 산출하며; 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보에 따라, 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 폭, 높이 및 면적을 산출하고; 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보, 폭, 높이 및 면적 중 적어도 하나를 이용하여, 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터를 구성하며; 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보, 폭, 높이 및 면적 중 적어도 하나에 따라, 각각의 안면 검출 결과의 안면 영역 위치 파라미터를 구성하며; 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보, 폭, 높이 및 면적 중 적어도 하나를 사용하여, 각각의 동작 검출 결과의 동작 부위 영역 위치 파라미터를 구성한다.
본 발명의 일부 실시예에서, 상기 연관 모듈(330)은 구체적으로, 상기 인식될 이미지에 대응되는 적어도 하나의 특징맵을 획득하고; 상기 적어도 하나의 특징맵의 각각의 특징맵으로부터 상기 각각의 트렁크 검출 결과의 트렁크 특징맵을 획득하며; 각각의 트렁크 검출 결과의 트렁크 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 트렁크 특징 서브 영역을 획득하고, 각각의 트렁크 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 트렁크 검출 결과에 대응되는 적어도 하나의 트렁크 외관 서브 특징을 획득하며; 각각의 트렁크 검출 결과에 대응되는 적어도 하나의 트렁크 외관 서브 특징을 이용하여 각각의 트렁크 검출 결과의 트렁크 외관 특징을 구축하고; 상기 적어도 하나의 특징맵의 각각의 특징맵으로부터 상기 각각의 안면 검출 결과의 안면 특징맵을 획득하며; 각각의 안면 검출 결과의 안면 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 안면 특징 서브 영역을 획득하고, 각각의 안면 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 안면 검출 결과에 대응되는 적어도 하나의 안면 외관 서브 특징을 획득하며; 각각의 안면 검출 결과에 대응되는 적어도 하나의 안면 외관 서브 특징을 이용하여 각각의 안면 검출 결과의 안면 외관 특징을 구축하고; 상기 적어도 하나의 특징맵의 각각의 특징맵으로부터 상기 각각의 동작 부위 검출 결과의 동작 부위 특징맵을 획득하며; 각각의 동작 부위 검출 결과의 동작 부위 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 동작 부위 특징 서브 영역을 획득하고, 각각의 동작 부위 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 동작 부위 검출 결과에 대응되는 적어도 하나의 동작 부위 외관 서브 특징을 획득하며; 각각의 동작 부위 검출 결과에 대응되는 적어도 하나의 동작 부위 외관 서브 특징을 이용하여 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 구축하한다.
본 발명의 일부 실시예에서, 상기 검출 모듈(310)은 구체적으로, 기설정 검출 영역 생성 규칙에 따라, 상기 인식될 이미지를 위해 적어도 하나의 후보 검출 박스를 생성하고; 적어도 하나의 후보 검출 박스 중의 각각의 후보 검출 박스에 의해 박스 선택된 이미지에 대해 트렁크 확률을 산출하며; 트렁크 확률 및 기설정 중합도 임계값에 따라, 적어도 하나의 후보 검출 박스로부터 적어도 하나의 트렁크 검출 박스를 선택하여 적어도 하나의 트렁크 검출 결과를 획득하고; 적어도 하나의 후보 검출 박스 중의 각각의 후보 검출 박스에 의해 박스 선택된 이미지에 대해 안면 확률을 산출하며; 안면 확률 및 기설정 중합도 임계값에 따라, 적어도 하나의 후보 검출 박스로부터 적어도 하나의 안면 검출 박스를 선택하여 적어도 하나의 안면 검출 결과를 획득하고; 적어도 하나의 후보 검출 박스 중의 각각의 후보 검출 박스에 의해 박스 선택된 이미지에 대해 동작 부위 확률을 산출하며; 동작 부위 확률 및 기설정 중합도 임계값에 따라, 적어도 하나의 후보 검출 박스로부터 적어도 하나의 동작 부위 검출 박스를 선택하여 적어도 하나의 동작 부위 검출 결과를 획득한다.
본 발명의 일부 실시예에서, 상기 검출 모듈(310)은 구체적으로, 기설정된 초기 사이즈에 따라 초기 검출 박스를 생성하고; 초기 검출 박스에 대해 사이즈 변환 및 인장 변환을 수행하여 적어도 하나의 후보 검출 박스를 획득한다.
본 발명의 일부 실시예에서, 상기 검출 모듈(310)은 구체적으로, 상기 트렁크 확률, 상기 안면 확률 및 상기 동작 부위 확률에 따라, 상기 적어도 하나의 후보 검출 박스로부터 적어도 하나의 임시 트렁크 검출 박스, 적어도 하나의 임시 안면 검출 박스 및 적어도 하나의 임시 동작 부위 검출 박스를 각각 선택하고; 트렁크 확률이 가장 큰 임시 트렁크 검출 박스를 제1 트렁크 검출 박스로 사용하며; 제1 트렁크 검출 박스 및 제1 트렁크 검출 박스에 의해 박스 선택된 트렁크 이미지를 이용하여 제1 트렁크 검출 결과를 조합하고; 적어도 하나의 임시 트렁크 검출 박스로부터 제1 트렁크 검출 박스와의 중합도가 기설정 중합도 임계값을 초과하는 임시 트렁크 검출 박스를 제거하여 적어도 하나의 중간 트렁크 검출 박스를 획득하며; 적어도 하나의 중간 트렁크 검출 박스를 적어도 하나의 임시 트렁크 검출 박스로 사용하고, 적어도 하나의 트렁크 검출 결과를 획득할 때까지 상기 과정을 계속하여 수행며; 안면 확률이 가장 큰 임시 안면 검출 박스를 제1 안면 검출 박스로 사용하고; 제1 안면 검출 박스 및 제1 안면 검출 박스에 의해 박스 선택된 안면 이미지를 이용하여 제1 안면 검출 결과를 조합하며; 적어도 하나의 임시 안면 검출 박스로부터 제1 안면 검출 박스와의 중합도가 기설정 중합도 임계값을 초과하는 임시 안면 검출 박스를 제거하여 적어도 하나의 중간 안면 검출 박스를 획득하고; 적어도 하나의 중간 안면 검출 박스를 적어도 하나의 임시 안면 검출 박스로 사용하며, 적어도 하나의 안면 검출 결과를 획득할 때까지 상기 과정을 계속하여 수행하고; 동작 부위 확률이 가장 큰 임시 동작 부위 검출 박스를 제1 동작 부위 검출 박스로 사용하며; 제1 동작 부위 검출 박스 및 제1 동작 부위 검출 박스에 의해 박스 선택된 동작 부위 이미지를 이용하여 제1 동작 부위 검출 결과를 조합하고; 적어도 하나의 임시 동작 부위 검출 박스로부터 제1 동작 부위 검출 박스와의 중합도가 기설정 중합도 임계값을 초과하는 임시 동작 부위 검출 박스를 제거하여 적어도 하나의 중간 동작 부위 검출 박스를 획득하며; 적어도 하나의 중간 동작 부위 검출 박스를 적어도 하나의 임시 동작 부위 검출 박스로 사용하고, 적어도 하나의 동작 부위 검출 결과를 획득할 때까지 상기 과정을 계속하여 수행한다.
설명할 것은, 실제 응용에서, 상기 검출 모듈(310), 조합 모듈(320) 및 연관 모듈(330)은 이미지 인식 장치(800)에 위치한 프로세서(810)에 의해 구현될 수 있고, 구체적으로 중앙 처리 장치(Central Processing Unit, CPU), 마이크로 프로세서(Microprocessor Unit, MPU), 디지털 신호 프로세서(Digital Signal Processing, DSP) 또는 필드 프로그램 가능 게이트 어레이(Field Programmable Gate Array, FPGA) 등에 의해 구현될 수 있다.
본 발명의 실시예는 본 발명의 실시예가 제공하는 이미지 인식 방법을 수행하기 위한 전자 기기를 제공하고; 도 9는 본 발명의 실시예가 제공하는 전자 기기의 구조 모식도 2이며, 도 9에 도시된 바와 같이, 상기 이미지 인식 장치(800)는 프로세서(810), 메모리(820) 및 통신 버스(830)를 포함하고, 메모리(820)는 통신 버스(830)를 통해 프로세서(810)와 통신하며, 메모리(820)는 프로세서(810)에 의해 실행 가능한 하나 또는 복수 개의 프로그램을 저장하고, 하나 또는 복수 개의 프로그램이 실행될 경우, 프로세서(810)를 통해 상술한 실시예에 따른 어느 하나의 이미지 인식 방법을 수행한다.
본 발명의 실시예는 하나 또는 복수 개의 프로그램이 저장된 컴퓨터 판독 가능한 저장 매체를 제공하고, 하나 또는 복수 개의 프로그램이 하나 또는 복수 개의 프로세서(810)에 의해 실행될 수 있으며, 프로그램이 프로세서(810)에 의해 실행될 경우 본 발명의 실시예에 따른 이미지 인식 방법을 구현한다.
본 발명의 통상의 기술자는 본 발명의 실시예가 방법, 시스템 또는 컴퓨터 프로그램 제품으로서 제공될 수 있음을 이해해야 한다. 따라서, 본 발명은 하드웨어 실시예, 소프트웨어 실시예, 또는 소프트웨어와 하드웨어를 결합한 실시예의 형태를 사용할 수 있다. 또한, 본 발명은 컴퓨터 사용 가능한 프로그램 코드가 포함된 하나 또는 복수 개의 컴퓨터 사용 가능한 저장 매체(마그네틱 디스크 메모리 및 광학 메모리 등을 포함하지만 이에 한정되지 않음)에서 실시된 컴퓨터 프로그램 제품의 형태를 적용할 수 있다.
본 발명은 본 발명의 실시예에 따른 방법, 기기(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하여 설명되었다. 컴퓨터 프로그램 명령에 의해 흐름도 및/또는 블록도 중의 각 흐름 및/또는 블록, 및 흐름도 및/또는 블록도 중의 흐름 및/또는 블록의 결합을 구현하는 것으로 이해해야 한다. 이러한 컴퓨터 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터, 내장형 프로세서 또는 다른 프로그램 가능 데이터 처리 기기의 프로세서에 제공되어, 컴퓨터 또는 다른 프로그램 가능 데이터 처리 기기의 프로세서에 의해 실행된 명령이 흐름도의 하나의 흐름 또는 복수 개의 흐름 및/또는 블록도의 하나의 블록 또는 복수 개의 블록 중 지정된 기능을 구현하기 위한 장치를 생성하도록 하는 하나의 기계를 생성할 수 있다.
이러한 컴퓨터 프로그램 명령은 또한 특정적 방식으로 작업하기 위해 컴퓨터 또는 다른 프로그램 가능 데이터 처리 기기를 가이드할 수 있는 컴퓨터 판독 가능한 메모리에 저장되어, 상기 컴퓨터 판독 가능한 메모리에 저장된 명령이 명령 장치를 포함하는 제조품을 생성하도록 할 수 있으며, 상기 명령 장치는 흐름도의 하나의 흐름 또는 복수 개의 흐름 및/또는 블록도의 하나의 블록 또는 복수 개의 블록 중 지정된 기능을 구현한다.
이러한 컴퓨터 프로그램 명령은 또한 컴퓨터 또는 다른 프로그램 가능 데이터 처리 기기에 탑재되어, 컴퓨터 또는 다른 프로그램 가능 기기에서 컴퓨터에 의해 구현되는 처리를 생성하기 위한 일련의 동작 단계를 수행하도록 함으로써, 컴퓨터 또는 다른 프로그램 가능 기기에서 실행되는 명령에 흐름도의 하나의 흐름 또는 복수 개의 흐름 및/또는 블록도의 하나의 블록 또는 복수 개의 블록 중 지정된 기능을 구현하기 위한 단계를 제공한다.
상술한 내용은 본 발명의 바람직한 실시예일 뿐 본 발명의 보호범위는 이에 한정되지 않는다.

Claims (14)

  1. 이미지 인식 방법으로서,
    인식될 이미지에 대해 이미지 검출을 수행하여 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하는 단계 - 하나의 안면 검출 결과는 하나의 안면의 검출 박스를 포함하고, 하나의 동작 부위 검출 결과는 하나의 동작 부위의 검출 박스를 포함하며, 하나의 트렁크 검출 결과는 하나의 트렁크의 검출 박스를 포함함 - ;
    상기 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득하는 단계;
    상기 각각의 트렁크 검출 결과를 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득하는 단계; 및
    상기 적어도 하나의 제1 결과 조합과 상기 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  2. 제1항에 있어서,
    상기 적어도 하나의 제1 결과 조합과 상기 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득하는 단계는,
    각각의 트렁크 검출 결과, 각각의 안면 검출 결과, 및 각각의 동작 부위 검출 결과에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 각각의 안면 검출 결과에 대응되는 안면 특징 시퀀스, 및 각각의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스를 획득하는 단계;
    상기 트렁크 특징 시퀀스 및 상기 안면 특징 시퀀스에 따라, 각각의 제1 결과 조합의 트렁크 검출 결과와 안면 검출 결과를 연관시켜 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득하는 단계;
    상기 트렁크 특징 시퀀스 및 상기 동작 부위 특징 시퀀스에 따라, 각각의 제2 결과 조합의 트렁크 검출 결과와 동작 부위 검출 결과를 연관시켜 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득하는 단계; 및
    각각의 제1 서브 연관 결과 및 각각의 제2 서브 연관 결과에 따라 상기 연관 결과를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  3. 제2항에 있어서,
    상기 각각의 제1 서브 연관 결과 및 각각의 제2 서브 연관 결과에 따라 상기 연관 결과를 결정하는 단계는,
    각각의 제1 서브 연관 결과에 따라, 상기 적어도 하나의 제1 결과 조합 중 트렁크 검출 결과와 안면 검출 결과가 서로 연관되는 연관 제1 결과 조합을 결정하는 단계;
    각각의 제2 서브 연관 결과에 따라, 상기 적어도 하나의 제2 결과 조합 중 트렁크 검출 결과와 동작 부위 검출 결과가 서로 연관되는 연관 제2 결과 조합을 결정하는 단계; 및
    동일한 트렁크 검출 결과를 구비하는 연관 제1 결과 조합과 연관 제2 결과 조합이 서로 연관되는 것으로 결정하는 단계를 포함하고,
    하나의 연관 제1 결과 조합 중의 안면 검출 결과에 의해 표징되는 안면은 이와 연관되는 연관 제2 결과 조합 중의 동작 부위 검출 결과에 의해 표징되는 동작 부위와 서로 연관되는 것을 특징으로 하는 이미지 인식 방법.
  4. 제2항 또는 제3항에 있어서,
    상기 트렁크 특징 시퀀스 및 상기 안면 특징 시퀀스에 따라, 각각의 제1 결과 조합의 트렁크 검출 결과와 안면 검출 결과를 연관시켜 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득하는 단계는,
    하나의 제1 결과 조합 중의 안면 검출 결과에 대응되는 안면 특징 시퀀스, 및 상기 제1 결과 조합 중의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스에 따라, 상기 제1 결과 조합에 대응되는 제1 조합 특징을 스플라이싱하는 단계; 및
    각각의 제1 결과 조합에 대응되는 제1 조합 특징을 이용하여 각각의 제1 결과 조합을 분류하여 각각의 제1 결과 조합에 대응되는 제1 서브 연관 결과를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  5. 제2항 또는 제3항에 있어서,
    상기 트렁크 특징 시퀀스 및 상기 동작 부위 특징 시퀀스에 따라, 각각의 제2 결과 조합의 트렁크 검출 결과와 동작 부위 검출 결과를 연관시켜 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득하는 단계는,
    하나의 제2 결과 조합 중의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 및 상기 제2 결과 조합 중의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스에 따라, 상기 제2 결과 조합에 대응되는 제2 조합 특징을 스플라이싱하는 단계; 및
    각각의 제2 결과 조합에 대응되는 제2 조합 특징을 이용하여 각각의 제2 결과 조합을 분류하여 각각의 제2 결과 조합에 대응되는 제2 서브 연관 결과를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  6. 제2항에 있어서,
    상기 각각의 트렁크 검출 결과, 각각의 안면 검출 결과, 및 각각의 동작 부위 검출 결과에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과에 대응되는 트렁크 특징 시퀀스, 각각의 안면 검출 결과에 대응되는 안면 특징 시퀀스, 및 각각의 동작 부위 검출 결과에 대응되는 동작 부위 특징 시퀀스를 획득하는 단계는,
    상기 각각의 트렁크 검출 결과 중의 트렁크 이미지, 상기 각각의 안면 검출 결과 중의 안면 이미지, 및 상기 각각의 동작 부위 검출 결과 중의 동작 부위 이미지에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과의 트렁크 외관 특징, 각각의 안면 검출 결과의 안면 외관 특징 및 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 획득하는 단계;
    각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 위치 특징을 결정하고; 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보에 따라 각각의 안면 검출 결과의 안면 위치 특징을 결정하며; 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 결정하는 단계; 및
    각각의 트렁크 검출 결과의 트렁크 외관 특징 및 트렁크 위치 특징을 이용하여 각각의 트렁크 검출 결과의 트렁크 특징 시퀀스를 스플라이싱하고, 각각의 안면 검출 결과의 안면 외관 특징 및 안면 위치 특징을 이용하여 각각의 안면 검출 결과의 안면 특징 시퀀스를 스플라이싱하며, 각각의 동작 부위 검출 결과의 동작 부위 외관 특징 및 동작 부위 위치 특징을 이용하여 각각의 동작 부위 검출 결과의 동작 부위 특징 시퀀스를 스플라이싱하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  7. 제6항에 있어서,
    상기 각각의 트렁크 검출 결과 중의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 위치 특징을 결정하고; 각각의 안면 검출 결과 중의 안면 검출 박스의 좌표 정보에 따라 각각의 안면 검출 결과의 안면 위치 특징을 결정하며; 각각의 동작 부위 검출 결과 중의 동작 부위 검출 박스의 좌표 정보에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 결정하는 단계는,
    각각의 트렁크 검출 박스의 좌표 정보에 따라 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터를 생성하고; 각각의 안면 검출 박스의 좌표 정보를 이용하여 각각의 안면 검출 결과의 안면 영역 위치 파라미터를 생성하며; 각각의 동작 부위 검출 박스의 좌표 정보를 사용하여 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터를 생성하는 단계;
    기설정된 트렁크 시퀀스 비트, 기설정된 트렁크 특징 구축 모델 및 트렁크 특징 구축 파라미터에 기반하여, 각각의 트렁크 검출 결과의 트렁크 영역 위치 파라미터에 따라 각각의 트렁크 검출 결과의 트렁크 위치 시퀀스를 구축하고, 각각의 트렁크 검출 결과의 트렁크 위치 시퀀스에 따라 각각의 트렁크 검출 결과의 트렁크 위치 특징을 생성하는 단계 - 상기 트렁크 특징 구축 파라미터는 상기 기설정된 트렁크 시퀀스 비트에 따라 생성됨 - ;
    기설정된 안면 시퀀스 비트, 기설정된 안면 특징 구축 모델 및 안면 특징 구축 파라미터에 기반하여, 각각의 안면 검출 결과의 안면 영역 위치 파라미터에 따라 각각의 안면 검출 결과의 안면 위치 시퀀스를 구축하고, 각각의 안면 검출 결과의 안면 위치 시퀀스에 따라 각각의 안면 검출 결과의 안면 위치 특징을 생성하는 단계 - 상기 안면 특징 구축 파라미터는 상기 기설정된 안면 시퀀스 비트에 따라 생성됨 - ; 및
    기설정된 동작 부위 시퀀스 비트, 기설정된 동작 부위 특징 구축 모델 및 동작 부위 특징 구축 파라미터에 기반하여, 각각의 동작 부위 검출 결과의 동작 부위 영역 위치 파라미터에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 시퀀스를 구축하고, 각각의 동작 부위 검출 결과의 동작 부위 위치 시퀀스에 따라 각각의 동작 부위 검출 결과의 동작 부위 위치 특징을 생성하는 단계 - 상기 동작 부위 특징 구축 파라미터는 상기 기설정된 동작 부위 시퀀스 비트에 따라 생성됨 - ;를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  8. 제7항에 있어서,
    기설정된 시퀀스 비트가 짝수 비트일 경우, 기설정된 특징 구축 모델은 사인 구축 모델이고; 상기 위치 시퀀스는,
    각각의 검출 결과의 영역 위치 파라미터와 특징 구축 파라미터를 비교하여 각각의 검출 결과의 제1 파라미터 비율을 획득하는 단계;
    상기 사인 구축 모델을 이용하여 각각의 검출 결과의 제1 파라미터 비율에 대해 사인 값 산출을 수행하여 각각의 검출 결과의 제1 위치 요소를 획득하는 단계; 및
    각각의 검출 결과의 제1 위치 요소에 따라 각각의 검출 결과의 위치 시퀀스를 결정하는 단계에 의해 결정되며;
    기설정된 시퀀스 비트가 기설정된 트렁크 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 트렁크 특징 구축 모델이고, 특징 구축 파라미터는 트렁크 특징 구축 파라미터이며, 검출 결과는 트렁크 검출 결과이고, 영역 위치 파라미터는 트렁크 영역 위치 파라미터이며, 위치 시퀀스는 트렁크 위치 시퀀스이고;
    기설정된 시퀀스 비트가 기설정된 안면 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 안면 특징 구축 모델이고, 특징 구축 파라미터는 안면 특징 구축 파라미터이며, 검출 결과는 안면 검출 결과이고, 영역 위치 파라미터는 안면 영역 위치 파라미터이며, 위치 시퀀스는 안면 위치 시퀀스이고;
    기설정된 시퀀스 비트가 기설정된 동작 부위 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 동작 부위 특징 구축 모델이고, 특징 구축 파라미터는 동작 부위 특징 구축 파라미터이며, 검출 결과는 동작 부위 검출 결과이고, 영역 위치 파라미터는 동작 부위 영역 위치 파라미터이며, 위치 시퀀스는 동작 부위 위치 시퀀스인 것을 특징으로 하는 이미지 인식 방법.
  9. 제7항에 있어서,
    기설정된 시퀀스 비트가 홀수 비트일 경우, 기설정된 특징 구축 모델은 코사인 구축 모델이고; 상기 위치 시퀀스는,
    각각의 검출 결과의 영역 위치 파라미터와 특징 구축 파라미터를 비교하여 각각의 검출 결과의 제2 파라미터 비율을 획득하는 단계;
    상기 코사인 구축 모델을 이용하여 각각의 검출 결과의 제2 파라미터 비율에 대해 코사인 값 산출을 수행하여 각각의 검출 결과의 제2 위치 요소를 획득하는 단계; 및
    각각의 검출 결과의 제2 위치 요소에 따라 각각의 검출 결과의 위치 시퀀스를 결정하는 단계에 의해 결정되며;
    기설정된 시퀀스 비트가 기설정된 트렁크 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 트렁크 특징 구축 모델이고, 특징 구축 파라미터는 트렁크 특징 구축 파라미터이며, 검출 결과는 트렁크 검출 결과이고, 영역 위치 파라미터는 트렁크 영역 위치 파라미터이며, 위치 시퀀스는 트렁크 위치 시퀀스이고;
    기설정된 시퀀스 비트가 기설정된 안면 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 안면 특징 구축 모델이고, 특징 구축 파라미터는 안면 특징 구축 파라미터이며, 검출 결과는 안면 검출 결과이고, 영역 위치 파라미터는 안면 영역 위치 파라미터이며, 위치 시퀀스는 안면 위치 시퀀스이고;
    기설정된 시퀀스 비트가 기설정된 동작 부위 시퀀스 비트일 경우, 기설정된 특징 구축 모델은 기설정된 동작 부위 특징 구축 모델이고, 특징 구축 파라미터는 동작 부위 특징 구축 파라미터이며, 검출 결과는 동작 부위 검출 결과이고, 영역 위치 파라미터는 동작 부위 영역 위치 파라미터이며, 위치 시퀀스는 동작 부위 위치 시퀀스인 것을 특징으로 하는 이미지 인식 방법.
  10. 제6항에 있어서,
    상기 각각의 트렁크 검출 결과 중의 트렁크 이미지, 상기 각각의 안면 검출 결과 중의 안면 이미지, 및 상기 각각의 동작 부위 검출 결과 중의 동작 부위 이미지에 대해 각각 특징 추출을 수행하여, 각각의 트렁크 검출 결과의 트렁크 외관 특징, 각각의 안면 검출 결과의 안면 외관 특징 및 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 획득하는 단계는,
    상기 인식될 이미지에 대응되는 적어도 하나의 특징맵을 획득하는 단계;
    상기 적어도 하나의 특징맵의 각각의 특징맵으로부터 상기 각각의 트렁크 검출 결과의 트렁크 특징맵을 획득하고; 각각의 트렁크 검출 결과의 트렁크 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 트렁크 특징 서브 영역을 획득하며, 각각의 트렁크 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 트렁크 검출 결과에 대응되는 적어도 하나의 트렁크 외관 서브 특징을 획득하고; 각각의 트렁크 검출 결과에 대응되는 적어도 하나의 트렁크 외관 서브 특징을 이용하여 각각의 트렁크 검출 결과의 트렁크 외관 특징을 구축하는 단계;
    상기 적어도 하나의 특징맵의 각각의 특징맵으로부터 상기 각각의 안면 검출 결과의 안면 특징맵을 획득하고; 각각의 안면 검출 결과의 안면 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 안면 특징 서브 영역을 획득하며, 각각의 안면 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 안면 검출 결과에 대응되는 적어도 하나의 안면 외관 서브 특징을 획득하고; 각각의 안면 검출 결과에 대응되는 적어도 하나의 안면 외관 서브 특징을 이용하여 각각의 안면 검출 결과의 안면 외관 특징을 구축하는 단계; 및
    상기 적어도 하나의 특징맵의 각각의 특징맵으로부터 상기 각각의 동작 부위 검출 결과의 동작 부위 특징맵을 획득하고; 각각의 동작 부위 검출 결과의 동작 부위 특징맵에 대해 영역 분할을 수행하여 적어도 하나의 동작 부위 특징 서브 영역을 획득하며, 각각의 동작 부위 특징 서브 영역에 대해 최대값 특징 추출을 수행하여 각각의 동작 부위 검출 결과에 대응되는 적어도 하나의 동작 부위 외관 서브 특징을 획득하고; 각각의 동작 부위 검출 결과에 대응되는 적어도 하나의 동작 부위 외관 서브 특징을 이용하여 각각의 동작 부위 검출 결과의 동작 부위 외관 특징을 구축하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  11. 이미지 인식 장치로서,
    인식될 이미지를 검출하여 적어도 하나의 안면 검출 결과, 적어도 하나의 동작 부위 검출 결과 및 적어도 하나의 트렁크 검출 결과를 획득하는 검출 모듈 - 하나의 안면 검출 결과는 하나의 안면의 검출 박스를 포함하고, 하나의 동작 부위 검출 결과는 하나의 동작 부위의 검출 박스를 포함하며, 하나의 트렁크 검출 결과는 하나의 트렁크의 검출 박스를 포함함 - ;
    상기 적어도 하나의 트렁크 검출 결과 중의 각각의 트렁크 검출 결과를 각각의 안면 검출 결과와 각각 조합하여 적어도 하나의 제1 결과 조합을 획득하고; 상기 각각의 트렁크 검출 결과를 각각의 동작 부위 검출 결과와 각각 조합하여 적어도 하나의 제2 결과 조합을 획득하는 조합 모듈; 및
    상기 적어도 하나의 제1 결과 조합과 상기 적어도 하나의 제2 결과 조합을 연관시켜 연관 결과를 획득하는 연관 모듈을 포함하는 것을 특징으로 하는 이미지 인식 장치.
  12. 전자 기기로서,
    컴퓨터 실행 가능한 명령을 저장하는 메모리; 및
    상기 메모리에 저장된 컴퓨터 실행 가능한 명령을 실행할 경우, 제1항 내지 제10항 중 어느 한 항에 따른 방법을 구현하는 프로세서를 포함하는 것을 특징으로 하는 전자 기기.
  13. 저장 매체로서,
    컴퓨터 실행 가능한 명령이 저장되고, 컴퓨터 실행 가능한 명령이 프로세서에 의해 실행될 경우, 상기 프로세서가 제1항 내지 제10항 중 어느 한 항에 따른 방법을 구현하도록 하는 것을 특징으로 하는 저장 매체.
  14. 컴퓨터 실행 가능한 코드를 포함하는 컴퓨터 프로그램으로서,
    상기 컴퓨터 실행 가능한 코드가 기기에서 실행될 경우, 상기 기기 중의 프로세서는 제1항 내지 제10항 중 어느 한 항에 따른 이미지 인식 방법의 단계의 명령을 실행하는 것을 특징으로 하는 컴퓨터 프로그램.
KR1020207034853A 2020-04-01 2020-09-09 이미지 인식 방법, 장치 및 저장 매체 KR20210124012A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10202003027QA SG10202003027QA (en) 2020-04-01 2020-04-01 Image recognition method, apparatus, and storage medium
SG10202003027Q 2020-04-01
PCT/IB2020/058350 WO2021198753A1 (en) 2020-04-01 2020-09-09 Image recognition method, apparatus, and storage medium

Publications (1)

Publication Number Publication Date
KR20210124012A true KR20210124012A (ko) 2021-10-14

Family

ID=73034368

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207034853A KR20210124012A (ko) 2020-04-01 2020-09-09 이미지 인식 방법, 장치 및 저장 매체

Country Status (6)

Country Link
JP (1) JP2022531029A (ko)
KR (1) KR20210124012A (ko)
CN (1) CN114026615A (ko)
AU (1) AU2020294186B2 (ko)
SG (1) SG10202003027QA (ko)
WO (1) WO2021198753A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220130568A (ko) * 2021-03-17 2022-09-27 센스타임 인터내셔널 피티이. 리미티드. 객체들 사이의 상관성을 예측하기 위한 방법들, 장치들, 디바이스들, 및 저장 매체

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002008041A (ja) * 2000-06-22 2002-01-11 Namco Ltd 動作検出装置、動作検出方法および情報記憶媒体
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
JP2005351814A (ja) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc 検出装置および検出方法
JP4793638B2 (ja) * 2006-03-27 2011-10-12 マツダ株式会社 車両用歩行者検出装置
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
CN101406390B (zh) * 2007-10-10 2012-07-18 三星电子株式会社 检测人体部位和人的方法和设备以及对象检测方法和设备
KR101616926B1 (ko) * 2009-09-22 2016-05-02 삼성전자주식회사 영상 처리 장치 및 방법
US9058663B2 (en) * 2012-04-11 2015-06-16 Disney Enterprises, Inc. Modeling human-human interactions for monocular 3D pose estimation
JP5838940B2 (ja) * 2012-09-20 2016-01-06 株式会社デンソー 画像処理装置及び車両制御システム
JP2014093023A (ja) * 2012-11-06 2014-05-19 Canon Inc 物体検出装置、物体検出方法及びプログラム
JP2015095164A (ja) * 2013-11-13 2015-05-18 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US20190316966A1 (en) * 2016-07-13 2019-10-17 Sony Corporation Image processing device and image processing method
JP6712555B2 (ja) * 2017-03-07 2020-06-24 Kddi株式会社 オブジェクト姿勢推定方法、プログラムおよび装置
KR102170416B1 (ko) * 2018-04-26 2020-10-27 한국과학기술원 컴퓨터와 크라우드 소싱을 이용한 비디오 사전 처리 방법
CN109325450A (zh) * 2018-09-25 2019-02-12 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN110188701A (zh) * 2019-05-31 2019-08-30 上海媒智科技有限公司 基于人体关键节点预测的服饰识别方法、系统及终端

Also Published As

Publication number Publication date
AU2020294186A1 (en) 2021-10-21
CN114026615A (zh) 2022-02-08
WO2021198753A1 (en) 2021-10-07
AU2020294186B2 (en) 2022-06-16
SG10202003027QA (en) 2020-10-29
JP2022531029A (ja) 2022-07-06

Similar Documents

Publication Publication Date Title
US8792722B2 (en) Hand gesture detection
US8750573B2 (en) Hand gesture detection
CN108780507B (zh) 用于提供图像分类器的系统和方法
US20120068917A1 (en) System and method for dynamic gesture recognition using geometric classification
CN111062263B (zh) 手部姿态估计的方法、设备、计算机设备和存储介质
CN108875482B (zh) 物体检测方法和装置、神经网络训练方法和装置
WO2018082308A1 (zh) 一种图像处理方法及终端
JP2011008704A (ja) 画像処理装置、画像処理方法、およびプログラム
CN111382637B (zh) 行人检测跟踪方法、装置、终端设备及介质
KR20130037353A (ko) 이동 장치 및 그 제어 방법
CN109902576B (zh) 一种头肩图像分类器的训练方法及应用
CN107610177A (zh) 一种同步定位与地图构建中确定特征点的方法和设备
US10937150B2 (en) Systems and methods of feature correspondence analysis
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
KR20100081874A (ko) 사용자 맞춤형 표정 인식 방법 및 장치
CN113781519A (zh) 目标跟踪方法和目标跟踪装置
KR20220098312A (ko) 이미지 내 관련 대상 검출 방법, 장치, 디바이스 및 기록 매체
CN113205138A (zh) 人脸人体匹配方法、设备和存储介质
US11361589B2 (en) Image recognition method, apparatus, and storage medium
CN109344758B (zh) 基于改进局部二值模式的人脸识别方法
KR20210124012A (ko) 이미지 인식 방법, 장치 및 저장 매체
CN113435432A (zh) 视频异常检测模型训练方法、视频异常检测方法和装置
WO2018113206A1 (zh) 一种图像处理方法及终端
KR101035291B1 (ko) 관절모델db을 이용한 포즈인식 시스템
JP6393495B2 (ja) 画像処理装置および物体認識方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal