KR102331651B1 - 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치 - Google Patents

겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR102331651B1
KR102331651B1 KR1020197030463A KR20197030463A KR102331651B1 KR 102331651 B1 KR102331651 B1 KR 102331651B1 KR 1020197030463 A KR1020197030463 A KR 1020197030463A KR 20197030463 A KR20197030463 A KR 20197030463A KR 102331651 B1 KR102331651 B1 KR 102331651B1
Authority
KR
South Korea
Prior art keywords
feature
apparent
target
location
attribute
Prior art date
Application number
KR1020197030463A
Other languages
English (en)
Other versions
KR20190137815A (ko
Inventor
춘펑 야오
바이란 펑
더펑 리
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20190137815A publication Critical patent/KR20190137815A/ko
Application granted granted Critical
Publication of KR102331651B1 publication Critical patent/KR102331651B1/ko

Links

Images

Classifications

    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치가 제공된다. 목표 이미지의 겉보기 특징의 위치 특징을 획득하여, 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 부위의 위치를 결정한다. 겉보기 특징의 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 부위의 위치를 지시하기 위해 사용된다. 위치 특징에 기초하여 목표 구역이 인식된다. 목표 구역은 대상의 부위를 포함한다. 그 후, 상기 목표 구역에 대해 특징 분석이 수행되고, 상기 대상의 겉보기 특징의 기술 속성이 인식된다. 국소 속성을 갖는 상기 겉보기 특징의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 그리고 상기 대상의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.

Description

겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치
본 발명은 이미지 처리 기술들의 분야에 관한 것으로, 특히, 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치에 관한 것이다.
보행자 속성 인식은 감시 비디오에서 보행자의 겉보기 특징의 기술 속성을 인식하기 위해 사용되는 패턴 인식 기술이다. 보행자의 겉보기 특징은 성별, 연령, 체구, 복장, 머리카락, 액세서리, 및 배향과 같은 복수의 양태를 포함한다. 각각의 겉보기 특징은 복수의 기술 속성을 포함한다. 예를 들어, 겉보기 특징이 성별일 때, 성별의 기술 속성들은 남성 및 여성을 포함한다. 다른 예로서, 겉보기 특징이 머리카락일 때, 머리카락의 기술 속성들은 긴 머리카락 및 짧은 머리카락을 포함한다. 머리카락의 겉보기 특징은 다른 기술 속성들을 추가로 포함할 수 있다. 예를 들어, 머리카락의 기술 속성들은 색들에 기초하여 구별되고, 머리카락의 기술 속성들은 백색, 흑색, 갈색 등을 포함한다. 보행자 속성 인식의 대상은 카메라에 의해 임의의 각도로 랜덤하게 촬영되는 목표 이미지이다. 목적은 시각 정보 검색을 간소화하고 보행자의 겉보기 특징의 기술 속성을 인식함으로써 시각 정보 인식의 속도 및 정확도를 증가시키는 것이다.
종래 기술에서는, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성이 인식될 때, 목표 이미지에 대해 특징 분석 및 분류 훈련이 수행된다. 상이한 겉보기 특징들의 기술 속성들의 인식, 예를 들어, 긴 머리카락 및 짧은 머리카락을 포함하는 기술 속성들의 인식은 또한 전체 목표 이미지에 대해 특징 분석을 수행하는 것을 의미하고, 무의미한 이미지 처리 조작을 포함하여, 컴퓨터 이미지 처리 작업부하를 증가시킨다.
본 발명은 목표 이미지로부터 상이한 겉보기 특징들에 기초하여, 겉보기 특징의 기술 속성과 관련된 인식 구역을 의도적으로 선택하고, 이로써 무의미한 이미지 처리 조작을 감소시키고 컴퓨터 이미지 처리 작업부하들을 감소시키기 위해, 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치를 개시한다.
제1 양태는 겉보기 특징의 기술 속성을 인식하기 위한 방법을 제공한다. 이 방법은 이미지 처리 디바이스에 의해 수행되고 이는: 목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -; 상기 목표 이미지의 겉보기 특징의 위치 특징을 획득하여, 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 결정하는 단계 - 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -; 상기 위치 특징에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 대상의 부위를 포함함 -; 및 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 포함한다.
상기 국소 속성을 갖는 상기 겉보기 특징의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 그리고 상기 대상의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.
제1 양태에 기초하여, 제1 구현에서, 상기 방법은: 상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
제1 양태에 기초하여, 제1 구현에서, 상기 방법은: 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
제1 양태, 또는 제1 양태의 제1 또는 제2 구현에 관련하여, 제3 구현에서, 상기 방법은: 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역의 위치는 왼쪽 방향, 오른쪽 방향, 위쪽 방향, 아래쪽 방향, 또는 다른 방향으로 조정된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역이 이동된 후에 상기 대상의 부위를 포함하는 오프셋 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역이 획득되기 때문에 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 기술 속성을 인식하는 정확도를 증가시킨다.
제1 양태 또는 제1 양태의 제3 구현에 관련하여, 제4 구현에서, 상기 방법은: 상기 오프셋 구역 또는 상기 목표 구역을 중심으로서 이용하여 상기 오프셋 구역 또는 상기 목표 구역을 바깥쪽으로 확장하여, 하나 이상의 후보 구역을 획득하는 단계; 상기 후보 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역 또는 상기 오프셋 구역은 위치 조정을 위해 주위로 확장된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역 또는 상기 오프셋 구역이 확장된 후에 상기 대상의 부위를 포함하는 후보 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역 또는 오프셋 구역이 획득되기 때문에 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 기술 속성을 인식하는 정확도를 증가시킨다.
제1 양태의 제3 또는 제4 구현에 관련하여, 제5 구현에서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는: 상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.
제1 양태 또는 제1 양태의 제1 내지 제5 구현 중 어느 하나에 관련하여, 제6 구현에서, 겉보기 특징의 위치 특징을 획득하는 단계는: 상기 겉보기 특징의 위치 특징을 포함하는 정보를 수신하는 단계를 포함하고, 상기 정보는 상기 겉보기 특징의 위치 특징을 지시하기 위해 사용된다.
제1 양태 또는 제1 양태의 제1 내지 제5 구현 중 어느 하나에 관련하여, 제7 구현에서, 겉보기 특징의 위치 특징을 획득하는 단계는: 상기 겉보기 특징과 상기 위치 특징 간의 사전저장된 대응관계를 조회하는 단계; 및 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하는 단계를 포함한다.
제2 양태에 따르면, 겉보기 특징의 기술 속성을 인식하기 위한 방법이 제공된다. 이 방법은 이미지 처리 디바이스에 의해 수행되고 이는: 목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -; 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하여, 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위 및 제2 부위의 위치를 결정하는 단계 - 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 상기 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 상기 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -; 상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하는 단계; 상기 최대 거리에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 제1 부위 및 제2 부위를 포함함 -; 및 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 포함한다.
상기 국소 속성을 갖는 상기 겉보기 특징의 복수의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 상기 대상의 복수의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.
제2 양태에 기초하여, 제1 구현에서, 상기 최대 거리는 사전설정된 임계치보다 작다. 사전설정된 임계치는 이미지 처리 디바이스에게 목표 이미지에 대해 국소 처리 또는 전역 처리를 수행하도록 명령하기 위해 사용된다. 상기 최대 거리가 상기 사전설정된 임계치보다 작으면, 상기 이미지 처리 디바이스는 상기 목표 이미지에 대해 국소 처리를 수행하도록 명령받는다; 또는 상기 최대 거리가 상기 사전설정된 임계치 이상이면, 상기 이미지 처리 디바이스는 상기 목표 이미지에 대해 전역 처리를 수행하도록 명령받는다. 상기 전역 처리는 상기 목표 이미지를 처리하는 것이다.
제2 양태 또는 제2 양태의 제1 구현에 관련하여, 제2 구현에서, 상기 방법은: 상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
제2 양태 또는 제2 양태의 제1 구현에 관련하여, 제3 구현에서, 상기 방법은: 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
제2 양태 또는 제2 양태의 제1 내지 제3 구현들 중 어느 하나에 관련하여, 제4 구현에서, 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 단계는: 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 포함하는 정보를 수신하는 단계를 포함하고, 상기 정보는 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 지시하기 위해 사용된다.
제2 양태 또는 제2 양태의 제1 내지 제3 구현들 중 어느 하나에 관련하여, 제5 구현에서, 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 단계는: 상기 제1 위치 특징 및 상기 제2 위치 특징 각각과 상기 겉보기 특징 간의 사전저장된 대응관계를 조회하는 단계; 및 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하는 단계를 포함한다.
제2 양태 또는 제2 양태의 제1 내지 제5 구현들 중 어느 하나에 관련하여, 제6 구현에서, 상기 방법은: 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역의 위치는 왼쪽 방향, 오른쪽 방향, 위쪽 방향, 아래쪽 방향, 또는 다른 방향으로 조정된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역이 이동된 후에 상기 대상의 부위를 포함하는 오프셋 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역이 획득되기 때문에 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 기술 속성을 인식하는 정확도를 증가시킨다.
제2 양태의 제6 구현에 관련하여, 제7 구현에서, 상기 방법은: 상기 오프셋 구역 또는 상기 목표 구역을 중심으로서 이용하여 상기 오프셋 구역 또는 상기 목표 구역을 바깥쪽으로 확장하여, 하나 이상의 후보 구역을 획득하는 단계; 상기 후보 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역 또는 상기 오프셋 구역은 위치 조정을 위해 주위로 확장된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역 또는 상기 오프셋 구역이 확장된 후에 상기 대상의 부위를 포함하는 후보 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역 또는 오프셋 구역이 획득되기 때문에 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 기술 속성을 인식하는 정확도를 증가시킨다.
제2 양태의 제6 또는 제7 구현에 관련하여, 제8 구현에서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는: 상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.
제3 양태에 따르면, 겉보기 특징의 기술 속성을 인식하기 위한 방법이 제공된다. 이 방법은 이미지 처리 디바이스에 의해 수행되고, 다음의 단계들: 목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -; 및 상기 목표 이미지에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 포함하고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 기술 속성은 상기 대상의 겉보기의 특성을 식별하기 위해 사용되고, 상기 겉보기 특징은 전역 속성을 갖고, 상기 전역 속성은 상기 목표 이미지를 처리하는 방식이 전역 처리인 것을 지시하기 위해 사용된다.
상기 겉보기 특징이 전역 속성을 갖는 것이 결정된다. 전역 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지는 특징 분석을 위한 인식 구역으로서 직접 선택되는 반면, 상기 목표 이미지에 대해 블록 특징 분석이 수행될 필요가 없다. 이는 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.
제3 양태에 관련하여, 제1 구현에서, 상기 방법은: 상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.
제3 양태에 관련하여, 제2 구현에서, 상기 방법은: 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.
제3 양태 또는 제3 양태의 제1 또는 제2 구현에 관련하여, 제3 구현에서, 상기 방법은: 상기 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 단계 - 상기 다른 겉보기 특징은 상기 겉보기 특징의 특성과 연관되는 그리고 상기 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용됨 -; 상기 다른 겉보기 특징의 기술 속성을 획득하는 단계; 및 상기 다른 겉보기 특징의 기술 속성을 이용하여 상기 겉보기 특징의 기술 속성을 수정하는 단계를 추가로 포함한다. 전역 속성을 갖는 겉보기 특징과 연관되는 그리고 국소 속성을 갖는 다른 겉보기 특징의 기술 속성을 이용하여 전역 속성을 갖는 겉보기 특징의 기술 속성을 수정하여, 전역 속성을 갖는 겉보기 특징의 기술 속성을 인식하는 정확도를 증가시킨다.
제3 양태의 제3 구현에 관련하여, 제4 구현에서, 상기 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 단계는: 상기 겉보기 특징과 상기 다른 겉보기 특징 간의 사전저장된 대응관계를 조회하는 단계; 및 상기 겉보기 특징과 연관된 상기 다른 겉보기 특징을 획득하는 단계를 포함한다.
제3 양태의 제3 구현에 관련하여, 제5 구현에서, 상기 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 단계는: 상기 다른 겉보기 특징의 식별자를 포함하는 정보를 수신하는 단계; 및 상기 겉보기 특징과 연관된 상기 다른 겉보기 특징을 획득하는 단계를 포함한다.
제3 양태의 제3 내지 제5 구현들 중 어느 하나에 관련하여, 제6 구현에서, 상기 다른 겉보기 특징의 기술 속성을 획득하는 단계는: 상기 다른 겉보기 특징의 위치 특징을 획득하는 단계 - 상기 다른 겉보기 특징은 상기 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 다른 겉보기 특징의 위치 특징은 상기 다른 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 다른 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -; 상기 다른 겉보기 특징의 위치 특징에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 대상의 부위를 포함함 -; 및 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 다른 겉보기 특징의 기술 속성을 인식하는 단계를 포함한다.
제3 양태의 제6 구현에 관련하여, 제7 구현에서, 상기 방법은: 상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 다른 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
제3 양태의 제6 구현에 관련하여, 제8 구현에서, 상기 방법은: 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 다른 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 다른 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
제3 양태의 제6 내지 제8 구현들 중 어느 하나에 관련하여, 제9 구현에서, 상기 방법은: 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 상기 다른 겉보기 특징의 기술 속성으로서, 사전설정된 알고리즘에 따라 상기 다른 겉보기 특징의 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 다른 겉보기 특징의 기술 속성 및 상기 다른 기술 속성 중에, 상기 목표 데이터에 가장 가까운 기술 속성이다.
제3 양태 또는 제3 양태의 제9 구현에 관련하여, 제10 구현에서, 상기 방법은: 상기 오프셋 구역 또는 상기 목표 구역을 중심으로서 이용하여 상기 오프셋 구역 또는 상기 목표 구역을 바깥쪽으로 확장하여, 하나 이상의 후보 구역을 획득하는 단계; 상기 후보 구역에 대해 특징 분석을 수행하고, 상기 대상의 다른 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 상기 다른 겉보기 특징의 기술 속성으로서, 사전설정된 알고리즘에 따라 상기 다른 겉보기 특징의 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 다른 겉보기 특징의 상기 기술 속성 및 상기 다른 기술 속성 중에, 상기 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역 또는 상기 오프셋 구역은 위치 조정을 위해 주위로 확장된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역 또는 상기 오프셋 구역이 확장된 후에 상기 대상의 부위를 포함하는 후보 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역 또는 오프셋 구역이 획득되기 때문에 상기 다른 겉보기 특징의 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 상기 다른 겉보기 특징의 기술 속성을 인식하는 정확도를 증가시킨다.
제3 양태의 제9 또는 제10 구현에 관련하여, 제11 구현에서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는: 상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.
제3 양태의 제6 내지 제11 구현들 중 어느 하나에 관련하여, 제12 구현에서, 상기 다른 겉보기 특징의 위치 특징을 획득하는 단계는: 상기 다른 겉보기 특징의 위치 특징을 포함하는 정보를 수신하는 단계를 포함하고, 상기 정보는 상기 다른 겉보기 특징의 위치 특징을 지시하기 위해 사용된다.
제3 양태의 제6 내지 제11 구현들 중 어느 하나에 관련하여, 제13 구현에서, 상기 다른 겉보기 특징의 위치 특징을 획득하는 단계는: 상기 다른 겉보기 특징과 상기 위치 특징 간의 사전저장된 대응관계를 조회하는 단계; 및 상기 다른 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하는 단계를 포함한다.
제4 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공한다. 이 장치는 제1 양태 또는 제1 양태의 가능한 구현들 중 어느 하나에서의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 수행하도록 구성되는 모듈들을 포함한다. 상기 모듈들은 하드웨어를 이용하여 구현될 수 있거나, 대응하는 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.
제5 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공하고, 이 장치는 프로세서 및 메모리를 포함한다. 상기 메모리는 컴퓨터 명령어를 저장하고, 상기 프로세서는 상기 메모리에 연결된다. 상기 프로세서는 상기 메모리 내의 상기 컴퓨터 명령어를 실행하여, 제1 양태 또는 제1 양태의 가능한 구현들 중 어느 하나에서의 방법을 수행하도록 구성된다.
제6 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공한다. 이 장치는 제2 양태 또는 제2 양태의 가능한 구현들 중 어느 하나에서의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 수행하도록 구성되는 모듈들을 포함한다. 상기 모듈들은 하드웨어를 이용하여 구현될 수 있거나, 대응하는 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.
제7 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공하고, 이 장치는 프로세서 및 메모리를 포함한다. 상기 메모리는 컴퓨터 명령어를 저장하고, 상기 프로세서는 상기 메모리에 연결된다. 상기 프로세서는 상기 메모리 내의 상기 컴퓨터 명령어를 실행하여, 제2 양태 또는 제2 양태의 가능한 구현들 중 어느 하나에서의 방법을 수행하도록 구성된다.
제8 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공한다. 이 장치는 제3 양태 또는 제3 양태의 가능한 구현들 중 어느 하나에서의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 수행하도록 구성되는 모듈들을 포함한다. 상기 모듈들은 하드웨어를 이용하여 구현될 수 있거나, 대응하는 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.
제9 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공하고, 이 장치는 프로세서 및 메모리를 포함한다. 상기 메모리는 컴퓨터 명령어를 저장하고, 상기 프로세서는 상기 메모리에 연결된다. 상기 프로세서는 상기 메모리 내의 상기 컴퓨터 명령어를 실행하여, 제3 양태 또는 제3 양태의 가능한 구현들 중 어느 하나에서의 방법을 수행하도록 구성된다.
본 발명의 실시예들은 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치를 제공한다. 상기 목표 이미지의 겉보기 특징의 위치 특징이 획득되고, 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치가 결정되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 상기 위치 특징에 기초하여 상기 목표 구역이 인식되는데, 상기 목표 구역은 상기 대상의 부위를 포함한다. 그 후, 상기 목표 구역에 대해 특징 분석이 수행되고, 상기 대상의 겉보기 특징의 기술 속성이 인식된다. 상기 국소 속성을 갖는 상기 겉보기 특징의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 그리고 상기 대상의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.
본 발명의 실시예들에서의 기술적 해결책들을 더 명확하게 설명하기 위해, 이하에서는 본 발명의 실시예들을 설명하기 위해 요구되는 첨부 도면들을 간단히 설명한다.
도 1은 본 발명의 실시예에 따른 이미지 처리 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 이미지 처리 디바이스(120)의 구조도이다.
도 3a는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 방법의 흐름도이다.
도 3b는 본 발명의 실시예에 따른 목표 구역을 결정하는 개략도이다.
도 3c는 본 발명의 실시예에 따른 목표 구역의 이동 후에 획득되는 개략도이다.
도 3d는 본 발명의 실시예에 따른 블록 분할 다이어그램들의 개략도이다.
도 4는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법의 흐름도이다.
도 5는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법의 흐름도이다.
도 6은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 장치의 구조도이다.
도 7은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
도 8은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
도 9는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
도 10은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
도 11은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
이하에서는 첨부 도면들을 참조하여 본 발명의 실시예들에서의 기술적 해결책들을 명확하고 완전하게 설명한다. 명백히, 설명된 실시예들은 본 발명의 실시예들의 전부가 아니라 일부에 불과하다.
실시예들에서 제공되는 이미지 처리 디바이스, 장치, 및 방법은 주로 보행자 감시 분야에 적용되고, 감시 비디오에서의 보행자 및 보행자의 겉보기 특징의 기술 속성을 인식하기 위해 사용된다. 겉보기 특징은 감시 중인 사람의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용된다. 예를 들어, 겉보기 특징은 머리카락의 색 또는 사람의 머리카락의 길이, 또는 피부의 색, 신장, 성별, 착용한 의복의 유형, 또는 보행자의 휴대 가방의 유형일 수 있다. 대안적으로, 차량 감시 분야에서의 응용에서, 겉보기 특징은 차량의 색, 차량 번호판, 또는 얼굴 특징, 착용한 의복의 스타일, 또는 차량의 운전자의 성별 등일 수 있다. 기술 속성은 사람의 겉보기의 특성을 식별하기 위해 사용된다. 예를 들어, 겉보기 특징은 보행자의 피부의 색이다. 피부의 색은 복수의 기술 속성: 황색, 흑색, 및 백색을 포함한다.
실시예들에서 제공되는 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치가 이미지 처리 시스템에 적용된다. 도 1은 본 발명의 실시예에 따른 이미지 처리 시스템의 구성도이다. 도 1에 도시된 바와 같이, 이미지 처리 시스템은 초기 이미지 촬영 장치(110) 및 이미지 처리 디바이스(120)를 포함한다. 초기 이미지 촬영 장치(110)는 이미지 처리 디바이스(120)에 통신가능하게 연결된다. 초기 이미지 촬영 장치(110)는 상이한 촬영 각도들에서 초기 이미지를 모니터링하고 획득하도록 구성되고, 초기 이미지는 대상을 포함한다. 초기 이미지 촬영 장치(110)는 초기 이미지를 이미지 처리 디바이스(120)에 전송한다. 초기 이미지를 수신한 후에, 이미지 처리 디바이스(120)는 초기 이미지 내의 대상의 윤곽을 인식하고, 윤곽에 의해 형성된 윤곽 이미지를 획득한다. 윤곽 이미지는 대상을 포함한다.
윤곽 이미지를 획득한 후에, 이미지 처리 디바이스(120)는 윤곽 이미지 내의 대상을 포함하는 목표 이미지를 획득한다. 윤곽 이미지 내의 대상을 포함하는 목표 이미지를 획득하는 방식은 다음과 같다: 이미지 처리 디바이스(120)는 사전설정된 대상 모델에서의 대상의 각도에 기초하여 평면 상의 윤곽 이미지의 각도를 회전시키는데, 각도 회전 후에 획득되는 윤곽 이미지 내의 대상의 각도는 사전설정된 대상 모델에서의 대상의 각도와 동일하고, 윤곽 이미지 내의 대상 및 사전설정된 대상 모델에서의 대상은 동일한 대상 유형에 속한다. 예를 들어, 초기 이미지 내의 대상이 보행자이면, 사전설정된 대상 모델은 사전설정된 인체 모델, 구체적으로는, 직립 인체 모델이다. 예를 들어, 초기 이미지 내의 대상이 차량이면, 사전설정된 대상 모델은 사전설정된 차량 모델이다. 윤곽 이미지 내의 대상을 포함하는 목표 이미지를 획득하는 다른 방식은 다음과 같다: 이미지 처리 디바이스(120)는 사용자에 의해 입력된 목표 이미지를 수신하는데, 목표 이미지는 사용자가 단말 디바이스를 이용하여 윤곽 이미지를 회전시킨 후에 획득된 목표 이미지이고, 단말 디바이스는 이 실시예에서 제공된 이미지 처리 디바이스(120)일 수 있다. 이미지 처리 디바이스는 단말 디바이스로서 사용될 수 있고, 사용자에 의해 입력된 명령을 수신하고, 윤곽 이미지를 회전시켜 목표 이미지를 획득하도록 구성된다.
목표 이미지를 획득한 후에, 이미지 처리 디바이스(120)는 겉보기 특징의 위치 속성이 전역 속성인지 또는 국소 속성인지를 결정한다. 국소 속성은 이미지 처리 디바이스(120)에게 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용되고, 전역 속성은 이미지 처리 디바이스(120)에게 목표 이미지를 전역 처리 방식으로 처리하도록 명령하기 위해 사용된다.
겉보기 특징의 위치 속성이 국소 속성이면, 이미지 처리 디바이스(120)는 겉보기 특징의 위치 특징과 매칭하는 목표 구역을 인식하고, 목표 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 기술 속성을 인식한다. 목표 구역은 대상의 부위를 포함한다.
겉보기 특징의 위치 속성이 전역 속성이면, 이미지 처리 디바이스(120)는 목표 이미지에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다.
이 실시예에서 제공된 이미지 촬영 장치(110)는 이미지 촬영, 사진촬영 등을 통해 이미지를 획득하는 기능을 갖는 데스크톱 컴퓨터, 서버, 모바일 컴퓨터, 모바일 사진촬영 디바이스, 핸드헬드 단말 디바이스, 웨어러블 사진촬영 디바이스 등이다.
이 실시예에서 제공된 이미지 처리 디바이스(120)는 데스크톱 컴퓨터, 서버, 모바일 컴퓨터, 핸드헬드 단말 디바이스 등이다.
도 2는 본 발명의 실시예에 따른 이미지 처리 디바이스(120)의 구조도이다. 도 2에 도시된 바와 같이, 이 실시예에서 제공된 이미지 처리 디바이스(120)는 컴퓨터이고, 프로세서(11), 메모리(12), 통신 버스(13), 및 인터페이스(14)를 포함한다. 프로세서(11)는 통신 버스(13)를 이용하여 메모리(12)와 통신한다.
인터페이스(14)는 단말 디바이스와 통신하도록 구성된다. 단말 디바이스에 의해 전송되는 데이터(122) 및 정보는 인터페이스(14)를 이용하여 수신될 수 있다. 데이터(122)는 목표 이미지를 포함한다.
메모리(12)는 프로그램(121)을 저장하도록 구성된다. 프로그램(121)은 대상의 겉보기 특징의 기술 속성을 인식하기 위해 사용된다. 프로그램(121)은 이미지 처리 기능의 프로그램을 포함한다. 이미지 처리 기능은 이미지 처리 모델을 이용하여 확률 형식으로 표현되는 그리고 기술 속성을 인식하는 것의 결과를 출력하는 기능이다. 이미지 처리 모델은 이미지를 처리하기 위해 사용되는 수학 모델, 예를 들어, 컨볼루션 뉴럴 네트워크일 수 있다.
메모리(12)는 인터페이스(14)를 이용하여 전송되는 데이터(122), 및 정보를 저장하도록 추가로 구성된다.
메모리(12)는 휘발성 메모리, 비휘발성 메모리, 또는 이들의 조합을 포함한다. 휘발성 메모리는, 예를 들어, 랜덤 액세스 메모리(영문: random-access memory, RAM)이다. 비휘발성 메모리는 플로피 디스크, 하드 디스크, 솔리드 스테이트 디스크(solid state disk, SSD), 또는 광 디스크와 같은, 프로그램 코드를 저장할 수 있는 임의의 머신 판독가능 매체이다.
프로세서(11)는 프로그램(121)을 실행하여 겉보기 특징의 기술 속성을 인식하도록 구성된다. 프로세서(11)는 겉보기 특징의 위치 속성이 전역 속성인지 또는 국소 속성인지를 결정하도록 구성된다. 위치 속성이 국소 속성이면, 프로세서(11)는 겉보기 특징의 위치 특징과 매칭하는 목표 구역을 인식하고, 목표 구역에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 부위의 위치를 지시하기 위해 사용된다. 목표 구역은 겉보기 특징에 의해 지시되는 그리고 대상의 부위를 포함한다. 위치 속성이 전역 속성이면, 프로세서(11)는 인터페이스(14)를 이용하여 수신되는 목표 이미지에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다.
프로세서(11)는 이미지 처리 디바이스(120)의 주요 디바이스들 중 하나이다. 프로세서(11)의 주요 기능들은 컴퓨터 명령어를 설명하고 컴퓨터 소프트웨어에서의 데이터를 처리하는 것이다. 프로세서(11)는 중앙 처리 유닛(영문: central processing unit, CPU), 복합 프로그래머블 로직 디바이스(영문: Complex Programmable Logic Device, CPLD), 또는 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA)일 수 있다.
이하에서는 본 발명의 실시예들에서 개시된 겉보기 특징의 기술 속성을 인식하기 위한 방법을 구체적으로 설명한다. 겉보기 특징의 기술 속성을 인식하기 위한 방법은 도 1 및 도 2에 도시된 이미지 처리 디바이스(120)에 적용되고, 이미지 처리 디바이스(120)에서 프로세서(11)에 의해 수행된다. 도 3a는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 방법의 흐름도이다. 도 3a에 도시된 바와 같이, 이 실시예는 보행자 감시 분야에 적용되고, 대상의 겉보기 특징의 위치 속성이 국소 속성인 경우 대상의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 주로 설명한다. 이 방법은 구체적으로 다음의 단계들을 포함한다.
S310. 목표 이미지를 획득한다 - 목표 이미지는 대상을 포함한다. 이 단계에서 목표 이미지를 획득하는 세부사항들에 대해서는, 도 1에 도시된 전술한 내용을 참조한다: 윤곽 이미지를 획득한 후에, 이미지 처리 시스템 내의 이미지 처리 디바이스(120)는 윤곽 이미지 내의 대상을 포함하는 목표 이미지를 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.
S320. 목표 이미지의 겉보기 특징의 위치 특징을 획득한다. 겉보기 특징은 국소 속성을 갖고, 국소 속성은 이미지 처리 디바이스에게 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 겉보기 특징의 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 부위의 위치를 지시하기 위해 사용된다.
겉보기 특징의 위치 특징을 획득하는 방식은 겉보기 특징의 위치 특징을 포함하는 정보를 수신하고, 겉보기 특징의 위치 특징을 획득하는 것인데, 정보는 겉보기 특징의 위치 특징을 지시하기 위해 사용된다. 겉보기 특징의 위치 특징을 획득하는 다른 방식은 겉보기 특징과 위치 특징 간의, 이미지 처리 디바이스(120)에 사전저장된 대응관계를 조회하고, 겉보기 특징 및 대응관계에 기초하여 겉보기 특징의 위치 특징을 획득하는 것이다.
이 실시예에서 사전설정된 대상 모델은 사전설정된 인체 모델이다. 겉보기 특징의 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 인체 모델에서의 인체의 부위의 위치를 지시하기 위해 사용된다. 사전설정된 인체 모델에서 인체의 부위의 위치는 다음의 2가지 방식으로 결정된다.
하나의 방식에서는, 사전설정된 인체 모델에서의 인체의 부위의 윤곽과 사전설정된 인체 모델의 윤곽 간의 위치 비율이 결정된다. 위치 비율은 사전설정된 인체 모델에서의 인체의 부위의 윤곽과 사전설정된 인체 모델의 윤곽 간의 투영 관계를 획득하여, 사전설정된 인체 모델에서의 인체의 부위의 위치를 결정, 즉 겉보기 특징의 위치 특징을 결정하는 것에 의해 결정될 수 있다.
다른 방식에서는, 인체의 부위를 포함하는 기하 구역 및 인체의 부위를 포함하는 기하 구역과 사전설정된 인체 모델을 포함하는 기하 구역 간의 위치 비율을 결정하여, 사전설정된 인체 모델에서의 인체의 부위의 위치를 결정, 즉 겉보기 특징의 위치 특징을 결정한다. 인체의 부위를 포함하는 기하 구역은 사전설정된 인체 모델에서의 인체의 부위의 최상부 포인트와 최하부 포인트 간의 높이 라인, 및 사전설정된 인체 모델에서의 인체의 부위의 최좌측 포인트와 최우측 포인트 간의 폭 라인에 의해 형성되는 제1 대칭 기하 구역이다. 사전설정된 인체 모델을 포함하는 기하 구역은 사전설정된 인체 모델의 최상부 포인트와 최하부 포인트 간의 높이 라인, 및 사전설정된 인체 모델의 최좌측 포인트와 최우측 포인트 간의 폭 라인에 의해 형성되는 제2 대칭 기하 구역이다. 이 구현에서, 위치 비율은 제1 대칭 기하 구역의 높이와 제2 대칭 기하 구역의 높이 간의 비율에 기초하여, 또는 제1 대칭 기하 구역의 폭과 제2 대칭 기하 구역의 폭 간의 비율에 기초하여 결정될 수 있다. 대안적으로, 위치 비율은 제1 대칭 기하 구역의 높이와 제2 대칭 기하 구역의 높이 간의 비율, 및 제1 대칭 기하 구역의 폭과 제2 대칭 기하 구역의 폭 간의 비율 둘 다에 기초하여 결정된다. 대안적으로, 위치 비율은 제1 대칭 기하 구역과 제2 대칭 기하 구역 간의 투영 관계에 기초하여 결정된다.
S330. 위치 특징에 기초하여 목표 구역을 인식한다 - 목표 구역은 대상의 부위를 포함한다.
사전설정된 인체 모델에서의 인체의 부위의 윤곽과 사전설정된 인체 모델의 윤곽 간의 투영 관계에 기초하여 겉보기 특징의 위치 특징이 결정되면, 단계 S330에서, 이미지 처리 디바이스(120)는 투영 관계를 포함하는 윤곽을 크기 확대 또는 축소한다 - 투영 관계를 포함하는 크기 조정된 윤곽과 목표 이미지 내의 대상의 윤곽 간의 차이는 특정 오차 범위 내에 속한다 -; 그리고 그 후 이미지 처리 디바이스(120)는, 투영 관계에 기초하여, 인체의 부위를 포함하는 목표 구역을 인식한다.
이하에서는 예를 이용하여 제1 대칭 기하 구역의 높이와 제2 대칭 기하 구역의 높이 간의 비율에 기초하여 위치 비율을 결정함으로써 목표 구역을 인식하기 위한 방법을 설명한다.
예를 들어, 겉보기 특징은 머리카락이고, 겉보기 특징의 기술 속성은 짧은 머리카락 및 긴 머리카락을 포함한다. 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 상부 1/2 구역에서의 제1 대칭 기하 구역의 위치 비율을 결정함으로써 머리카락의 겉보기 특징의 위치 특징이 획득된다. 겉보기 특징의 위치 특징을 획득한 후에, 목표 이미지는 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 상부 1/2 구역에서의 제1 대칭 기하 구역의 위치 비율에 기초하여 상부 구역 및 하부 구역의 2개의 부분 구역으로 분할된다; 그리고 목표 이미지의 상부 구역이 목표 구역으로서 선택된다. 도 3b는 본 발명의 실시예에 따른 목표 구역을 결정하는 개략도이다. 도 3b에 도시된 우측 이미지에서, 목표 이미지는 상부 구역 및 하부 구역의 2개의 부분 구역으로 분할되고, 목표 이미지의 상부 구역이 목표 구역으로서 선택된다.
제2 대칭 기하 구역에서의 제1 대칭 기하 구역의 위치 비율은 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합을 이용하여 지시될 수 있다. 예를 들어, 상부 1/2 구역의 위치 비율은 [0, 0] 및 [w, h/2]의 2개 좌표 쌍을 이용하여 지시된다. 이미지 처리 디바이스(120)는 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합에 기초하여, 목표 구역의 위치가 좌측 상부 모서리의 좌표 및 우측 하부 모서리의 좌표에 의해 형성된 목표 이미지의 상부 1/2 구역이라고 결정한다. 높이 비율에 기초하여 결정되는 위치 비율에 기초하여 위치 특징이 획득되면, 목표 구역의 폭은 디폴트로 목표 이미지의 폭 w일 수 있고, h는 목표 이미지의 수직 높이를 지시한다.
위치 비율은 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합을 이용하여, 또는 다른 방식으로 지시될 수 있다. 예를 들어, 목표 구역의 위치는 위치 알고리즘을 이용하여 "상부 1/2" 또는 "목과 머리 부위"와 같은 획득된 형식 파라미터에 기초한 계산을 통해 결정되거나, 형식 파라미터와 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합 간의 사전저장된 대응관계를 조회하고 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합을 획득함으로써 결정된다.
다른 예로서, 겉보기 특징은 가방이고, 겉보기 특징의 기술 속성은 백팩, 메신저 가방, 및 어깨 가방을 포함한다. 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 중간 1/3 구역에서의 제1 대칭 기하 구역의 위치 비율을 결정함으로써 가방의 겉보기 특징의 위치 특징이 획득된다. 목표 이미지는 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 중간 1/3 구역에서의 제1 대칭 기하 구역의 위치 비율에 기초하여 상부 구역, 중간 구역, 및 하부 구역의 3개의 부분 구역으로 분할되고, 목표 이미지의 중간 구역이 목표 구역으로서 선택된다. 예를 들어, 중간 1/3 구역의 위치 비율은 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합을 이용하여, 즉 [0, h/3] 및 [w, 2h/3]의 2개의 좌표 쌍을 이용하여 결정될 수 있다. 도 3b에 도시된 좌측 이미지에서, 목표 이미지는 상부 구역, 중간 구역, 및 하부 구역의 3개의 부분 구역으로 분할되고, 목표 이미지의 중간 구역이 목표 구역으로서 선택된다.
또 다른 예로서, 겉보기 특징은 하체 부위 상의 의복이고, 겉보기 특징의 기술 속성은 바지, 반바지, 짧은 치마, 긴 치마, 퀼로트 등을 포함한다. 하체 부위 상의 의복의 겉보기 특징의 위치 특징은 제1 대칭 기하 구역이 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 하부 1/3 구역에 있다고 결정함으로써 획득된다. 목표 이미지는 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 하부 1/3 구역에서의 제1 대칭 기하 구역의 위치 비율에 기초하여 상부 구역, 중간 구역, 및 하부 구역의 3개의 부분 구역으로 분할되고, 목표 이미지의 하부 구역이 목표 구역으로서 선택된다.
다른 구현에서, 제2 대칭 기하 구역에서의 제1 대칭 기하 구역의 위치 비율은 복수의 좌표 쌍의 조합을 이용하여 결정될 수 있다.
위치 비율이 제1 대칭 기하 구역의 높이와 제2 대칭 기하 구역의 높이 간의 비율, 및 제1 대칭 기하 구역의 폭과 제2 대칭 기하 구역의 폭 간의 비율 둘 다에 기초하여 결정되는 경우, 좌측 상부 모서리의 좌표, 좌측 하부 모서리의 좌표, 우측 상부 모서리의 좌표, 및 우측 하부 모서리의 좌표에 기초하여 위치 비율을 결정하여, 목표 구역의 위치를 결정할 수 있다. 예를 들어, 좌표 조합은 좌측 상부 모서리의 좌표 [w/4, h/3], 좌측 하부 모서리의 좌표 [w/3, 2h/3], 우측 상부 모서리의 좌표 [3w/4, h/3], 및 우측 하부 모서리의 좌표 [2w/3, 2h/3]를 포함한다. 좌표 조합을 이용하여 결정된 목표 구역은 목표 이미지의 중간 부분에서의 역사다리꼴 구역이다. 다른 구현에서, 제2 대칭 기하 구역에서의 제1 대칭 기하 구역의 위치 비율은 좌측 상부 모서리의 좌표, 좌측 하부 모서리의 좌표, 우측 상부 모서리의 좌표, 및 우측 하부 모서리의 좌표 중 적어도 2개의 좌표 쌍의 조합을 이용하여 결정될 수 있다.
S340. 목표 구역에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다.
이미지 처리 기술을 이용하여 목표 구역에 대해 특징 분석을 수행하여, 확률 형식으로 표현되는 그리고 기술 속성의 인식 결과를 획득한다. 예를 들어, 겉보기 특징이 머리카락일 때, 머리카락 길이들의 적어도 2개의 기술 속성: 긴 머리카락의 기술 속성 및 짧은 머리카락의 기술 속성이 존재한다. 이 경우, 확률 형식으로 표현되는 그리고 기술 속성들의 획득된 인식 결과는 2개의 확률(즉, 짧은 머리카락의 기술 속성에 대한 0.9, 및 긴 머리카락의 기술 속성에 대한 0.1)의 조합이다. 그 후, 종합적 결정 규칙에 따라 종합적 결정 규칙에 따르는 확률에 대응하는 기술 속성이 인식되고, 이 기술 속성은 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 사용된다. 종합적 결정 규칙은: 비교 또는 조회 후에, 목표 데이터에 가까운 기술 속성을 선택하는 것일 수 있다. 예를 들어, 목표 데이터의 값은 1이고, 이는 대상의 겉보기 특징의 기술 속성이 짧은 머리카락이라는 것을 지시한다. 이 경우, 최고 확률 0.9에 대응하는 짧은 머리카락의 기술 속성에 대한 0.9가 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택된다.
도 3a에 도시된 실시예에 기초하여, 단계 S320 전에, 이미지 처리 디바이스(120)는 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 겉보기 특징의 위치 속성을 획득하기 위한 방법은 단말 디바이스에 의해 전송되는 그리고 겉보기 특징의 위치 속성을 포함하는 정보를 수신하여, 겉보기 특징의 위치 속성을 획득하는 것이다. 예를 들어, 겉보기 특징이 머리카락이고, 머리카락의 기술 속성이 긴 머리카락 및 짧은 머리카락을 포함할 때, 머리카락의 겉보기 특징의 위치 속성이 국소 속성이라는 것을 지시하기 위해 사용자에 의해 전송된 정보가 수신되고, 머리카락의 위치 속성이 국소 속성으로서 결정된다. 다른 예로서, 겉보기 특징이 가방의 유형이고, 가방의 유형의 기술 속성이 백팩 또는 핸드백을 포함하는 경우, 가방의 유형의 겉보기 특징의 위치 속성이 국소 속성이라는 것을 지시하기 위해 사용자에 의해 전송된 정보가 수신되고, 가방의 유형의 위치 속성이 국소 속성으로서 결정된다. 또 다른 예로서, 겉보기 특징이 하체 부위 상의 의복이고, 하체 부위 상의 의복의 기술 속성이 바지 또는 긴 치마를 포함할 때, 하체 부위 상의 의복의 겉보기 특징의 위치 속성이 국소 속성이라는 것을 지시하기 위해 사용자에 의해 전송된 정보가 수신되고, 하체 부위 상의 의복의 위치 속성이 국소 속성으로서 결정된다.
도 3a에 도시된 실시예에 기초하여, 단계 S320 전에, 이미지 처리 디바이스(120)는 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
도 3a에 도시된 실시예에 기초하여, 단계 S320 전에, 이미지 처리 디바이스(120)는 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다. 하나의 방식에서, 이미지 처리 디바이스(120)는, 인터페이스(14)를 이용하여, 텍스트를 이용하여 사용자에 의해 입력되는 겉보기 특징 및 겉보기 특징의 기술 속성을 수신한다. 다른 방식에서, 이미지 처리 디바이스(120)는 시각 인터페이스 상에서의 선택을 통해 사용자에 의해 입력되는 겉보기 특징 및 겉보기 특징의 기술 속성을 수신한다. 또 다른 방식에서, 이미지 처리 디바이스(120)는 단말 디바이스에 의해 전송되는 그리고 겉보기 특징 및 겉보기 특징의 기술 속성을 포함하는 정보를 수신하여, 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다.
도 3a에 도시된 실시예에 기초하여, 단계 S330이 수행된 후에, 이미지 처리 디바이스(120)는, 목표 구역을 중심으로서 이용하여, 목표 구역을 임의의 방향으로, 복수의 상이한 지정 방향으로, 또는 복수의 지정 방향 중에서 선택된 복수의 랜덤 방향으로 이동시켜, 복수의 오프셋 구역을 획득한다. 도 3c는 본 발명의 실시예에 따른 목표 구역의 이동 후에 획득되는 개략도이다. 도 3c에 도시된 바와 같이, 실선 박스에 의해 형성된 목표 구역을 좌측 및 우측으로 이동시켜, 2개의 오프셋 구역(도면에서 좌측 파선 박스에 의해 형성된 오프셋 구역 및 우측 점선 박스에 의해 형성된 오프셋 구역)을 개별적으로 획득한다. 좌측 이동 후에 획득된 좌측 점선 박스에 의해 형성된 오프셋 구역은 전체 머리 부위를 포함하고, 우측 이동 후에 획득된 오프셋 구역 및 목표 구역은 각각 머리 부위의 부분만을 포함한다. 따라서, 목표 구역이 이동한 후에, 더 정확한 인식 구역이 획득될 수 있다. 그 후, 도 3c에 도시된 바와 같이, 이미지 처리 디바이스(120)는 이미지 처리 기술을 이용하여 오프셋 구역들에 대해 특징 분석을 수행하고, 겉보기 특징의 다른 기술 속성을 획득하고, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성을 결정하는데, 목표 기술 속성은 기술 속성 및 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다.
기술 속성 및 다른 기술 속성이 확률 형식으로 표현되는 경우, 목표 데이터의 값은 1일 수 있고, 사전설정된 알고리즘은 최고 확률을 이용하여 표현된 목표 기술 속성을 인식하고, 목표 기술 속성을 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 사용하는 것이다. 예를 들어, 비교 또는 조회 후에, 최고 확률을 이용하여 표현된 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택될 수 있다. 다른 예로서, 목표 구역 및 각각의 오프셋 구역과 매칭하는 동일한 기술 속성의 확률들에 대해 합계 연산을 수행함으로써 확률들의 합이 획득되고; 확률들의 합에 대해 평균화 처리 또는 서포트 벡터 머신 처리가 수행되고; 최고 확률을 이용하여 표현된 목표 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택된다. 다른 구현에서, 목표 데이터는 표준 이미지의 표준 파라미터일 수 있고, 상이한 방식들로 표준 이미지에 대해 특징 분석이 수행된 후에 획득되는 표준 파라미터일 수 있다.
오프셋 구역을 획득하는 전술한 구현에서, 목표 구역을 목표 구역에 기초하여 이동시켜 하나 이상의 오프셋 구역을 획득하는 특정 구현은 목표 구역을 복수의 블록으로 분할하는 것인데, 복수의 블록은 동일한 형상이고, 복수의 블록은 연속적이다. 예를 들어, 블록의 형상은 수평 바, 수직 바, 수직 그리드, 또는 수평 그리드일 수 있다. 도 3d는 본 발명의 실시예에 따른 블록 분할 다이어그램들의 개략도이다. 도 3d에 도시된 바와 같이, 각각의 이미지에서 두꺼운 라인들에 의해 형성된 구역이 목표 구역이다. 본 발명의 이 실시예에서 제공된 블록 분할 다이어그램은 도 3d의 좌측에 도시된 수직 바 형상 블록 분할 다이어그램일 수 있거나, 도 3d의 중간에 도시된 수평 바 형상 블록 분할 다이어그램일 수 있거나, 또는 도 3d의 우측에 도시된 수직 또는 수평 그리드 형상 블록 분할 다이어그램일 수 있다. 블록의 형상은 본 발명의 이 실시예에서 제한되지 않는다. 그 후, 도 3d에 도시된 3개의 이미지에서, 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 하나 이상의 오프셋 구역을 획득하는데, 각각의 오프셋 구역의 크기는 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.
복수의 오프셋 구역이 획득된 후에, 오프셋 구역 또는 목표 구역을 하나 이상의 상이한 사전설정된 크기에 따라 주위로 확장하여, 오프셋 구역 또는 목표 구역을 포함하는 후보 구역을 획득한다. 후보 구역의 크기는 오프셋 구역의 크기보다 더 크다. 후보 구역이 획득된 후에, 이미지 처리 기술을 이용하여 후보 구역에 대해 특징 분석이 수행되고, 겉보기 특징의 다른 기술 속성이 획득되고, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성이 결정되는데, 목표 기술 속성은 기술 속성 및 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 다른 기술 속성은 후보 구역에 대해 특징 분석이 수행된 후에 획득되는 그리고 후보 구역과 매칭하는, 겉보기 특징의 기술 속성을 포함하거나, 또한 오프셋 구역에 대해 특징 분석이 수행된 후에 획득되는 그리고 오프셋 구역과 매칭하는, 겉보기 특징의 기술 속성을 추가로 포함한다.
기술 속성 및 다른 기술 속성이 확률 형식으로 표현되는 경우, 목표 데이터의 값은 1일 수 있고, 사전설정된 알고리즘은 최고 확률을 이용하여 표현된 목표 기술 속성을 인식하고, 목표 기술 속성을 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 사용하는 것이다. 예를 들어, 비교 또는 조회 후에, 최고 확률을 이용하여 표현된 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택될 수 있다. 예를 들어, 머리카락의 겉보기 특징의 기술 속성은 짧은 머리카락 및 긴 머리카락을 포함하고, 목표 구역, 오프셋 구역, 및 후보 구역에 대해 특징 분석이 수행된다. 이 경우, 목표 데이터의 값이 1인 것이 짧은 머리카락의 기술 속성의 표준으로서 사용되고, 하나의 목표 구역, 하나의 오프셋 구역, 및 2개의 후보 구역에 대해 특징 분석이 개별적으로 수행된다. 목표 구역, 오프셋 구역, 및 후보 구역들에 대응하는 기술 속성의 획득된 확률들은 각각: [짧은 머리카락의 기술 속성: 0.7, 긴 머리카락의 기술 속성: 0.3], [짧은 머리카락의 기술 속성: 0.95, 긴 머리카락의 기술 속성: 0.05], [짧은 머리카락의 기술 속성: 0.6, 긴 머리카락의 기술 속성: 0.4], 및 [짧은 머리카락: 0.45의 기술 속성, 긴 머리카락의 기술 속성: 0.55]이다. 선택 결과는 max 연산을 통한 제1 기술 속성 0.95이다. 다시 말해서, 머리카락의 기술 속성은 짧은 머리카락의 기술 속성으로서 인식된다. 다른 예로서, 목표 구역, 각각의 오프셋 구역, 및 각각의 후보 구역과 매칭하는 동일한 기술 속성의 확률들에 대해 합계 연산을 수행함으로써 확률들의 합이 획득되고; 확률들의 합에 대해 평균화 처리 또는 서포트 벡터 머신 처리가 수행되고; 최고 확률을 이용하여 표현된 목표 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택된다. 다른 구현에서, 목표 데이터는 표준 이미지의 표준 파라미터일 수 있고, 상이한 방식들로 표준 이미지에 대해 특징 분석이 수행된 후에 획득되는 표준 파라미터일 수 있다.
다른 실시예에서, 복수의 오프셋 구역 또는 복수의 후보 구역이 획득된 후에, 목표 구역에서의 인체의 부위, 각각의 오프셋 구역에서의 인체의 부위, 및 각각의 후보 구역에서의 인체의 부위에 대해 윤곽 인식이 개별적으로 수행될 수 있다. 사전설정된 인체 모델의 인체의 부위와 동일한 윤곽 형상을 갖는 목표 구역, 오프셋 구역, 또는 후보 구역이 인식될 때, 목표 구역, 오프셋 구역, 또는 후보 구역이 보류되고, 사전설정된 인체 모델의 인체의 부위와 동일한 윤곽 형상을 갖는 목표 구역, 오프셋 구역, 또는 후보 구역에 대해 특징 분석을 개별적으로 수행하여, 보류된 목표 구역과 매칭하는 기술 속성, 각각의 보류된 오프셋 구역과 매칭하는 다른 기술 속성, 및 각각의 보류된 후보 구역과 매칭하는 다른 기술 속성을 획득한다. 목표 구역과 매칭하는 전술한 기술 속성 및 후보 구역 및 오프셋 구역과 매칭하는 복수의 다른 기술 속성을 획득한 후에, 이미지 처리 디바이스(120)는 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성들 중에 목표 기술 속성을 결정하는데, 목표 기술 속성은 기술 속성 및 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 사전설정된 알고리즘에 대해서는, 도 3a에 기초하여 설명된 세부사항들을 참조한다: 오프셋 구역 및 후보 구역에 대해 특징 분석이 수행된 후에, 겉보기 특징의 다른 기술 속성이 획득되고, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성이 결정된다. 세부사항들은 여기서 다시 설명되지 않는다.
복수의 오프셋 구역이 획득된 후에, 인체의 부위의 특징 분석 또는 윤곽 인식을 위해 미리 결정된 순서에 따라 또는 랜덤하게 사전설정된 수량의 오프셋 구역들이 선택될 수 있다. 복수의 후보 구역 구역이 획득된 후에, 인체의 부위의 특징 분석 또는 윤곽 인식을 위해 미리 결정된 순서에 따라 또는 랜덤하게 사전설정된 수량의 후보 구역들이 또한 선택될 수 있다. 선택된 후보 구역의 사전설정된 수량은 오프셋 구역의 사전설정된 수량과 동일하거나 상이할 수 있다. 예를 들어, 사용자 요구에 따라 목표 구역에 대해서만 특징 분석이 수행될 수 있다; 또는 사용자의 선택에 기초하여 목표 구역 및 사전설정된 수량의 오프셋 구역들에 대해서만 특징 분석 또는 윤곽 인식이 수행될 수 있다; 또는 사용자의 선택에 기초하여 목표 구역 및 사전설정된 수량의 후보 구역들에 대해서만 특징 분석 또는 윤곽 인식이 수행될 수 있다; 또는 목표 구역, 사전설정된 수량의 오프셋 구역들, 및 사전설정된 수량의 후보 구역들에 대해 특징 분석이 수행될 수 있다. 오프셋 구역이 목표 이미지의 가장자리를 향해 주위로 확장될 때, 획득된 후보 구역은 목표 이미지이다. 다시 말해서, 오프셋 구역이 목표 구역과 동일한 폭 및 동일한 높이를 갖는 것으로 인식될 때, 획득된 후보 구역은 목표 이미지이다.
이하에서는 본 발명의 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법을 설명한다. 도 4는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법의 흐름도이다. 이 실시예는 보행자 감시 분야에 적용되고, 대상의 겉보기 특징의 위치 속성이 전역 속성인 경우 대상의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 주로 설명한다. 도 4에 도시된 바와 같이, 이 방법은 구체적으로 다음의 단계들을 포함한다.
S410. 목표 이미지를 획득한다 - 목표 이미지는 대상을 포함한다. 이 단계에서 목표 이미지를 획득하는 특정 구현에 대해서는, 도 3a에 도시된 실시예에서의 단계 S310의 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
S420. 목표 이미지에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 겉보기 특징은 전역 속성을 갖고, 전역 속성은 이미지 처리 디바이스에게 목표 이미지를 전역 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이미지 처리 기술을 이용하여 목표 이미지에 대해 특징 분석을 수행하여, 확률 형식으로 표현되는 그리고 기술 속성의 인식 결과를 획득한다. 종합적 결정 규칙에 따라 종합적 결정 규칙에 따르는 확률에 대응하는 기술 속성이 인식되고, 이 기술 속성은 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 사용된다. 예를 들어, 비교 또는 조회 후에, 최고 확률을 이용하여 표현된 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택될 수 있다.
겉보기 특징의 위치 속성이 전역 속성일 때 겉보기 특징의 기술 속성을 인식하기 위한 전술한 방법에 기초하여, 단계 S420 전에, 방법은 다음을 추가로 포함한다: 이미지 처리 디바이스(120)는 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 전역 속성을 갖는다는 것을 지시하기 위해 사용된다. 겉보기 특징의 위치 속성을 획득하기 위한 방법은 단말 디바이스에 의해 전송되는 그리고 겉보기 특징의 위치 속성을 포함하는 정보를 수신하여, 겉보기 특징의 위치 속성을 획득하는 것이다.
겉보기 특징의 위치 속성이 전역 속성일 때 겉보기 특징의 기술 속성을 인식하기 위한 전술한 방법에 기초하여, 단계 S420 전에, 방법은 다음을 추가로 포함한다: 이미지 처리 디바이스(120)는, 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.
또한, 대상의 겉보기 특징의 위치 속성을 획득하기 전에, 이미지 처리 디바이스(120)는 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다. 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하기 위한 방식은 다음과 같다: 이미지 처리 디바이스(120)는, 인터페이스(14)를 이용하여, 텍스트를 이용하여 사용자에 의해 입력되는 겉보기 특징 및 겉보기 특징의 기술 속성을 수신한다. 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하기 위한 다른 방식은 다음과 같다: 이미지 처리 디바이스(120)는 시각 인터페이스 상에서 선택을 통해 사용자에 의해 입력되는 겉보기 특징 및 겉보기 특징의 기술 속성을 수신한다. 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하기 위한 다른 방식은 다음과 같다: 이미지 처리 디바이스(120)는 단말 디바이스에 의해 전송되는 그리고 겉보기 특징 및 겉보기 특징의 기술 속성을 포함하는 정보를 수신하여, 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다.
겉보기 특징이 전역 속성을 가질 때 겉보기 특징의 기술 속성을 인식하기 위한 전술한 방법에 기초하여, 단계 S420 후에, 방법은: 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 단계 - 상기 다른 겉보기 특징은 겉보기 특징의 특성과 연관되는 그리고 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용됨 -; 상기 다른 겉보기 특징의 기술 속성을 획득하는 단계; 및 상기 다른 겉보기 특징의 기술 속성을 이용하여 상기 겉보기 특징의 기술 속성을 수정하는 단계를 추가로 포함한다.
이 실시예에서, 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 구현은 겉보기 특징과 다른 겉보기 특징 간의, 이미지 처리 디바이스에 사전저장된 대응관계를 조회하고; 상기 겉보기 특징과 연관된 상기 다른 겉보기 특징을 획득하는 것이다. 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 다른 구현은 다른 겉보기 특징의 식별자를 포함하는 정보를 수신하고, 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 것이다.
이 실시예에서 다른 겉보기 특징의 기술 속성을 획득하는 구현에 대해서는, 겉보기 특징의 위치 속성이 국소 속성일 때 도 3a에 도시된 겉보기 특징의 기술 속성을 인식하는 전술한 방법을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
이 실시예에서, 겉보기 특징과 연관된 다른 겉보기 특징의 기술 속성을 이용하여 겉보기 특징의 기술 속성을 수정하는 특정 구현은: 상관도 가중 알고리즘을 이용하는 것; 상기 상관도 가중 알고리즘에서 가중을 수행하기 위한 가중치로서, 상기 겉보기 특징과 상기 다른 겉보기 특징 간의 연관 관계를 지시하는 상관도를 이용하는 것; 및 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서, 상기 겉보기 특징의 기술 속성에 대해 가중 수정이 수행된 후에 획득된 기술 속성을 이용하는 것. 이 구현에서, 전역 속성을 갖는 겉보기 특징과 연관된 다른 겉보기 특징은 국소 속성을 갖는다.
전술한 겉보기 특징이 전역 속성을 가질 때, 단계 420 후에, 겉보기 특징의 기술 속성을 인식하기 위한 방법은: 목표 이미지, 목표 구역, 오프셋 구역, 또는 후보 구역을 수학 모델에 입력하는 단계; 및 상기 목표 이미지 내의 상기 대상의 상기 겉보기 특징의 기술 속성으로서, 상기 수학 모델을 이용하여 출력되는 그리고 목표 데이터에 가까운 기술 속성을 이용하는 단계를 추가로 포함한다. 수학 모델은 훈련 데이터 세트를 이용하여 계산 모델에 대해 훈련 수정이 수행된 후에 획득되는 수학 모델이다. 훈련 데이터 세트는 다른 이미지 및 다른 이미지 내의 대상의 다른 겉보기 특징의 기술 속성을 포함하는데, 다른 이미지는 목표 이미지 내의 목표 구역, 오프셋 구역, 또는 후보 구역, 또는 목표 이미지와 상이한 그리고 다른 대상을 포함하는 다른 이미지를 포함한다. 다른 이미지 내의 대상의 다른 겉보기 특징은 전역 속성을 갖는 그리고 목표 이미지의 겉보기 특징과 연관된다. 이 구현에서, 다른 이미지 내의 대상의 다른 겉보기 특징은 전역 속성 또는 국소 속성을 갖는다. 다른 이미지 내에 포함된 대상 및 목표 이미지 내의 대상은 동일한 대상 유형에 속한다. 이 구현에서, 훈련 데이터 세트를 이용하여 계산 모델을 훈련시켜, 목표 데이터와 다른 이미지 내의 대상의 다른 겉보기 특징의 기술 속성 간의 차이를 획득하고; 그 차이에 기초하여 계산 모델의 계산 파라미터를 조정하여, 계산 파라미터가 조정된 계산 모델을 획득하고; 조정된 계산 모델을 이용하여 다른 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하는데, 계산 모델에 대한 훈련 수정은 계산 모델을 이용하여 획득되는 그리고 목표 데이터와 다른 이미지 내의 대상의 겉보기 특징의 기술 속성 간의 차이가 목표 오차 이하일 때 종료한다.
이하에서는 본 발명의 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법을 설명한다. 도 5는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법의 흐름도이다. 이 실시예는 보행자 감시 분야에 적용되고, 복수의 위치 특징을 이용하여 대상의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 주로 설명한다. 도 5에 도시된 바와 같이, 이 방법은 구체적으로 다음의 단계들을 포함한다.
S510. 목표 이미지를 획득한다 - 목표 이미지는 대상을 포함한다. 이 단계에서 목표 이미지를 획득하는 특정 구현에 대해서는, 도 3a에 도시된 실시예에서의 단계 S310의 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
S520. 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득한다. 대안적으로, 대상의 겉보기 특징의 복수의 위치 특징이 획득될 수 있는데, 각각의 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 각각의 부위의 위치를 지시하기 위해 사용되고, 겉보기 특징은 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용된다. 예를 들어, 제1 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 제2 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 겉보기 특징은 국소 속성을 갖고, 국소 속성은 이미지 처리 디바이스에게 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 단계에서 대상의 겉보기 특징의 위치 특징들을 획득하는 구현에 대해서는, 도 3a에 도시된 실시예에 기초하여 단계 S320에서 구현된 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
S530. 제1 위치 특징 및 제2 위치 특징에 기초하여 제1 부위와 제2 부위 간의 최대 거리를 획득한다. 최대 거리는 사전설정된 임계치보다 작다. 최대 거리는 2개의 부위(제1 부위 및 제2 부위) 간의 최대 수직 높이 및/또는 2개의 부위(제1 부위 및 제2 부위) 간의 최대 폭을 포함한다. 사전설정된 임계치는 최대 거리를 분석하는 효율이 모든 목표 이미지들을 분석하는 효율보다 더 높다는 것을 보장하기 위한 값이다. 복수의 위치 특징이 존재하는 경우, 최대 거리는 임의의 2개의 부위 간의 최대 수직 높이 이상이거나, 또는 임의의 2개의 부위 간의 최대 폭 이상이다.
S540. 최대 거리에 기초하여 목표 구역을 인식한다 - 목표 구역은 제1 부위 및 제2 부위를 포함한다. 최대 거리가 2개의 부위 간의 최대 수직 높이이면, 목표 구역의 폭은 디폴트로 목표 이미지의 폭이다. 최대 거리가 2개의 부위 간의 최대 폭이면, 목표 구역의 높이는 디폴트로 목표 이미지의 높이이다. 최대 거리가 2개의 부위 간의 최대 수직 높이 및 최대 폭을 포함한다면, 목표 구역의 높이는 2개의 부위 간의 최대 수직 높이이고, 목표 구역의 폭은 2개의 부위 간의 최대 폭이다. 복수의 위치 특징이 존재하는 경우, 목표 구역은 겉보기 특징에 의해 지시되는 그리고 대상의 각각의 부위를 포함한다.
S550. 목표 구역에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다.
복수의 위치 특징을 이용하여 대상의 겉보기 특징의 기술 속성을 인식하는 실시예에 기초하여, 단계 S520 전에, 방법은 다음을 추가로 포함한다: 이미지 처리 디바이스(120)는 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 실시예에서 겉보기 특징의 위치 속성을 획득하는 방식에 대해서는, 도 3a에 도시된 실시예에 기초하여 겉보기 특징의 위치 속성을 획득하는 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
복수의 위치 특징을 이용하여 대상의 겉보기 특징의 기술 속성을 인식하는 실시예에 기초하여, 단계 S520 전에, 방법은 다음을 추가로 포함한다: 이미지 처리 디바이스(120)는 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다. 이 실시예에서 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하는 방식에 대해서는, 도 3a에 도시된 실시예에 기초하여 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하는 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
복수의 위치 특징을 이용하여 대상의 겉보기 특징의 기술 속성을 인식하는 전술한 실시예에 기초하여, 단계 S540 후에, 방법은: 오프셋 구역을 획득하고, 오프셋 구역에 대해 특징 분석이 수행된 후에 다른 기술 속성을 인식하는 단계; 및 그 후, 목표 구역에 대해 특징 분석이 수행된 후에 인식되는 기술 속성, 및 오프셋 구역에 대해 특징 분석이 수행된 후에 인식되는 다른 기술 속성 중에 사전설정된 알고리즘에 따라 목표 기술 속성을 결정하는 단계를 추가로 포함한다. 이 구현에서는, 오프셋 구역이 획득되고, 오프셋 구역에 기초하여 다른 기술 속성이 인식되고; 그 후 목표 구역에 기초하여 인식된 기술 속성 및 오프셋 구역에 기초하여 인식된 다른 기술 속성에 기초하여 목표 속성이 결정된다. 특정 구현 세부사항들에 대해서는, 도 3a에 도시된 실시예에서의 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다. 또한, 오프셋 구역에 기초하여 후보 구역이 획득되고, 후보 구역에 기초하여 다른 기술 속성이 획득되고; 그 후, 기술 속성 및 복수의 다른 기술 속성에 기초하여 목표 기술 속성이 결정된다. 특정 구현 세부사항들에 대해서는, 도 3a에 도시된 실시예에서의 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
프로세스들의 순서 번호들은 본 발명의 실시예들에서 실행 순서들을 의미하지 않는다는 것을 이해해야 한다. 프로세스들의 실행 순서들은 프로세스들의 기능들 및 내부 로직에 기초하여 결정되어야 하고, 본 발명의 실시예들의 구현 프로세스들에 대한 임의의 제한으로서 해석되어서는 안 된다.
간단한 설명을 위해, 전술한 방법 실시예들은 일련의 동작 조합들로서 표현된다는 점에 유의해야 한다. 그러나, 본 기술분야의 통상의 기술자는 본 발명이 설명된 동작들의 순서로 제한되지 않는다는 것을 이해할 것이다. 또한, 본 기술분야의 통상의 기술자는 또한 본 명세서에 설명된 모든 실시예들이 바람직한 실시예들이고, 관련 동작들이 본 발명에 의해 불필요하게 요구된다는 것을 이해할 것이다.
전술한 내용에 기초하여 본 기술분야의 통상의 기술자에 의해 안출될 수 있는 다른 적당한 단계 조합도 본 발명의 보호 범위 내에 속한다. 또한, 본 기술분야의 통상의 기술자는 또한 본 명세서에 설명된 모든 실시예들이 바람직한 실시예들이고, 관련 동작들이 본 발명에 의해 불필요하게 요구된다는 것을 이해할 것이다.
도 3a 내지 도 5를 참조하여, 전술한 내용은 본 발명의 실시예들에 따른 겉보기 특징의 기술 속성을 인식하기 위한 방법을 상세히 설명한다. 도 6 내지 도 11을 참조하여, 이하에서는 본 발명의 실시예들에 따른 겉보기 특징의 기술 속성을 인식하기 위한 장치를 설명한다.
도 6은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 장치의 구조도이다. 도 6에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(610)는 도 3a에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(610)는 프로세서(611) 및 메모리(612)를 포함한다. 상기 메모리(612)는 컴퓨터 명령어를 저장하고, 상기 프로세서(611)는 상기 메모리(612)에 연결된다. 프로세서(611)는 메모리(612) 내의 컴퓨터 명령어를 실행하여, 다음의 단계들을 수행하도록 구성된다:
목표 이미지가 획득된다 - 목표 이미지는 대상을 포함한다. 이 구현에서, 프로세서(611)는 목표 이미지를 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S310에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 목표 이미지의 겉보기 특징의 위치 특징이 획득되는데, 상기 겉보기 특징은 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 구현에서, 프로세서(611)는 목표 이미지의 겉보기 특징의 위치 특징을 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S320에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 위치 특징에 기초하여 목표 구역이 인식되는데, 상기 목표 구역은 상기 대상의 부위를 포함한다. 이 구현에서, 프로세서(611)는 위치 특징에 기초하여 목표 구역을 인식한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S330에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 목표 구역에 대해 특징 분석이 수행되고, 상기 대상의 겉보기 특징의 기술 속성이 인식된다. 이 구현에서, 프로세서(611)는 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S330에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
옵션 구현에서, 프로세서(611)는 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
옵션 구현에서, 프로세서(611)는 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
옵션 구현에서, 프로세서(611)는 다음의 단계들:
상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;
상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및
사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 수행하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다.
이 구현에서, 프로세서(611)는 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하고; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하고; 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 상기 목표 기술 속성을 결정한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S330 후의 관련 구현들의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
옵션 구현에서, 프로세서(611)는: 목표 구역을 복수의 블록으로 분할하고 - 복수의 블록은 동일한 형상이고, 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.
옵션 구현에서, 프로세서(611)는 겉보기 특징의 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 정보는 겉보기 특징의 위치 특징을 지시하기 위해 사용된다.
옵션 구현에서, 프로세서(611)는: 겉보기 특징과 위치 특징 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하도록 추가로 구성된다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(610)는 본 발명의 실시예들에서의 이미지 처리 디바이스(120)에 대응할 수 있고, 본 발명의 실시예들에서 도 3a에 도시된 방법을 수행하기 위한 대응하는 엔티티에 대응할 수 있다는 것을 이해해야 한다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(610) 내의 모듈들의 전술한 및 다른 조작들 및/또는 기능들은 도 3a에 도시된 방법에 관련된 절차들을 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.
도 7은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 7에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(710)는 도 5에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(710)는 프로세서(711) 및 메모리(712)를 포함한다. 상기 메모리(712)는 컴퓨터 명령어를 저장하고, 상기 프로세서(711)는 상기 메모리(712)에 연결된다. 프로세서(711)는 메모리(712) 내의 컴퓨터 명령어를 실행하여, 다음의 단계들을 수행하도록 구성된다:
목표 이미지가 획득된다 - 목표 이미지는 대상을 포함한다. 이 구현에서, 프로세서(711)는 목표 이미지를 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S310에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징이 획득되는데, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 구현에서, 프로세서(711)는 목표 이미지의 겉보기 특징의 위치 특징을 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S320에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리가 획득된다. 이 구현에서, 프로세서(711)는 상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득한다. 세부사항들에 대해서는, 도 5에 도시된 단계 S530에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
최대 거리에 기초하여 목표 구역이 인식되는데, 목표 구역은 제1 부위 및 제2 부위를 포함한다. 이 구현에서, 프로세서(711)는 최대 거리에 기초하여 목표 구역을 인식한다. 세부사항들에 대해서는, 도 5에 도시된 단계 S540에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 목표 구역에 대해 특징 분석이 수행되고, 상기 목표 이미지 내의 대상의 겉보기 특징의 기술 속성이 인식된다. 이 구현에서, 프로세서(711)는 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들에 대해서는, 도 5에 도시된 단계 S550에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
옵션 구현에서, 상기 최대 거리는 사전설정된 임계치보다 작다.
옵션 구현에서, 프로세서(711)는 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
옵션 구현에서, 프로세서(711)는 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.
옵션 구현에서, 프로세서(711)는 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 정보는 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 지시하기 위해 사용된다.
옵션 구현에서, 프로세서(711)는: 겉보기 특징과 제1 위치 특징 및 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하도록 추가로 구성된다.
옵션 구현에서, 프로세서(711)는 다음의 단계들:
상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;
상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및
사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 수행하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다.
이 구현에서, 프로세서(711)는 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하고; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하고; 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 상기 목표 기술 속성을 결정한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S330 후의 관련 구현들의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
옵션 구현에서, 프로세서(711)는: 목표 구역을 복수의 블록으로 분할하고 - 복수의 블록은 동일한 형상이고, 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(710)는 본 발명의 실시예들에서의 이미지 처리 디바이스(120)에 대응할 수 있고, 본 발명의 실시예들에서 도 5에 도시된 방법을 수행하기 위한 대응하는 엔티티에 대응할 수 있다는 것을 이해해야 한다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(710) 내의 모듈들의 전술한 및 다른 조작들 및/또는 기능들은 도 5에 도시된 방법에 관련된 절차들을 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.
도 8은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 8에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(810)는 도 3a에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(810)는 획득 유닛(811) 및 처리 유닛(812)을 포함하는데, 처리 유닛(812)은 획득 유닛(811)에 연결된다. 이하에서는 겉보기 특징의 기술 속성을 인식하기 위한 장치(810) 내의 각각의 모듈의 기능을 상세히 설명한다.
획득 유닛(811)은 목표 이미지를 획득하도록 구성되고, 목표 이미지는 대상을 포함한다. 이 구현에서, 목표 이미지를 획득하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 목표 이미지를 획득하는 데 있어서의 획득 유닛(811)의 기능에 대해서는, 도 3a에 도시된 단계 S310에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 이미지를 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.
획득 유닛(811)은 상기 목표 이미지의 겉보기 특징의 위치 특징이 획득하도록 추가로 구성되고, 상기 겉보기 특징은 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 구현에서, 목표 이미지의 겉보기 특징의 위치 특징을 획득하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 목표 이미지의 겉보기 특징의 위치 특징을 획득하는 데 있어서의 획득 유닛(811)의 기능에 대해서는, 도 3a에 도시된 단계 S320에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 이미지의 겉보기 특징의 위치 특징을 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.
처리 유닛(812)은 위치 특징에 기초하여 목표 구역을 인식하도록 구성되고, 목표 구역은 대상의 부위를 포함한다. 이 구현에서, 위치 특징에 기초하여 목표 구역을 인식하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 위치 특징에 기초하여 목표 구역을 인식하는 데 있어서의 처리 유닛(812)의 기능에 대해서는, 도 3a에 도시된 단계 S330에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 위치 특징에 기초하여 목표 구역을 인식한다. 세부사항들은 여기서 다시 설명되지 않는다.
처리 유닛(812)은: 목표 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 기술 속성을 인식하도록 추가로 구성된다. 이 구현에서, 목표 구역에 대해 특징 분석을 수행하고 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 목표 구역에 대해 특징 분석을 수행하고 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(812)의 기능에 대해서는, 도 3a에 도시된 단계 S340에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들은 여기서 다시 설명되지 않는다.
옵션 구현에서, 획득 유닛(811)은 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징의 위치 속성을 수신하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.
옵션 구현에서, 획득 유닛(811)은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
옵션 구현에서, 처리 유닛(812)은 목표 구역을 중심으로서 이용하여 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하도록 추가로 구성된다. 이 구현에서, 목표 구역을 중심으로서 이용하여 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
처리 유닛(812)은: 오프셋 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 다른 기술 속성을 인식하도록 추가로 구성된다. 이 구현에서, 목표 구역을 중심으로서 이용하여 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
처리 유닛(812)은 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 이 구현에서, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성을 결정하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
옵션 구현에서, 처리 유닛(812)은 목표 구역을 복수의 블록으로 분할하도록 추가로 구성된다. 이 구현에서, 목표 구역을 복수의 블록으로 분할하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
처리 유닛(812)은 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다. 이 구현에서, 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있는데, 오프셋 단위의 수량은 양의 정수이다.
옵션 구현에서, 획득 유닛(811)은 겉보기 특징의 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 정보는 겉보기 특징의 위치 특징을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징의 위치 특징을 포함하는 정보를 수신하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.
옵션 구현에서, 획득 유닛(811)은: 겉보기 특징과 위치 특징 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하도록 추가로 구성된다. 이 구현에서, 겉보기 특징과 위치 특징 간의 사전저장된 대응관계를 조회하고 겉보기 특징 및 대응관계에 기초하여 겉보기 특징의 위치 특징을 획득하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(810)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC) 또는 프로그래머블 로직 디바이스(Programmable Logic Device, PLD)를 이용하여 구현될 수 있다는 것을 이해해야 한다. PLD는 복합 프로그래머블 로직 디바이스(Complex Programmable Logic Device, CPLD), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 일반 어레이 로직(Generic Array Logic, GAL), 또는 이들의 임의의 조합일 수 있다. 도 3a에 도시된 기술 속성을 인식하기 위한 방법이 소프트웨어를 이용하여 구현되는 경우, 겉보기 특징의 기술 속성을 인식하기 위한 장치(810) 및 장치(810)의 모듈들은 대안적으로 소프트웨어 모듈들일 수 있다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(810)는 본 발명의 실시예들에서 설명된 방법을 대응적으로 수행할 수 있다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(810) 내의 유닛들의 전술한 및 다른 조작들 및/또는 기능들은 도 3a의 방법 및 도 3a의 방법과 관련된 대응하는 절차를 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.
도 9는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 9에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(910)는 도 5에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(910)는 획득 유닛(911) 및 처리 유닛(912)을 포함하는데, 처리 유닛(912)은 획득 유닛(911)에 연결된다. 이하에서는 겉보기 특징의 기술 속성을 인식하기 위한 장치(910) 내의 각각의 모듈의 기능을 상세히 설명한다.
획득 유닛(911)은 목표 이미지를 획득하도록 구성되고, 목표 이미지는 대상을 포함한다. 이 구현에서, 목표 이미지를 획득하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 목표 이미지를 획득하는 데 있어서의 획득 유닛(911)의 기능에 대해서는, 도 3a에 도시된 단계 S310에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 이미지를 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.
획득 유닛(911)은 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하도록 추가로 구성되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 구현에서, 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 데 있어서의 획득 유닛(911)의 기능에 대해서는, 도 5에 도시된 단계 S520에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.
처리 유닛(912)은 상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하도록 구성된다. 이 구현에서, 제1 위치 특징 및 제2 위치 특징에 기초하여 제1 부위와 제2 부위 간의 최대 거리를 획득하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 제1 위치 특징 및 제2 위치 특징에 기초하여 제1 부위와 제2 부위 간의 최대 거리를 획득하는 데 있어서의 처리 유닛(912)의 기능에 대해서는, 도 5에 도시된 단계 S530에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 제1 위치 특징 및 제2 위치 특징에 기초하여 제1 부위와 제2 부위 간의 최대 거리를 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.
처리 유닛(912)은 최대 거리에 기초하여 목표 구역을 인식하도록 추가로 구성되고, 목표 구역은 제1 부위 및 제2 부위를 포함한다. 이 구현에서, 최대 거리에 기초하여 목표 구역을 인식하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 최대 거리에 기초하여 목표 구역을 인식하는 데 있어서의 처리 유닛(912)의 기능에 대해서는, 도 5에 도시된 단계 S540에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 최대 거리에 기초하여 목표 구역을 인식한다. 세부사항들은 여기서 다시 설명되지 않는다.
처리 유닛(912)은: 목표 구역에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하도록 추가로 구성된다. 이 구현에서, 목표 구역에 대해 특징 분석을 수행하고 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 목표 구역에 대해 특징 분석을 수행하고 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(912)의 기능에 대해서는, 도 5에 도시된 단계 S550에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 구역에 대해 특징 분석을 수행하고 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들은 여기서 다시 설명되지 않는다.
옵션 구현에서, 상기 최대 거리는 사전설정된 임계치보다 작다.
옵션 구현에서, 획득 유닛(911)은 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징의 위치 속성을 수신하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.
옵션 구현에서, 획득 유닛(911)은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
옵션 구현에서, 획득 유닛(911)은 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 정보는 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 포함하는 정보를 수신하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.
옵션 구현에서, 획득 유닛(911)은: 겉보기 특징과 제1 위치 특징 및 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하도록 추가로 구성된다. 이 구현에서, 겉보기 특징과 제1 위치 특징 및 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하고 겉보기 특징 및 대응관계에 기초하여 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
옵션 구현에서, 처리 유닛(912)은 목표 구역을 중심으로서 이용하여 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하도록 추가로 구성된다. 이 구현에서, 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있는데, 오프셋 단위의 수량은 양의 정수이다.
처리 유닛(912)은: 오프셋 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 다른 기술 속성을 인식하도록 추가로 구성된다. 이 구현에서, 오프셋 구역에 대해 특징 분석을 수행하고 대상의 겉보기 특징의 다른 기술 속성을 인식하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
처리 유닛(912)은 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 이 구현에서, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성을 결정하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
옵션 구현에서, 처리 유닛(912)은 목표 구역을 복수의 블록으로 분할하도록 추가로 구성되고, 복수의 블록은 동일한 형상이고, 복수의 블록은 연속적이다. 이 구현에서, 목표 구역을 복수의 블록으로 분할하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
처리 유닛(912)은 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다. 이 구현에서, 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있는데, 오프셋 단위의 수량은 양의 정수이다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(910)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC) 또는 프로그래머블 로직 디바이스(Programmable Logic Device, PLD)를 이용하여 구현될 수 있다는 것을 이해해야 한다. PLD는 복합 프로그래머블 로직 디바이스(Complex Programmable Logic Device, CPLD), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 일반 어레이 로직(Generic Array Logic, GAL), 또는 이들의 임의의 조합일 수 있다. 도 5에 도시된 기술 속성을 인식하기 위한 방법이 소프트웨어를 이용하여 구현되는 경우, 겉보기 특징의 기술 속성을 인식하기 위한 장치(910) 및 장치(910)의 모듈들은 대안적으로 소프트웨어 모듈들일 수 있다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(910)는 본 발명의 실시예들에서 설명된 방법을 대응적으로 수행할 수 있다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(910) 내의 유닛들의 전술한 및 다른 조작들 및/또는 기능들은 도 5의 방법 및 도 5의 방법과 관련된 대응하는 절차를 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.
도 10은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 10에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(1010)는 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(1010)는 프로세서(1011) 및 메모리(1012)를 포함한다. 상기 메모리(1012)는 컴퓨터 명령어를 저장하고, 상기 프로세서(1011)는 상기 메모리(1012)에 연결된다. 프로세서(1011)는 메모리(1012) 내의 컴퓨터 명령어를 실행하여, 다음의 단계들을 수행하도록 구성된다:
목표 이미지가 획득된다 - 목표 이미지는 대상을 포함한다. 이 구현에서, 프로세서(1011)는 목표 이미지를 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S310에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 목표 이미지에 대해 특징 분석이 수행되고, 상기 목표 이미지 내의 대상의 겉보기 특징의 기술 속성이 인식된다. 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 기술 속성은 상기 대상의 겉보기의 특성을 식별하기 위해 사용되고, 상기 겉보기 특징은 전역 속성을 갖고, 상기 전역 속성은 상기 목표 이미지를 처리하는 방식이 전역 처리인 것을 지시하기 위해 사용된다.
이 구현에서, 프로세서(1011)는 상기 목표 이미지에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들에 대해서는, 도 4에 도시된 단계 S420에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 겉보기 특징이 전역 속성을 갖는 것이 결정된다. 전역 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지는 특징 분석을 위한 인식 구역으로서 직접 선택되는 반면, 상기 목표 이미지에 대해 블록 특징 분석이 수행될 필요가 없다. 이는 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.
옵션 구현에서, 프로세서(1011)는 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.
옵션 구현에서, 프로세서(1011)는 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.
옵션 구현에서, 프로세서(1011)는 다음의 단계들을 수행하도록 추가로 구성된다:
상기 겉보기 특징과 연관된 다른 겉보기 특징이 획득되고 - 상기 다른 겉보기 특징은 상기 겉보기 특징의 특성과 연관되는 그리고 상기 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용됨 -; 상기 다른 겉보기 특징의 기술 속성이 획득되고; 상기 다른 겉보기 특징의 기술 속성을 이용하여 상기 겉보기 특징의 기술 속성이 수정된다. 이 구현에서, 프로세서(1011)는 겉보기 특징과 연관된 다른 겉보기 특징을 획득하고, 상기 다른 겉보기 특징의 기술 속성을 획득하고, 상기 다른 겉보기 특징의 기술 속성을 이용하여 겉보기 특징의 기술 속성을 수정한다. 세부사항들에 대해서는, 도 4에 도시된 단계 S420 후의 관련 단계들의 상세한 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
전역 속성을 갖는 겉보기 특징과 연관되는 그리고 국소 속성을 갖는 다른 겉보기 특징의 기술 속성을 이용하여 전역 속성을 갖는 겉보기 특징의 기술 속성을 수정하여, 전역 속성을 갖는 겉보기 특징의 기술 속성을 인식하는 정확도를 증가시킨다.
옵션 구현에서, 프로세서(1011)는 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에서의 관련 단계들을 수행하도록 추가로 구성된다. 특정 구현 세부사항들에 대해서는, 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에서의 관련 단계들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(1010)는 본 발명의 실시예들에서의 이미지 처리 디바이스(120)에 대응할 수 있고, 본 발명의 실시예들에서 도 4에 도시된 방법을 수행하기 위한 대응하는 엔티티에 대응할 수 있다는 것을 이해해야 한다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(1010) 내의 모듈들의 전술한 및 다른 조작들 및/또는 기능들은 도 4에 도시된 방법에 관련된 절차들을 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.
도 11은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 11에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110)는 획득 유닛(1111) 및 처리 유닛(1112)을 포함하는데, 처리 유닛(1112)은 획득 유닛(1111)에 연결된다. 이하에서는 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110) 내의 각각의 모듈의 기능을 상세히 설명한다.
획득 유닛(1111)은 목표 이미지를 획득하도록 구성되고, 목표 이미지는 대상을 포함한다. 목표 이미지를 획득하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 목표 이미지를 획득하는 데 있어서의 획득 유닛(1111)의 기능에 대해서는, 도 3a에 도시된 단계 S310의 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
처리 유닛(1112)은: 상기 목표 이미지에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하도록 구성되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 기술 속성은 상기 대상의 겉보기의 특성을 식별하기 위해 사용되고, 상기 겉보기 특징은 전역 속성을 갖고, 상기 전역 속성은 상기 목표 이미지를 처리하는 방식이 전역 처리인 것을 지시하기 위해 사용된다. 목표 이미지에 대해 특징 분석을 수행하고 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(1112)의 기능에 대해서는, 도 4에 도시된 단계 S420의 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
상기 겉보기 특징이 전역 속성을 갖는 것이 결정된다. 전역 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지는 특징 분석을 위한 인식 구역으로서 직접 선택되는 반면, 상기 목표 이미지에 대해 블록 특징 분석이 수행될 필요가 없다. 이는 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.
옵션 구현에서, 획득 유닛(1111)은 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 전역 속성을 갖는다는 것을 지시하기 위해 사용된다. 겉보기 특징의 위치 속성을 수신하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.
옵션 구현에서, 획득 유닛(1111)은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 전역 속성을 갖는다는 것을 지시하기 위해 사용된다. 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
옵션 구현에서, 획득 유닛(1111)은 상기 겉보기 특징과 연관된 다른 겉보기 특징을 획득하도록 추가로 구성되고, 상기 다른 겉보기 특징은 상기 겉보기 특징의 특성과 연관되는 그리고 상기 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있거나, 겉보기 특징과 다른 겉보기 특징 간의 사전저장된 대응관계를 조회하고 겉보기 특징과 연관된 다른 겉보기 특징을 획득함으로써 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.
획득 유닛(1111)은 다른 겉보기 특징의 기술 속성을 획득하도록 추가로 구성된다. 이 구현에서, 다른 겉보기 특징의 기술 속성을 획득하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스 내의 프로세서(11)를 이용하여 구현될 수 있다.
처리 유닛(1112)은 다른 겉보기 특징의 기술 속성을 이용하여 겉보기 특징의 기술 속성을 수정하도록 추가로 구성된다. 전역 속성을 갖는 겉보기 특징과 연관되는 그리고 국소 속성을 갖는 다른 겉보기 특징의 기술 속성을 이용하여 전역 속성을 갖는 겉보기 특징의 기술 속성을 수정하여, 전역 속성을 갖는 겉보기 특징의 기술 속성을 인식하는 정확도를 증가시킨다. 이 구현에서, 다른 겉보기 특징의 기술 속성을 이용하여 겉보기 특징의 기술 속성을 수정하는 데 있어서의 처리 유닛(1112)의 기능은 이미지 처리 디바이스 내의 프로세서(11)를 이용하여 구현될 수 있다.
옵션 구현에서, 프로세서(1112)는 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에서의 관련 단계들을 수행함으로써 기능을 구현하도록 추가로 구성된다. 특정 구현 세부사항들에 대해서는, 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에서의 관련 단계들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.
본 발명의 실시예들은 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치를 제공한다. 상기 목표 이미지의 겉보기 특징의 위치 특징이 획득되고, 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치가 결정되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 상기 위치 특징에 기초하여 상기 목표 구역이 인식되는데, 상기 목표 구역은 상기 대상의 부위를 포함한다. 그 후, 상기 목표 구역에 대해 특징 분석이 수행되고, 상기 대상의 겉보기 특징의 기술 속성이 인식된다. 상기 국소 속성을 갖는 상기 겉보기 특징의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 그리고 상기 대상의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC) 또는 프로그래머블 로직 디바이스(Programmable Logic Device, PLD)를 이용하여 구현될 수 있다는 것을 이해해야 한다. PLD는 복합 프로그래머블 로직 디바이스(Complex Programmable Logic Device, CPLD), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 일반 어레이 로직(Generic Array Logic, GAL), 또는 이들의 임의의 조합일 수 있다. 도 5에 도시된 기술 속성을 인식하기 위한 방법이 소프트웨어를 이용하여 구현되는 경우, 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110) 및 장치(1110)의 모듈들은 대안적으로 소프트웨어 모듈들일 수 있다.
본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110)는 본 발명의 실시예들에서 설명된 방법을 대응적으로 수행할 수 있다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110) 내의 유닛들의 전술한 및 다른 조작들 및/또는 기능들은 도 4의 방법 및 도 4의 방법과 관련된 대응하는 절차를 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.
전술한 실시예들의 전부 또는 일부는 소프트웨어, 하드웨어, 펌웨어, 또는 이들의 임의의 조합을 이용하여 구현될 수 있다. 실시예들을 구현하기 위해 소프트웨어가 사용될 때, 실시예들의 전부 또는 일부는 컴퓨터 프로그램 제품의 형식으로 구현될 수 있다. 컴퓨터 프로그램 제품은 하나 이상의 컴퓨터 명령어를 포함한다. 컴퓨터 프로그램 명령어들이 컴퓨터 상에서 로딩되거나 실행될 때, 본 발명의 실시예들에 따른 절차 또는 기능들은 완전히 또는 부분적으로 생성된다. 컴퓨터는 범용 컴퓨터, 전용 컴퓨터, 컴퓨터 네트워크, 또는 다른 프로그램 가능한 장치일 수 있다. 컴퓨터 명령어들은 컴퓨터 판독가능 저장 매체에 저장될 수 있거나, 컴퓨터 판독가능 저장 매체로부터 다른 컴퓨터 판독가능 저장 매체로 송신될 수 있다. 예를 들어, 컴퓨터 명령어들은 유선(예를 들어, 적외선, 무선, 또는 마이크로파) 방식으로 웹사이트, 컴퓨터, 서버, 또는 데이터 센터로부터 다른 웹사이트, 컴퓨터, 서버 또는 데이터 센터로 송신될 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 사용가능한 매체, 또는 하나 이상의 사용가능한 매체를 통합하는, 서버 또는 데이터 센터와 같은, 데이터 저장 디바이스일 수 있다. 사용가능한 매체는 자기 매체(예를 들어, 플로피 디스크, 하드 디스크 또는 자기 테이프), 광학 매체(예를 들어, DVD), 또는 반도체 매체일 수 있다. 반도체 매체는 솔리드 스테이트 디스크(Solid State Disk, SSD)일 수 있다.
본 기술분야의 통상의 기술자는, 본 명세서에 개시된 실시예들에서 설명된 예들과 조합하여, 유닛들 및 알고리즘 단계들이 전자 하드웨어 또는 컴퓨터 소프트웨어와 전자 하드웨어의 조합에 의해 구현될 수 있다는 것을 인식할 수 있다. 기능들이 하드웨어에 의해 수행되는지 또는 소프트웨어에 의해 수행되는지는 기술적 해결책들의 특정 응용들 및 설계 제약들에 의존한다. 본 기술분야의 통상의 기술자는 각각의 특정 응용에 대해 상이한 방법을 이용하여 설명된 기능들을 구현할 수 있다.
편리하고 간단한 설명을 위해, 전술한 시스템, 장치 및 유닛의 특정 작업 프로세스에 대해서는, 전술한 방법 실시예들에서의 대응하는 프로세스가 참조될 수 있다는 것이 본 기술분야의 통상의 기술자에 의해 명확하게 이해될 수 있다. 세부사항들은 여기서 다시 설명되지 않는다.
본 출원에서 제공되는 몇몇 실시예들에서, 개시된 시스템, 장치, 및 방법은 다른 방식들로 구현될 수 있다는 것을 이해해야 한다. 예를 들어, 설명된 장치 실시예들은 예들에 불과하다. 예를 들어, 유닛 구분은 논리적 기능 구분에 불과하고 실제 구현에서는 다른 구분일 수 있다. 예를 들어, 복수의 유닛 또는 컴포넌트들이 다른 시스템에 결합 또는 통합될 수 있거나, 또는 일부 특징들이 무시되거나 수행되지 않을 수 있다. 또한, 디스플레이되거나 논의된 상호 결합들 또는 직접 결합들 또는 통신 연결들은 일부 인터페이스들을 통해 구현될 수 있다. 장치들 또는 유닛들 간의 간접 결합들 또는 통신 연결들은 전기, 기계, 또는 다른 형식들로 구현될 수 있다.
분리된 부분들로서 설명된 유닛들은 물리적으로 분리되어 있을 수 있거나 그렇지 않을 수 있고, 유닛들로서 디스플레이된 부분들은 물리적 유닛들일 수 있거나 그렇지 않을 수 있고, 하나의 위치에 위치할 수 있거나, 또는 복수의 네트워크 유닛들 상에 분산될 수 있다. 유닛들 중 일부 또는 전부는 실시예들의 해결책들의 목적들을 달성하기 위한 실제 요건들에 따라 선택될 수 있다.
전술한 설명들은 본 발명의 특정 구현들에 불과하고, 본 발명의 보호 범위를 제한하려고 의도된 것은 아니다. 본 발명의 특정 구현들에 기초하여 본 기술분야의 통상의 기술자에 의해 임의의 변형 또는 치환이 안출될 수 있다.

Claims (45)

  1. 겉보기 특징의 기술 속성을 인식하기 위한 방법으로서, 상기 방법은 이미지 처리 디바이스에 의해 수행되고, 다음의 단계들:
    목표 이미지를 획득하는 단계;
    상기 목표 이미지 내의 대상의 윤곽을 인식하여, 상기 윤곽에 의해 형성된 윤곽 이미지를 획득하는 단계 - 상기 윤곽 이미지 및 상기 목표 이미지는 상기 대상을 포함함 -;
    상기 목표 이미지 내의 상기 대상의 겉보기 특징의 위치 특징을 획득하는 단계 - 상기 대상의 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 대상의 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 대상의 겉보기 특징은 국소 속성 또는 전역 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용되고, 상기 전역 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 전역 처리 방식으로 처리하도록 명령하기 위해 사용됨 -;
    상기 대상의 겉보기 특징이 국소 속성을 가질 때, 상기 위치 특징에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 대상의 부위를 포함함 -;
    상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계; 및
    상기 대상의 겉보기 특징이 전역 속성을 가질 때, 상기 목표 이미지에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 상기 기술 속성을 인식하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 방법.
  3. 제1항에 있어서,
    상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;
    상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및
    사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성인, 방법.
  5. 제4항에 있어서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는:
    상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 및
    상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수인, 방법.
  6. 제1항에 있어서, 상기 위치 특징은 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 포함하고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고;
    상기 위치 특징에 기초하여 목표 구역을 인식하는 단계 전에, 상기 방법은:
    상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하는 단계를 추가로 포함하고;
    상기 위치 특징에 기초하여 목표 구역을 인식하는 단계는:
    상기 최대 거리에 기초하여 목표 구역을 인식하는 단계를 포함하고, 상기 목표 구역은 상기 제1 부위 및 상기 제2 부위를 포함하는, 방법.
  7. 겉보기 특징의 기술 속성을 인식하기 위한 장치로서, 처리 유닛 및 획득 유닛을 포함하고, 상기 처리 유닛은 상기 획득 유닛에 연결되고;
    상기 획득 유닛은 목표 이미지를 획득하도록 구성되고;
    상기 처리 유닛은 상기 목표 이미지 내의 대상의 윤곽을 인식하여, 상기 윤곽에 의해 형성된 윤곽 이미지를 획득하도록 구성되고, 상기 윤곽 이미지 및 상기 목표 이미지는 상기 대상을 포함하고;
    상기 획득 유닛은 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 위치 특징을 획득하도록 추가로 구성되고, 상기 대상의 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 대상의 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 윤곽 이미지 내의 상기 대상 및 상기 사전설정된 대상 모델에서의 상기 대상은 동일한 대상 유형에 속하고, 상기 겉보기 특징은 국소 속성 또는 전역 속성을 갖고, 상기 국소 속성은 상기 처리 유닛에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용되고, 상기 전역 속성은 상기 처리 유닛에게 상기 목표 이미지를 전역 처리 방식으로 처리하도록 명령하기 위해 사용되고;
    상기 처리 유닛은 상기 위치 특징에 기초하여 목표 구역을 인식하도록 구성되고, 상기 목표 구역은 상기 대상의 부위를 포함하고;
    상기 처리 유닛은: 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하도록 추가로 구성되는, 장치.
  8. 제7항에 있어서, 상기 획득 유닛은 상기 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.
  9. 제7항에 있어서, 상기 획득 유닛은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.
  10. 제7항 내지 제9항 중 어느 한 항에 있어서,
    상기 처리 유닛은 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고;
    상기 처리 유닛은: 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하도록 추가로 구성되고;
    상기 처리 유닛은 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성인, 장치.
  11. 제10항에 있어서,
    상기 처리 유닛은: 상기 목표 구역을 복수의 블록으로 분할하도록 추가로 구성되고, 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적이고;
    상기 처리 유닛은 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수인, 장치.
  12. 제7항에 있어서,
    상기 위치 특징은 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 포함하고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고;
    상기 위치 특징에 기초하여 목표 구역을 인식하기 전에,
    상기 처리 유닛은 상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하도록 구성되고;
    상기 처리 유닛은 상기 최대 거리에 기초하여 목표 구역을 인식하도록 추가로 구성되고, 상기 목표 구역은 상기 제1 부위 및 상기 제2 부위를 포함하는, 장치.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
  45. 삭제
KR1020197030463A 2017-03-20 2017-03-20 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치 KR102331651B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/077366 WO2018170695A1 (zh) 2017-03-20 2017-03-20 一种表观特征的描述属性识别方法及装置

Publications (2)

Publication Number Publication Date
KR20190137815A KR20190137815A (ko) 2019-12-11
KR102331651B1 true KR102331651B1 (ko) 2021-11-30

Family

ID=63583976

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197030463A KR102331651B1 (ko) 2017-03-20 2017-03-20 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치

Country Status (7)

Country Link
US (1) US11410411B2 (ko)
EP (1) EP3591580A4 (ko)
JP (1) JP6936866B2 (ko)
KR (1) KR102331651B1 (ko)
CN (1) CN110678878B (ko)
BR (1) BR112019019517A8 (ko)
WO (1) WO2018170695A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598176A (zh) * 2017-09-30 2019-04-09 佳能株式会社 识别装置和识别方法
CN108921022A (zh) * 2018-05-30 2018-11-30 腾讯科技(深圳)有限公司 一种人体属性识别方法、装置、设备及介质
US12054162B2 (en) * 2019-04-05 2024-08-06 Volvo Truck Corporation Method and a control unit for determining a parameter indicative of a road capability of a road segment supporting a vehicle
CN110060252B (zh) * 2019-04-28 2021-11-05 重庆金山医疗技术研究院有限公司 一种图片内目标提示处理方法、装置及内窥镜系统
CN110287856A (zh) * 2019-06-21 2019-09-27 上海闪马智能科技有限公司 一种执勤人员行为分析系统、方法及装置
CN111274945B (zh) * 2020-01-19 2023-08-08 北京百度网讯科技有限公司 一种行人属性的识别方法、装置、电子设备和存储介质
CN111709418B (zh) * 2020-06-02 2022-03-04 支付宝(杭州)信息技术有限公司 一种扫码过程中的提示方法、装置及设备
CN113989284B (zh) * 2021-12-29 2022-05-10 广州思德医疗科技有限公司 一种幽门螺杆菌辅助检测系统及检测装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3938005B2 (ja) 2002-10-23 2007-06-27 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置および画像処理方法
GB0607143D0 (en) 2006-04-08 2006-05-17 Univ Manchester Method of locating features of an object
JP2012173761A (ja) * 2011-02-17 2012-09-10 Nifty Corp 情報処理装置、情報処理方法及びプログラム
WO2012139273A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Method of detecting facial attributes
KR101302638B1 (ko) 2011-07-08 2013-09-05 더디엔에이 주식회사 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
JP5950296B2 (ja) * 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
CN103324907B (zh) * 2012-03-22 2016-09-07 中国科学院计算技术研究所 一种用于人体重现检测的人体表观模型的学习方法及系统
CN103390150B (zh) * 2012-05-08 2019-01-08 北京三星通信技术研究有限公司 人体部件检测方法和装置
JP5712968B2 (ja) * 2012-05-31 2015-05-07 株式会社デンソー 人検出装置
US9278255B2 (en) 2012-12-09 2016-03-08 Arris Enterprises, Inc. System and method for activity recognition
CN103970771B (zh) * 2013-01-29 2016-12-28 中国科学院计算技术研究所 一种人体的检索方法和系统
WO2015042891A1 (zh) * 2013-09-27 2015-04-02 华为技术有限公司 图像语义分割的方法和装置
US10120879B2 (en) * 2013-11-29 2018-11-06 Canon Kabushiki Kaisha Scalable attribute-driven image retrieval and re-ranking
CN103810490B (zh) 2014-02-14 2017-11-17 海信集团有限公司 一种确定人脸图像的属性的方法和设备
CN103984919A (zh) * 2014-04-24 2014-08-13 上海优思通信科技有限公司 基于粗糙集与混合特征的人脸表情识别方法
CN104036231B (zh) * 2014-05-13 2017-11-17 深圳市菲普莱体育发展有限公司 人体躯干识别装置及方法、终点影像检测方法、装置
CN104751454B (zh) 2015-03-11 2018-05-11 百度在线网络技术(北京)有限公司 一种用于确定图像中的人物轮廓的方法和装置
CN105160317B (zh) 2015-08-31 2019-02-15 电子科技大学 一种基于区域分块行人性别识别方法
US9460613B1 (en) * 2016-05-09 2016-10-04 Iteris, Inc. Pedestrian counting and detection at a traffic intersection based on object movement within a field of view
CN106127173B (zh) * 2016-06-30 2019-05-07 北京小白世纪网络科技有限公司 一种基于深度学习的人体属性识别方法
CN106203296B (zh) * 2016-06-30 2019-05-07 北京小白世纪网络科技有限公司 一种属性辅助的视频动作识别方法

Also Published As

Publication number Publication date
KR20190137815A (ko) 2019-12-11
US20200012880A1 (en) 2020-01-09
BR112019019517A8 (pt) 2023-04-04
CN110678878A (zh) 2020-01-10
US11410411B2 (en) 2022-08-09
EP3591580A4 (en) 2020-03-18
WO2018170695A1 (zh) 2018-09-27
JP2020510264A (ja) 2020-04-02
CN110678878B (zh) 2022-12-13
JP6936866B2 (ja) 2021-09-22
BR112019019517A2 (pt) 2020-04-22
EP3591580A1 (en) 2020-01-08

Similar Documents

Publication Publication Date Title
KR102331651B1 (ko) 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치
CN114616588A (zh) 图像处理装置、图像处理方法以及存储图像处理程序的非暂时性计算机可读介质
Reale et al. Nebula feature: A space-time feature for posed and spontaneous 4D facial behavior analysis
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
US9779699B2 (en) Image processing device, image processing method, computer readable medium
EP2381415A1 (en) Person-judging device, method, and program
KR101865253B1 (ko) Region-sift와 discriminant svm 분류기를 이용한 나이 및 성별 인식 장치 및 그 방법
JP2018088049A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6090162B2 (ja) 部位分離位置抽出装置、プログラム、方法
JP7385416B2 (ja) 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
JP7435781B2 (ja) 画像選択装置、画像選択方法、及びプログラム
JP7491380B2 (ja) 画像選択装置、画像選択方法、及びプログラム
WO2022079794A1 (ja) 画像選択装置、画像選択方法、及びプログラム
JP7396364B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN112183155B (zh) 动作姿态库建立、动作姿态生成、识别方法及装置
WO2021192295A1 (ja) 画像処理システム、撮像システム、画像処理方法および非一時的なコンピュータ可読媒体
JP2014146247A (ja) 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置
CN113658233A (zh) 三维人脸模型的非刚性配准方法、装置、设备及存储介质
JP7435754B2 (ja) 画像選択装置、画像選択方法、及びプログラム
JP7556556B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7375921B2 (ja) 画像分類装置、画像分類方法、およびプログラム
JP7501621B2 (ja) 画像選択装置、画像選択方法、およびプログラム
US20240119087A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
US20240126806A1 (en) Image processing apparatus, and image processing method
WO2021234935A1 (ja) 画像選択装置、画像選択方法、およびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant