KR101931220B1 - Apparatus and Method for Body Components Detection - Google Patents

Apparatus and Method for Body Components Detection Download PDF

Info

Publication number
KR101931220B1
KR101931220B1 KR1020120132388A KR20120132388A KR101931220B1 KR 101931220 B1 KR101931220 B1 KR 101931220B1 KR 1020120132388 A KR1020120132388 A KR 1020120132388A KR 20120132388 A KR20120132388 A KR 20120132388A KR 101931220 B1 KR101931220 B1 KR 101931220B1
Authority
KR
South Korea
Prior art keywords
sub
body part
human body
image
images
Prior art date
Application number
KR1020120132388A
Other languages
Korean (ko)
Other versions
KR20130125283A (en
Inventor
리우 롱
장 판
첸 마오린
최창규
김지연
이기창
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/857,623 priority Critical patent/US9443137B2/en
Publication of KR20130125283A publication Critical patent/KR20130125283A/en
Application granted granted Critical
Publication of KR101931220B1 publication Critical patent/KR101931220B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 인체 부위를 측정하는 방법 및 장치를 제공한다. 상기 방법은 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지(sub image)를 식별하는 단계; 서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하는 단계; 신뢰 계수가 문턱 값(threshold value)보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정하는 단계를 포함한다. 본 발명에 따른 방법 및 장치는 더 효율적으로 인체 부위 측정의 성능을 개선할 수 있다.The present invention provides a method and an apparatus for measuring a human body part. The method comprises the steps of: identifying a group sub image associated with a body part in an image to be measured; Assigning a confidence factor for a human body part in each subimage of the group subimage based on a basic visual feature of the subimage and an extended feature of the peripheral region of the subimage; And merging the sub-images having a confidence coefficient higher than the threshold value to measure the position of the human body part. The method and apparatus according to the present invention can improve the performance of body part measurement more efficiently.

Description

인체 부위 측정 장치 및 방법{Apparatus and Method for Body Components Detection}TECHNICAL FIELD [0001] The present invention relates to an apparatus and a method for measuring a body part,

본 발명은 컴퓨터 시각 및 모드 식별 기술에 관한 것으로, 보다 상세하게는 멀티 부위 콘텍스트 기술자 (Multi-part context descriptor)에 근거하는 인체 부위 측정 방법 및 장치 에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer vision and mode identification technology, and more particularly, to a method and apparatus for measuring a human body based on a multi-part context descriptor.

인체 자세 추정은 컴퓨터 시각 기술의 기본적인 과제이고 상기 기술은 인간-기계 상호 작용, 게이임, 영화, 및 리얼(real) 역할 애니메이션, 3D등 여러 영역에 많이 사용되고 있다. 최근 그의 기술 및 상업 가치에 의하여, 인체 자세 추정에 대한 연구는 컴퓨터 시각 영역의 초점이 되고 있다. 특히, 인체 부위 측정은 인체 자세 추정 기술 중의 기본적인 기술인 것이다. 인체 부위 측정 기술은 인체 자세를 추측하기 위해 중요한 관찰 정보를 제공할 수 있다.Human body posture estimation is a fundamental task of computer vision technology, and the technique is widely used in various fields such as human-machine interaction, gay, movie, real-role animation, and 3D. Recently, based on his technical and commercial values, research on human body posture has become the focus of computer vision. Particularly, human body part measurement is a basic technique of human body posture estimation technology. Human body part measurement technology can provide important observation information to guess the body posture.

인체 부위 측정에서는 대상 측정을 두 가지 타입으로 구분할 있다. 즉, 대상에 근거하는 인체 부위 측정 및 픽셀에 근거하는 인체 부위 측정인 것이다. 대상에 근거하는 인체 부위 측정 방법은 대상 영역에 있는 각 픽셀을 이용하여 포지티브(positive) 샘플로 간주하고, 대상 영역의 픽셀과 그의 주변 픽셀 간의 관계는 통상적으로 특징 기술자(descriptor)로 사용된다. 픽셀에 근거하는 인체 부위 측정 방법은 주변의 정보를 이용하여 대상을 측정할 수 있지만 대상의 내부 특징 및 윤곽 특징을 사용하지 않는다. 픽셀에 근거하는 인체 부위 측정 방법은 전체의 대상 영역을 포지티브 샘플로 간주하고 일부의 특징을 이용하여 상기 영역을 기술(describe)한다. 대상에 근거하는 인체 부위 측정 방법은 대상의 내부 특징 및 윤곽 특징을 사용하지만 대상의 주변 정보를 이용하지 않는다. In human body part measurement, the object measurement can be divided into two types. That is, human body part measurement based on an object and human body part measurement based on a pixel. The object-based body part measuring method regards each pixel in the object area as a positive sample, and the relationship between the pixel in the object area and its surrounding pixels is typically used as a descriptor. Pixel-based human body part measurement methods can measure an object using surrounding information, but do not use the internal and contour features of the object. The pixel-based human body region measuring method regards the entire object region as a positive sample and describes the region using some of the features. The body part measurement method based on the object uses the internal features and contour features of the object but does not use the peripheral information of the object.

인체 부위 측정의 정확도를 향상 시키기 위해, 대상에 근거하는 인체 측정 및 픽셀에 근거하는 인체 측정 방법의 장점을 결합하는 인체 부위 측정 방법 및 장치가 필요하다.In order to improve the accuracy of human body part measurement, there is a need for a human body part method and apparatus that combines the advantages of an object-based human body measurement and a pixel-based human body measurement method.

본 발명의 일 측에 따라, 인체 부위를 측정하는 방법을 제공한다. 상기 방법은 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지(sub image)를 식별하는 단계; 서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하는 단계; 신뢰 계수가 문턱 값(threshold value)보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정하는 단계를 포함한다.According to one aspect of the present invention, a method for measuring a body part is provided. The method comprises the steps of: identifying a group sub image associated with a body part in an image to be measured; Assigning a confidence factor for a human body part in each subimage of the group subimage based on a basic visual feature of the subimage and an extended feature of the peripheral region of the subimage; And merging the sub-images having a confidence coefficient higher than the threshold value to measure the position of the human body part.

본 발명의 일 측에 따라, 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하는 단계는, 각 서브 이미지의 멀티 부위 콘텍스트 기술자 (Multi-part context descriptor)를 정의하고 상기 멀티 부위 콘텍스트 기술자는 기본 기술자 및 확장 기술자를 포함하는 단계; 각 서브 이미지의 멀티 부위 콘텍스트 기술자와 미리 트레이닝(training)된 인체 부위의 멀티 부위 기술자 간의 유사성에 기초하여 상기 각 서브 이미지에 대해서 신뢰 계수를 할당하는 단계를 포함한다. 상기 기본 기술자는 서브 이미지의 인체 부위에 대한 기본 시각 특징을 기술하고, 상기 확장 기술자는 서브 이미지의 인체 부위와 주변 인체 부위의 공간 구조 관계를 기술한다.According to one aspect of the present invention, the step of assigning a confidence factor for a human part in each sub-image of the group sub-image comprises defining a multi-part context descriptor for each sub-image, The site context descriptor includes a basic descriptor and an extension descriptor; And assigning a confidence factor for each subimage based on the similarity between the multi-site context descriptor of each subimage and the multi-site descriptor of a previously trained human body region. The basic descriptor describes basic visual characteristics of the human body part of the sub image, and the expansion descriptor describes the spatial structure relationship of the human body part and the surrounding human body part of the sub image.

본 발명의 일 측에 따라, 서브 이미지는 측정될 이미지에 있는 서로 다른 기하 형상, 위치, 및 크기를 구비하는 이미지 영역인 것이다.According to one aspect of the present invention, the sub-image is an image area having different geometric shapes, positions, and sizes in the image to be measured.

본 발명의 일 측에 따라, 상기 서브 이미지 그룹에 있는 복수의 서브 이미지는 서로 오버랩된다.According to one aspect of the present invention, a plurality of sub-images in the sub-image group overlap each other.

본 발명의 일 측에 따라, 상기 방법은 측정될 이미지를 식별하기 전에 상기 측정될 이미지에 대해서 전처리(preprocessing)하는 단계를 더 포함한다.According to one aspect of the invention, the method further comprises preprocessing the image to be measured before identifying the image to be measured.

본 발명의 일 측에 따라, 상기 전치리 단계는, 측정될 이미지의 데이터에 대해서 양자화(quantization)를 수행하는 단계; 측정될 이미지에 대한 이미지3D 정보 또는 이미지 심도 정보를 측정하는 단계; 측정될 이미지를 분할하는 단계; 측정될 이미지의 전경(foreground)을 추출하는 단계 중에 하나를 포함한다.According to an aspect of the present invention, the pre-processing step includes: performing quantization on data of an image to be measured; Measuring image 3D information or image depth information for the image to be measured; Dividing the image to be measured; And extracting a foreground of the image to be measured.

본 발명의 일 측에 따라, 상기 기본 시각 특징은 오디널(ordinal) 특징; 바이너리(binary) 특징; Haar 특징; 기울기 기술 히스토그램(Histogram of Gradient description) 특징; 윤곽 특징; 그레이(gray) 히스토그램 특징 중에 적어도 하나를 포함한다.According to one aspect of the present invention, the basic visual characteristics include an ordinal characteristic; Binary feature; Haar features; Histogram of Gradient description Feature; Contour feature; And at least one of gray histogram features.

본 발명의 일 측에 따라, 상기 서브 이미지를 합병하는 단계는, 직접 합병 및 가중(weighting) 합병 둘 방식 중에 하나를 포함하고 문턱 값은 멀티 부위 콘텍스트 기술자에 대한 선택 및 조합에 따라 다르다. According to one aspect of the present invention, the step of merging the sub-images comprises one of direct merging and weighting merging, and the threshold value depends on the selection and combination of multi-region context descriptors.

본 발명의 일 측에 따라, 상기 직접 합병 단계는, 예정된 값보다 더 높은 신뢰 계수를 구비하는 서브 이미지를 선택하여 통계 및 기하 방법에 의하여 직접적으로 상기 선택된 서브 이미지의 위치를 합병하는 단계를 포함한다.According to an aspect of the present invention, the direct merging step comprises merging the positions of the selected sub-images directly by statistical and geometric methods, selecting sub-images having a confidence coefficient higher than a predetermined value .

본 발명의 일 측에 따라, 상기 가중 합병 단계는, 서로 다른 신뢰 계수 문턱 값에 기초하여 서브 이미지의 위치를 합병하거나, 클러스터링(clustering) 알고리즘에 따라 서브 이미지의 위치를 합병하는 단계를 포함한다.According to one aspect of the present invention, the weighted merging step comprises merging the positions of the subimages based on different trust factor thresholds or merging the positions of the subimages according to a clustering algorithm.

본 발명의 다른 일 측에 따라, 인체 부위 측정 장치를 제공한다. 상기 장치는 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지(sub image)를 식별하는 서브 이미지 식별부; 서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하고 신뢰 계수가 문턱 값(threshold value)보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정하는 인체 부위 식별부를 포함한다.According to another aspect of the present invention, there is provided a body part measuring apparatus. The apparatus comprising: a sub image identification unit for identifying a group sub image associated with a human body part in an image to be measured; A confidence coefficient is assigned to a human body part in each subimage of the group subimage based on a basic visual characteristic of the subimage and an extended characteristic of a peripheral region of the subimage, And a human body part identification part for merging the images to measure the position of the human body part.

본 발명의 다른 일 측에 따라, 상기 인체 부위 측정 장치는 인체 부위의 멀티 부위 콘텍스트 기술자(Multi-part context descriptor)를 획득하기 위해 샘플 이미지에 대해서 트레이닝을 수행하는 트레이닝부를 더 포함한다. 상기 멀티 부위 콘텍스트 기술자는 기본 기술자 및 확장 기술자를 포함하고, 상기 기본 기술자는 서브 이미지의 인체 부위에 대한 기본 시각 특징을 기술하고, 상기 확장 기술자는 서브 이미지의 인체 부위와 주변 인체 부위의 공간 구조 관계를 기술한다. 상기 인체 부위 식별부는 각 서브 이미지의 멀티 부위 콘텍스트 기술자를 정의하고 상기 각 서브 이미지의 멀티 부위 콘텍스트 기술자와 상기 트레이닝부에 트레이닝된 인체 부위의 멀티 부위 기술자 간의 유사성에 기초하여 상기 각 서브 이미지에 대해서 신뢰 계수를 할당한다.According to another aspect of the present invention, the human body part measuring device further includes a training part for performing training on the sample image to obtain a multi-part context descriptor of the human body part. Wherein the multi-region context descriptor includes a basic descriptor and an extension descriptor, the basic descriptor describes a basic visual feature for a human body portion of the sub-image, and the extension descriptor describes a spatial structure relationship between a human body portion of the sub- Lt; / RTI > Wherein the human body part identification unit defines a multi-region context descriptor of each sub-image and determines a trust for each sub-image based on the similarity between the multi-region context descriptor of each sub-image and the multi-site descriptor of the human body part trained in the training unit Quot;

본 발명의 다른 일 측에 따라, 상기 인체 부위 측정 장치는 측정될 이미지 또는 샘플 이미지에 대해서 전처리(preprocessing)를 수행하는 전처리부를 더 포함한다.According to another aspect of the present invention, the human body part measuring apparatus further includes a preprocessing unit for performing preprocessing on an image or a sample image to be measured.

이하, 첨부된 도면을 참조하여 실시예를 설명한다. 이에 따라 상기 및 기타 목적과 장점이 더욱 명확하게 된다.
도 1은 본 발명에 따른 인체 부위 측정 방법의 트레이닝 과정을 도시한 흐름도이다.
도 2A-2C는 본 발명의 실시예에 따른 심도 이미지에 있는 멀티 부위 콘텍스트 기술자 (Multi-part context descriptor)를 도시한 것이다.
도 3은 본 발명의 실시예에 따른 인체 부위 측정 방법을 도시한 흐름도이다.
도 4은 본 발명의 실시예에 따른 인체 부위 측정 시스템을 도시한 것이다.
Hereinafter, embodiments will be described with reference to the accompanying drawings. The above and other objects and advantages will be more clearly understood.
1 is a flowchart illustrating a training process of a human body part measuring method according to the present invention.
2A-2C illustrate a multi-part context descriptor in a depth image according to an embodiment of the present invention.
3 is a flowchart illustrating a body part measuring method according to an embodiment of the present invention.
FIG. 4 illustrates a human body part measuring system according to an embodiment of the present invention.

이하, 실시예들에 대해서 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 인체 부위 측정 방법의 트레이닝 과정을 도시한 흐름도이다.1 is a flowchart illustrating a training process of a human body part measuring method according to the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 인체 부위 측정 방법의 트레이닝 과정은 트레이닝 이미지 데이터 구축 단계(110); 전처리(preprocessing) 단계(120); 트레이닝 샘플 준비 단계(130) 및 인체 부위 분류기(sorter) 트레이닝 단계(140)의 네 가지 단계를 포함한다. 이하, 상기 각 단계에 대해서 자세히 설명한다.As shown in FIG. 1, the training process of the human body part measuring method according to the present invention includes constructing training image data 110; A preprocessing step 120; A training sample preparation step 130 and a human body sorter training step 140. Hereinafter, each of the above steps will be described in detail.

우선, 트레이닝 이미지 데이터 구축 단계(110)에서는 이미지 데이터 또는 리얼(real) 이미지 데이터를 합성에 의하여 트레이닝 이미지 데이터를 구축할 수 있다. First, in the training image data building step 110, training image data can be constructed by combining image data or real image data.

그 다음, 전처리 단계(120)에서는 트레이닝 이미지 데이터에 대해서 양자화(quantization) 및 배경 제거를 수행한다. 양자화 처리는 후속 처리를 수행하기 위해 오리지널 이미지 데이터를 양자화된 심도 이미지 데이터로 표시한 것이다. 예를 들어, 그레이(gray) 이미지는 대표적인 양자화 심도 이미지로써 그의 이미지 데이터의 값이 0~255로 양자화 된다. 양자화에 의하여 오리지널 이미지 데이터는 양자화 되어 소음 제거 또는 계산을 줄일 수 있다. 일반적으로 배경 제거 처리는 심도 값에 대한 제한, 관련된 영역 추출, 및 동작 포착 등에 기초하여 수행된다.The preprocessing step 120 then performs quantization and background removal on the training image data. The quantization processing is a representation of the original image data as quantized depth image data to perform subsequent processing. For example, a gray image is a representative quantization depth image, and the value of its image data is quantized from 0 to 255. By quantization, the original image data can be quantized to reduce noise or reduce computation. In general, background removal processing is performed based on restrictions on depth values, related area extraction, and motion capture.

구체적으로, 트레이닝 이미지 데이터에 대한 처리는, 트레이닝 이미지 데이터에 대해서 양자화를 수행하는 단계; 트레이닝 이미지 데이터에 대한 이미지3D 정보 또는 이미지 심도 정보를 측정하는 단계; 트레이닝 이미지 데이터를 분할하는 단계; 트레이닝 이미지 데이터 에 대해서 전경(foreground)을 추출하는 단계 중에 하나를 포함할 수 있다.Specifically, the processing on the training image data comprises: performing quantization on the training image data; Measuring image 3D information or image depth information for the training image data; Dividing the training image data; And extracting a foreground with respect to the training image data.

이어서, 트레이닝 샘플 준비 단계(130)에서는 세 가지 타입의 트레이닝 샘플을 준비한다. 즉, 부위 샘플, 부위 콘텍스트 샘플 및 네거티브(negative) 샘플이다. 부위 샘플은 부위 대상의 자체를 초점으로 한다. 부위 콘텍스트 샘플은 부위의 주변 영역을 초점으로 한다. 부위 주변 영역에 대한 분할은

Figure 112012096014614-pat00001
로 표시할 수 있고,
Figure 112012096014614-pat00002
Figure 112012096014614-pat00003
는 부위 영역의 주변 영역의 중심 위치를 의미하고, R는 주변 영역의 사이즈를 의미하고, M는 주변 영역의 분할된 형상을 의미한다. 분할된 형상은 사각형, 원형 등이 될 수 있다. 네거티브 샘플은 측정될 인체 부위를 포함하는 서브 이미지와 반대의 서브 이미지인 것이다. 즉, 측정될 인체 부위를 포함하지 않는 서브 이미지인 것이다. 일반적으로 샘플 트레이닝 단계에서 두 기지 타입의 네거티브 샘플을 사용한다. 하나는 인체가 포함되지 않는 배경 이미지인 것이고, 또 하나는 해당 트레이닝 인체 부위가 이미 추출된 인체 이미지인 것이다. 네거티브 샘플의 트레이닝에 의하여 서브 이미지에 측정될 인체 부위가 포함되는지 구분할 수 있다. Then, in the training sample preparation step 130, three types of training samples are prepared. A site sample, a site context sample, and a negative sample. The site sample focuses on the site object itself. The site-context sample focuses on the surrounding area of the site. The segmentation for the region around the site
Figure 112012096014614-pat00001
As shown in FIG.
Figure 112012096014614-pat00002
And
Figure 112012096014614-pat00003
Denotes the center position of the peripheral region of the region, R denotes the size of the peripheral region, and M denotes the divided shape of the peripheral region. The divided shape may be a square, a circle, or the like. A negative sample is a subimage opposite to the subimage containing the body part to be measured. That is, it is a sub-image that does not include the human body part to be measured. Generally, two sample types of negative samples are used in the sample training phase. One is a background image that does not contain a human body, and the other is a human image that has already been extracted. By training the negative sample, it is possible to distinguish whether the sub-image contains the body part to be measured.

그 다음, 인체 부위 분류기 트레이닝 단계(140)에서는 인체 부위를 측정하기 위한 인체 부위 분류기 트레이닝을 수행한다. 인체 부위 분류기 트레이닝은 샘플을 기술하는 단계; 트레이닝을 개선하는 단계; 측정기를 구축하는 단계 세 가지 단계를 포함한다. Next, in the human body classifier training step 140, a human body classifier training is performed to measure a human body part. Human body classifier training includes describing a sample; Improving training; Building a meter involves three steps.

샘플을 기술하는 단계에서, 각 서브 이미지의 기본적인 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 샘플을 기술한다. 본 발명의 실시예에 따라, 멀티 부위 콘텍스트 기술자를 이용하여 각 서브 이미지의 기본적인 특징 및 상기 서브 이미지의 주변 영역의 확장 특징을 표현할 수 있다. 본 발명의 실시예에 따른 멀티 부위 콘텍스트 기술자는 각 서브 이미지의 부위 대상에 대한 기본적인 시각 특징을 기술할 있는 것이 뿐만 아니라 부위에 인접한 주변 부위의 콘텍스트 정보, 즉 확장 특징에 대해도 기술할 수 있다. 예를 들어, 본 발명의 실시예에서는 멀티 사이즈 오디널(ordinal) 모드(MSOP)의 특징을 이용하여 멀티 부위 콘텍스트 기술자의 기본적인 특징으로 간주할 수 있다.In describing the sample, a sample is described based on the basic characteristics of each subimage and the extended features of the peripheral region of the subimage. According to an embodiment of the present invention, a basic feature of each sub-image and an extended feature of a peripheral region of the sub-image can be expressed using a multi-region context descriptor. The multi-region context descriptor according to an embodiment of the present invention not only describes the basic visual characteristics of the part target of each sub-image but also describes the context information of the neighboring parts adjacent to the part, that is, the extended feature. For example, embodiments of the present invention can be regarded as a basic feature of a multi-site context descriptor using the features of multi-size ordinal mode (MSOP).

MSOP의 멀티 부위 콘텍스트 기술자에 기초하여 다음과 같이 등식(1)으로 표현할 수 있다:Based on the multi-site context descriptor of the MSOP, it can be expressed as Equation (1) as follows:

등식(1)
Equation (1)

Figure 112012096014614-pat00004
Figure 112012096014614-pat00004

상기 등식(1)에 있어서, b(x)는 불 함수(Boolean function)를 의미하고, x>0 이면 b(x)=1, x<0 이면 b(x)=0. gi는MSOP 모드에서 그리드(grid, 즉 서브 이미지)에 있는 픽셀 값을 의미하고, i는 그리드의 인덱스를 의미하고, gc는 서브 이미지 및 서브 이미지 주변 영역의 그리드에 대한 평균 픽셀 값을 의미하며

Figure 112012096014614-pat00005
로 표현할 수 있다.
Figure 112012096014614-pat00006
는 MSOP 모드의 파라미터를 의미하고 MSOP 모드의 파라미터는 모드의 위치, 크기 및 유형을 포함할 수 있다. 본 발명의 실시예에 따른 MSOP 모드는 서브 이미지에 포함된 부위의 기본적인 특징을 기술하기 위한 MSOP 모드 및 주변 부위의 확장 특징을 기술하기 위한 MSOP 모드를 포함할 수 있다. 그러나 MSOP 모드에 근거하는 특징 기술자는 본 발명의 실시예에 따른 멀티 부위 콘텍스트 기술자의 한 예시로써 본 발명이 이에 의하여 제한되지 않는다. 본 발명은 기타의 시각 특징 기술 방식으로 멀티 부위 콘텍스트 기술자를 형성할 수 있다. 예를 들어, 이미지의 Haar 특징; 기울기 히스토그램(HOG) 특징; 바이너리(binary) 특징; 윤곽 특징; 그레이(gray) 히스토그램 특징을 이용하여 멀티 부위 콘텍스트 기술자의 기본적인 기술자로 간주한다.In the above equation (1), b (x) means a Boolean function, and b (x) = 1 if x> 0 and b (x) = 0 if x <0. gi denotes the pixel value in the grid in the MSOP mode, i denotes the index of the grid, gc denotes the average pixel value of the subimage and the grid around the subimage,
Figure 112012096014614-pat00005
.
Figure 112012096014614-pat00006
Means the parameter of the MSOP mode, and the parameters of the MSOP mode may include the position, size and type of the mode. An MSOP mode according to an embodiment of the present invention may include an MSOP mode for describing a basic feature of a part included in a sub image and an MSOP mode for describing an extended feature of a surrounding part. However, the feature descriptor based on the MSOP mode is an example of a multi-region context descriptor according to an embodiment of the present invention, and thus the present invention is not limited thereto. The present invention may form a multi-site context descriptor in other visual feature description schemes. For example, Haar features of images; Tilt histogram (HOG) feature; Binary feature; Contour feature; We consider the gray histogram feature to be the basic descriptor of the multi-site context descriptor.

이하, 도 2A-2C를 참조하여 본 발명의 실시예에 따른 멀티 부위 콘텍스트 기술자의 모드에 대해서 설명한다.Hereinafter, modes of the multi-region context descriptor according to an embodiment of the present invention will be described with reference to FIGS. 2A to 2C.

도 2A-2C는 본 발명의 실시예에 따른 멀티 부위 콘텍스트 기술자의 모드 파라미터를 도시한 것이다. 도2B을 참조하면, 블록 201 및203은 인체 부위를 포함하는 서브 이미지를 의미하는 것이다. 블록 201에 포함된 인체 부위는 인체의 위팔인 것이고 블록 203에 포함된 인체 부위는 인체의 머리인 것이다. 블록 205 및207은 블록 201 및203에 대응하는 주변 영역을 의미하는 것이다. 도 2A는 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자에 있는 부위의 시각 특징을 기술하는 기본적인 기술자의 모드 파라미터

Figure 112012096014614-pat00007
를 도시한 것이다. 도 2C는 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자에 있는 부위 주변 영역의 콘텍스트 정보를 기술하는 확장 기술자의 모드 파라미터
Figure 112012096014614-pat00008
를 도시한 것이다. 상기 기술 방식에 있어서, x및y 는 기술자의 위치 파라미터를 의미하고, w및 h는 기술자의 형상 파라미터를 의미하고, t는 기술자의 유형을 의미한다. 상기 기술 방식으로, 주변 영역의 크기 및 형상은 측정될 인체 부위를 포함하는 서브 이미지와 일정 관계를 구비하는 것으로 정의될 수 있다. 예를 들어, 주변 영역의 위치는 서브 이미지의 영역을 중심으로 하는 더 큰 영역이 될 수 있고(도2B의 블록205 및 207을 참조), 서브 이미지 영역의 위쪽, 아래쪽, 왼쪽, 오른쪽 영역이 될 수도 있다. 주변 영역의 크지는 서브 이미지 영역의 2배, 3배, 3.5배등이 될 수 있다. 주변 영역의 형상은 서브 이미지와 같은 형상이 될 수 있고 고정된 사각형, 원형 등도 될 수 있다. 2A-2C illustrate mode parameters of a multi-region context descriptor according to an embodiment of the present invention. Referring to FIG. 2B, blocks 201 and 203 refer to a sub-image including a human body part. The body part included in the block 201 is the upper arm of the human body, and the body part included in the block 203 is the human body's head. Blocks 205 and 207 denote peripheral regions corresponding to blocks 201 and 203, respectively. FIG. 2A is a block diagram of a mode descriptor of a basic descriptor describing a visual feature of a region in a multi-region context descriptor according to an embodiment of the present invention.
Figure 112012096014614-pat00007
FIG. FIG. 2C illustrates a mode parameter of an extension descriptor describing context information of a region around a region in a multi-region context descriptor according to an embodiment of the present invention.
Figure 112012096014614-pat00008
FIG. In the above description, x and y mean the position parameter of the descriptor, w and h mean the shape parameter of the descriptor, and t mean the type of the descriptor. In the above description, the size and shape of the peripheral region can be defined as having a certain relationship with the sub-image including the human body region to be measured. For example, the position of the peripheral region may be a larger region centered on the region of the sub-image (see Blocks 205 and 207 of FIG. 2B), and may be the upper, lower, left, It is possible. The size of the surrounding area may be 2 times, 3 times, 3.5 times, or the like of the sub image area. The shape of the peripheral region may be the same as the shape of the sub-image, or may be a fixed rectangle, a circle, or the like.

머리에 대하여, 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자는 머리의 특징(예, 타원형의 윤곽 특징)을 기술할 수 있는 것이 뿐만 아니라, 머리 주변의 목 또는 어깨 부위에 대한 정보도 기술할 수 있다. 위팔에 대하여, 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자는 위팔의 형상을 기술할 수 있는 것이 뿐만 아니라 위팔 주변의 상반 신체에 대한 정보도 기술 할 수 있다. 따라서, 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자는 부위 대상의 내부 특징 및 윤곽 구조를 포함하는 것이 뿐만 아니라 주변 영역의 콘텍스트 정보도 포함한다. 따라서 현재 기술의 로컬 기술자와 비교하면 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자는 더 높은 안정성을 구비한다.With respect to the head, the multi-site contex descriptor according to an embodiment of the present invention not only describes the characteristics of the head (e.g., oval contour features), but also describes information about the neck or shoulder area around the head . With respect to the upper arm, the multi-site contex technician according to the embodiment of the present invention can not only describe the shape of the upper arm, but also information on the upper body around the upper arm. Accordingly, the multi-region context descriptor according to the embodiment of the present invention not only includes the internal features and the contour structure of the region object, but also includes the context information of the surrounding region. Accordingly, the multi-site context descriptor according to the embodiment of the present invention has higher stability as compared with the local descriptor of the present technology.

또한, 상기와 같이, 도2에서 머리 및 위팔에 의하여 인체 부위의 예시를 설명했지만 해당 기술분야에서 통상의 지식을 가진 자라면 인체 부위가 더 정밀하게 구분될 수 있는 것을 이해해야 한다. 예를 들어, 인체 부위를 머리, 왼쪽 위팔(left upper arm), 왼쪽 아래팔(Left lower arm), 왼손, 오른쪽 위팔, 오른쪽 아래팔, 오른손, 왼쪽 허벅지, 왼쪽 종아리, 오른쪽 허벅지, 오른쪽 종아리 등으로 구분할 수 있으므로 상기 각 부위에 대해서 더 정밀한 멀티 부위 콘텍스트 기술자 트레이닝을 수행할 수 있다. In addition, as described above, although the example of the human body region by the head and the upper arm is described in FIG. 2, it should be understood that the human body region can be more precisely classified by those skilled in the art. For example, the human body may be divided into two parts: head, left upper arm, left lower arm, left hand, right upper arm, lower right arm, right hand, left thigh, left calf, right thigh, So that more precise multi-site context descriptor training can be performed for each of the regions.

다시 도1을 참조하면, 트레이닝을 개선하는 단계에서 모든 유형의 분류기를 트레이닝하여 인체 부위를 측정하고, 각 유형의 분류기는 서브 이미지의 한 특징을 의미한다. 예를 들어, SVM, Forest, Boosting 등 알고리즘을 통해 분류기를 트레이닝한다. 본 발명의 실시예에서는 AdaBoost 알고리즘을 사용하여 분류기 트레이닝을 수행한다. AdaBoost에 근거하는 멀티 부위 콘텍스트 기술자는 다음과 같이 등식(2)로 표현할 수 있다.Referring again to FIG. 1, in the step of improving training, all types of classifiers are trained to measure a human body part, and each type of classifier means one characteristic of a sub-image. For example, the classifier is trained through algorithms such as SVM, Forest, and Boosting. In the embodiment of the present invention, the classifier training is performed using the AdaBoost algorithm. The multi-region context descriptor based on AdaBoost can be expressed as Equation (2) as follows.

등식(2)Equation (2)

Figure 112012096014614-pat00009
Figure 112012096014614-pat00009

상기 등식(2)에 있어서, x는 샘플을 의미하고,

Figure 112012096014614-pat00010
는 부위 대상 자체의 특징을 기술하기 위한 분류기를 의미하고,
Figure 112012096014614-pat00011
는 부위 주변 영역에 대한 콘텍스트 정보의 특징을 기술하기 위한 분류기를 의미하고,
Figure 112012096014614-pat00012
Figure 112012096014614-pat00013
분류기의 개수를 의미하고,
Figure 112012096014614-pat00014
Figure 112012096014614-pat00015
분류기의 개수를 의미하고, F(x)는 최종의 분류기를 의미한다.In the above equation (2), x denotes a sample,
Figure 112012096014614-pat00010
Means a classifier for describing a characteristic of a site object itself,
Figure 112012096014614-pat00011
Quot; means a classifier for describing a feature of context information about a region around a region,
Figure 112012096014614-pat00012
The
Figure 112012096014614-pat00013
Means the number of classifiers,
Figure 112012096014614-pat00014
The
Figure 112012096014614-pat00015
Denotes the number of classifiers, and F (x) denotes the final classifier.

그 다음, 인체 부위 측정기를 구축하는 단계에서 트레이닝된 여러 종류의 분류기를 캐스게이드(cascade)하여 인체 부위 측정의 성능을 향상시킨다. Then, various kinds of classifiers trained in the step of constructing the human body part are cascadeed to improve the performance of human body part measurement.

이하, 도3을 참조하여 본 발명의 실시예에 따른 인체 부위를 측정하는 방법을 설명한다.Hereinafter, a method of measuring a human body part according to an embodiment of the present invention will be described with reference to FIG.

우선, 단계(310)에서, 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지를 식별한다. 구체적으로, 식별하는 과정에서 심도 이미지의 특정된 위치 및 크기에 기초하여 서브 이미지를 검색하고 서브 이미지가 측정될 인체 부위인지 판단할 수 있다.First, in step 310, the group subimage associated with the human body part is identified in the image to be measured. Specifically, in the process of identifying, the sub-image may be searched based on the specified position and size of the depth image and it may be determined whether the sub-image is a human body part to be measured.

검색 과정은

Figure 112012096014614-pat00016
로 표현할 수 있고,
Figure 112012096014614-pat00017
는 각각 서브 이미지를 검색할 때 사용된 가장 작은 사이즈, 가장 큰 사이즈, 및 step size 를 의미하고,
Figure 112012096014614-pat00018
는 각각 서브 이미지를 검색할 때 사용된 이니셜 검색 포인트 위치, 종점 위치 및 searching step size를 의미한다. 다리 말하면, 서브 이미지는 측정될 이미지에 서로 다른 기하 형상, 위치 및 크기를 구비하는 이미지 영역이 될 수 있고 서브 이미지 그룹에 있는 복수의 서브 이미지가 서로 오버랩이 될 수 있다. 구체적으로 상기 검색 과정은 이미지에서 순환으로 서브 이미지 영역을 추출하는 과정으로 간주될 수 있다. 우선, 이니셜 사이즈 Smin부터 서브 이미지 영역의 크기를 결정하고, 그 다음, 이미지의 이니셜 검색 포인트 위치Pstart로부터 서브 이미지 영역의 중심 위치를 결정하고 종점 위치 Pend에 도작할 때까지 Ps를 step로 하여 순서대로 이미지 영역의 중심 위치를 이동하고, 트래버스(traverse)된 각 위치에서 서브 이미지를 추출한다. 그 다음, 가장 큰 사이즈Smax 가 될 때까지 step Sstep에 의하여 순서대로 서브 이미지 영역의 크기를 증가한다. 각 영역 사이즈마다 한번씩 서브 이미지의 중심으로 Pstart로부터 Pend까지 트래버스하여 검색할 모든 서브 이미지를 획득한다.The search process
Figure 112012096014614-pat00016
Can be expressed as,
Figure 112012096014614-pat00017
Quot; means the smallest size, the largest size, and step size used when searching for the sub image, respectively,
Figure 112012096014614-pat00018
Respectively denote the initial search point position, the end point position, and the searching step size, which are used when the sub image is searched. In short, a sub-image may be an image area having a different geometry, position, and size in an image to be measured, and a plurality of sub-images in the sub-image group may overlap each other. Specifically, the searching process can be regarded as a process of extracting a sub-image region from a circulation in an image. First, the size of the subimage area is determined from the initial size Smin, then the center position of the subimage area is determined from the initial search point position Pstart of the image, and Ps is stepped Moves the center position of the image region and extracts the subimage at each traversed position. Then, the size of the subimage area is increased in order by the step Sstep until it becomes the largest size Smax. And traverses from Pstart to Pend at the center of the subimage once for each region size to obtain all the subimages to be searched.

바람직한 것은, 식별 과정에서 전경(foreground) 추출 기술을 통해 측정될 이미지에 있는 인체를 추출한 것이다. 전경 추출을 통해 전경 영역만 인체 부위 측정을 수행할 수 있고 서브 이미지 위치에 대한 검색 량을 줄일 수 있다. 또한 추출된 전경 대상에 대한 심도 값을 측정하여 서브 이미지에 대한 검색 범위를 줄일 수 있다. 또한 이미지 3D 정보 및 이미지 분할에 의하여 서브 이미지를 식별할 수 있다.It is desirable to extract the human body in the image to be measured through the foreground extraction technique in the identification process. With the foreground extraction, only human foreground regions can be measured and the search volume for subimage locations can be reduced. In addition, the depth of the extracted foreground object can be measured to reduce the search range for the sub image. In addition, sub-images can be identified by image 3D information and image segmentation.

그 다음, 단계(320)에서, 각 서브 이미지의 기본적인 특징 기술 및 상기 서브 이미지 주변 영역의 확장 특징 기술에 기초하여 그룹 서브 이미지에 있는 각 서브 이미지의 인체 부위에 대해서 신뢰 계수를 할당한다. 다시 말하면, 트레이닝된 멀티 부위 콘텍스트 기술자에 기초하여 서브 이미지가 인체 부위인지 결정한다. 구체적으로, 인체 부위 분류기 트레이닝에 의하여 최종으로 획득된 최종 분류기 F(x) (등식(2)를 참조)의 식으로 서브 이미지에 대해서 신뢰 계수를 계산한다. 우선, 인체 부위 분류기 트레이닝 부분의 특징에 따라 해당하는 분류기f 에 대해서 계산하고, F(x) 식의 조합으로 각 분류기에 대한 계산 값을 오버레이(overlay)하고 오버레이된 출력 값을 해당하는 서브 이미지의 신뢰 계수로 간주한다.Then, at step 320, a confidence factor is assigned to the human body portion of each sub-image in the group sub-image based on the basic feature description of each sub-image and the extended feature description of the sub-image surrounding region. In other words, based on the trained multi-site context descriptor, it is determined whether the sub-image is a human part. Specifically, confidence coefficients are calculated for sub-images in the form of a final classifier F (x) (see equation (2)) finally obtained by human body classifier training. First, we calculate the corresponding classifier f according to the characteristics of the human body classifier training part, overlay the calculated values for each classifier by a combination of F (x), and output the overlaid output value to the corresponding sub- It is regarded as a confidence coefficient.

그 다음, 단계(330)에서, 신뢰 계수가 문턱 값보다 높은 서브 이미지를 합병하여 인체 부위의 위치를 측정한다. 여기서, 문턱 값은 멀티 부위 콘텍스트 기술자의 종류에 대한 선택 및 조합에 따라 다르고 본 발명의 실시예에 따라 합병 단계는 직접 합병 및 가중(weighting) 합병 둘 방식을 포함할 수 있다. 직접 합병 단계에서는 예정된 값보다 더 높은 신뢰 계수를 구비하는 서브 이미지를 선택하여 통계 및 기하 방법에 의하여 직접적으로 상기 선택된 서브 이미지의 위치를 합병하여 최종으로 인체 부위의 위치를 획득한다. 구체적으로, 평균값의 방식으로 모든 신뢰 계수 요구에 부합하는 서브 이미지의 평균 중심 위치 및 평균 사이즈 크기를 계산하여 최종 인체 부위 위치로 할 수 있다. 또한 모든 신뢰 계수 요구에 부합하는 서브 이미지가 가장 집중되어 있는 영역을 인체 부위의 최종 출력 위치로 할 수 있다. Then, in step 330, the position of the human body part is measured by merging the sub-images whose confidence coefficients are higher than the threshold value. Here, the threshold value depends on the selection and combination of the types of the multi-region context descriptors, and according to the embodiment of the present invention, the merging step may include both direct merging and weighting merging methods. In the direct merging step, a sub-image having a confidence coefficient higher than a predetermined value is selected and the position of the human body part is finally acquired by merging the positions of the selected sub-images directly by the statistical and geometric methods. Specifically, the average center position and the average size size of the sub image matching all the reliability coefficient requests can be calculated by the average value method to be the final human body part position. In addition, the region where the sub images corresponding to all the reliability coefficient requests are most concentrated can be regarded as the final output position of the human body region.

가중 합병 단계에서, 서로 다른 신뢰 계수 문턱 값에 기초하여 서브 이미지의 위치를 합병하거나, 클러스터링 알고리즘(clustering alorithm)에 따라 서브 이미지의 위치를 합병한다. 클러스터링 알고리즘은 mean-shift, k near neighbor를 포함할 수 있다. 구체적으로 가중 합병에서, 신뢰 계수 요구에 부합하는 서브 이미지에 대한 신뢰 계수는 동시에 유지될 수 있고 합병에서 상기 서브 이미지의 중요성을 결정한다. 예를 들어, 서브 이미지의 가중 평균 중심 위치 및 가중 평균 사이즈 크기를 최종 인체 부위의 위치로 할 수 있다.In the weighted merge step, the positions of the sub images are merged based on the different confidence coefficient thresholds, or the positions of the sub images are merged according to the clustering algorithm. Clustering algorithms can include mean-shift, k near-neighbor. Specifically, in a weighted merger, the confidence factor for the subimage matching the confidence factor requirement can be maintained at the same time and determines the importance of the subimage in the merger. For example, the weighted average center position and the weighted average size size of the subimage may be the positions of the final human body region.

이하, 도4를 참조하여 본 발명의 실시예에 따른 인체 부위 측정 시스템의 작동 원리에 대해서 설명한다. 도4에 도시된 바와 같이, 본 발명의 실시예에 따른 인체 부위 측정 시스템은 이미지 획득 장치(410), 인체 부위 측정 장치(420)를 포함한다. 도4에서 이미지 획득 장치(410) 및 인체 부위 측정 장치(420)가 별도로 설치되어있지만 상기 두 장치는 하나의 설비로 실현될 수 있다.Hereinafter, the operation principle of the human body part measuring system according to the embodiment of the present invention will be described with reference to FIG. 4, the human body part measuring system according to the embodiment of the present invention includes an image obtaining device 410 and a human body part measuring device 420. Although the image acquiring device 410 and the body part measuring device 420 are installed separately in FIG. 4, the two devices can be realized as one facility.

또한, Primesence 매핑(mapping) 장치, ToF(Time-of-Flight) 카메라, 다시점(multi-view) 카메라 등 장치 및 설비를 이미지 획득 장치(410)로 간주할 수 있다. 이미지 획득 장치(410)에 의하여 획득된 이미지 데이터는 트레이닝 이미지 데이터로 사용될 수 있고 측정될 이미지 데이터로 사용될 수도 있다.In addition, devices and facilities such as a Primesence mapping device, a Time-of-Flight (ToF) camera, and a multi-view camera can be regarded as the image acquisition device 410. The image data obtained by the image acquisition device 410 may be used as training image data and may be used as image data to be measured.

인체 부위 측정 장치(420)은 이미지 전처리부(421), 트레이닝부(422), 서브 이미지 식별부(423), 및 인체 부위 식별부(424)를 포함한다.The human body part measuring device 420 includes an image preprocessing part 421, a training part 422, a sub image identifying part 423, and a human body part identifying part 424.

이미지 전처리부(421)은 이미지 데이터를 전처리하기 위해 사용된다. 여기서, 이미지 전처리부(421)은 이미지 획득 장치(410)가 획득된 이미지 데이터 또는 트레이닝 샘플 이미지 데이트베이스에 저장된 샘플 이미지 데이터에 대해서 전처리를 수행한다. 예를 들어, 이미지 전처리부(421)은 이미지 데이터에 대해서 양자화를 수행할 수 있고 트레이닝부(422) 및 서브 이미지 식별부(423)가 후속 처리를 수행하기 위해 이미지 데이터에 대해서 전경 추출 처리, 심도 값 측정, 이미지 3D 정보 측정, 이미지 분할 등 처리를 수행할 수 있다.An image preprocessing section 421 is used for preprocessing the image data. Here, the image preprocessing section 421 preprocesses the image data obtained by the image acquisition apparatus 410 or the sample image data stored in the training sample image data base. For example, the image preprocessing section 421 can perform quantization on the image data, and the training section 422 and the subimage identification section 423 can perform foreground extraction processing on the image data, Value measurement, image 3D information measurement, image segmentation, and so on.

트레이닝부(422)는 트레이닝 샘플 이미지 데이터로부터 트레이닝 샘플을 준비하고 트레이닝 샘플을 이용하여 인체 부위를 측정하는 인체 부위 분류기(즉, 멀티 부위 콘텍스트 기술자)를 트레이닝하고 인체 부위 분류기를 사용하여 인체 부위 측정기를 구축한다. 트레이닝 샘플 이미지 데이터는 이미지 데이터 베이스에 미리 저장된 이미지 데이터가 될 수 있고 이미지 획득 장치(410)에 의하여 획득된 이미지 데이터가 될 수도 있다.The training section 422 trains a human body part sorter (i.e., a multi-site context descriptor) that prepares training samples from the training sample image data and uses the training samples to measure the human body area, and uses the human body part sorter Build. The training sample image data may be image data that is stored in advance in the image database and may be image data obtained by the image acquisition device 410. [

서브 이미지 식별부(423)은 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지(sub image)를 식별한다. 인체 부위 식별부(424)는 각 서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하고 신뢰 계수가 문턱 값보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정한다. 본 발명의 예시적 실시예에서는 인체 부위 식별부(424)는 각 서브 이미지의 멀티 부위 콘텍스트 기술자를 정의하고 각 서브 이미지의 멀티 부위 콘텍스트 기술자와 트레이닝된 인체 부위의 멀티 부위 기술자 간의 유사성에 기초하여 각 서브 이미지에 대해서 신뢰 계수를 할당한다. 또한 인체 부위 식별부(424)는 측정된 결과를 외부 장치로 출력하여 외부 장치에 의하여 처리한 다음에 최종의 인체 부위 식별 결과를 표시할 수 있다.The sub image identification unit 423 identifies a group sub image related to the human body part in the image to be measured. The human body part identification unit 424 assigns a confidence coefficient to a human body part in each subimage of the group subimage based on the basic visual characteristic of each subimage and the extended characteristic of the peripheral area of the subimage, The sub-images higher than the threshold value are merged to measure the position of the human body part. In the exemplary embodiment of the present invention, the human body part identification unit 424 defines a multi-region context descriptor of each sub-image, and based on the similarity between the multi-region context descriptor of each sub-image and the multi-site descriptor of the trained human body region, A confidence coefficient is assigned to the subimage. In addition, the human body part identification unit 424 outputs the measured result to an external device, processes it by an external device, and displays the final human body part identification result.

상기 설명된 인체 부위 측정 장치(420)에 대한 각 모듈의 구정은 예시적으로써 더 많은 모듈로 구분할 거나 적은 수량의 모듈로 합병될 수 있다.Each module of the human body part measuring apparatus 420 described above can be divided into more modules or can be merged into a smaller number of modules by way of example.

현재 사용된 대상에 근거하는 인체 부위 측정 기술 및 픽셀에 근거하는 인체 부위 측정 기술과 비교하면 본 발명에 따른 멀티 부위 콘텍스트 기술자는 인체 부위 대상 자체의 내부 특징 및 윤곽 특징에 대해서 기술할 수 있는 것이 뿐만 아니라 인체 부위 대상 주변 영역의 특징에 대해도 기술할 수 있다. 따라서 인체 부위의 주변 정보를 이용하여 인체 부위 측정기의 성능을 개선할 수 있고 더 신속하게 분류기 트레이닝의 목적을 달성할 수 있으므로 분류기의 복잡도를 줄일 수 있다. 따라서 본 발명에 따른 인체 부위 측정 방법은 더 효율적으로 인체 부위 측정의 성능을 개선할 수 있다. Compared with the human body part measurement technique based on the currently used object and the pixel part based human body part measurement technique, the multi-part context descriptor according to the present invention can describe the internal and contour features of the human body part itself But also the characteristics of the peripheral region of the human body part target can be described. Therefore, the performance of the human body part measuring device can be improved by using the surrounding information of the human body part, and the object of the classifier training can be achieved more quickly, so that the complexity of the classifier can be reduced. Therefore, the human body part measuring method according to the present invention can improve the performance of human body part more efficiently.

이상과 같이 본 발명은 비록 한정된 실시예에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Do. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

Claims (17)

인체 부위를 포함하는 입력 이미지에 기초하여 복수의 서브 이미지들을 생성하는 단계;
서브 이미지의 기본 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 복수의 서브 이미지들의 신뢰 계수를 결정하는 단계; 및
상기 복수의 서브 이미지들 중 적어도 두 개의 서브 이미지들이 문턱 값(threshold value)보다 높은 신뢰 계수를 가지는 경우, 상기 문턱 값보다 높은 신뢰 계수를 가지는 서브 이미지들을 합병하여 상기 인체 부위를 검출하는 단계를 포함하고,
상기 신뢰 계수를 결정하는 단계는,
상기 서브 이미지들에 대한 멀티 부위 콘텍스트 기술자와 상기 인체 부위에 대해 미리 트레이닝된 멀티 부위 기술자 간의 유사성에 기초하여 상기 서브 이미지들의 신뢰 계수를 결정하는 단계를 포함하고,
상기 멀티 부위 콘텍스트 기술자는,
상기 기본 특징에 대응되는 기본 기술자 및 상기 확장 특징에 대응되는 확장 기술자를 포함하는
인체 부위 측정 방법.
Generating a plurality of subimages based on an input image including a human body portion;
Determining a confidence coefficient of the plurality of sub-images based on a basic characteristic of the sub-image and an extended characteristic of the peripheral region of the sub-image; And
And combining the sub-images having a confidence coefficient higher than the threshold value when the at least two sub-images of the plurality of sub-images have a confidence coefficient higher than a threshold value to detect the human body part and,
Wherein the step of determining the confidence factor comprises:
Determining a confidence coefficient of the sub-images based on a similarity between a multi-site context descriptor for the sub-images and a multi-site descriptor pre-trained for the body part,
Wherein the multi-region context descriptor comprises:
A basic descriptor corresponding to the basic feature, and an extended descriptor corresponding to the extended feature
Method of measuring body part.
제1항에 있어서,
상기 기본 기술자는
상기 서브 이미지들의 인체 부위에 대한 상기 기본 특징을 기술하고,
상기 확장 기술자는
상기 서브 이미지들의 인체 부위와 상기 인체 부위의 주변 영역들 간의 공간 구조 관계를 기술하는, 인체 부위 측정 방법.
The method according to claim 1,
The basic engineer
Describing the basic features for the body part of the sub-images,
The extension descriptor
Wherein the spatial structure relationship between the human body region of the sub images and the peripheral regions of the human body region is described.
제1항에 있어서,
상기 입력 이미지에 대해서 전처리(preprocessing)하는 단계
를 더 포함하는 인체 부위 측정 방법.
The method according to claim 1,
A step of preprocessing the input image
Further comprising the steps of:
제3항에 있어서,
상기 입력 이미지를 전처리하는 단계는,
상기 입력 이미지에 대한 이미지3D 정보 또는 심도 정보를 검출하는 단계; 및
상기 3D 정보 또는 상기 심도 정보에 기초하여 상기 입력 이미지로부터 전경(foreground)을 추출하는 단계
를 포함하는, 인체 부위 측정 방법.
The method of claim 3,
Wherein the step of preprocessing the input image comprises:
Detecting image 3D information or depth information for the input image; And
Extracting a foreground from the input image based on the 3D information or the depth information
/ RTI &gt;
제1항에 있어서,
상기 기본 특징은,
오디널(ordinal) 특징; 바이너리(binary) 특징; Haar 특징; 기울기 기술 히스토그램(Histogram of Gradient description) 특징; 윤곽 특징; 그레이(gray) 히스토그램 특징 중에 적어도 하나를 포함하는 인체 부위 측정 방법.
The method according to claim 1,
The above-
Ordinal features; Binary feature; Haar features; Histogram of Gradient description Feature; Contour feature; And at least one of gray histogram features.
제1항에 있어서,
상기 확장 특징은
상기 주변 영역을 지시하는 파라미터에 기초한 멀티 사이즈 오디널 패턴(MSOP) 특징을 포함하는, 인체 부위 측정 방법.
The method according to claim 1,
The extended feature
And a multi-size audio pattern (MSOP) feature based on a parameter indicative of the peripheral region.
제1항에 있어서,
상기 인체 부위를 검출하는 단계는,
직접 합병 기법 및 가중(weighting) 합병 기법 중 적어도 하나에 기초하여 상기 서브 이미지를 합병하는 단계
를 포함하는, 인체 부위 측정 방법.
The method according to claim 1,
The step of detecting the human body part comprises:
Merging the sub-images based on at least one of a direct merging technique and a weighting merging technique
/ RTI &gt;
제1항에 있어서,
상기 문턱 값은,
상기 멀티 부위 콘텍스트 기술자 내 적어도 하나의 기본 기술자 및 적어도 하나의 확장 기술자의 조합에 따라 달라지는, 인체 부위 측정 방법.
The method according to claim 1,
The threshold value may be,
Wherein the at least one basic descriptor in the multi-region context descriptor and the at least one extension descriptor in the multi-region context descriptor.
제7항에 있어서,
상기 직접 합병 기법은,
예정된 값보다 더 높은 신뢰 계수를 구비하는 서브 이미지를 선택하고, 통계 알고리즘 및 기하 알고리즘 중에서 적어도 하나를 이용하여 상기 선택된 서브 이미지들을 합병하는, 인체 부위 측정 방법.
8. The method of claim 7,
In the direct merging technique,
Selecting a subimage having a confidence coefficient higher than a predetermined value and merging the selected subimages using at least one of a statistical algorithm and a geometric algorithm.
제7항에 있어서,
상기 가중 합병 기법은,
서로 다른 신뢰 계수 문턱 값에 기초하여 서브 이미지의 위치들을 합병하거나, 또는 클러스터링 알고리즘에 기초하여 서브 이미지의 위치들을 합병하는, 인체 부위 측정 방법.
8. The method of claim 7,
The weighted merging technique includes:
Merging positions of sub-images based on different confidence coefficient thresholds, or merging positions of sub-images based on a clustering algorithm.
제7항에 있어서,
상기 문턱 값보다 높은 신뢰 계수 요구에 부합하는 상기 서브 이미지들의 평균 사이즈 크기 및 평균 중심 위치를 계산하고, 상기 인체 부위의 최종 위치를 결정하기 위해 상기 평균 사이즈 크기 및 상기 평균 중심 위치 중 적어도 하나를 이용하는 단계
를 더 포함하는, 인체 부위 측정 방법.
8. The method of claim 7,
Calculating an average size size and an average center position of the sub images matching the confidence factor requirement higher than the threshold and using at least one of the average size size and the average center position to determine a final position of the body part step
Further comprising the steps of:
제11항에 있어서,
상기 인체 부위의 최종 위치를 결정하기 위해 신뢰 계수 각각에 기초하여 상기 평균 사이즈 크기 및 상기 평균 중심 위치를 가중화하는 단계
를 더 포함하는, 인체 부위 측정 방법.
12. The method of claim 11,
Weighting the average size size and the average center position based on each confidence factor to determine a final position of the body part
Further comprising the steps of:
제1항에 있어서,
상기 서브 이미지들의 상기 신뢰 계수는
복수의 인체 부위 분류기들을 트레이닝 함으로써 얻어지는 최종 분류기를 이용하여 산출되는, 인체 부위 측정 방법.
The method according to claim 1,
The confidence coefficient of the sub-images is
Wherein the body part is calculated using a final classifier obtained by training a plurality of human body classifiers.
입력 이미지에 기초하여 복수의 서브 이미지(sub image)들을 생성하는 서브 이미지 식별부;
상기 서브 이미지들의 기본 특징 및 상기 서브 이미지들의 주변 영역의 확장 특징에 기초하여 상기 복수의 서브 이미지들의 신뢰 계수를 결정하며, 상기 복수의 서브 이미지들 중 적어도 두 개의 서브 이미지들이 문턱 값(threshold value)보다 높은 신뢰 계수를 가지는 경우, 상기 문턱 값 보다 높은 신뢰 계수를 가지는 서브 이미지들을 합병하여 인체 부위를 검출하는 인체 부위 식별부
를 포함하는
상기 인체 부위 식별부는,
상기 서브 이미지들에 대한 멀티 부위 콘텍스트 기술자와 상기 인체 부위에 대해 미리 설정된 멀티 부위 컨텍스트 기술자 간의 유사성에 기초하여 상기 서브 이미지들의 신뢰 계수를 결정하고,
상기 멀티 부위 콘텍스트 기술자는,
상기 기본 특징에 대응되는 기본 기술자 및 상기 확장 특징에 대응되는 확장 기술자를 포함하는
인체 부위 측정 장치.
A sub image identification unit for generating a plurality of sub images based on an input image;
And determining a confidence coefficient of the plurality of sub-images based on a basic characteristic of the sub-images and an extended characteristic of a peripheral region of the sub-images, wherein at least two of the plurality of sub-images have a threshold value, A human body part identification part for detecting a human body part by merging sub images having a confidence coefficient higher than the threshold value,
Containing
Wherein the human body part identification unit comprises:
Determining a confidence coefficient of the sub-images based on a similarity between a multi-region context descriptor for the sub-images and a preset multi-region context descriptor for the human body region,
Wherein the multi-region context descriptor comprises:
A basic descriptor corresponding to the basic feature, and an extended descriptor corresponding to the extended feature
Human body part measuring device.
제14항에 있어서,
상기 문턱 값은
상기 멀티 부위 콘텍스트 기술자 내 적어도 하나의 기본 기술자 및 적어도 하나의 확장 기술자의 조합에 따라 달라지고,
상기 인체 부위 식별부는
상기 문턱 값보다 높은 신뢰 계수 요구에 부합하는 상기 서브 이미지들의 평균사이즈 크기 및 평균 중심 위치를 계산하고, 상기 인체 부위의 최종 위치를 결정하기 위해 상기 평균 사이즈 크기 및 상기 평균 중심 위치 중 적어도 하나를 이용하는, 인체 부위 측정 장치.
15. The method of claim 14,
The threshold value
A plurality of basic descriptors in the multi-region context descriptor, and at least one extension descriptor in the multi-
The human body part identification part
Calculating an average size size and an average center position of the sub images matching the confidence factor requirement higher than the threshold and using at least one of the average size size and the average center position to determine a final position of the body part , A body part measuring device.
제15항에 있어서,
상기 인체 부위 식별부는
상기 인체 부위의 최종 위치를 결정하기 위해 신뢰 계수 각각에 기초하여 상기 평균 사이즈 크기 및 상기 평균 중심 위치를 가중화하는, 인체 부위 측정 장치.
16. The method of claim 15,
The human body part identification part
And weighting the mean size size and the mean center position based on each confidence coefficient to determine a final position of the body part.
제14항에 있어서,
상기 서브 이미지 식별부는
심도 이미지의 미리 설정된 위치 및 크기 중 적어도 하나에 기초하여 서브 이미지를 검색하고, 상기 검색에서 식별된 서브 이미자가 상기 검출된 이미지의 인체 부위에 대응되는지 여부를 결정하는, 인체 부위 측정 장치.
15. The method of claim 14,
The sub image identification unit
A sub-image based on at least one of a predetermined position and a size of the depth image, and determines whether the sub-image identified in the search corresponds to a human body portion of the detected image.
KR1020120132388A 2012-05-08 2012-11-21 Apparatus and Method for Body Components Detection KR101931220B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/857,623 US9443137B2 (en) 2012-05-08 2013-04-05 Apparatus and method for detecting body parts

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210141357.2A CN103390150B (en) 2012-05-08 2012-05-08 human body part detection method and device
CN201210141357.2 2012-05-08

Publications (2)

Publication Number Publication Date
KR20130125283A KR20130125283A (en) 2013-11-18
KR101931220B1 true KR101931220B1 (en) 2019-03-13

Family

ID=49534419

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120132388A KR101931220B1 (en) 2012-05-08 2012-11-21 Apparatus and Method for Body Components Detection

Country Status (2)

Country Link
KR (1) KR101931220B1 (en)
CN (1) CN103390150B (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3591580A4 (en) 2017-03-20 2020-03-18 Huawei Technologies Co., Ltd. Method and device for recognizing descriptive attributes of appearance feature
CN107403424B (en) * 2017-04-11 2020-09-18 阿里巴巴集团控股有限公司 Vehicle loss assessment method and device based on image and electronic equipment
CN110096933B (en) 2018-01-30 2023-07-18 华为技术有限公司 Target detection method, device and system
CN111832361B (en) * 2019-04-19 2023-08-29 杭州海康威视数字技术股份有限公司 Pedestrian re-identification method and device and computer equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120093407A1 (en) * 2010-09-21 2012-04-19 Sony Corporation Object detection and classification method and apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101350064B (en) * 2008-08-29 2012-06-13 北京中星微电子有限公司 Method and apparatus for estimating two-dimension human body guise
JP2010191592A (en) * 2009-02-17 2010-09-02 Seiko Epson Corp Image processing apparatus for detecting coordinate position of characteristic portion of face
CN101989326B (en) * 2009-07-31 2015-04-01 三星电子株式会社 Human posture recognition method and device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120093407A1 (en) * 2010-09-21 2012-04-19 Sony Corporation Object detection and classification method and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Multiple Instance Feature for Robust Part-based Object Detection, IEEE*

Also Published As

Publication number Publication date
CN103390150B (en) 2019-01-08
KR20130125283A (en) 2013-11-18
CN103390150A (en) 2013-11-13

Similar Documents

Publication Publication Date Title
CN105512683B (en) Object localization method and device based on convolutional neural networks
US9443137B2 (en) Apparatus and method for detecting body parts
JP4739355B2 (en) Fast object detection method using statistical template matching
JP6050223B2 (en) Image recognition apparatus, image recognition method, and integrated circuit
WO2017219391A1 (en) Face recognition system based on three-dimensional data
CN112825192B (en) Object identification system and method based on machine learning
KR101789071B1 (en) Apparatus and method for extracting feature of depth image
WO2019071976A1 (en) Panoramic image saliency detection method based on regional growth and eye movement model
JP2017016593A (en) Image processing apparatus, image processing method, and program
KR20080002409A (en) Device and method for transforming 2-d image into 3-d image
CN112365586B (en) 3D face modeling and stereo judging method and binocular 3D face modeling and stereo judging method of embedded platform
KR101558547B1 (en) Age Cognition Method that is powerful to change of Face Pose and System thereof
CN111160291A (en) Human eye detection method based on depth information and CNN
KR101460313B1 (en) Apparatus and method for robot localization using visual feature and geometric constraints
CN112001241A (en) Micro-expression identification method and system based on channel attention mechanism
KR101931220B1 (en) Apparatus and Method for Body Components Detection
CN112668374A (en) Image processing method and device, re-recognition network training method and electronic equipment
Srinidhi et al. Pothole detection using CNN and AlexNet
WO2011099072A1 (en) Pattern discrimination device
KR101967858B1 (en) Apparatus and method for separating objects based on 3D depth image
CN109074646B (en) Image recognition device and image recognition program
CN111027434B (en) Training method and device of pedestrian recognition model and electronic equipment
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
CN116912763A (en) Multi-pedestrian re-recognition method integrating gait face modes
US20230021591A1 (en) Model generation method, model generation apparatus, non-transitory storage medium, mobile object posture estimation method, and mobile object posture estimation apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right