KR20130125283A - Apparatus and method for body components detection - Google Patents
Apparatus and method for body components detection Download PDFInfo
- Publication number
- KR20130125283A KR20130125283A KR1020120132388A KR20120132388A KR20130125283A KR 20130125283 A KR20130125283 A KR 20130125283A KR 1020120132388 A KR1020120132388 A KR 1020120132388A KR 20120132388 A KR20120132388 A KR 20120132388A KR 20130125283 A KR20130125283 A KR 20130125283A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- sub
- human body
- body part
- descriptor
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 컴퓨터 시각 및 모드 식별 기술에 관한 것으로, 보다 상세하게는 멀티 부위 콘텍스트 기술자 (Multi-part context descriptor)에 근거하는 인체 부위 측정 방법 및 장치 에 관한 것이다.The present invention relates to computer vision and mode identification technology, and more particularly, to a method and apparatus for measuring a human body part based on a multi-part context descriptor.
인체 자세 추정은 컴퓨터 시각 기술의 기본적인 과제이고 상기 기술은 인간-기계 상호 작용, 게이임, 영화, 및 리얼(real) 역할 애니메이션, 3D등 여러 영역에 많이 사용되고 있다. 최근 그의 기술 및 상업 가치에 의하여, 인체 자세 추정에 대한 연구는 컴퓨터 시각 영역의 초점이 되고 있다. 특히, 인체 부위 측정은 인체 자세 추정 기술 중의 기본적인 기술인 것이다. 인체 부위 측정 기술은 인체 자세를 추측하기 위해 중요한 관찰 정보를 제공할 수 있다.Human posture estimation is a fundamental task of computer vision technology, which is widely used in various areas such as human-machine interaction, gay games, movies, and real role animation, 3D. Recently, due to his technical and commercial value, the study of the human body posture estimation has become the focus of the computer visual field. In particular, the measurement of the human body part is a basic technique in the human body posture estimation technique. Human body measurement techniques can provide important observational information to infer human posture.
인체 부위 측정에서는 대상 측정을 두 가지 타입으로 구분할 있다. 즉, 대상에 근거하는 인체 부위 측정 및 픽셀에 근거하는 인체 부위 측정인 것이다. 대상에 근거하는 인체 부위 측정 방법은 대상 영역에 있는 각 픽셀을 이용하여 포지티브(positive) 샘플로 간주하고, 대상 영역의 픽셀과 그의 주변 픽셀 간의 관계는 통상적으로 특징 기술자(descriptor)로 사용된다. 픽셀에 근거하는 인체 부위 측정 방법은 주변의 정보를 이용하여 대상을 측정할 수 있지만 대상의 내부 특징 및 윤곽 특징을 사용하지 않는다. 픽셀에 근거하는 인체 부위 측정 방법은 전체의 대상 영역을 포지티브 샘플로 간주하고 일부의 특징을 이용하여 상기 영역을 기술(describe)한다. 대상에 근거하는 인체 부위 측정 방법은 대상의 내부 특징 및 윤곽 특징을 사용하지만 대상의 주변 정보를 이용하지 않는다. In human body measurement, object measurement can be divided into two types. That is, the measurement of the human body part based on the object and the measurement of the human body part based on the pixel. The method of measuring a body part based on an object is regarded as a positive sample using each pixel in the object area, and the relationship between the pixel of the object area and its surrounding pixels is typically used as a feature descriptor. The method of measuring a human body part based on pixels may measure an object using surrounding information, but does not use an internal feature and a contour feature of the object. The method of measuring a body part based on pixels considers the entire subject area as a positive sample and describes the area using some features. The method of measuring the body part based on the object uses the internal features and the contour features of the object but does not use the surrounding information of the object.
인체 부위 측정의 정확도를 향상 시키기 위해, 대상에 근거하는 인체 측정 및 픽셀에 근거하는 인체 측정 방법의 장점을 결합하는 인체 부위 측정 방법 및 장치가 필요하다.In order to improve the accuracy of human body measurement, there is a need for a human body measurement method and apparatus that combines the advantages of an object based measurement and a pixel based measurement method.
본 발명의 일 측에 따라, 인체 부위를 측정하는 방법을 제공한다. 상기 방법은 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지(sub image)를 식별하는 단계; 서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하는 단계; 신뢰 계수가 문턱 값(threshold value)보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정하는 단계를 포함한다.According to one aspect of the invention, there is provided a method for measuring a human body part. The method includes identifying a group sub image associated with a body part in the image to be measured; Assigning a confidence coefficient to a body part in each sub-image of the group sub-image based on a basic visual feature of the sub-image and an extended feature of the peripheral region of the sub-image; And merging sub-images whose confidence coefficient is higher than a threshold value to measure the position of the body part.
본 발명의 일 측에 따라, 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하는 단계는, 각 서브 이미지의 멀티 부위 콘텍스트 기술자 (Multi-part context descriptor)를 정의하고 상기 멀티 부위 콘텍스트 기술자는 기본 기술자 및 확장 기술자를 포함하는 단계; 각 서브 이미지의 멀티 부위 콘텍스트 기술자와 미리 트레이닝(training)된 인체 부위의 멀티 부위 기술자 간의 유사성에 기초하여 상기 각 서브 이미지에 대해서 신뢰 계수를 할당하는 단계를 포함한다. 상기 기본 기술자는 서브 이미지의 인체 부위에 대한 기본 시각 특징을 기술하고, 상기 확장 기술자는 서브 이미지의 인체 부위와 주변 인체 부위의 공간 구조 관계를 기술한다.According to an aspect of the present invention, the step of assigning a confidence coefficient to the human body part in each sub-image of the group sub-image, defines a multi-part context descriptor of each sub-image The site context descriptor includes a base descriptor and an extension descriptor; Assigning a confidence coefficient to each sub-image based on the similarity between the multi-site context descriptor of each sub-image and the multi-site descriptor of a pre-trained human body part. The basic descriptor describes basic visual features of the human body part of the sub-image, and the extension descriptor describes the spatial structure relationship between the human body part and the surrounding human body part of the sub-image.
본 발명의 일 측에 따라, 서브 이미지는 측정될 이미지에 있는 서로 다른 기하 형상, 위치, 및 크기를 구비하는 이미지 영역인 것이다.According to one aspect of the invention, the sub-image is an image area having different geometric shapes, positions, and sizes in the image to be measured.
본 발명의 일 측에 따라, 상기 서브 이미지 그룹에 있는 복수의 서브 이미지는 서로 오버랩된다.According to one aspect of the present invention, a plurality of sub-images in the sub-image group overlap each other.
본 발명의 일 측에 따라, 상기 방법은 측정될 이미지를 식별하기 전에 상기 측정될 이미지에 대해서 전처리(preprocessing)하는 단계를 더 포함한다.According to one aspect of the invention, the method further comprises preprocessing the image to be measured before identifying the image to be measured.
본 발명의 일 측에 따라, 상기 전치리 단계는, 측정될 이미지의 데이터에 대해서 양자화(quantization)를 수행하는 단계; 측정될 이미지에 대한 이미지3D 정보 또는 이미지 심도 정보를 측정하는 단계; 측정될 이미지를 분할하는 단계; 측정될 이미지의 전경(foreground)을 추출하는 단계 중에 하나를 포함한다.According to one aspect of the invention, the pretreatment step comprises: performing quantization on the data of the image to be measured; Measuring image 3D information or image depth information on an image to be measured; Dividing the image to be measured; Extracting the foreground of the image to be measured.
본 발명의 일 측에 따라, 상기 기본 시각 특징은 오디널(ordinal) 특징; 바이너리(binary) 특징; Haar 특징; 기울기 기술 히스토그램(Histogram of Gradient description) 특징; 윤곽 특징; 그레이(gray) 히스토그램 특징 중에 적어도 하나를 포함한다.According to one aspect of the invention, the basic visual feature is an ordinal (ordinal) feature; Binary features; Haar feature; Histogram of gradient description features; Contour features; At least one of the gray histogram features.
본 발명의 일 측에 따라, 상기 서브 이미지를 합병하는 단계는, 직접 합병 및 가중(weighting) 합병 둘 방식 중에 하나를 포함하고 문턱 값은 멀티 부위 콘텍스트 기술자에 대한 선택 및 조합에 따라 다르다. According to one aspect of the present invention, merging the sub-images comprises one of two methods: direct merging and weighting merging, and the threshold value depends on the selection and combination for the multi-site context descriptor.
본 발명의 일 측에 따라, 상기 직접 합병 단계는, 예정된 값보다 더 높은 신뢰 계수를 구비하는 서브 이미지를 선택하여 통계 및 기하 방법에 의하여 직접적으로 상기 선택된 서브 이미지의 위치를 합병하는 단계를 포함한다.According to one aspect of the present invention, the direct merging step includes selecting a sub image having a higher confidence coefficient than a predetermined value and merging positions of the selected sub image directly by statistical and geometric methods. .
본 발명의 일 측에 따라, 상기 가중 합병 단계는, 서로 다른 신뢰 계수 문턱 값에 기초하여 서브 이미지의 위치를 합병하거나, 클러스터링(clustering) 알고리즘에 따라 서브 이미지의 위치를 합병하는 단계를 포함한다.According to one aspect of the present invention, the weighted merging step includes merging the positions of the sub images based on different confidence coefficient threshold values, or merging the positions of the sub images according to a clustering algorithm.
본 발명의 다른 일 측에 따라, 인체 부위 측정 장치를 제공한다. 상기 장치는 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지(sub image)를 식별하는 서브 이미지 식별부; 서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하고 신뢰 계수가 문턱 값(threshold value)보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정하는 인체 부위 식별부를 포함한다.According to another aspect of the present invention, a human body measuring device is provided. The apparatus includes a sub image identification unit for identifying a group sub image associated with a human body part in an image to be measured; A confidence coefficient is assigned to a human body in each sub-image of the group sub-image based on a basic visual feature of the sub-image and an extended feature of a peripheral region of the sub-image, and the sub-coefficient is a sub-threshold having a threshold value higher than a threshold value. It includes a human body part identification unit for merging the images to measure the position of the human body part.
본 발명의 다른 일 측에 따라, 상기 인체 부위 측정 장치는 인체 부위의 멀티 부위 콘텍스트 기술자(Multi-part context descriptor)를 획득하기 위해 샘플 이미지에 대해서 트레이닝을 수행하는 트레이닝부를 더 포함한다. 상기 멀티 부위 콘텍스트 기술자는 기본 기술자 및 확장 기술자를 포함하고, 상기 기본 기술자는 서브 이미지의 인체 부위에 대한 기본 시각 특징을 기술하고, 상기 확장 기술자는 서브 이미지의 인체 부위와 주변 인체 부위의 공간 구조 관계를 기술한다. 상기 인체 부위 식별부는 각 서브 이미지의 멀티 부위 콘텍스트 기술자를 정의하고 상기 각 서브 이미지의 멀티 부위 콘텍스트 기술자와 상기 트레이닝부에 트레이닝된 인체 부위의 멀티 부위 기술자 간의 유사성에 기초하여 상기 각 서브 이미지에 대해서 신뢰 계수를 할당한다.According to another aspect of the present invention, the apparatus for measuring a human body part further includes a training unit configured to perform training on a sample image to obtain a multi-part context descriptor of the human body part. The multi-site context descriptor includes a base descriptor and an extension descriptor, wherein the base descriptor describes basic visual features of the human body portion of the sub-image, and the extension descriptor is a spatial structure relationship between the human body portion and the surrounding human body portion of the sub-image. Describe. The human body part identification unit defines a multi-site context descriptor of each sub-image and trusts each of the sub-images based on the similarity between the multi-site context descriptor of each sub-image and the multi-site descriptor of the human body trained in the training unit. Assign coefficients.
본 발명의 다른 일 측에 따라, 상기 인체 부위 측정 장치는 측정될 이미지 또는 샘플 이미지에 대해서 전처리(preprocessing)를 수행하는 전처리부를 더 포함한다.According to another aspect of the present invention, the human body region measuring device further includes a preprocessing unit that performs preprocessing on the image or sample image to be measured.
이하, 첨부된 도면을 참조하여 실시예를 설명한다. 이에 따라 상기 및 기타 목적과 장점이 더욱 명확하게 된다.
도 1은 본 발명에 따른 인체 부위 측정 방법의 트레이닝 과정을 도시한 흐름도이다.
도 2A-2C는 본 발명의 실시예에 따른 심도 이미지에 있는 멀티 부위 콘텍스트 기술자 (Multi-part context descriptor)를 도시한 것이다.
도 3은 본 발명의 실시예에 따른 인체 부위 측정 방법을 도시한 흐름도이다.
도 4은 본 발명의 실시예에 따른 인체 부위 측정 시스템을 도시한 것이다.Hereinafter, exemplary embodiments will be described with reference to the accompanying drawings. This makes the above and other objects and advantages clearer.
1 is a flowchart illustrating a training process of a method for measuring a human body part according to the present invention.
2A-2C illustrate a multi-part context descriptor in a depth image in accordance with an embodiment of the invention.
3 is a flowchart illustrating a method of measuring a human body part according to an exemplary embodiment of the present invention.
Figure 4 illustrates a human body area measurement system according to an embodiment of the present invention.
이하, 실시예들에 대해서 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 인체 부위 측정 방법의 트레이닝 과정을 도시한 흐름도이다.1 is a flowchart illustrating a training process of a method for measuring a human body part according to the present invention.
도 1에 도시된 바와 같이, 본 발명에 따른 인체 부위 측정 방법의 트레이닝 과정은 트레이닝 이미지 데이터 구축 단계(110); 전처리(preprocessing) 단계(120); 트레이닝 샘플 준비 단계(130) 및 인체 부위 분류기(sorter) 트레이닝 단계(140)의 네 가지 단계를 포함한다. 이하, 상기 각 단계에 대해서 자세히 설명한다.As shown in FIG. 1, the training process of the method for measuring a human body part according to the present invention includes: training image
우선, 트레이닝 이미지 데이터 구축 단계(110)에서는 이미지 데이터 또는 리얼(real) 이미지 데이터를 합성에 의하여 트레이닝 이미지 데이터를 구축할 수 있다. First, in the training image
그 다음, 전처리 단계(120)에서는 트레이닝 이미지 데이터에 대해서 양자화(quantization) 및 배경 제거를 수행한다. 양자화 처리는 후속 처리를 수행하기 위해 오리지널 이미지 데이터를 양자화된 심도 이미지 데이터로 표시한 것이다. 예를 들어, 그레이(gray) 이미지는 대표적인 양자화 심도 이미지로써 그의 이미지 데이터의 값이 0~255로 양자화 된다. 양자화에 의하여 오리지널 이미지 데이터는 양자화 되어 소음 제거 또는 계산을 줄일 수 있다. 일반적으로 배경 제거 처리는 심도 값에 대한 제한, 관련된 영역 추출, 및 동작 포착 등에 기초하여 수행된다.Next, the
구체적으로, 트레이닝 이미지 데이터에 대한 처리는, 트레이닝 이미지 데이터에 대해서 양자화를 수행하는 단계; 트레이닝 이미지 데이터에 대한 이미지3D 정보 또는 이미지 심도 정보를 측정하는 단계; 트레이닝 이미지 데이터를 분할하는 단계; 트레이닝 이미지 데이터 에 대해서 전경(foreground)을 추출하는 단계 중에 하나를 포함할 수 있다.Specifically, the processing on the training image data may include performing quantization on the training image data; Measuring image 3D information or image depth information on the training image data; Dividing the training image data; The method may include one of extracting a foreground of the training image data.
이어서, 트레이닝 샘플 준비 단계(130)에서는 세 가지 타입의 트레이닝 샘플을 준비한다. 즉, 부위 샘플, 부위 콘텍스트 샘플 및 네거티브(negative) 샘플이다. 부위 샘플은 부위 대상의 자체를 초점으로 한다. 부위 콘텍스트 샘플은 부위의 주변 영역을 초점으로 한다. 부위 주변 영역에 대한 분할은 로 표시할 수 있고, 및 는 부위 영역의 주변 영역의 중심 위치를 의미하고, R는 주변 영역의 사이즈를 의미하고, M는 주변 영역의 분할된 형상을 의미한다. 분할된 형상은 사각형, 원형 등이 될 수 있다. 네거티브 샘플은 측정될 인체 부위를 포함하는 서브 이미지와 반대의 서브 이미지인 것이다. 즉, 측정될 인체 부위를 포함하지 않는 서브 이미지인 것이다. 일반적으로 샘플 트레이닝 단계에서 두 기지 타입의 네거티브 샘플을 사용한다. 하나는 인체가 포함되지 않는 배경 이미지인 것이고, 또 하나는 해당 트레이닝 인체 부위가 이미 추출된 인체 이미지인 것이다. 네거티브 샘플의 트레이닝에 의하여 서브 이미지에 측정될 인체 부위가 포함되는지 구분할 수 있다. Next, in the training
그 다음, 인체 부위 분류기 트레이닝 단계(140)에서는 인체 부위를 측정하기 위한 인체 부위 분류기 트레이닝을 수행한다. 인체 부위 분류기 트레이닝은 샘플을 기술하는 단계; 트레이닝을 개선하는 단계; 측정기를 구축하는 단계 세 가지 단계를 포함한다. Next, the human body
샘플을 기술하는 단계에서, 각 서브 이미지의 기본적인 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 샘플을 기술한다. 본 발명의 실시예에 따라, 멀티 부위 콘텍스트 기술자를 이용하여 각 서브 이미지의 기본적인 특징 및 상기 서브 이미지의 주변 영역의 확장 특징을 표현할 수 있다. 본 발명의 실시예에 따른 멀티 부위 콘텍스트 기술자는 각 서브 이미지의 부위 대상에 대한 기본적인 시각 특징을 기술할 있는 것이 뿐만 아니라 부위에 인접한 주변 부위의 콘텍스트 정보, 즉 확장 특징에 대해도 기술할 수 있다. 예를 들어, 본 발명의 실시예에서는 멀티 사이즈 오디널(ordinal) 모드(MSOP)의 특징을 이용하여 멀티 부위 콘텍스트 기술자의 기본적인 특징으로 간주할 수 있다.In describing the sample, the sample is described based on the basic feature of each sub-image and the extended feature of the peripheral area of the sub-image. According to an embodiment of the present invention, a basic feature of each sub-image and an extended feature of a peripheral area of the sub-image can be expressed using a multi-site context descriptor. The multi-site context descriptor according to an embodiment of the present invention may not only describe basic visual features of the object of each sub-image, but may also describe context information, that is, extended features, of neighboring regions adjacent to the region. For example, in the embodiment of the present invention, the feature of the multi-size ordinal mode (MSOP) may be used as the basic feature of the multi-site context descriptor.
MSOP의 멀티 부위 콘텍스트 기술자에 기초하여 다음과 같이 등식(1)으로 표현할 수 있다:Based on the multi-site context descriptor of the MSOP, it can be expressed as equation (1) as follows:
등식(1)
Equation (1)
상기 등식(1)에 있어서, b(x)는 불 함수(Boolean function)를 의미하고, x>0 이면 b(x)=1, x<0 이면 b(x)=0. gi는MSOP 모드에서 그리드(grid, 즉 서브 이미지)에 있는 픽셀 값을 의미하고, i는 그리드의 인덱스를 의미하고, gc는 서브 이미지 및 서브 이미지 주변 영역의 그리드에 대한 평균 픽셀 값을 의미하며 로 표현할 수 있다. 는 MSOP 모드의 파라미터를 의미하고 MSOP 모드의 파라미터는 모드의 위치, 크기 및 유형을 포함할 수 있다. 본 발명의 실시예에 따른 MSOP 모드는 서브 이미지에 포함된 부위의 기본적인 특징을 기술하기 위한 MSOP 모드 및 주변 부위의 확장 특징을 기술하기 위한 MSOP 모드를 포함할 수 있다. 그러나 MSOP 모드에 근거하는 특징 기술자는 본 발명의 실시예에 따른 멀티 부위 콘텍스트 기술자의 한 예시로써 본 발명이 이에 의하여 제한되지 않는다. 본 발명은 기타의 시각 특징 기술 방식으로 멀티 부위 콘텍스트 기술자를 형성할 수 있다. 예를 들어, 이미지의 Haar 특징; 기울기 히스토그램(HOG) 특징; 바이너리(binary) 특징; 윤곽 특징; 그레이(gray) 히스토그램 특징을 이용하여 멀티 부위 콘텍스트 기술자의 기본적인 기술자로 간주한다.In Equation (1), b (x) means a Boolean function, and if x> 0, b (x) = 1, and if x <0, b (x) = 0. gi is the pixel value in the grid (or subimage) in MSOP mode, i is the index of the grid, gc is the average pixel value for the grid in the subimage and the area around the subimage . Denotes a parameter of the MSOP mode and the parameter of the MSOP mode may include the position, size, and type of the mode. The MSOP mode according to an embodiment of the present invention may include an MSOP mode for describing basic features of a region included in a sub image, and an MSOP mode for describing extended features of a peripheral region. However, the feature descriptor based on the MSOP mode is an example of a multi-site context descriptor according to an embodiment of the present invention, and the present invention is not limited thereto. The present invention can form multi-site context descriptors in other visual feature description manners. For example, Haar features of the image; Slope histogram (HOG) features; Binary features; Contour features; The gray histogram feature is used as the basic descriptor of a multi-site context descriptor.
이하, 도 2A-2C를 참조하여 본 발명의 실시예에 따른 멀티 부위 콘텍스트 기술자의 모드에 대해서 설명한다.Hereinafter, a mode of a multi-site context descriptor according to an embodiment of the present invention will be described with reference to FIGS. 2A-2C.
도 2A-2C는 본 발명의 실시예에 따른 멀티 부위 콘텍스트 기술자의 모드 파라미터를 도시한 것이다. 도2B을 참조하면, 블록 201 및203은 인체 부위를 포함하는 서브 이미지를 의미하는 것이다. 블록 201에 포함된 인체 부위는 인체의 위팔인 것이고 블록 203에 포함된 인체 부위는 인체의 머리인 것이다. 블록 205 및207은 블록 201 및203에 대응하는 주변 영역을 의미하는 것이다. 도 2A는 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자에 있는 부위의 시각 특징을 기술하는 기본적인 기술자의 모드 파라미터를 도시한 것이다. 도 2C는 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자에 있는 부위 주변 영역의 콘텍스트 정보를 기술하는 확장 기술자의 모드 파라미터를 도시한 것이다. 상기 기술 방식에 있어서, x및y 는 기술자의 위치 파라미터를 의미하고, w및 h는 기술자의 형상 파라미터를 의미하고, t는 기술자의 유형을 의미한다. 상기 기술 방식으로, 주변 영역의 크기 및 형상은 측정될 인체 부위를 포함하는 서브 이미지와 일정 관계를 구비하는 것으로 정의될 수 있다. 예를 들어, 주변 영역의 위치는 서브 이미지의 영역을 중심으로 하는 더 큰 영역이 될 수 있고(도2B의 블록205 및 207을 참조), 서브 이미지 영역의 위쪽, 아래쪽, 왼쪽, 오른쪽 영역이 될 수도 있다. 주변 영역의 크지는 서브 이미지 영역의 2배, 3배, 3.5배등이 될 수 있다. 주변 영역의 형상은 서브 이미지와 같은 형상이 될 수 있고 고정된 사각형, 원형 등도 될 수 있다. 2A-2C illustrate mode parameters of a multi-site context descriptor in accordance with an embodiment of the invention. Referring to FIG. 2B, blocks 201 and 203 refer to sub-images including a human body part. The human body part contained in
머리에 대하여, 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자는 머리의 특징(예, 타원형의 윤곽 특징)을 기술할 수 있는 것이 뿐만 아니라, 머리 주변의 목 또는 어깨 부위에 대한 정보도 기술할 수 있다. 위팔에 대하여, 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자는 위팔의 형상을 기술할 수 있는 것이 뿐만 아니라 위팔 주변의 상반 신체에 대한 정보도 기술 할 수 있다. 따라서, 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자는 부위 대상의 내부 특징 및 윤곽 구조를 포함하는 것이 뿐만 아니라 주변 영역의 콘텍스트 정보도 포함한다. 따라서 현재 기술의 로컬 기술자와 비교하면 본 발명의 실시예에 따른 멀티 부위 콘텍스 기술자는 더 높은 안정성을 구비한다.With respect to the head, the multi-site context descriptor in accordance with an embodiment of the present invention can not only describe the features of the head (eg, oval contour features), but also describe information about the neck or shoulder area around the head. Can be. With respect to the upper arm, the multi-site context technician according to an embodiment of the present invention can not only describe the shape of the upper arm, but also describe information about the upper body around the upper arm. Accordingly, the multi-site context descriptor according to an embodiment of the present invention not only includes the internal features and the contour structure of the site object but also the context information of the surrounding area. Thus, multi-site context descriptors according to embodiments of the present invention have higher stability compared to local descriptors of the current technology.
또한, 상기와 같이, 도2에서 머리 및 위팔에 의하여 인체 부위의 예시를 설명했지만 해당 기술분야에서 통상의 지식을 가진 자라면 인체 부위가 더 정밀하게 구분될 수 있는 것을 이해해야 한다. 예를 들어, 인체 부위를 머리, 왼쪽 위팔(left upper arm), 왼쪽 아래팔(Left lower arm), 왼손, 오른쪽 위팔, 오른쪽 아래팔, 오른손, 왼쪽 허벅지, 왼쪽 종아리, 오른쪽 허벅지, 오른쪽 종아리 등으로 구분할 수 있으므로 상기 각 부위에 대해서 더 정밀한 멀티 부위 콘텍스트 기술자 트레이닝을 수행할 수 있다. In addition, as described above, the illustration of the human body by the head and upper arm in Figure 2, but those skilled in the art should understand that the human body can be more precisely distinguished. For example, the human body can be head, left upper arm, left lower arm, left hand, right upper arm, lower right arm, right hand, left thigh, left calf, right thigh, right calf, etc. As a result, more precise multi-site context descriptor training can be performed for each of the sites.
다시 도1을 참조하면, 트레이닝을 개선하는 단계에서 모든 유형의 분류기를 트레이닝하여 인체 부위를 측정하고, 각 유형의 분류기는 서브 이미지의 한 특징을 의미한다. 예를 들어, SVM, Forest, Boosting 등 알고리즘을 통해 분류기를 트레이닝한다. 본 발명의 실시예에서는 AdaBoost 알고리즘을 사용하여 분류기 트레이닝을 수행한다. AdaBoost에 근거하는 멀티 부위 콘텍스트 기술자는 다음과 같이 등식(2)로 표현할 수 있다.Referring back to FIG. 1, in the step of improving training, all types of classifiers are trained to measure human parts, and each type of classifier represents a feature of the sub-image. For example, we train our classifier through algorithms such as SVM, Forest, and Boosting. In an embodiment of the present invention, classifier training is performed using the AdaBoost algorithm. A multi-site context descriptor based on AdaBoost can be expressed as equation (2) as follows.
등식(2)Equation (2)
상기 등식(2)에 있어서, x는 샘플을 의미하고, 는 부위 대상 자체의 특징을 기술하기 위한 분류기를 의미하고, 는 부위 주변 영역에 대한 콘텍스트 정보의 특징을 기술하기 위한 분류기를 의미하고, 는 분류기의 개수를 의미하고, 는 분류기의 개수를 의미하고, F(x)는 최종의 분류기를 의미한다.In equation (2), x means a sample, Means a classifier for describing the characteristics of the site object itself, Means a classifier for describing the characteristics of the context information for the region around the site, The Means the number of classifiers, The Means the number of classifiers, and F (x) means the final classifier.
그 다음, 인체 부위 측정기를 구축하는 단계에서 트레이닝된 여러 종류의 분류기를 캐스게이드(cascade)하여 인체 부위 측정의 성능을 향상시킨다. Then, the cascade of the various kinds of classifiers trained in the step of constructing the body part measurer improves the performance of the body part measurer.
이하, 도3을 참조하여 본 발명의 실시예에 따른 인체 부위를 측정하는 방법을 설명한다.Hereinafter, a method of measuring a human body part according to an exemplary embodiment of the present invention will be described with reference to FIG. 3.
우선, 단계(310)에서, 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지를 식별한다. 구체적으로, 식별하는 과정에서 심도 이미지의 특정된 위치 및 크기에 기초하여 서브 이미지를 검색하고 서브 이미지가 측정될 인체 부위인지 판단할 수 있다.First, in
검색 과정은 로 표현할 수 있고, 는 각각 서브 이미지를 검색할 때 사용된 가장 작은 사이즈, 가장 큰 사이즈, 및 step size 를 의미하고, 는 각각 서브 이미지를 검색할 때 사용된 이니셜 검색 포인트 위치, 종점 위치 및 searching step size를 의미한다. 다리 말하면, 서브 이미지는 측정될 이미지에 서로 다른 기하 형상, 위치 및 크기를 구비하는 이미지 영역이 될 수 있고 서브 이미지 그룹에 있는 복수의 서브 이미지가 서로 오버랩이 될 수 있다. 구체적으로 상기 검색 과정은 이미지에서 순환으로 서브 이미지 영역을 추출하는 과정으로 간주될 수 있다. 우선, 이니셜 사이즈 Smin부터 서브 이미지 영역의 크기를 결정하고, 그 다음, 이미지의 이니셜 검색 포인트 위치Pstart로부터 서브 이미지 영역의 중심 위치를 결정하고 종점 위치 Pend에 도작할 때까지 Ps를 step로 하여 순서대로 이미지 영역의 중심 위치를 이동하고, 트래버스(traverse)된 각 위치에서 서브 이미지를 추출한다. 그 다음, 가장 큰 사이즈Smax 가 될 때까지 step Sstep에 의하여 순서대로 서브 이미지 영역의 크기를 증가한다. 각 영역 사이즈마다 한번씩 서브 이미지의 중심으로 Pstart로부터 Pend까지 트래버스하여 검색할 모든 서브 이미지를 획득한다.The search process Can be expressed as, Means the smallest, largest, and step size, respectively, used when searching for sub-images, Denotes initial search point position, endpoint position and searching step size used when searching for sub-images, respectively. In other words, the sub image may be an image area having different geometric shapes, positions and sizes in the image to be measured, and a plurality of sub images in the sub image group may overlap each other. In detail, the searching process may be regarded as a process of extracting a sub image region from an image in a cycle. First, the size of the sub-image area is determined from the initial size Smin. Then, the center position of the sub-image area is determined from the initial search point position Pstart of the image, and then in order, Ps is set in step until it reaches the end position Pend. The center position of the image area is moved and a sub image is extracted at each traversed position. Then, the size of the sub image area is sequentially increased by step Sstep until the largest size Smax is reached. Once for each region size, all the sub images to be searched are acquired by traversing from Pstart to Pend as the center of the sub image.
바람직한 것은, 식별 과정에서 전경(foreground) 추출 기술을 통해 측정될 이미지에 있는 인체를 추출한 것이다. 전경 추출을 통해 전경 영역만 인체 부위 측정을 수행할 수 있고 서브 이미지 위치에 대한 검색 량을 줄일 수 있다. 또한 추출된 전경 대상에 대한 심도 값을 측정하여 서브 이미지에 대한 검색 범위를 줄일 수 있다. 또한 이미지 3D 정보 및 이미지 분할에 의하여 서브 이미지를 식별할 수 있다.Preferred is the extraction of the human body in the image to be measured via foreground extraction techniques in the identification process. By extracting the foreground, only the foreground area can be measured and the amount of search for the sub image position can be reduced. In addition, a depth value of the extracted foreground object may be measured to reduce a search range for the sub image. In addition, the sub-image may be identified by image 3D information and image segmentation.
그 다음, 단계(320)에서, 각 서브 이미지의 기본적인 특징 기술 및 상기 서브 이미지 주변 영역의 확장 특징 기술에 기초하여 그룹 서브 이미지에 있는 각 서브 이미지의 인체 부위에 대해서 신뢰 계수를 할당한다. 다시 말하면, 트레이닝된 멀티 부위 콘텍스트 기술자에 기초하여 서브 이미지가 인체 부위인지 결정한다. 구체적으로, 인체 부위 분류기 트레이닝에 의하여 최종으로 획득된 최종 분류기 F(x) (등식(2)를 참조)의 식으로 서브 이미지에 대해서 신뢰 계수를 계산한다. 우선, 인체 부위 분류기 트레이닝 부분의 특징에 따라 해당하는 분류기f 에 대해서 계산하고, F(x) 식의 조합으로 각 분류기에 대한 계산 값을 오버레이(overlay)하고 오버레이된 출력 값을 해당하는 서브 이미지의 신뢰 계수로 간주한다.Then, in
그 다음, 단계(330)에서, 신뢰 계수가 문턱 값보다 높은 서브 이미지를 합병하여 인체 부위의 위치를 측정한다. 여기서, 문턱 값은 멀티 부위 콘텍스트 기술자의 종류에 대한 선택 및 조합에 따라 다르고 본 발명의 실시예에 따라 합병 단계는 직접 합병 및 가중(weighting) 합병 둘 방식을 포함할 수 있다. 직접 합병 단계에서는 예정된 값보다 더 높은 신뢰 계수를 구비하는 서브 이미지를 선택하여 통계 및 기하 방법에 의하여 직접적으로 상기 선택된 서브 이미지의 위치를 합병하여 최종으로 인체 부위의 위치를 획득한다. 구체적으로, 평균값의 방식으로 모든 신뢰 계수 요구에 부합하는 서브 이미지의 평균 중심 위치 및 평균 사이즈 크기를 계산하여 최종 인체 부위 위치로 할 수 있다. 또한 모든 신뢰 계수 요구에 부합하는 서브 이미지가 가장 집중되어 있는 영역을 인체 부위의 최종 출력 위치로 할 수 있다. Next, in
가중 합병 단계에서, 서로 다른 신뢰 계수 문턱 값에 기초하여 서브 이미지의 위치를 합병하거나, 클러스터링 알고리즘(clustering alorithm)에 따라 서브 이미지의 위치를 합병한다. 클러스터링 알고리즘은 mean-shift, k near neighbor를 포함할 수 있다. 구체적으로 가중 합병에서, 신뢰 계수 요구에 부합하는 서브 이미지에 대한 신뢰 계수는 동시에 유지될 수 있고 합병에서 상기 서브 이미지의 중요성을 결정한다. 예를 들어, 서브 이미지의 가중 평균 중심 위치 및 가중 평균 사이즈 크기를 최종 인체 부위의 위치로 할 수 있다.In the weighted merging step, the positions of the sub images are merged based on different confidence coefficient threshold values, or the positions of the sub images are merged according to a clustering algorithm. The clustering algorithm may include mean-shift and k near neighbor. Specifically in weighted merging, the confidence coefficients for sub-images that meet the confidence coefficient requirements can be maintained simultaneously and determine the importance of the sub-images in the merge. For example, the weighted average center position and the weighted average size size of the sub-image may be the position of the final human body part.
이하, 도4를 참조하여 본 발명의 실시예에 따른 인체 부위 측정 시스템의 작동 원리에 대해서 설명한다. 도4에 도시된 바와 같이, 본 발명의 실시예에 따른 인체 부위 측정 시스템은 이미지 획득 장치(410), 인체 부위 측정 장치(420)를 포함한다. 도4에서 이미지 획득 장치(410) 및 인체 부위 측정 장치(420)가 별도로 설치되어있지만 상기 두 장치는 하나의 설비로 실현될 수 있다.Hereinafter, with reference to Figure 4 will be described the operating principle of the human body area measurement system according to an embodiment of the present invention. As shown in FIG. 4, the human body part measuring system according to the exemplary embodiment of the present invention includes an
또한, Primesence 매핑(mapping) 장치, ToF(Time-of-Flight) 카메라, 다시점(multi-view) 카메라 등 장치 및 설비를 이미지 획득 장치(410)로 간주할 수 있다. 이미지 획득 장치(410)에 의하여 획득된 이미지 데이터는 트레이닝 이미지 데이터로 사용될 수 있고 측정될 이미지 데이터로 사용될 수도 있다.In addition, devices and facilities, such as a Primesence mapping device, a Time-of-Flight camera, and a multi-view camera, may be regarded as the
인체 부위 측정 장치(420)은 이미지 전처리부(421), 트레이닝부(422), 서브 이미지 식별부(423), 및 인체 부위 식별부(424)를 포함한다.The human body
이미지 전처리부(421)은 이미지 데이터를 전처리하기 위해 사용된다. 여기서, 이미지 전처리부(421)은 이미지 획득 장치(410)가 획득된 이미지 데이터 또는 트레이닝 샘플 이미지 데이트베이스에 저장된 샘플 이미지 데이터에 대해서 전처리를 수행한다. 예를 들어, 이미지 전처리부(421)은 이미지 데이터에 대해서 양자화를 수행할 수 있고 트레이닝부(422) 및 서브 이미지 식별부(423)가 후속 처리를 수행하기 위해 이미지 데이터에 대해서 전경 추출 처리, 심도 값 측정, 이미지 3D 정보 측정, 이미지 분할 등 처리를 수행할 수 있다.The
트레이닝부(422)는 트레이닝 샘플 이미지 데이터로부터 트레이닝 샘플을 준비하고 트레이닝 샘플을 이용하여 인체 부위를 측정하는 인체 부위 분류기(즉, 멀티 부위 콘텍스트 기술자)를 트레이닝하고 인체 부위 분류기를 사용하여 인체 부위 측정기를 구축한다. 트레이닝 샘플 이미지 데이터는 이미지 데이터 베이스에 미리 저장된 이미지 데이터가 될 수 있고 이미지 획득 장치(410)에 의하여 획득된 이미지 데이터가 될 수도 있다.The
서브 이미지 식별부(423)은 측정될 이미지에서 인체 부위와 관련된 그룹 서브 이미지(sub image)를 식별한다. 인체 부위 식별부(424)는 각 서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하고 신뢰 계수가 문턱 값보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정한다. 본 발명의 예시적 실시예에서는 인체 부위 식별부(424)는 각 서브 이미지의 멀티 부위 콘텍스트 기술자를 정의하고 각 서브 이미지의 멀티 부위 콘텍스트 기술자와 트레이닝된 인체 부위의 멀티 부위 기술자 간의 유사성에 기초하여 각 서브 이미지에 대해서 신뢰 계수를 할당한다. 또한 인체 부위 식별부(424)는 측정된 결과를 외부 장치로 출력하여 외부 장치에 의하여 처리한 다음에 최종의 인체 부위 식별 결과를 표시할 수 있다.The sub
상기 설명된 인체 부위 측정 장치(420)에 대한 각 모듈의 구정은 예시적으로써 더 많은 모듈로 구분할 거나 적은 수량의 모듈로 합병될 수 있다.The configuration of each module for the body
현재 사용된 대상에 근거하는 인체 부위 측정 기술 및 픽셀에 근거하는 인체 부위 측정 기술과 비교하면 본 발명에 따른 멀티 부위 콘텍스트 기술자는 인체 부위 대상 자체의 내부 특징 및 윤곽 특징에 대해서 기술할 수 있는 것이 뿐만 아니라 인체 부위 대상 주변 영역의 특징에 대해도 기술할 수 있다. 따라서 인체 부위의 주변 정보를 이용하여 인체 부위 측정기의 성능을 개선할 수 있고 더 신속하게 분류기 트레이닝의 목적을 달성할 수 있으므로 분류기의 복잡도를 줄일 수 있다. 따라서 본 발명에 따른 인체 부위 측정 방법은 더 효율적으로 인체 부위 측정의 성능을 개선할 수 있다. Compared with the human body measurement technique based on the object currently used and the human body measurement technique based on the pixel, the multi-site context technician according to the present invention can describe the internal and contour features of the human body object itself. In addition, the characteristics of the region surrounding the human body part may be described. Therefore, it is possible to reduce the complexity of the classifier because it is possible to improve the performance of the body region meter using the surrounding information of the human body part and to achieve the purpose of the classifier training more quickly. Therefore, the human body part measuring method according to the present invention can more efficiently improve the performance of the human body part measurement.
이상과 같이 본 발명은 비록 한정된 실시예에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, the present invention has been described by way of a limited embodiment, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains may make various modifications and variations from this description. Do. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.
Claims (10)
서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하는 단계;
신뢰 계수가 문턱 값(threshold value)보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정하는 단계
를 포함하는 인체 부위 측정 방법. Identifying a group sub image associated with the body part in the image to be measured;
Assigning a confidence coefficient to a body part in each sub-image of the group sub-image based on a basic visual feature of the sub-image and an extended feature of the peripheral region of the sub-image;
Measuring the position of the body part by merging sub-images whose confidence coefficient is higher than a threshold value
Human body measurement method comprising a.
상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하는 단계는,
각 서브 이미지의 멀티 부위 콘텍스트 기술자 (Multi-part context descriptor)를 정의하고 상기 멀티 부위 콘텍스트 기술자는 기본 기술자 및 확장 기술자를 포함하는 단계;
각 서브 이미지의 멀티 부위 콘텍스트 기술자와 미리 트레이닝된 인체 부위의 멀티 부위 기술자 간의 유사성에 기초하여 상기 각 서브 이미지에 대해서 신뢰 계수를 할당하는 단계를 포함하고,
상기 기본 기술자는 서브 이미지의 인체 부위에 대한 기본 시각 특징을 기술하고, 상기 확장 기술자는 서브 이미지의 인체 부위와 주변 인체 부위의 공간 구조 관계를 기술하는 것을 특징으로 하는 인체 부위 측정 방법.The method of claim 1,
Assigning a confidence coefficient to the human body part in each sub-image of the group sub-image,
Defining a multi-part context descriptor of each sub-image, wherein the multi-part context descriptor includes a basic descriptor and an extended descriptor;
Assigning a confidence coefficient to each sub-image based on the similarity between the multi-site context descriptor of each sub-image and the multi-site descriptor of a pre-trained human body part,
The basic descriptor describes basic visual features of the human body part of the sub-image, and the extension descriptor describes the spatial structure relationship between the human body part and the surrounding human body part of the sub-image.
측정될 이미지를 식별하기 전에 상기 측정될 이미지에 대해서 전처리(preprocessing)하는 단계
를 더 포함하는 인체 부위 측정 방법.The method of claim 1,
Preprocessing the image to be measured before identifying the image to be measured
Human body measuring method further comprising.
상기 전치리 단계는,
측정될 이미지의 데이터에 대해서 양자화(quantization)를 수행하는 단계;
측정될 이미지에 대한 이미지3D 정보 또는 이미지 심도 정보를 측정하는 단계;
측정될 이미지를 분할하는 단계;
측정될 이미지의 전경(foreground)을 추출하는 단계 중에 하나를 포함하는 것을 특징으로 하는 인체 부위 측정 방법.The method of claim 3,
The pretreatment step,
Performing quantization on the data of the image to be measured;
Measuring image 3D information or image depth information on an image to be measured;
Dividing the image to be measured;
And extracting a foreground of the image to be measured.
상기 기본 시각 특징은,
오디널(ordinal) 특징; 바이너리(binary) 특징; Haar 특징; 기울기 기술 히스토그램(Histogram of Gradient description) 특징; 윤곽 특징; 그레이(gray) 히스토그램 특징 중에 적어도 하나를 포함하는 인체 부위 측정 방법. 3. The method of claim 2,
The basic visual feature,
Ordinal features; Binary features; Haar feature; Histogram of gradient description features; Contour features; A method for measuring a body part comprising at least one of gray histogram features.
상기 서브 이미지를 합병하는 단계는,
직접 합병 및 가중(weighting) 합병 둘 방식 중에 하나를 포함하고 문턱 값은 멀티 부위 콘텍스트 기술자에 대한 선택 및 조합에 따라 다르다는 것을 특징으로 하는 인체 부위 측정 방법. 3. The method of claim 2,
Merging the sub image,
A method for measuring a body part, comprising one of two methods, direct merging and weighting merging, wherein the threshold value depends on the selection and combination for the multi-site context descriptor.
상기 직접 합병 단계는,
예정된 값보다 더 높은 신뢰 계수를 구비하는 서브 이미지를 선택하여 통계 및 기하 방법에 의하여 직접적으로 상기 선택된 서브 이미지의 위치를 합병하는 단계를 포함하는 것을 특징으로 하는 인체 부위 측정 방법. The method according to claim 6,
The direct merge step,
Selecting a sub-image having a higher confidence coefficient than a predetermined value and merging the positions of the selected sub-images directly by statistical and geometric methods.
상기 가중 합병 단계는,
서로 다른 신뢰 계수 문턱 값에 기초하여 서브 이미지의 위치를 합병하거나, 클러스터링 알고리즘에 따라 서브 이미지의 위치를 합병하는 단계를 포함하는 것을 특징으로 하는 인체 부위 측정 방법. The method according to claim 6,
The weighted merge step,
Merging the positions of the sub-images based on different confidence coefficient threshold values or merging the positions of the sub-images according to a clustering algorithm.
서브 이미지의 기본적인 시각 특징 및 상기 서브 이미지의 주변 영역의 확장 특징에 기초하여 상기 그룹 서브 이미지의 각 서브 이미지에 있는 인체 부위에 대해서 신뢰 계수를 할당하고 신뢰 계수가 문턱 값(threshold value)보다 높은 서브 이미지들을 합병하여 인체 부위의 위치를 측정하는 인체 부위 식별부
를 포함하는 인체 부위 측정 장치.A sub image identification unit identifying a group sub image related to a human body part in the image to be measured;
A confidence coefficient is assigned to a human body in each sub-image of the group sub-image based on a basic visual feature of the sub-image and an extended feature of a peripheral region of the sub-image, and the sub-coefficient is a sub-threshold having a threshold value higher than a threshold value. Body part identification unit for merging the images to measure the location of the body part
Human body measuring device comprising a.
인체 부위의 멀티 부위 콘텍스트 기술자(Multi-part context descriptor)를 획득하기 위해 샘플 이미지에 대해서 트레이닝을 수행하는 트레이닝부
를 더 포함하고,
상기 멀티 부위 콘텍스트 기술자는 기본 기술자 및 확장 기술자를 포함하고, 상기 기본 기술자는 서브 이미지의 인체 부위에 대한 기본 시각 특징을 기술하고, 상기 확장 기술자는 서브 이미지의 인체 부위와 주변 인체 부위의 공간 구조 관계를 기술하고,
상기 인체 부위 식별부는 각 서브 이미지의 멀티 부위 콘텍스트 기술자를 정의하고 상기 각 서브 이미지의 멀티 부위 콘텍스트 기술자와 상기 트레이닝부에 트레이닝된 인체 부위의 멀티 부위 기술자 간의 유사성에 기초하여 상기 각 서브 이미지에 대해서 신뢰 계수를 할당하는 것을 특징으로 하는 인체 부위 측정 장치. 10. The method of claim 9,
Training unit for training the sample image to obtain a multi-part context descriptor of the human body part
Further comprising:
The multi-site context descriptor includes a base descriptor and an extension descriptor, wherein the base descriptor describes basic visual features of the human body portion of the sub-image, and the extension descriptor is a spatial structure relationship between the human body portion and the surrounding human body portion of the sub-image. Describe it,
The human body part identification unit defines a multi-site context descriptor of each sub-image and trusts each of the sub-images based on the similarity between the multi-site context descriptor of each sub-image and the multi-site descriptor of the human body trained in the training unit. An apparatus for measuring a body part, which assigns a coefficient.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/857,623 US9443137B2 (en) | 2012-05-08 | 2013-04-05 | Apparatus and method for detecting body parts |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210141357.2A CN103390150B (en) | 2012-05-08 | 2012-05-08 | human body part detection method and device |
CN201210141357.2 | 2012-05-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130125283A true KR20130125283A (en) | 2013-11-18 |
KR101931220B1 KR101931220B1 (en) | 2019-03-13 |
Family
ID=49534419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120132388A KR101931220B1 (en) | 2012-05-08 | 2012-11-21 | Apparatus and Method for Body Components Detection |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101931220B1 (en) |
CN (1) | CN103390150B (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110678878B (en) | 2017-03-20 | 2022-12-13 | 华为技术有限公司 | Apparent feature description attribute identification method and device |
CN112435215B (en) * | 2017-04-11 | 2024-02-13 | 创新先进技术有限公司 | Image-based vehicle damage assessment method, mobile terminal and server |
CN110096933B (en) | 2018-01-30 | 2023-07-18 | 华为技术有限公司 | Target detection method, device and system |
CN111832361B (en) * | 2019-04-19 | 2023-08-29 | 杭州海康威视数字技术股份有限公司 | Pedestrian re-identification method and device and computer equipment |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120093407A1 (en) * | 2010-09-21 | 2012-04-19 | Sony Corporation | Object detection and classification method and apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101350064B (en) * | 2008-08-29 | 2012-06-13 | 北京中星微电子有限公司 | Method and apparatus for estimating two-dimension human body guise |
JP2010191592A (en) * | 2009-02-17 | 2010-09-02 | Seiko Epson Corp | Image processing apparatus for detecting coordinate position of characteristic portion of face |
CN101989326B (en) * | 2009-07-31 | 2015-04-01 | 三星电子株式会社 | Human posture recognition method and device |
-
2012
- 2012-05-08 CN CN201210141357.2A patent/CN103390150B/en not_active Expired - Fee Related
- 2012-11-21 KR KR1020120132388A patent/KR101931220B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120093407A1 (en) * | 2010-09-21 | 2012-04-19 | Sony Corporation | Object detection and classification method and apparatus |
Non-Patent Citations (1)
Title |
---|
Multiple Instance Feature for Robust Part-based Object Detection, IEEE* * |
Also Published As
Publication number | Publication date |
---|---|
CN103390150A (en) | 2013-11-13 |
KR101931220B1 (en) | 2019-03-13 |
CN103390150B (en) | 2019-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110175576B (en) | Driving vehicle visual detection method combining laser point cloud data | |
CN109903331B (en) | Convolutional neural network target detection method based on RGB-D camera | |
US9443137B2 (en) | Apparatus and method for detecting body parts | |
KR100799990B1 (en) | Device and Method for transforming 2-D Image into 3-D Image | |
US20150243038A1 (en) | Method and apparatus for expressing motion object | |
JP2016062610A (en) | Feature model creation method and feature model creation device | |
JP2017016593A (en) | Image processing apparatus, image processing method, and program | |
WO2019071976A1 (en) | Panoramic image saliency detection method based on regional growth and eye movement model | |
CN111160291B (en) | Human eye detection method based on depth information and CNN | |
CN112825192B (en) | Object identification system and method based on machine learning | |
CN112365586B (en) | 3D face modeling and stereo judging method and binocular 3D face modeling and stereo judging method of embedded platform | |
KR101558547B1 (en) | Age Cognition Method that is powerful to change of Face Pose and System thereof | |
CN103905824A (en) | Video semantic retrieval and compression synchronization camera system and method | |
CN112070010B (en) | Pedestrian re-recognition method for enhancing local feature learning by combining multiple-loss dynamic training strategies | |
CN114072839A (en) | Hierarchical motion representation and extraction in monocular still camera video | |
CN116703895B (en) | Small sample 3D visual detection method and system based on generation countermeasure network | |
KR101931220B1 (en) | Apparatus and Method for Body Components Detection | |
CN111476089A (en) | Pedestrian detection method, system and terminal based on multi-mode information fusion in image | |
CN113780145A (en) | Sperm morphology detection method, sperm morphology detection device, computer equipment and storage medium | |
CN112674998A (en) | Blind person traffic intersection assisting method based on rapid deep neural network and mobile intelligent device | |
WO2023279799A1 (en) | Object identification method and apparatus, and electronic system | |
CN108647605B (en) | Human eye gaze point extraction method combining global color and local structural features | |
CN113822871A (en) | Target detection method and device based on dynamic detection head, storage medium and equipment | |
CN111027434B (en) | Training method and device of pedestrian recognition model and electronic equipment | |
CN111062311B (en) | Pedestrian gesture recognition and interaction method based on depth-level separable convolution network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |