KR20110012302A - Automatic method for discriminating harmful image - Google Patents

Automatic method for discriminating harmful image Download PDF

Info

Publication number
KR20110012302A
KR20110012302A KR1020090069972A KR20090069972A KR20110012302A KR 20110012302 A KR20110012302 A KR 20110012302A KR 1020090069972 A KR1020090069972 A KR 1020090069972A KR 20090069972 A KR20090069972 A KR 20090069972A KR 20110012302 A KR20110012302 A KR 20110012302A
Authority
KR
South Korea
Prior art keywords
image
skin color
harmful
moment
region
Prior art date
Application number
KR1020090069972A
Other languages
Korean (ko)
Other versions
KR101032581B1 (en
Inventor
김창열
유영수
Original Assignee
(주)필링크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)필링크 filed Critical (주)필링크
Priority to KR1020090069972A priority Critical patent/KR101032581B1/en
Publication of KR20110012302A publication Critical patent/KR20110012302A/en
Application granted granted Critical
Publication of KR101032581B1 publication Critical patent/KR101032581B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A method for automatically identifying harmful image is provided to identify a harmful image by comparing a moment value extracted from enormous harmful images with a certain image. CONSTITUTION: A region having a skin color from the divided regions of an input image is searched(S30). A fine skin color region is removed from a searched region(S40) and only a skin color region is extracted through the application of a high-frequency filter for a remaining skin color region(S50). Through the analysis of the residual skin color region in a nude pose image, a moment value is calculated. Similar first moment values are formed in a set(S60). If a second moment value for a certain image is close to the first moment values, the image is determined as a harmful image(S70).

Description

유해영상 자동 판별 방법 {Automatic method for discriminating harmful image}{Automatic method for discriminating harmful image}

본 발명은 유해영상의 자동 판별 방법에 관한 것으로서, 더욱 상세하게는 입력된 영상을 유사한 색상을 갖는 영역으로 분할하여 피부색을 가지는 영역을 검색한 이후에 작은 피부색 영역을 제거하고 남은 피부색 영역 중에서 텍스처 분석을 통한 사람의 피부색 영역을 검출하며 이 영역으로부터의 모양 정합 기법을 사용하여 유해영상인가를 판단하는 유해영상의 자동 판별 방법에 관한 것이다.More particularly, the present invention relates to a method for automatically discriminating a harmful image, and more particularly, to a method for automatically discriminating a harmful image by dividing an input image into regions having similar colors to search for regions having skin colors, The present invention relates to a method of automatically detecting a harmful image by detecting a skin color region of a human body through the use of a shape matching technique from the region.

종래의 기술로서, 대한민국 등록특허공보 제 10-0595032호인 영상의 선정성 분석방법은 영상이 입력되면 입력영상의 RGB 형태를 YCbCr 형태로 변환시키는 제 1단계와, 입력영상의 색상 분석을 통해 영상의 대표색이 피부색과 유사한지 비교하는 제 2 단계와, 입력영상의 윤곽분석을 통해 인체와의 유사성을 판별하는 제 3 단계와, 입력영상의 대표색이 피부색과 유사하지 않거나 윤곽이 인체와 유사하지 않을 경우에는 비유해 이미지로 판정하고 입력영상이 피부색과 유사하면서 그 윤곽이 인체와 유사할 경우 유해이미지로 판정하는 제 4 단계로 이루어지는 영상의 선정성 분석방법에 있어서; 상기 제 2 단계는 변환된 입력영상을 분석하여 화면의 색에 따라 복수의 군집으로 분리시키는 제 1 과정과, 가장 많은 화소수를 가지는 색상 군집을 대표색으로 선택하는 제 2 과정과, 상기 제 2 과정에서 선택된 대표색이 인체의 피부색의 범위에 속하는지를 판별하는 제 3 과정으로 이루어지고; 상기 제 3 단계는 대표색이 피부색의 범주에 속할 경우 각 유닛을 구성하는 화소 중 과반 이상이 대표 색상을 가지는 모든 영역을 잘게 분리하여 작은 사각형으로 서브 유닛으로 재구성하는 제 1 과정과, 상기 제 1 과정을 통해 재구성된 서브 유닛의 분포를 조사하여 물체가 형성하는 윤곽을 분석하는 제 2 과정과, 상기 제 2 과정에서 분석된 윤곽이 인체일 가능성이 있는지를 판정하는 제 3 과정으로 구성된다.As a conventional technique, Korean Patent Registration No. 10-0595032 discloses a method for analyzing sensibility of an image, which comprises a first step of converting an RGB form of an input image into a YCbCr form when an image is input, A second step of comparing the color of the input image with a skin color, a third step of determining similarity with the human body through an outline analysis of the input image, a third step of determining whether the representative color of the input image is similar to the skin color, A fourth step of judging the input image as a non-inferior image, and a fourth step of judging the input image as a harmful image when the outline is similar to a skin color and the outline thereof is similar to a human body; The second step includes a first step of analyzing the input image and separating the input image into a plurality of clusters according to a color of a screen, a second step of selecting a color cluster having the largest number of pixels as a representative color, And a third step of determining whether the representative color selected in the process belongs to a range of skin color of the human body; The third step includes a first step of finely dividing all regions having a representative color of at least half of the pixels constituting each unit into a sub-unit with a small square when the representative color belongs to the skin color category, A second step of analyzing an outline formed by an object by examining a distribution of the reconstructed subunit through a process, and a third step of determining whether the outline analyzed in the second step is a human body.

이러한 상기 종래 기술 이외에도 피부색 영역 검출하기 위해서 skin color detection이라는 분야에서 오래전부터 연구가 이루어져 왔으나, 그 기술의 대부분이 pixel-based skin detection 방법이다. 상기 pixel-based skin detection 방법은 한 화소가 피부색에 해당되는 칼라값을 가졌는지를 검사하는 단순 방법인데, 여러 칼라 모델(RGB, YCbCr, HIS 등)에서 시험되었고 이외에도 확률적 접근을 이용한 피부색 화소 분류 방법의 기술이 있었는데 화소 단위 피부색 검출 방식에서 가장 좋은 정확도를 보이고 있지만 전반적인 유해영상 판단에 대해서는 정확도가 떨어지는 문제점이 있었다.In addition to the above conventional techniques, skin color detection has been studied for a long time in the field of skin color detection, but most of the techniques are pixel-based skin detection methods. The pixel-based skin detection method is a simple method for checking whether a pixel has a color value corresponding to a skin color. It has been tested in various color models (RGB, YCbCr, HIS, etc.) There is a problem that the accuracy is poor for the overall harmful image judgment although the best accuracy is shown in the pixel unit skin color detection method.

아울러, 상기 종래의 기술에서도 설명한 바와 같이 피부색 비교를 위해 입력영상을 RGB에서 YCbCr로 변환하는 단계의 기술은 피부색 검출 성능이 매우 떨어지 기 때문에 유해 영상을 판단함에 있어서 정확도가 떨어지는 문제점이 있었다.In addition, as described in the above-mentioned prior art, there is a problem in that the method of converting an input image from RGB to YCbCr for comparison of skin color has a poor accuracy in determining a harmful image because skin color detection performance is very poor.

따라서, 본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 영상분할, 피부색 영역 검색, 작은 피부색 영역 제거, 영상 텍스처 분석, 모양 정합 기법으로 유해영상을 판별하는데 그 목적이 있다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to identify a harmful image by image segmentation, skin color region search, small skin color region removal, image texture analysis, .

상기 목적을 달성하기 위한 본 발명의 일실시예에 따르면, 유해영상의 자동 판별 방법은 영상입력 제 1 단계와, 상기 입력된 영상을 유사한 색상끼리 묶어 영역이 형성되도록 영상 분할하는 제 2 단계와, 상기 분할된 영역 중에서 피부색을 갖는 영역만을 검색하는 제 3 단계와, 상기 피부색을 갖는 영역 중에서 미세 피부색 영역을 제거하는 제 4 단계와, 상기 미세 피부색 영역을 제거하고 남은 피부색 영역을 고주파 필터에 적용하여 gray-scale histogram이 저대역에서 가우시안 분포를 갖으면 사람의 피부색으로 판단하고 상기 gray-scale histogram이 저대역에서 가우시안 분포를 갖지 않으면 다른 객체의 색으로 판단하고 제거하여 피부색 영역만을 추출하는 제 5 단계와, 상기 다수의 나체자세 영상을 수집하여 상기 제 1 단계부터 제 5 단계까지의 수행을 통하여 다수의 나체자세 영상에 남겨진 피부색 영역을 분석하여 모멘트(moment)라는 수학적 값을 계산하여 비슷한 제 1 모멘트 값끼 리 묶어 다수개의 집합을 구축하는 제 6 단계, 및 상기 임의의 한 영상을 상기 제 1 단계부터 제 5 단계까지 수행하여 획득한 제 2 모멘트 값과 상기 다수개의 집합에 구축된 제 1 모멘트 값들과 비교하여 상기 제 2 모멘트가 상기 제 1 모멘트 값들에 가까운 경우에 유해영상으로 판단하는 제 7 단계로 이루어진 것을 해결수단으로 한다.According to an embodiment of the present invention, there is provided a method of automatically identifying a harmful image, the method comprising: a first step of inputting an image; a second step of dividing the input image into images so as to form an area, A third step of searching only the region having the skin color from the divided regions, a fourth step of removing the fine skin color region from the skin color region, and a fourth step of removing the fine skin color region and applying the remaining skin color region to the high- if the gray-scale histogram has a Gaussian distribution in a low band, it is determined to be a human skin color, and if the gray-scale histogram does not have a Gaussian distribution in a low band, And collecting the plurality of naked posture images and performing the steps from the first step to the fifth step A sixth step of calculating a mathematical value called a moment by analyzing a skin color area remaining in the nude body posture image of the water and building up a plurality of sets of similar first moments, And a fifth step of comparing the second moment value with the first moment values constructed in the plurality of sets to determine that the second image is a harmful image when the second moment is close to the first moment values As the solution means.

이상 설명한 바와 같이, 본 발명은 피부색 검출의 정확도가 높고 이미 방대한 유해 영상들에서 추출한 모멘트값들과 임의의 한 영상을 비교함으로 유/무해 영상 판별의 정확도가 높은 효과가 있으며, 각 단계별로 유해영상을 판별하기 때문에 빠르고 정확하게 유해영상이 판별되는 효과가 있다.As described above, according to the present invention, the accuracy of skin / color detection is high, and the accuracy of discrimination of harmful / harmless images is high by comparing the moment values extracted from already large harmful images with any one of the images. It is possible to quickly and accurately discriminate the harmful image.

이하, 본 발명의 최적 실시예에 대하여 첨부된 도면을 참조하여 그 구성 및 작용을 설명한다.Best Mode for Carrying Out the Invention Hereinafter, a configuration and an operation of a preferred embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 유해영상 판별 방법 흐름도로서, 상기 유해영상 판별 방법 흐름도는 영상입력 단계(S10)와, 상기 입력된 영상을 유사한 색상끼리 묶어 영역이 형성되도록 영상 분할하는 단계(S20)와, 상기 분할된 영역 중에서 피부색을 갖는 영역만을 검색하는 단계(S30)와, 상기 피부색을 갖는 영역 중에서 미세 피부색 영역을 제거하는 단계(S40)와, 상기 미세 피부색 영역을 제거하고 남은 피부색 영역을 고주파 필터에 적용하여 gray-scale histogram이 저대역에서 가우시안 분포를 갖으면 사람의 피부색으로 판단하고 상기 gray-scale histogram이 저대역에서 가우시안 분포를 갖지 않으면 다른 객체의 색으로 판단하고 제거하여 피부색 영역만을 추출하는 단계(S50)와, 상기 다수의 나체자세 영상을 수집하여 상기 S10단계부터 S50단계까지의 수행을 통하여 다수의 나체자세 영상에 남겨진 피부색 영역을 분석하여 모멘트(moment)라는 수학적 값을 계산하여 비슷한 제 1 모멘트 값끼리 묶어 다수개의 집합을 구축하는 단계(S60), 및 상기 임의의 한 영상을 상기 S10단계부터 S50단계까지 수행하여 획득한 제 2 모멘트 값과 상기 다수개의 집합에 구축된 제 1 모멘트 값들과 비교하여 상기 제 2 모멘트가 상기 제 1 모멘트 값들에 가까운 경우에 유해영상으로 판단하는 단계(S70)로 이루어진다.FIG. 1 is a flowchart illustrating a harmful image discriminating method according to the present invention. The flowchart of the harmful image discriminating method includes an image input step S10, (S30) of extracting a skin color region from the divided regions, a step (S40) of removing a skin color region from the region having skin color, a step (S40) of removing a skin color region remaining after removing the skin color region, If the gray-scale histogram has a Gaussian distribution in a low band, it is determined to be a skin color of a human. If the gray-scale histogram does not have a Gaussian distribution in a low band, it is determined to be a color of another object, (S50), collecting the plurality of naked posture images, and performing the steps from S10 to S50 (S60) of constructing a plurality of sets by grouping similar first moment values by calculating a mathematical value called a moment by analyzing a skin color area left in the naked posture image, And comparing the obtained second moment values with the first moment values constructed in the plurality of sets to determine a harmful image when the second moment is close to the first moment values (S70) .

상기 각 단계에 대하여 보다 상세하게 설명하면 다음과 같다.Each of the above steps will be described in detail as follows.

상기 영상입력 단계(S10)는, 유해 영상 또는 일반 영상 중 어느 하나가 입력된다.In the image input step S10, either a harmful image or a general image is input.

상기 입력된 영상을 유사한 색상끼리 묶어 영역이 형성되도록 영상 분할하는 단계(S20)는, S10단계에서와 같이 영상이 입력되면, 영상의 RGB 칼라 화소값들을 검사하면서, 인접 픽셀간의 칼라값 차이가 일정크기보다 작으면, 두 화소를 하나의 영역으로 묶는다. 이러한 것을 영상의 전영역을 대상으로 모두 수행하면, 유사한 색상을 가지는 픽셀들이 하나의 영역으로 묶이게 된다.In operation S20, when inputting an image as in step S10, the RGB color pixel values of the image are checked, and when the color value difference between adjacent pixels is constant If it is smaller than the size, the two pixels are combined into one area. When all of these are performed on the whole area of the image, pixels having similar colors are bundled into one area.

예컨대, 도 2에 도시되 바와 같이, 한 여성이 길 위에서 약간의 옷만 착용한 유해영상이 입력되면, 입력된 유해영상 중에서 한 여성 옆의 보이는 바닥(길), 여 성의 다리에 해당되는 부분에 속하는 화소들의 색상값들은 비슷한 색상을 가지면서 일정 범위에 속하기 때문에 비슷한 생상 영역 분할이 이루어진다. 즉, 도 2의 (a)는 비슷한 색상끼리 묶은 영역이 도 2의 (b)와 같이 이루어지는 것이다.For example, as shown in FIG. 2, when a harmful image that a woman wears only a little clothes on the road is input, a part of the inputted harmful image belongs to a visible floor of a woman, Since the color values of the pixels belong to a certain range with similar color, a similar reproduction region division is performed. That is, FIG. 2 (a) shows a region in which similar colors are bundled as shown in FIG. 2 (b).

우선, S30단계를 설명하기에 앞서서, 상기 종래의 기술에서도 설명한 바와 같이 피부색 비교를 위해 입력영상을 RGB에서 YCbCr로 변환 후 피부색 검출 기술은 확률적 접근 기반의 피부색 검출기보다 그 성능이 매우 떨어지는 문제점이 있다.First, before describing step S30, as described in the related art, there is a problem that the performance of the skin color detection technique after the conversion of the input image from RGB to YCbCr is less than that of the stochastic approach based skin color detector have.

즉, 높은 정확도의 화소기반 피부색 검출기를 보유하여도 실제 입력 영상의 화소값을 관찰하면 노이즈(noise) 화소가 적지 않으므로 화소기반 피부색 검출기를 적용하면 눈으로 보여지는 바디(body) 영역에서 노이즈 화소는 피부색 화소로 검출되지 않아서, 바디 영역에서 구멍이 뚫린 것 같은 결과를 얻을 수 밖에 없다.In other words, even if a pixel-based skin color detector having a high accuracy is observed, noise pixels are not observed when a pixel value of an actual input image is observed. Therefore, when a pixel-based skin color detector is applied, It is not detected as a skin color pixel, so that a result like a hole in the body region can not be obtained.

따라서, 상기 분할된 영역 중에서 피부색을 갖는 영역만을 검색하는 단계(S30)에서는 이러한 문제점을 극복하고자 화소 단위의 피부색 검출기를 사용하지 않고 영상을 도 2의 (b)와 같이 영상분할 과정을 거치고 영상분할된 결과 영상에서 보여지는 영역들을 대상으로 해당 영역의 평균 칼라값이 피부색에 해당되는지를 검사한다. 더욱이, 본 발명은 확률적 접근 기반의 피부색 분류기를 사용하고 피부 영역에 구멍이 뚫리지도 않고 매우 높은 정확도를 보이는 피부색 영역을 검색한다.Accordingly, in step S30 of searching only the region having the skin color among the divided regions, in order to overcome such a problem, the image is subjected to the image segmentation process as shown in FIG. 2B without using the pixel- And the average color value of the region corresponds to the skin color. Furthermore, the present invention uses a stochastic approach-based skin color classifier to search for a skin color area that has very high accuracy without puncturing the skin area.

상기 피부색 검출기를 개발하기 전에 피부색영역이 포함된 유해영상과 비유해영상을 각각 1000장씩 준비하고 유해영상에서 육안으로 피부색 영역을 오려내어 피부색 영역이 가지는 칼라값 조합에 대한 확률 분포를 만들어내었다.Prior to developing the skin color detector, 1000 pieces of harmful image and non-harmless image including a skin color area were prepared, and a skin color area was cut out from the harmful image to produce a probability distribution for a color value combination of a skin color area.

상기 피부색 검출기에서는 특정 칼라가 피부색일 확률과 특정칼라가 피부색 이 아닐 확률간의 비율 분포(skin probability map)를 이용하여 특정 칼라값이 피부색인지 아닌지를 결정하게 된다.The skin color detector determines whether a specific color value is a skin color or not by using a skin probability map between a probability that a specific color is a skin color and a probability that a specific color is not a skin color.

상기 피부색을 갖는 영역 중에서 미세 피부색 영역을 제거하는 단계(S40)는, 상기 S30단계에서 두 가지 확률값 분포를 이용하여 특정 칼라값이 피부색인지 아닌지를 결정한 후 피부색 영역만 남기고 나머지 칼라값을 모두 제거한다.In step S40, the fine skin color region is removed from the region having the skin color. Then, in Step S30, it is determined whether or not the specific color value is skin color using the two probability distribution values, and only the skin color region is left and all remaining color values are removed .

즉, 도 3의 (c)의 영상을 이용하여 (b)의 영상과 같은 유사 색상 영역분할 단계를 거친 이후에 피부색 영역만 남기고 나머지 부분을 모두 제거하면 (d)영상 결과를 얻게 된다. 이때 피부색 영역을 살펴보면 실제 피부색 이외에도 작은 크기의 영역들이 많이 존재한다는 것을 알 수 있다. 특히, 실제 사람이 아닌 바닥이나 벽면에서 이러한 작은 피부색 영역들이 많이 검출될 수도 있는 바, 일예로 목재로 지어진 벽면, 가구, 바닥재 등 피부색과 유사한 영역들로 검출될 수 있다.That is, after the similar color region dividing step like the image of FIG. 3 (b) is performed using the image of FIG. 3 (c), only the skin color region is left and the remaining portions are all removed. At this time, when the skin color area is examined, it can be seen that there are many small-sized areas in addition to the actual skin color. Especially, these small skin color areas may be detected on the floor or wall rather than the real person. For example, skin color-like areas such as wall made of wood, furniture and flooring can be detected.

이러한 미세 피부색 영역을 제거하면 (e)영상과 같은 결과가 얻어진다.Removal of such a skin color area results in (e) the same result as the image.

상기 미세 피부색 영역을 제거하고 남은 피부색 영역을 고주파 필터에 적용하여 gray-scale histogram이 저대역에서 가우시안 분포를 갖으면 사람의 피부색으로 판단하고 상기 gray-scale histogram이 저대역에서 가우시안 분포를 갖지 않으면 다른 객체의 색으로 판단하고 제거하여 피부색 영역만을 추출하는 단계(S50)는, S40단계 이후에 다른 객체에서도 사람의 피부색 영역으로 오인되는 영역이 검출될 수 있기 때문에 본 발명은 이 부분을 구분하기 위해서 텍스처 분석을 수행한다.If the gray-scale histogram has a Gaussian distribution in a low band, it is determined to be a human skin color, and if the gray-scale histogram does not have a Gaussian distribution in a low band, In step S50 of extracting only the skin color area by judging the color of the object and removing it, since an area which is mistaken to be a human skin color area may be detected in step S40 and subsequent steps, Perform the analysis.

즉, 상기 텍스처 분석은 도 4에 도시된 바와 같이 도 4의 (f)는 유해영상이고 도 4의 (g)는 일반영상이며, 이때 도 4의 (f)를 (h)로 필터링하여 고주파 필터 에 적용하면 도 5의 (j)와 같은 히스토그램이 나타나고 도 4의 (g)를 (i)로 필터링하여 고주파 필터에 적용하면 도 5의 (h)와 같은 히스토그램이 나타난다.4 (f) is a harmful image, and FIG. 4 (g) is a general image. At this time, as shown in FIG. 4, The histogram shown in FIG. 5 (j) is displayed. When FIG. 4 (g) is filtered by (i) and applied to the high-frequency filter, a histogram as shown in FIG. 5 (h) appears.

이러한 방식에 의해서 사람의 피부색 고유의 패턴이 구분되는 것을 알 수 있다.It can be seen that the pattern inherent to human skin color is distinguished by this method.

따라서, S50단계까지 수행하면 영상 내에 실제 사람에서 보여지는 고유의 피부색 영역만이 존재하게 된다.Therefore, when the process up to step S50 is performed, only a unique skin color area existing in the image is present in the image.

상기 다수의 나체자세 영상을 수집하여 상기 S10단계부터 S50단계까지의 수행을 통하여 다수의 나체자세 영상에 남겨진 피부색 영역을 분석하여 모멘트(moment)라는 수학적 값을 계산하여 비슷한 제 1 모멘트 값끼리 묶어 다수개의 집합을 구축하는 단계(S60)는, 유해 영상에 기록된 객체의 자세가 어느 각도에서 캡쳐하는지에 따라 서로 다른 영상으로 얻어지기 때문에 음란 영상에서 나체의 자세 정보를 가지고 음란 여부를 결정하기 위해서 사전에 학습된 자세 정보 모멘트(moment)값을 이용한다. 음란 영상들에서 보여지는 나체들의 자세정보를 음란 판별에 이용하기 위해 사전에 수 많은 그리고 다양한 자세를 취한 영상들을 수집하고 이렇게 수집된 영상들에서 위에서 설명한 똑 같은 과정들을 거친 후에 영상에 남겨진 피부색 영역을 분석하여 모멘트라는 수학적 값(공지된 영상처리 기술에서 통상적으로 사용되는 용어.)으로 계산해 구축한다.By collecting the plurality of naked posture images and analyzing the skin color regions remaining in the plurality of naked posture images through the steps from S10 to S50, a mathematical value called a moment is calculated and similar first moment values are grouped together Since the step S60 of constructing the set of clusters is obtained as different images depending on the angle at which the posture of the object recorded in the harmful image is captured, Is used as the posture information moment value. In order to use the posture information of the naked bodies shown in the lurid images for the luridic discrimination, a lot of images in various poses are collected, and after the same processes described above in the collected images, And calculating it as a mathematical value called a moment (a term commonly used in a known image processing technique).

상기 모멘트 값은 어떠한 객체를 다양한 각도에서 찍은 영상들이 있다면, 이 영상들에서 구해진 모멘트값들은 비슷한 범위의 수치를 보임으로 하나의 자세에 대한 여러 각도의 음란 영상들의 자세 정보를 하나의 모멘트값으로 저장해 둘 수 있 다.If there are images taken from various angles of an object, the moment values obtained from these images have a similar range of values, so that the attitude information of a plurality of angular images for one posture is stored as a moment value It can be.

따라서, 수백가지의 모멘트 값끼리 집합으로 구축함으로써 수천 가지의 음란 자세에 해당하는 영상 정보를 검색할 수 있다.Therefore, by constructing a collection of hundreds of moment values, it is possible to retrieve image information corresponding to thousands of obscene postures.

상기 임의의 한 영상을 상기 S10단계부터 S50단계까지 수행하여 획득한 제 2 모멘트 값과 상기 다수개의 집합에 구축된 제 1 모멘트 값들과 비교하여 상기 제 2 모멘트가 상기 제 1 모멘트 값들에 가까운 경우에 유해영상으로 판단하는 단계(S70)는, 임의의 한 영상을 상기 S10단계부터 S50단계까지 수행하면 모멘트값을 획득할 수 있다. 이와 같이 획득된 모멘트값과 상기 S10단계부터 S50단계까지 수행하여 다수의 나체정보 자세에 대한 모멘트값을 집합으로 저장해둔 것과 비교하여 상기 임의의 한 영상이 유해영상인지 판단하는 것이다.Comparing the second moment value obtained by performing the step S10 through step S50 with the first moment values constructed in the plurality of sets, and when the second moment is close to the first moment values In step S70, it is possible to obtain a moment value by performing an arbitrary one of the images from step S10 to step S50. The thus obtained moment value and the steps S10 to S50 are performed to determine whether the arbitrary one image is a harmful image by comparing the moment values of the plurality of nudity information attitudes with each other.

끝으로, 각 단계가 끝날 때마다 음란 여부가 결정될 수도 있는 구조이다.Finally, it is the structure that the obscenity may be determined at the end of each stage.

예를 들어, 상기 S20단계에서 영상 분할 후에 피부색 영역들을 검색했는데, 피부색 영역이 검출되지 않았다면, 이 영상은 통상적으로 알고 있는 나체 영상이 기록되어 있지 않음을 의미하므로 무해한 영상으로 판단된다.For example, when the skin color regions are searched after the image segmentation in step S20, if the skin color area is not detected, the image is determined to be harmless because it means that the known nude image is not recorded.

또 다른 예로, 어떤 영상의 경우 S20단계를 거쳐 영상 내에 피부색 영역이 검출되었지만, S40단계에서 해당 피부색 영역이 모두 미세 크기영역이라면, 이 영상 또한 무해 영상으로 결정된다.As another example, if a skin color region is detected in the image through S20 in the case of an image, but the skin color region is all in the fine size region in S40, the image is also determined as a harmless image.

아울러, 상기 S50단계에서 모든 피부색 영역의 고주파 필터 적용 후, gray-scale histogram이 저대역에서 가우시안 분포를 갖지 않는 경우에, 사람의 피부색 영역이 존재하지 않는 것으로 판별되어, 이 영상 또한 무해영상으로 결정한다.In addition, if the gray-scale histogram does not have a Gaussian distribution in the low band after applying the high-frequency filter of all the skin color regions in step S50, it is determined that the human skin color area does not exist and the image is also determined as a harmless image do.

따라서 본 발명에서 사용되는 다단계식 접근 방법은 영상의 음란 여부 판별에 있어서, 각 단계에서 무해 결정이 될 수도 있으므로, 판별 시간의 절약 효과도 가지게 된다. 또한 무해 판별된 영상에 대해서 어떤 사유로 무해 결정이 되었는지를(무해 결정단계) 기억시킬 수 있으므로, 동영상 판별 솔루션이나, 유해 필터링 서버 시스템으로의 적용도 고려될 수 있다.Therefore, the multistage approach used in the present invention can be a harmless decision in each step in discriminating whether the image is indecent or not, so that the discrimination time can be saved. In addition, since it is possible to memorize (harmless determination step) whether a harmless image has been determined to be harmless for some reason, application to a moving image discrimination solution or a harmful filtering server system can be considered.

도면과 상세한 설명에서 최적 실시예들이 게시되고, 이상에서 사용된 특정한 용어는 단지 본 발명을 설명하기 위한 목적에서 사용된 것일 뿐, 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것이 아니다.In the drawings and specification, there have been disclosed preferred embodiments and specific terms used herein are used only for the purpose of illustrating the invention and are not intended to limit the scope of the invention, It is not.

그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하고, 본 발명의 진정한 기술적 보호 범위는 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, it is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.

도 1은 본 발명에 따른 유해영상 판별 방법 흐름도1 is a flowchart of a harmful image discrimination method according to the present invention;

도 2 내지 도 5는 본 발명에 따른 유해영상을 판별하기 위한 예시도2 to 5 are diagrams for explaining a harmful image according to the present invention

Claims (5)

영상입력 제 1 단계와;A first image input step; 상기 입력된 영상을 유사한 색상끼리 묶어 영역이 형성되도록 영상 분할하는 제 2 단계와;A second step of segmenting the input image so that similar colors are combined to form an area; 상기 분할된 영역 중에서 피부색을 갖는 영역만을 검색하는 제 3 단계와;A third step of searching only the region having the skin color among the divided regions; 상기 피부색을 갖는 영역 중에서 미세 피부색 영역을 제거하는 제 4 단계와;A fourth step of removing a fine skin color region from the skin color region; 상기 미세 피부색 영역을 제거하고 남은 피부색 영역을 고주파 필터에 적용하여 gray-scale histogram이 저대역에서 가우시안 분포를 갖으면 사람의 피부색으로 판단하고 상기 gray-scale histogram이 저대역에서 가우시안 분포를 갖지 않으면 다른 객체의 색으로 판단하고 제거하여 피부색 영역만을 추출하는 제 5 단계와;If the gray-scale histogram has a Gaussian distribution in a low band, it is determined to be a human skin color, and if the gray-scale histogram does not have a Gaussian distribution in a low band, A fifth step of extracting only the skin color region by judging and removing the color of the object; 상기 다수의 나체자세 영상을 수집하여 상기 제 1 단계부터 제 5 단계까지의 수행을 통하여 다수의 나체자세 영상에 남겨진 피부색 영역을 분석하여 모멘트(moment)라는 수학적 값을 계산하여 비슷한 제 1 모멘트 값끼리 묶어 다수개의 집합을 구축하는 제 6 단계; 및Collecting the plurality of naked posture images and analyzing the skin color regions remaining in the plurality of naked posture images through the execution of the first to fifth steps to calculate a mathematical value called a moment, A sixth step of bundling and building a plurality of sets; And 상기 임의의 한 영상을 상기 제 1 단계부터 제 5 단계까지 수행하여 획득한 제 2 모멘트 값과 상기 다수개의 집합에 구축된 제 1 모멘트 값들과 비교하여 상기 제 2 모멘트가 상기 제 1 모멘트 값들에 가까운 경우에 유해영상으로 판단하는 제 7 단계로 이루어진 것을 특징으로 하는 유해영상 판별 방법.Comparing the second moment value obtained by performing the first to fifth steps of the arbitrary one image with the first moment values constructed in the plurality of sets so that the second moment is close to the first moment values And judging the image as a harmful image if it is judged that the harmful image is a harmful image. 청구항 1에 있어서, The method according to claim 1, 상기 제 3 단계에서 피부색이 영역이 없는 경우에는 무해영상으로 판단하는 것을 특징으로 하는 유해영상 판별 방법.And if the skin color does not exist in the third step, it is determined to be a harmless image. 청구항 2에 있어서, The method of claim 2, 상기 제 3 단계에서 피부색이 검출되었지만 상기 제 4 단계에서 피부색 영역이 검출되지 않은 경우에 무해영상으로 판단하는 것을 특징으로 하는 유해영상 판별 방법.Wherein when the skin color is detected in the third step but the skin color region is not detected in the fourth step, the image is determined to be a harmless image. 청구항 3에 있어서,The method of claim 3, 상기 제 5 단계에서 모든 영역의 고주파 필터 통과 후 영상이 상기 gray-scale histogram이 저대역에서 가우시안 분포를 갖지 않는 경우에 무해영상으로 판단하는 것을 특징으로 하는 유해영상 판별 방법.Wherein the high frequency pass filtered image of all the regions in the fifth step is determined as a harmless image when the gray-scale histogram does not have a Gaussian distribution in the low band. 청구항 1 내지 청구항 4 중 어느 한 청구항에 있어서,The method according to any one of claims 1 to 4, 동영상 판별 솔루션 또는 유해 필터링 서버 시스템에 적용되는 것을 특징으로 하는 유해영상 판별 방법.The image discrimination solution or the harmful filtering server system.
KR1020090069972A 2009-07-30 2009-07-30 Automatic method for discriminating harmful image KR101032581B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090069972A KR101032581B1 (en) 2009-07-30 2009-07-30 Automatic method for discriminating harmful image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090069972A KR101032581B1 (en) 2009-07-30 2009-07-30 Automatic method for discriminating harmful image

Publications (2)

Publication Number Publication Date
KR20110012302A true KR20110012302A (en) 2011-02-09
KR101032581B1 KR101032581B1 (en) 2011-05-06

Family

ID=43772244

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090069972A KR101032581B1 (en) 2009-07-30 2009-07-30 Automatic method for discriminating harmful image

Country Status (1)

Country Link
KR (1) KR101032581B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740752A (en) * 2014-12-11 2016-07-06 世纪龙信息网络有限责任公司 Method and system for sensitive image filtering
KR101867448B1 (en) * 2016-12-12 2018-06-12 인천대학교 산학협력단 Image Processing Method Based on Power Efficient Edge Sharpening

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101612003B1 (en) * 2015-06-25 2016-04-12 이상윤 Method for providing travel information and procuring travel safety

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740752A (en) * 2014-12-11 2016-07-06 世纪龙信息网络有限责任公司 Method and system for sensitive image filtering
CN105740752B (en) * 2014-12-11 2021-05-11 世纪龙信息网络有限责任公司 Sensitive picture filtering method and system
KR101867448B1 (en) * 2016-12-12 2018-06-12 인천대학교 산학협력단 Image Processing Method Based on Power Efficient Edge Sharpening

Also Published As

Publication number Publication date
KR101032581B1 (en) 2011-05-06

Similar Documents

Publication Publication Date Title
Putzu et al. White blood cells identification and counting from microscopic blood images
Wang et al. iVAT and aVAT: enhanced visual analysis for cluster tendency assessment
CN104574421B (en) Large-breadth small-overlapping-area high-precision multispectral image registration method and device
ES2328440B1 (en) METHOD FOR IDENTIFYING GUIGNARDIA CITRICARPA.
JP2002288658A (en) Object extracting device and method on the basis of matching of regional feature value of segmented image regions
KR101813223B1 (en) Method and apparatus for detecting and classifying surface defect of image
CN113838054A (en) Mechanical part surface damage detection method based on artificial intelligence
JP2009211138A (en) Target area extraction method, device and program
Kluger et al. Region-based cycle-consistent data augmentation for object detection
Ge et al. Coarse-to-fine foraminifera image segmentation through 3D and deep features
CN112257711A (en) Method for detecting damage fault of railway wagon floor
CN105469099B (en) Pavement crack detection and identification method based on sparse representation classification
CN111340780A (en) Focus detection method based on three-dimensional ultrasonic image
US20050271260A1 (en) Device, method and program for removing pores
KR20110012302A (en) Automatic method for discriminating harmful image
Nguyen et al. A new method for splitting clumped cells in red blood images
CN113657315B (en) Quality screening method, device, equipment and storage medium for face image
Tan et al. A framework for the automatic identification of algae (neomeris vanbosseae ma howe): U 3 s
Joshi et al. A simple scheme for contour detection.
JP4963824B2 (en) Change area extraction apparatus and change area extraction method
Entacher et al. Towards an automated generation of tree ring profiles from CT-images
CN113537253A (en) Infrared image target detection method and device, computing equipment and storage medium
Aldeborgh et al. Unsupervised object detection on remote sensing imagery using hierarchical image representations and deep learning
Murdika et al. Performance of edge detection methods for image identification
GB2478133A (en) A method of Image classification based on duct and nuclei parameters

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140409

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150424

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160418

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190425

Year of fee payment: 9