KR20080110064A - Method for distinguishing obscene image and apparatus therefor - Google Patents
Method for distinguishing obscene image and apparatus therefor Download PDFInfo
- Publication number
- KR20080110064A KR20080110064A KR1020070058358A KR20070058358A KR20080110064A KR 20080110064 A KR20080110064 A KR 20080110064A KR 1020070058358 A KR1020070058358 A KR 1020070058358A KR 20070058358 A KR20070058358 A KR 20070058358A KR 20080110064 A KR20080110064 A KR 20080110064A
- Authority
- KR
- South Korea
- Prior art keywords
- image file
- value
- skin color
- lewdness
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
도 1 내지 도 3 은 본 발명 음란성 이미지의 판별 방법의 플로우챠트,1 to 3 are flowcharts of a method for determining an obscene image of the present invention;
도 4 및 도 5 는 본 발명의 피부색 비율값에 따른 분류값 계산 방법의 개념도,4 and 5 is a conceptual diagram of the classification value calculation method according to the skin color ratio value of the present invention,
도 6 은 본 발명 음란성 이미지의 판별 장치의 구성도,6 is a configuration diagram of an apparatus for discriminating obscene images of the present invention;
도 7 은 본 발명 음란선 이미지의 판별 장치의 분류부의 다른 실시예의 구성도이다. 7 is a configuration diagram of another embodiment of the classification unit of the apparatus for determining an obscene line image of the present invention.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
10; 본 발명 음란성 판별 장치10; The present invention obscene determination device
100; 서버 110; 데이터베이스100;
200; 입력부 210; 이미지 프레임 추출부200; An input unit 210; Image Frame Extractor
300; 피부색 비율 판단부 310; 얼굴 감지 모듈300; Skin color
320; 피부색 계산 모듈 320; Skin color calculation module
400; 분류부 410; 피부색 기반 분류값계산모듈400; Classification unit 410; Skin color-based classification value calculation module
420; 주제 기반 분류값계산모듈 420; Topic Based Classification Value Calculation Module
430; 평균값 산출모듈 430; Average value calculation module
500; 음란성 레벨 판단부 510; 음란성 수준치 판단 모듈500; Obscene level determination unit 510; Obscene Level Determination Module
520; 음란성 레벨 부여 모듈 520; Obscene Leveling Module
600; 최종 음란성 판단부600; Final lewd judgment
본 발명은 음란성 이미지의 판별 방법과 그 장치에 관한 것으로서, 보다 상세하게는, 서버와 연동된 데이터베이스에 저장되거나 이에 저장될 예정인 이미지 파일 또는 동영상 파일의 피부색을 추출하여 그 비율값을 계산하고, 이미지 파일의 특징값을 기반으로 하는 기계학습 기법을 이용하여 상기 이미지 파일의 음란성 여부를 나타내는 분류값을 계산하고, 상기 피부색의 비율값과 상기 음란성 분류값에 기초하여 상기 이미지 파일의 음란성 레벨을 부여한 다음 기설정된 음란성 판단 기준에 따라서 상기 음란성 레벨이 부여된 이미지 파일의 음란성 여부를 최종 판단하는 것을 특징으로 하는 음란성 이미지의 판별 방법과 그 장치에 관한 것이다.The present invention relates to a method for determining an obscene image and an apparatus thereof, and more particularly, to extract a skin color of an image file or a video file stored in or to be stored in a database linked with a server, and to calculate a ratio value of the image. Using a machine learning method based on the feature values of the file, a classification value indicating whether the image file is obscene is calculated, and the level of obsceneness of the image file is given based on the ratio of the skin color and the obscene classification value. The present invention relates to a method for determining an obscene image and a device, characterized in that final determining whether or not the image file to which the obscurity level has been assigned is in accordance with predetermined criteria for determining obsceneness.
최근 인터넷의 빠른 보급에 힘입어 많은 사람들은 세계 어느 곳에서든 인터넷에 쉽게 접근하여 이를 이용할 수 있게 되었다. 이러한 인터넷의 범용화에 따라서 인터넷 사용자들은 자신에게 필요한 정보를 인터넷으로부터 용이하게 얻을 수 있는 반면, 정보의 급속한 확산력과 익명성으로 대변되는 인터넷의 특성으로 말미암아 많은 사회적 문제점을 야기하는 것도 사실이다.The recent rapid spread of the Internet has made it easier for many people to access and use the Internet from anywhere in the world. According to this generalization of the Internet, Internet users can easily obtain the information they need from the Internet, but it also causes many social problems due to the characteristics of the Internet represented by the rapid spreading and anonymity of information.
이러한 문제점중 특히, 인터넷으로 인한 대표적인 문제점으로 지적되고 있는 분야가 바로 인터넷을 매개로하는 음란성 정보의 확산이다. 인터넷 상에 무수히 존재하는 음란물 제공 사이트, P2P 사이트와 같은 웹 사이트에 접속함으로써 상업적 누드 사진과 같은 음란성 이미지 파일 및 포르노, 하드코어, 몰래카메라와 같은 음란성 동영상 파일들을 별도의 성인 인증 없이 손쉽게 다운로드 받을 수 있는 실정이며, 이러한 음란물은 성인의 정신 건강에 해악을 끼치며 사회적으로 불건전한 성문화를 부추기는 것은 물론, 특히 성장기에 있는 청소년들에게 왜곡된 성의식를 조장하는 역기능을 초래하고 있다.Among these problems, the field that has been pointed out as a representative problem due to the Internet is the spread of obscene information through the Internet. You can easily download pornographic image files such as commercial nude photos and pornographic video files such as porn, hardcore, and sneak shots by accessing web sites such as pornography sites and P2P sites that exist on the Internet. Indeed, such pornography harms the mental health of adults and encourages socially unhealthy sex cultures, as well as dysfunctional sexual disabilities, especially in the growing youth.
상기와 같이 많은 문제점을 내포하고 있는 인터넷상의 음란물 중 특히 음란성 이미지 파일이나 동영상 파일을 차단하는 방법으로서, 대한민국 특허공개공보 제 10-2006-1830 호에 개시된 바와 같이 이미지 파일이나 동영상 파일의 정지 화면 파일에서 사람의 피부색 정보를 파악하여 피부색이 화면에 얼마만큼의 비율을 차지하는지를 판독하여 그 비율에 따라서 음란성 이미지 파일을 차단하는 기술이 공지된 바 있다.As a method of blocking sexually explicit image files or video files among pornographic material on the Internet which includes many problems as described above, a still picture file of an image file or a video file as disclosed in Korean Patent Laid-Open No. 10-2006-1830 The technique of grasping the skin color information of a person to read how much the skin color occupies on the screen and blocks obscene image files according to the ratio has been known.
그러나, 상기와 같이 사람의 피부색 정보만을 파악하여 음란성 이미지 파일을 판단하는 방법은 얼굴 영역이 대부분인 사진, 사람이 입고 있는 옷이 피부색을 포함하는 사진, 사람이 포함되어 있지는 않으나 피부색을 포함하는 사진 등을 정확하게 판독할 수 없는 문제점이 있어, 대한민국 특허공개공보 제 10-2006-28853 호에 개시된 바와 같이, 이미지의 음란성 판단시 피부 영역에서 피부색이 임계치 이상 존재하는지 여부를 판단한 다음, 피부색이 임계치 이하인 경우에는 음란성이 없는 것으로 판단하고, 피부색이 임계치 이상 존재할 경우에만 피부색 정보와 외형 정보를 포함하는 특징 벡터(feature vector)를 추출하고 이를 SVM(Support Vector Machine) 판별자로 활용하여 SVM 학습 모델과 비교하고 SVM 학습 모델을 통하여 분류된 이미지가 기설정된 특정 분류의 이미지에 해당하면 해당 이미지를 음란성 이미지로 판단하는 기술이 소개되어 있다.However, as described above, the method of determining a lewd image file by identifying only the skin color information of a person includes a photo of a face area, a photo of a person's clothes including a skin color, a photo not including a person but a skin color. There is a problem that cannot be read accurately, as disclosed in Korean Patent Publication No. 10-2006-28853, when determining whether the skin color is present in the skin region or more than the threshold value when determining the lewdness of the image, and then the skin color is below the threshold value It is determined that there is no lewdness, and extracts a feature vector containing skin color information and appearance information only when the skin color exists above a threshold value, and utilizes it as a support vector machine (SVM) discriminator to compare it with the SVM learning model. The images classified through the learning model can If that whether there is a technique for determining the image to sexually explicit images is introduced.
그러나, 상기와 같은 방법은 피부색이 음란물로 여겨지는 임계치 이상으로 존재할 경우에만 이를 음란물로 추정하고 그 다음 단계인 SVM 을 이용한 음란물의 분류를 수행하기 때문에, 상술한 바와 같이 피부색 만으로는 음란성 이미지 파일로 정확하게 인식할 수 없는 문제점을 여전히 내포하고 있어 음란성 이미지를 판별하는 정확성이 떨어지는 문제점이 있었다.However, the above method estimates this only as pornography when the skin color exists above the threshold considered to be pornography, and performs the classification of pornography using the next step SVM. There is still a problem that can not be recognized, there is a problem that the accuracy of discriminating obscene images is inferior.
본 발명은 상기와 같은 종래의 제반 문제점을 해소하기 위하여 창안된 것으로서, 음란성 이미지 파일과 동영상 파일의 음란성 여부의 판단을 피부색 판단 방법과 SVM 과 같은 기계 학습 방법을 이용하는 음란성 이미지의 분류 방법을 종합하여 판단하도록 함으로써 음란성 이미지 및 동영상 파일의 판별을 보다 정확하게 수행하는 음란성 이미지 판별 방법과 그 장치를 제공하는데 기술적 과제가 있다. The present invention was devised to solve the above-mentioned problems. The present invention is a method for determining whether or not pornographic image files and video files are indecent, by combining skin color determination methods and classification methods of pornographic images using machine learning methods such as SVM. There is a technical problem to provide a method and apparatus for determining an obscene image that can more accurately discriminate between obscene images and moving image files.
상기와 같은 목적을 달성하기 위한 본 발명 음란성 이미지 파일의 판별방법은, 이미지 파일로부터 피부색을 추출하여 그 비율값을 계산하는 단계와, 상기 이미지 파일의 특징값을 기반으로 하는 기계학습 기법을 이용하여 이미지 파일에 대한 음란성 여부를 나타내는 음란성 분류값을 계산하는 단계와, 상기 피부색의 비율 값과 상기 음란성 분류값에 기초하여 상기 이미지 파일의 음란성 레벨을 부여하는 단계와, 음란성 레벨에 기초하여 기설정된 음란성 판단 기준에 따라서 상기 음란성 레벨이 부여된 이미지 파일의 음란성 여부를 최종 판단하는 단계를 포함하여 구성되는 것을 특징으로 한다. In order to achieve the above object, the present invention provides a method for discriminating obscene image files, by extracting skin color from an image file, calculating a ratio value thereof, and using a machine learning technique based on feature values of the image file. Calculating a lewdness classification value indicating whether or not the lewdness is an image file, giving a lewdness level of the image file based on the ratio value of the skin color and the lewdness classification value, and setting a lewdness based on the lewdness level And finally determining whether or not the image file to which the lewdness level has been given has been determined according to the criterion.
또한, 본 발명 음란성 이미지 파일의 판별 장치는, 서버와 연동된 데이터베이스에 저장되거나 이에 저장될 예정인 이미지 파일 또는 동영상 파일의 음란성 여부를 판별하는 장치에 있어서, 상기 서버로부터 적어도 1 개의 이미지 파일을 순차적으로 입력받는 입력부와, 상기 입력부에 입력된 이미지 파일로부터 피부색을 추출하여 그 비율값을 계산하는 피부색 비율 판단부와, 상기 이미지 파일 입력부로 입력된 이미지 파일의 특징값을 기반으로 하는 기계학습 기법을 이용하여 상기 이미지 파일의 음란성 여부를 나타내는 분류값을 계산하는 분류부와, 상기 피부색 비율 판독부가 계산한 피부색의 비율값과 상기 분류부가 계산한 분류값에 기초하여 상기 이미지 파일의 음란성 레벨을 부여하는 음란성 레벨 판단부와, 음란성 레벨에 기초하여 기설정된 음란성 판단 기준에 따라서 상기 음란성 레벨이 부여된 이미지 파일의 음란성 여부를 판단하여 그 판단 결과의 정보를 상기 서버에 전달하는 최종 음란성 판단부를 포함하여 구성되는 특징으로 한다.In addition, the apparatus for determining an obscene image file of the present invention is an apparatus for determining whether an image file or a video file which is to be stored in a database linked to a server or to be stored therein is at least one image file sequentially from the server. Using an input unit for input, a skin color ratio determination unit for extracting the skin color from the image file input to the input unit and calculating the ratio value, and a machine learning method based on feature values of the image file input to the image file input unit A classification unit for calculating a classification value indicating whether or not the image file is obscene, and a lewdness for granting an obscene level of the image file based on the ratio value of the skin color calculated by the skin color ratio reading unit and the classification value calculated by the classification unit. A level determining unit and a predetermined level based on the lewdness level And a final lewdness determining unit for determining whether or not the image file to which the lewdness level has been assigned is determined according to the lewdness criterion and delivering information of the determination result to the server.
이하, 첨부 도면에 의거하여 본 발명의 바람직한 실시예의 구성을 상세하게 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, the structure of the preferable embodiment of this invention is demonstrated in detail based on an accompanying drawing.
도 1 은 본 발명 음란성 이미지의 판별 방법의 플로우챠트이다.1 is a flowchart of a method for determining an obscene image of the present invention.
먼저, 본 발명에서 언급되는 이미지 파일은 JPG, BMP, TIF 등의 확장자를 가지는 전자 파일을 가리키며, 판별하려고 하는 대상이 AVI, MPG 등의 확장자를 가지는 동영상일 경우에는 동영상에서 정지 영상을 추출한 이미지 프레임이 판별 대상의 이미지 파일이 된다.First, an image file referred to in the present invention refers to an electronic file having an extension of JPG, BMP, TIF, etc., and an image frame from which a still image is extracted from a moving image when the target object is a moving image having an extension of AVI, MPG, etc. It becomes an image file of this determination object.
본 발명 실시예에 의한 음란성 이미지의 판별 방법은 먼저, 음란성의 여부를 판별하려고 하는 대상 이미지 파일로부터 피부색을 추출하여 피부색의 비율값을 계산하는 단계(단계 S 101)로부터 시작된다.The method for discriminating obscene images according to an embodiment of the present invention first begins by extracting a skin color from a target image file to determine whether it is obscene and calculating a ratio value of the skin color (step S 101).
구체적으로 상기 S 101 단계는 도 2 에 도시된 바와 같이 상기 이미지 파일로부터 얼굴 부분 영역을 감지하고(단계 S 201), 감지된 얼굴 부분 영역을 전체 이미지 영역으로부터 제외한 다음(단계 S 202), 상기 감지된 얼굴 부분 영역을 제외한 전체 이미지 영역에서 피부색의 비율값을 계산하는(단계 S 203) 단계를 포함하여 구성된다.Specifically, in step S 101, as illustrated in FIG. 2, a face partial region is detected from the image file (step S 201), the detected face partial region is excluded from the entire image region (step S 202), and the detection is performed. And calculating a ratio value of the skin color in the entire image area except the face partial area (step S203).
여기서, 상기 대상 이미지 파일로부터 피부색을 추출하는 방법에는 전술한 대한민국 특허공개공보 제 10-2006-28853 호에 개시된 방법과 같이 공지된 추출 방법을 사용하면 되나, 본 발명 실시예에서는 다음과 같은 방법들이 채용 가능하며, 이들을 개조식으로 상세하게 설명하면 다음과 같다.Herein, a method of extracting skin color from the target image file may be a known extraction method such as the method disclosed in the above-mentioned Korean Patent Publication No. 10-2006-28853. However, in the embodiments of the present invention, the following methods It is possible to employ, and when described in detail in a modified form as follows.
1) RGB 색상 공간 이용 방법 1 (RGB Colorspace 1)1) How to use RGB color space 1 (RGB Colorspace 1)
상기 방법은 피부색을 분류하기 위한 한 가지 방법으로서 몇몇의 색상 공간(Colorspace) 안에서 명시적으로 피부색에 대한 경계(boundary)값을 설정하는 방 법이다. 예를 들어, RGB(Red, Green, Blue)로 이루어진 컬러 공간에서는 다음과 같은 조건식에 의해서 피부색을 분류할 수 있다.This method is a method for classifying the skin color, which is to set the boundary value for the skin color explicitly in several color spaces. For example, in the color space consisting of RGB (Red, Green, Blue), the skin color may be classified by the following conditional expression.
R>95 and G > 40 and B > 20 and (1)R> 95 and G> 40 and B> 20 and (1)
max{R,G,B} - min{R,G,B} > 15 and (2)max {R, G, B}-min {R, G, B}> 15 and (2)
|R-G|>15 and R>G and R>B (3) R-G | 15 and R> G and R> B (3)
(1) Red 값이 95보다 크고, Green 값이 40보다 크며, Blue 값이 20보다 커야 한다.(1) Red should be greater than 95, Green should be greater than 40, and Blue should be greater than 20.
(2) Red, Green, Blue 값 중에서 각각 최대값과 최소값을 구한다. 그리고, 최대값에서 최소값을 빼준 결과가 15보다 커야 한다.(2) Obtain the maximum and minimum values among red, green, and blue values, respectively. And, the result of subtracting the minimum value from the maximum value should be greater than 15.
(3) Red 값에서 Green 값을 빼준 값에 절대값을 취하고, 그 값이 15보다 커야 하고 Red값이 Green 값 보다 커야 하며 Red 값이 Blue 값 보다 커야 한다.(3) The absolute value should be taken from the red value minus the green value, the value must be greater than 15, the red value must be greater than the green value, and the red value must be greater than the blue value.
2) RGB 색상 공간 이용 방법 2 (RGB Colorspace 2)2) How to use RGB color space 2 (RGB Colorspace 2)
R / G > 1.05R / G> 1.05
상기 방법은 Red 값을 Green 값으로 나눈 값이 1.05 보다 큰 경우 피부색으로 분류하는 방법이다.The method is to classify the skin color when the value of Red divided by the value of Green is greater than 1.05.
3) 디지털 휘도신호와 색차신호(YCbCr) 색상 공간 이용 방법 (YCbCr Colorspace)3) How to use digital luminance signal and color difference signal (YCbCr) color space (YCbCr Colorspace)
77≤Cb≤127 and 133≤Cr≤17377≤Cb≤127 and 133≤Cr≤173
YCbCr 컬러 공간에서의 색차신호 중 하나인 Cb값이 77과 같거나 크고 127과 같거나 작고, 색차신호 중 하나인 Cr값이 133과 같거나 크고 173과 같거나 작은 경우 피부색으로 분류하는 방법이다.When the Cb value, one of the color difference signals in the YCbCr color space, is equal to or greater than 77 and equal to or less than 127, and the Cr value, which is one of the color difference signals, is equal to, greater than or equal to 133, and equal to or less than 173, it is classified as skin color.
4) 에이치에스(HS) 색상 공간 이용 방법 (HS Colorspace)4) How to use HS Colorspace
0.23≤S≤0.68 and 0≤H≤500.23≤S≤0.68 and 0≤H≤50
S(Saturation, 채도) 값이 0.23과 같거나 크고 0.68과 같거나 작고, H(Hue, 색조) 값이 0과 같거나 크고 50과 같거나 작은 경우 피부색으로 분류하는 방법이다.If the S (saturation) value is greater than or equal to 0.23 and greater than or equal to 0.68, and the H (Hue, hue) value is greater than or equal to 0 and greater than or equal to 50, it is classified as skin color.
본 발명 실시예에서는 전체 이미지 파일에서 차지하는 피부색의 비율값을 0 내지 1 사이의 값으로 계산한다.In the embodiment of the present invention, the ratio of skin color to the entire image file is calculated as a value between 0 and 1.
다음으로, 상기와 같이 이미지 파일의 피부색의 비율값의 계산이 종료되면, 상기 이미지 파일의 특징값을 기반으로 하는 기계학습 기법을 이용하여 이미지 파일에 대한 음란성 여부를 나타내는 음란성 분류값을 계산한다(단계 S 102).Next, when the calculation of the skin color ratio value of the image file is completed as described above, the obscene classification value indicating whether the image file is obscene is calculated using a machine learning technique based on the feature value of the image file ( Step S 102).
상기와 같이 이미지 파일의 음란성 여부를 판단하는 방법으로서, 전술한 대한민국 특허공개공보 제 10-2006-28853 호에 공지된 바와 같은 SVM(Support Vector Machine)을 이용하는 기계 학습 방법이 본 발명에 이용 가능하다.As a method of determining whether the image file is obscene, as described above, a machine learning method using SVM (Support Vector Machine) as known in the above-mentioned Korean Patent Publication No. 10-2006-28853 can be used in the present invention. .
상기 SVM(Support Vector Machine)이란 주로 영상 인식 분야에서 사용되는 기계 학습 방법 중에 하나로서, 이미지를 이루고 있는 색깔(color), 모서리(edge), 윤곽선(shape) 등의 특징적 요소를 이미지로부터 추출하여 이를 수학적인 함수로서 표현하고, 이 함수를 컴퓨터 등의 장치를 통하여 수천번 내지 수만번을 반복 실행되도록 함으로써, 이 함수를 실행하는 컴퓨터 등의 장치가 기계적인 반복 학습을 통한 훈련을 통하여 자동적으로 이미지의 형태를 분석하고 파악하도록 하는 기계 학습 방법론이다.The SVM (Support Vector Machine) is one of the machine learning methods mainly used in the field of image recognition, and extracts characteristic elements such as color, edge, and shape from the image. Expressed as a mathematical function, this function is repeatedly executed thousands of times to tens of thousands of times through a device such as a computer, so that a device such as a computer that executes this function automatically performs image training through training through mechanical repetitive learning. Machine learning methodology to analyze and grasp shapes.
예를 들어, 상기 SVM 을 이용한 기계 학습 방법은 카메라로 입력되는 얼굴의 영상을 인식하는 얼굴 인식 분야에서 많이 활용되고 있는데, 카메라로 입력되는 영상을 분석해서 사람의 얼굴로 추정되는 영역으로부터 얼굴 윤곽선을 검출하고 눈을 중심으로 코와 입술 등의 위치를 지정해서 정상적인 사람의 얼굴인지를 확인하는 얼굴 인식의 과정에서 사람의 얼굴 형상을 추출할 때 이러한 SVM 분석 방법론이 이용된다. For example, the machine learning method using the SVM is widely used in the field of face recognition for recognizing an image of a face input by a camera. The face contour is extracted from an area estimated as a human face by analyzing the image input by the camera. This SVM analysis methodology is used to extract the shape of a human face in the process of face recognition, which detects and identifies the normal human face by positioning the nose and lips around the eye.
또한, 상기 SVM 이외에 본 발명 음란성 이미지 파일의 분류에 사용될 수 있는 기계학습 방법으로서, 에이디에이 부스트(ADA Boost) 알고리즘, 바이에시안 네트워크(Bayesian Network), 뉴럴 네트워크(Neural Network) 등의 공지된 기계학습 방법이 사용될 수 있다.In addition, as a machine learning method that can be used for classifying the obscene image files of the present invention in addition to the SVM, a known machine such as ADA Boost algorithm, Bayesian Network, Neural Network, etc. Learning methods can be used.
본 발명 실시예는 상기 SVM 을 이용한 기계학습 방법을 이용하여 음란성이 있는 것으로 판단되는 이미지 파일들을 분류하였으며, 구체적으로는, 이미지 파일이 가지고 있는 색깔(color), 이미지를 이루고 있는 각 영역들의 모서리(edge), 이미지를 이루고 있는 각 영역들의 윤곽선(shape) 등의 특징적 요소의 정보를 포함하는 특징 벡터(feature vector)를 이미지로부터 추출하고 SVM 판별자로 활용하여 SVM 학습 모델과 비교하고, SVM 학습 모델을 통하여 분류된 이미지가 기설정된 특정 분류의 이미지에 해당하면 해당 이미지를 음란성 이미지로 판단하여 음란성 분류값을 부여한다. The embodiment of the present invention classifies the image files determined to be indecent by using the machine learning method using the SVM, and specifically, the color of the image file and the corners of each region constituting the image. feature vector containing information of characteristic elements such as edges and contours of the regions forming the image from the image and using it as an SVM discriminator to compare with the SVM learning model, and to compare the SVM learning model. If an image classified through the image corresponds to an image of a predetermined specific classification, the corresponding image is determined to be an indecent image and a constellation classification value is assigned.
이때, 본 발명 실시예는 음란성이 있는 이미지 파일은 상기 음란성 분류값을 1 로 부여하고, 음란성이 없는 이미지 파일은 상기 음란성 분류값을 0 으로 부여한다.At this time, in the embodiment of the present invention, the obscene image file is assigned with the obscene classification value to 1, and the obscene image file is assigned with the obscene classification value as 0.
또한, 본 발명 실시예에서는 상기 SVM 분석 방법에 다음과 같은 함수를 이용하여 컴퓨터 등의 장치를 통하여 반복 실행시킴으로써, 컴퓨터 등의 장치가 기계적인 반복 학습을 통한 훈련을 통하여 자동적으로 이미지 파일의 형태를 분석하고 파악하도록 하였다. 함수의 구체적인 내용은 다음과 같다. In the embodiment of the present invention, the SVM analysis method is repeatedly executed through a device such as a computer by using the following function, so that a device such as a computer automatically forms a form of an image file through training through mechanical repetitive learning. Analyze and grasp. Details about the function are as follows:
상기 수학식 1 에서 w 와 b 는 분류 경계(Hyper plane)의 파라미터들이고, f(x)의 값은 ±1 을 가진다.In
다만, 입력 백터(Input Vector)들은 항상 선형적(Linearly separable)이 아니므로 이를 위하여 SVM 는 낮은 차원의 입력 벡터 공간을 높은 차원으로 확장하기 위하여 매핑(Mapping) 함수(Φ)를 이용하고, 그 후 서포트 벡터(Support Vector)를 이용하여 최대한의 마진(Margin)을 찾아 분류한다. 이때, 다양한 종류의 커널(Kernel) 함수들을 적용한다. However, since input vectors are not always linearly separable, SVM uses a mapping function (Φ) to extend the low-dimensional input vector space to higher dimensions. Find and classify the maximum margin using the Support Vector. In this case, various kinds of kernel functions are applied.
상기 수학식 2 에서 커널(Kernel) 함수는 리니어(Linear), 알비에프(RBF) 등을 적용한다.In Equation 2, the Kernel function applies Linear, RBF, and the like.
상기 수학식 2 에서 커널(Kernel) 함수는 상기 수학식 3 과 같이 순서대로 가우션 알비에프(Gaussian RBF), 시그모이드(Sigmoid), 다항식(Polynomial) 커널(Kernel) 등이 있으며, 본 발명에서는 선형 분류(Linear)와 비선형 분류에 있어서는 가우션 알비에프 커널(Gaussian RBF Kernel)등을 적용한다. 그리고, 수학식 3 는 판별 함수로써 주어진 벡터에 대한 클래스를 예측하게 된다.The Kernel function in Equation 2 includes a Gaussian RBF, Sigmoid, Polynomial Kernel, etc. in the order as in Equation 3, For linear and nonlinear classification, Gaussian RBF Kernel is applied. Equation 3 predicts a class for a given vector as a discriminant function.
그리고, 기계 학습(Machine Learning) 기법의 학습 형태는 크게 2가지로 나눌 수 있는데, 교사 학습(Supervised Learning)과 비교사 학습(Unsupervised Learning) 기법이 이에 해당된다. SVM은 교사 학습(Supervised Learning) 기법의 한 종류로써 교사 학습 기법은 훈련(Training)과 예측(Prediction)의 2단계를 거쳐 주어진 벡터에 대해서 클래스를 예측하게 된다. 반면에 비 교사 학습 기법은 훈련 단계가 필요 없고 벡터 값만을 이용하여 특정 알고리즘에 의해서 클래스를 판별하는 기법을 말한다.In addition, there are two types of learning methods of machine learning, which are teacher learning (Supervised Learning) and nonsupervised learning (Unsupervised Learning). SVM is a kind of supervised learning technique. The teacher learning technique predicts a class for a given vector through two stages of training and prediction. On the other hand, the non-teacher learning technique does not require a training step and uses a vector value to identify a class by a specific algorithm.
SVM의 첫 번째 단계인 훈련(Training) 단계에서는 상기 수학식 4 와 같은 형태의 벡터 집합이 SVM의 입력값으로 사용되어진다.In the training stage, which is the first stage of the SVM, a vector set in the form of Equation 4 is used as an input value of the SVM.
상기 수학식 5 가 의미하는 바는 이미지 등의 데이터에 대해서 별도의 벡터 추출 알고리즘을 거쳐서 벡터 값(Xv)을 추출하고, 그 벡터 값에 사용자가 클래스(y)를 명시한 것을 말한다. 즉 어떠한 벡터 값에 대해서 미리 분류시켜 놓은 벡터 집합을 SVM에 입력하게 되면, 주어진 벡터 집합은 n차원 상에 놓이게 된다. 그런 후에 SVM 분류기는 서로 다른 클래스에 속해있는 n 차원 상의 벡터들 사이에 분류 경계면(hyperplane)을 설정하고 최대 마진을 구하면 주어진 입력 벡터 집합에 대한 분류 모델이 생성된다. 이 과정까지 거치게 되면 훈련 단계는 종료된다.Equation 5 means that the vector value X v is extracted through a separate vector extraction algorithm for data such as an image, and the user specifies a class y in the vector value. That is, when a vector set pre-sorted for any vector value is inputted to the SVM, the given vector set is placed on n dimensions. Then, the SVM classifier sets up a classification plane (hyperplane) between n-dimensional vectors belonging to different classes and obtains a maximum margin to generate a classification model for a given set of input vectors. After this process, the training phase ends.
SVM의 두 번째 단계인 예측(Prediction) 단계에서는 훈련 단계에서 생성된 모델을 이용한다. 예측 단계에서도 수학식 5 와 같은 입력 벡터가 주어진다. 다만, 이 입력벡터는 훈련 단계에서 사용되지 않은 새로운 것이어야 한다. 예측 단계에서는 훈련 단계에서 생성된 모델을 이용하여 새로운 입력 벡터에 대해서 클래스를 예측하게 된다. 그리고, 다음과 같은 수학식 6 의 결정함수를 정의한다.In the second stage of the SVM, the prediction stage, the model generated in the training stage is used. In the prediction step, an input vector such as Equation 5 is given. However, this input vector must be new and not used in the training phase. In the prediction phase, the class is predicted for the new input vector using the model generated in the training phase. Then, the following decision function is defined.
상술한 바와 같이 S 101 및 S 102 단계를 거쳐서 이미지 파일의 피부색의 비율값과 음란성 분류값이 계산되면, 이 두값에 기초하여 상기 이미지 파일의 음란성 레벨을 부여한다(단계 S 103).As described above, when the ratio of skin color and the obscene classification value of the image file are calculated through the steps S 101 and
상기 음란성 레벨을 부여하는 단계는 본 발명이 종래 기술들과 비교되는 특징적인 부분으로서, 종래 기술들이 피부색만 가지고 음란성 이미지를 판별하거나 피부색을 판단하여 피부색이 임계치 이상 존재할 경우에만 그 다음 과정인 이미지의 분류 과정을 거치도록 하므로, 만일 피부색과 관련한 판단이 잘못됐을 경우 음란성 여부를 판단하는 분류 과정을 거치지 않고 곧바로 비음란성 이미지로 분류하는 문제점이 있어 판별력이 저하되는 문제점이 있는 반면, 본 발명은 피부색의 비율값과 음란성 분류값의 두 값을 모두 구한 다음, 이 값들을 종합하여 음란한 정도를 나타내는 음란성 레벨을 부여하므로, 설령 피부색과 관련한 판단이 잘못되었다 하더라도 해당 이미지 파일을 곧바로 비음란성으로 판별하지 않고, 여기에 음란성 분류값을 추가적으로 참조하여 최종 판단하게 함으로써, 음란성 이미지의 판별력을 보다 향상시킬 수 있게 되었다.The step of assigning the level of obsceneness is a characteristic part of the present invention compared to the prior arts, and the prior art determines only the skin color with the skin color or judges the skin color only when the skin color is greater than or equal to the threshold value of the next process of the image. Since the classification process is performed, if the judgment regarding the skin color is wrong, there is a problem of classifying the non-negative image immediately without going through the classification process of determining whether it is indecent. Since both values of ratio and obscene classification are obtained, these values are combined to give an obscene level indicating the degree of obsceneness. Therefore, even if the judgment regarding the color of skin is wrong, the image file is not immediately determined to be non-pervasive. , Add the obscene classification By making the final judgment with reference, it is possible to further improve the discriminating power of the obscene image.
상기 이미지 파일의 피부색의 비율값과 음란성 분류값에 기초하여 상기 이미지 파일의 음란성 레벨을 부여하는 단계는 구체적으로 도 3 에 도시된 바와 같은 단계들을 포함하고 있다. 즉, 피부색의 비율값의 전체 구간을 기설정된 비율값의 구간에 따라서 적어도 2 개 이상의 비율값의 구간으로 나누고(단계 S 301), 상기 피부색 비율값에 따라서 이미지 파일이 상기 비율값의 구간중 어느 구간에 속하는지 판단한다(단계 S 302). 그리고, 상기 이미지 파일의 음란성 분류값에 따라서 해당 이미지 파일의 음란성 수준치를 나타내는 음란성 레벨을 부여한다(단계 S 303). 위의 S 301 내지 S 303 의 단계를 표로서 정리하여 나타내면 다음과 같다.The step of assigning the lewdness level of the image file based on the ratio value of the skin color of the image file and the lewdness classification value specifically includes the steps as shown in FIG. 3. That is, the entire section of the skin color ratio value is divided into at least two or more ratio value sections according to the preset ratio value section (step S 301), and the image file according to the skin color ratio value is any of the sections of the ratio value. It is determined whether it belongs to the section (step S302). In accordance with the lewdness classification value of the image file, a lewdness level representing the lewdness level value of the corresponding image file is assigned (step S303). The steps of
* x : 피부색 비율값* x: Skin color ratio value
n : 피부색 비율값의 구간 갯수 n: number of sections of skin color ratio value
θ : 비부색 비율값의 설정구간 θ: Setting section of non-color ratio
예를 들어, 피부색 비율값의 전체 구간을 2 개로 나눈다고 가정하면, 피부색 비율값의 구간 갯수(n)는 2 가 되며, 전체 레벨 갯수는 n+2 이므로 음란성 레벨의 전체 갯수는 4 가 된다. 또한, 피부색 비율값의 전체 구간중 제 1 구간은 θ(1)을 0.49, θ(2)를 1.00 으로 설정하여 2 개로 나누면 아래와 같은 표가 성립된다. 편의상 상기 피부색 비율값을 백분율로 환산하여 나타낸다.For example, assuming that the entire interval of the skin color ratio value is divided into two, the number n of the skin color ratio values is 2, and the total number of the obscene levels is 4 since the total number of levels is n + 2. In the first section of the skin color ratio, the table below is established by dividing the first section into two by setting θ (1) to 0.49 and θ (2) to 1.00. For the sake of convenience, the skin color percentage value is expressed as a percentage.
즉, 이미지 파일에서 백분율로 환산한 피부색 비율값이 0% 이상 내지 49% 미만일 경우에는 해당 음란성 분류값에 따라서 레벨 1 또는 레벨 3 의 음란성 수준치를 나타내는 음란성 레벨값이 부여되며, 백분율로 환산한 피부색 비율값이 49% 이상 내지 100% 이하인 경우에는 해당 음란성 분류값에 따라서 레벨 2 또는 레벨 4 의 음란성 레벨값이 부여된다.In other words, if the skin color percentage value in the image file is in the range of 0% or more and less than 49%, the obscene level
따라서, 상기와 같이 부여된 레벨값은 종래 음란성이 있는가 없는가만을 판단하던 단순한 방법에서 벗어나 부여된 음란성 레벨값에 따라서 음란성의 유무를 판단하게 되므로, 음란성 판별 수준을 높게 적용하면 레벨 2 내지 4 에 해당하는 이미지 파일을 음란성이 있는 것으로 판단하여도 되고, 그 수준을 다소 낮게 적용하면 레벨 3 및/또는 레벨 4 에 해당하는 이미지 파일만 음란성이 있는 것으로 판단하여도 된다. 즉, 상기와 같이 부여된 음란성 레벨에 기초하여 기설정된 음란성 판단 기준에 따라서 상기 음란성 레벨이 부여된 이미지 파일의 음란성 여부를 최종 판단한다(단계 104).Therefore, since the level value provided as described above is determined from the simple method of judging whether or not there is obsceneness in the related art, the presence or absence of indecentness is judged according to the implied level level. The corresponding image file may be determined to be indecent, or if the level is applied somewhat lower, only the image file corresponding to level 3 and / or level 4 may be determined to be obscene. In other words, based on the conspicuousness criteria set as described above, a final determination is made on whether or not the image file to which the conspicuous level has been assigned is obscene according to a predetermined conspicuous criterion (step 104).
한편, 상술한 이미지 파일의 특징값을 기반으로 하는 기계학습 기법을 이용하여 이미지 파일에 대한 음란성 여부를 나타내는 음란성 분류값을 계산하는 과정(단계 S 102)을 보다 구체적으로 설명하면 다음과 같다.On the other hand, a process (step S 102) of calculating the obscene classification value indicating whether the image file is obscene using the machine learning method based on the feature value of the image file described above in more detail as follows.
첫째, 이미지 파일의 피부색 비율값에 따라서 음란성 분류값을 계산하는 방법으로서, 도 4 의 본 발명의 피부색 비율값에 따른 분류값 계산 방법의 개념도에 도시된 바와 같이, 피부색 비율값의 전체 구간을 기설정된 피부색 비율값의 구간에 따라서 적어도 2 개 이상의 구간으로 나누고, 상기 S 101 단계에서 계산된 해당 이미지 파일의 피부색 비율값에 기초하여 해당 이미지 파일이 상기 나뉘어진 피부색 비율값의 구간중 어느 구간에 속하는지 판단하고, 해당 이미지 파일이 속하는 구간별로 기계학습 기법을 각각 이용하여 해당 이미지 파일의 음란성 분류값을 계산하는 방법이다.First, as a method of calculating the obscene classification value according to the skin color ratio value of the image file, as shown in the conceptual diagram of the classification value calculation method according to the skin color ratio value of the present invention of FIG. The image file is divided into at least two sections according to the set skin color ratio values, and the image file belongs to any of the sections of the divided skin color ratio values based on the skin color ratio value of the image file calculated in step S 101. It is a method of calculating the lewdness classification value of the image file by using a machine learning technique for each section to which the image file belongs.
예를 들어, 피부색 비율값을 기설정된 피부색비율값(R)의 구간(편의상 백분율값)에 따라서 3 개의 구간, 즉, 0%≤ R < 33% (제 1 구간)과, 33%≤ R < 66% (제 2 구간)과, 66%≤ R ≤ 100% (제 3 구간)으로 나누어져 있고, 이미지 파일들의 각각의 피부색 비율값(R)이 각각 R1=24%, R2=56%, R3=92% 라고 가정할 때, 피부색 비율값이 R1 인 이미지 파일은 제 1 구간에 속하게 되고, 제 1 구간에 따른 기계학습 기법을 이용하여 피부색 비율값이 R1 인 이미지 파일의 음란성 분류값을 계산한다.본 발명 실시예의 경우, 음란성이 있는 이미지 파일은 상기 음란성 분류값을 1 로 계산하고, 음란성이 없는 이미지 파일은 상기 음란성 분류값을 0 으로 계산한다.For example, the skin color ratio value may be divided into three sections according to the interval (conventional percentage value) of the predetermined skin color ratio value R, that is, 0% ≦ R <33% (first interval) and 33% ≦ R < 66% (second interval) and 66% ≤ R ≤ 100% (third interval), wherein the skin color percentage values R of the image files are R1 = 24%, R2 = 56%, and R3, respectively. Assuming that = 92%, an image file having a skin color ratio value of R1 belongs to the first section, and the obscene classification value of the image file having a skin color ratio value of R1 is calculated using a machine learning method according to the first section. In the embodiment of the present invention, the obscene image file calculates the obscene classification value as 1, and the nondescript image file calculates the obscene classification value as 0.
그리고, 피부색 비율값이 R2 및 R3 인 이미지 파일은 각각 제 2 구간과 제 3 구간에 속하게 되므로, 각각의 구간에 따른 기계학습 기법을 이용하여 피부색 비율값이 R2, R3 인 이미지 파일의 음란성 분류값을 계산한다. Since the image files having skin color ratios R2 and R3 belong to the second and third sections, respectively, the lewdness classification values of the image files having skin color ratios R2 and R3 using machine learning techniques according to the respective sections. Calculate
이와 같이 해당 이미지 파일의 피부색 비율값이 속하는 구간별로 기계학습 기법을 이용하여 음란성 분류값을 계산함으로써, 이미지 파일의 음란성 여부를 보다 정밀하게 판별할 수 있게 된다. As described above, by calculating the obscene classification value by using a machine learning technique for each section to which the skin color ratio value of the corresponding image file belongs, it is possible to more accurately determine whether the image file is obscene.
둘째, 도 5 의 본 발명의 피부색 비율값에 따른 분류값 계산 방법의 개념도에 도시된 바와 같이, 상기 이미지 파일의 특징값을 기반으로 하는 적어도 2 개 이상의 주제별 기계학습 기법을 각각 이용하여 적어도 2 개 이상의 분류값을 계산하고, 계산된 분류값들의 평균값을 산출하여 산출된 평균값을 음란성 분류값으로 부여하는 방법이다.Second, as shown in the conceptual diagram of the method of calculating the classification value according to the skin color ratio value of FIG. 5, at least two subjects using at least two subject-based machine learning techniques based on feature values of the image file, respectively. The above classification values are calculated, and the average value of the calculated classification values is calculated to give the calculated average value as the obscene classification value.
즉, 이미지 파일을 각각의 주제별(수영복 차림의 이미지, 상반신 누드사진이 포함된 이미지, 하반신 누드사진이 포함된 이미지, 성행위가 포함된 이미지, 몰래카메라 이미지 등)로 분류하고, 이들 주제들 중 적어도 2 개 이상의 주제를 각각 전문적으로 기계학습 기법을 이용하여 훈련시킨 다음, 각각의 주제별로 계산된 음란성 분류값들의 평균값을 구하여 이를 음란성 분류값으로 부여하는 방법이다.That is, the image files are classified into respective subjects (images of swimsuits, images of upper body nudes, images of lower body nudes, images of sexual activity, hidden camera images, etc.), and at least among these themes. Two or more subjects are trained professionally using machine learning techniques, and then the mean values of the obscene classification values calculated for each subject are calculated and given as the obscene classification values.
예를 들어 상기 음란성 분류값을 계산하는 단계에서 하나의 이미지 파일을 대상으로 상반신 누드사진이 포함된 이미지(주제 1), 하반신 누드사진이 포함된 이미지(주제 2), 성행위가 포함된 이미지(주제 3), 몰래카메라 이미지(주제 4)를 각각 전문적으로 기계학습 방법을 이용하여 훈련시킨 결과 각각 계산되는 분류값이 주제 1 = 0.35, 주제 2 = 0.73, 주제 3 = 0.69, 주제 4 = 0.92 일 경우, 해당 이미지 파일의 음란성 분류값은 상기 각각의 분류값들의 평균값인 0.67 (소수점 3 자리 이하 버림)이 된다.For example, in the step of calculating the lewd classification value, an image including the upper body nude photograph (topic 1), an image containing the lower body nude photograph (topic 2), and an image containing sexual activity (topics) 3) When the sneak shot image (Topic 4) was trained using the machine learning method, the calculated values of
이때, 이렇게 각각의 분류값들의 평균값으로 계산된 음란성 평균값을 이용하여 음란성 레벨을 부여하는 방법은, 음란성 분류값의 전체 구간을 기설정된 분류값의 구간에 따라서 적어도 2 개 이상의 분류값의 구간으로 나누어, 상기 이미지 파일이 상기 분류값의 구간중 어느 구간에 속하는지 판단하고, 여기에 피부색 비율값의 수치를 고려하여 해당 구간의 음란성 레벨을 부여하면 된다.In this case, the method for assigning a level of obsceneness by using the mean value of each of the classification values calculated as the mean value of each classification value, divides the entire interval of the obscene classification value into at least two classification values according to the interval of the predetermined classification value. In addition, it is necessary to determine which section of the section of the classification value belongs to the image file, and give the obscene level of the corresponding section in consideration of the value of the skin color ratio value.
이와 같이 적어도 2 개 이상의 전문적인 기계학습 방법을 이용한 분류 방법을 이용하여 이미지를 분류하게 되면, 전술한 실시예와 같이 단순히 음란성 분류값을 0 또는 1 로 한정하는 방법과 비교하여 보다 많은 음란성 레벨값을 부여할 수 있게 되므로, 이미지의 음란성 판별이 더욱 세밀하게 이루어질 수 있는 장점이 있다.As described above, when the image is classified using a classification method using at least two professional machine learning methods, more obscene level values are compared with the method of simply limiting the obscene classification value to 0 or 1 as in the above-described embodiment. Since it can be given, there is an advantage that the indeterminate discrimination of the image can be made more detailed.
다음으로, 도 6 을 참조하여 본 발명 음란성 이미지의 판별 장치의 구성을 설명한다.Next, with reference to FIG. 6, the structure of the discriminating apparatus of the obscene image of this invention is demonstrated.
본 발명 음란성 이미지의 판별 장치(10)는, 도면에 도시된 바와 같이 주로 서버(100)와 연동된 데이터베이스(110)에 저장되거나 데이터베이스(110)에 저장될 예정인 이미지 파일 또는 동영상 파일의 음란성 여부를 판별하는 장치로서, 상기 서버(100)로부터 적어도 1 개의 이미지 파일을 순차적으로 입력받는 입력부(200); 상기 입력부에 입력된 이미지 파일로부터 피부색을 추출하여 그 비율값을 계산하는 피부색 비율 판단부(300); 상기 이미지 파일 입력부로 입력된 이미지 파일의 특징값을 기반으로 하는 기계학습 기법을 이용하여 상기 이미지 파일의 음란성 여부를 나타내는 분류값을 계산하는 분류부(400); 상기 피부색 비율 판독부가 계산한 피부색의 비율값과 상기 분류부가 부여한 분류값에 기초하여 상기 이미지 파일의 음란성 레벨을 부여하는 음란성 레벨 판단부(500); 음란성 레벨에 기초하여 기설정된 음란성 판단 기준에 따라서 상기 음란성 레벨이 부여된 이미지 파일의 음란성 여부를 판단하여 그 판단 결과의 정보를 상기 서버에 전달하는 최종 음란성 판단부(600);로 구성된다. Apparatus 10 for determining the obscene image of the present invention, as shown in the drawing is mainly stored in the
보다 상세하게는, 상기 피부색 비율 판단부(300)는 상기 이미지 파일로부터 얼굴 부분 영역을 감지하고, 감지된 얼굴 부분 영역을 전체 이미지 영역으로부터 제외하는 얼굴 감지 모듈(310)과, 상기 감지된 얼굴 부분 영역을 제외한 전체 이미지 영역에서 피부색의 비율값을 계산하는 피부색 계산 모듈(320)을 포함하여 구성된다. More specifically, the skin color ratio determiner 300 detects a face region from the image file, excludes the detected face region from the entire image region, and the
또한, 상기 음란성 레벨 판단부(500)는 피부색의 비율값의 전체 구간을 기설정된 비율값의 구간에 따라서 적어도 2 개 이상의 비율값의 구간으로 나누어 상기 피부색 비율값에 따라서 이미지 파일이 상기 비율값의 구간중 어느 구간에 속하는지 판단하는 음란성 수준치 판단모듈(510)과, 상기 이미지 파일의 음란성 분류값에 따라서 해당 이미지 파일의 음란성 수준치를 나타내는 음란성 레벨을 부여하는 음란성 레벨 부여 모듈(520)을 포함하여 구성된다.In addition, the lewdness level determining unit 500 divides the entire section of the skin color ratio value into sections of at least two or more ratio values according to a preset ratio value section. A lewdness level determining module 510 for determining which section among the sections, and a lewdness level granting module 520 for granting a lewdness level representing the lewdness level of the corresponding image file according to the lewdness classification value of the image file. It is configured by.
전술한 바와 같이 상기 분류부(400)는, 전술한 바와 같이 피부색 비율값의 전체 구간을 기설정된 피부색 비율값의 구간에 따라서 적어도 2 개 이상의 구간으로 나누고, 해당 이미지 파일의 피부색 비율값에 기초하여 해당 이미지 파일이 상기 나뉘어진 피부색 비율값의 구간중 어느 구간에 속하는지 판단하고, 해당 이미지 파일이 속하는 구간별로 기계학습 기법을 각각 이용하여 해당 이미지 파일의 음란성 분류값을 계산하는 피부색기반 분류값계산모듈(410)을 포함하여 구성된다.As described above, the classification unit 400 divides the entire section of the skin color ratio value into at least two or more sections according to the section of the preset skin color ratio value, as described above, and based on the skin color ratio value of the image file. Calculating skin color-based classification values for determining which section of the divided skin color ratio values the image file belongs to and calculating obscene classification values of the image file by using machine learning techniques for each section to which the image file belongs. Module 410 is configured.
또한, 도 7 의 본 발명의 분류부의 다른 실시예의 구성도에 도시된 바와 같이, 전술한 상기 이미지 파일의 특징값을 기반으로 하는 적어도 2 개 이상의 주제별 기계학습 기법을 각각 이용하여 적어도 2 개 이상의 분류값을 계산하기 위하여 이미지 파일을 각각의 주제별(수영복 차림의 이미지, 상반신 누드사진이 포함된 이미지, 하반신 누드사진이 포함된 이미지, 성행위가 포함된 이미지, 몰래카메라 이미지 등)로 분류하는 적어도 2 개 이상의 기계학습 기법이 각각 이용되는 적어도 2 개 이상의 주제기반 분류값계산모듈(420)과, 상기 주제기반 분류값계산모듈(420)들이 계산한 분류값들의 평균값을 산출하여 산출된 평균값을 음란성 분류값으로 부여하는 평균값 산출모듈(430)을 포함한다.In addition, as shown in the configuration diagram of another embodiment of the classification unit of FIG. 7, at least two classifications each using at least two or more thematic machine learning techniques based on the feature values of the image file described above. At least two categorizing image files by each subject (images with swim suits, images with upper body nudes, images with lower body nudes, images with sexual activity, hidden camera images, etc.) to calculate values The average value calculated by calculating the average value of the classification values calculated by the at least two subject-based classification value calculating module 420 and the subject-based classification value calculating module 420, each of which the above-described machine learning technique is used, is determined as a lewdness classification value. It includes the average value calculation module 430 to give.
또한, 본 발명 음란성 이미지 파일의 판별 장치는 입력부(200)로 입력되는 파일이 동영상 파일일 경우 이의 정지영상을 얻기 위하여 동영상 파일의 각각의 이미지 프레임을 추출하여 추출된 이미지 프레임을 이미지 파일화하여 상기 입력부로 전달하는 이미지 프레임 추출부(210)을 더 포함한다.In addition, the apparatus for determining an obscene image file of the present invention extracts each image frame of a moving image file to obtain a still image thereof when the file input to the input unit 200 is a moving image file and converts the extracted image frame into an image file. The apparatus further includes an image frame extracting unit 210 that transmits to the input unit.
한편, 상기 피부색 비율 판단부(300) 및 분류부(400)가 이용되는 피부색 판단에 대한 방법과 분류부에서 이용되는 음란성 분류에 대한 방법은 상세하게 전술한 바와 같으므로, 여기서는 이의 상세한 설명을 생략한다. 다만, 본 발명 실시예에서는 상기 분류부(400)가 상기 분류부가 이용하는 기계학습 기법으로서, SVM(Support Vector Machine)을 이용하는 기계학습 기법을 사용한다.On the other hand, the skin color ratio determination unit 300 and the method for determining the skin color used by the classification unit 400 and the method for the obscene classification used in the classification unit is the same as described above in detail, a detailed description thereof will be omitted here. do. However, in the exemplary embodiment of the present invention, the classifier 400 uses a machine learning technique using a support vector machine (SVM) as the machine learning technique used by the classifier.
상기와 같은 구성을 가진 본 발명 음란성 이미지의 판별 방법 및 장치는, 피부색의 비율값과 음란성 분류값의 두 값을 모두 구한 다음, 이 값들을 종합하여 음란한 정도를 나타내는 음란성 레벨을 부여하므로, 종래 만일 피부색과 관련한 판단이 잘못됐을 경우 음란성 여부를 판단하는 분류 과정을 거치지 않고 곧바로 비음란성 이미지로 분류하는 문제점으로 인한 판별력이 저하되는 문제점을 해소하고 보다 정확하고 신뢰성 높은 판별 능력을 보이는 효과를 가진다.The method and apparatus for discriminating obscene images of the present invention having the above-described configuration obtains both values of the ratio value of skin color and the obscurity classification value, and then adds these values to impart a lewdness level indicating obsceneness. If the judgment regarding the skin color is wrong, the problem of discrimination deterioration due to the problem of classifying the non-perturbation image immediately without going through the classification process for determining whether it is indecent and has an effect of showing more accurate and reliable discrimination ability.
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070058358A KR100882476B1 (en) | 2007-06-14 | 2007-06-14 | Method for distinguishing obscene image and apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070058358A KR100882476B1 (en) | 2007-06-14 | 2007-06-14 | Method for distinguishing obscene image and apparatus therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080110064A true KR20080110064A (en) | 2008-12-18 |
KR100882476B1 KR100882476B1 (en) | 2009-02-06 |
Family
ID=40369028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070058358A KR100882476B1 (en) | 2007-06-14 | 2007-06-14 | Method for distinguishing obscene image and apparatus therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100882476B1 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100926448B1 (en) * | 2008-04-11 | 2009-11-13 | 엔에이치엔(주) | System and Method for Determining Adult Contents |
KR20100095246A (en) * | 2009-02-20 | 2010-08-30 | 삼성전자주식회사 | Method and apparatus for determining sexual stuff in video content |
US8761499B2 (en) | 2010-11-30 | 2014-06-24 | Electronics And Telecommunications Research Institute | System and method for detecting global harmful video |
CN107016356A (en) * | 2017-03-21 | 2017-08-04 | 乐蜜科技有限公司 | Certain content recognition methods, device and electronic equipment |
KR20180123998A (en) * | 2018-11-06 | 2018-11-20 | 주식회사 하이퍼커넥트 | Image displaying method, apparatus and computer readable recording medium |
KR20180129562A (en) * | 2017-05-27 | 2018-12-05 | 주식회사 하이퍼커넥트 | Device and method of making video calls |
CN112926608A (en) * | 2019-12-05 | 2021-06-08 | 北京金山云网络技术有限公司 | Image classification method and device, electronic equipment and storage medium |
US11102450B2 (en) | 2016-10-10 | 2021-08-24 | Hyperconnect, Inc. | Device and method of displaying images |
US11184582B2 (en) | 2019-10-01 | 2021-11-23 | Hyperconnect, Inc. | Terminal and operating method thereof |
WO2022084730A1 (en) * | 2020-10-23 | 2022-04-28 | Coupang Corp. | Systems and method for filtering products based on images |
US11323659B2 (en) | 2017-04-17 | 2022-05-03 | Hyperconnect Inc. | Video communication device, video communication method, and video communication mediating method |
US11553157B2 (en) | 2016-10-10 | 2023-01-10 | Hyperconnect Inc. | Device and method of displaying images |
US11716424B2 (en) | 2019-05-10 | 2023-08-01 | Hyperconnect Inc. | Video call mediation method |
US11825236B2 (en) | 2020-01-31 | 2023-11-21 | Hyperconnect Inc. | Terminal and operating method thereof |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101062672B1 (en) | 2010-01-05 | 2011-09-06 | (주)필링크 | Harmful video detection device and method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100398927B1 (en) * | 2000-08-22 | 2003-09-19 | 문종웅 | The protection system for adult things |
JP3626679B2 (en) | 2000-12-06 | 2005-03-09 | 株式会社ガーラ | A method for discriminating nude images by computer image processing |
KR100658799B1 (en) * | 2005-08-17 | 2006-12-19 | (주)엠아이티소프트 | system and method for blocking pornography |
KR100799557B1 (en) * | 2005-10-27 | 2008-01-31 | 한국전자통신연구원 | Method for discriminating a obscene video using visual features and apparatus thereof |
-
2007
- 2007-06-14 KR KR1020070058358A patent/KR100882476B1/en not_active IP Right Cessation
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100926448B1 (en) * | 2008-04-11 | 2009-11-13 | 엔에이치엔(주) | System and Method for Determining Adult Contents |
KR20100095246A (en) * | 2009-02-20 | 2010-08-30 | 삼성전자주식회사 | Method and apparatus for determining sexual stuff in video content |
US8761499B2 (en) | 2010-11-30 | 2014-06-24 | Electronics And Telecommunications Research Institute | System and method for detecting global harmful video |
US11102450B2 (en) | 2016-10-10 | 2021-08-24 | Hyperconnect, Inc. | Device and method of displaying images |
US11553157B2 (en) | 2016-10-10 | 2023-01-10 | Hyperconnect Inc. | Device and method of displaying images |
CN107016356A (en) * | 2017-03-21 | 2017-08-04 | 乐蜜科技有限公司 | Certain content recognition methods, device and electronic equipment |
US11323659B2 (en) | 2017-04-17 | 2022-05-03 | Hyperconnect Inc. | Video communication device, video communication method, and video communication mediating method |
US11722638B2 (en) | 2017-04-17 | 2023-08-08 | Hyperconnect Inc. | Video communication device, video communication method, and video communication mediating method |
KR20180129562A (en) * | 2017-05-27 | 2018-12-05 | 주식회사 하이퍼커넥트 | Device and method of making video calls |
KR20180123998A (en) * | 2018-11-06 | 2018-11-20 | 주식회사 하이퍼커넥트 | Image displaying method, apparatus and computer readable recording medium |
US11716424B2 (en) | 2019-05-10 | 2023-08-01 | Hyperconnect Inc. | Video call mediation method |
US11184582B2 (en) | 2019-10-01 | 2021-11-23 | Hyperconnect, Inc. | Terminal and operating method thereof |
CN112926608A (en) * | 2019-12-05 | 2021-06-08 | 北京金山云网络技术有限公司 | Image classification method and device, electronic equipment and storage medium |
US11825236B2 (en) | 2020-01-31 | 2023-11-21 | Hyperconnect Inc. | Terminal and operating method thereof |
WO2022084730A1 (en) * | 2020-10-23 | 2022-04-28 | Coupang Corp. | Systems and method for filtering products based on images |
KR20220054537A (en) * | 2020-10-23 | 2022-05-03 | 쿠팡 주식회사 | Systems and methods for filtering products based on images |
Also Published As
Publication number | Publication date |
---|---|
KR100882476B1 (en) | 2009-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100882476B1 (en) | Method for distinguishing obscene image and apparatus therefor | |
Ilbeygi et al. | A novel fuzzy facial expression recognition system based on facial feature extraction from color face images | |
Ghimire et al. | A robust face detection method based on skin color and edges | |
Kao et al. | Local contrast enhancement and adaptive feature extraction for illumination-invariant face recognition | |
CN108268859A (en) | A kind of facial expression recognizing method based on deep learning | |
Thakur et al. | Face detection using skin tone segmentation | |
JP2004348674A (en) | Region detection method and its device | |
Hassanat et al. | Colour-based lips segmentation method using artificial neural networks | |
Radu et al. | A robust sclera segmentation algorithm | |
McBride et al. | A comparison of skin detection algorithms for hand gesture recognition | |
Huang et al. | Learning-based Face Detection by Adaptive Switching of Skin Color Models and AdaBoost under Varying Illumination. | |
Yogarajah et al. | A dynamic threshold approach for skin tone detection in colour images | |
Liu et al. | Automatically face detection based on BP neural network and Bayesian decision | |
Yang et al. | A Face Detection Method Based on Skin Color Model and Improved AdaBoost Algorithm. | |
Duan et al. | Visual saliency detection using information contents weighting | |
Nuraisha et al. | Implementation of K-NN based on histogram at image recognition for pornography detection | |
Spivak et al. | Approach to Recognizing of Visualized Human Emotions for Marketing Decision Making Systems. | |
Alhakam et al. | An Improved Probability Density Function (PDF) for Face Skin Detection | |
Kumar | An empirical study of selection of the appropriate color space for skin detection: A case of face detection in color images | |
Azad et al. | A robust and adaptable method for face detection based on color probabilistic estimation technique | |
Nugroho et al. | Negative content filtering for video application | |
Hilado et al. | Face detection using neural networks with skin segmentation | |
Subban et al. | Human skin segmentation in color images using gaussian color model | |
Chen et al. | Region-based and content adaptive skin detection in color images | |
Jang et al. | Skin region segmentation using an image-adapted colour model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |