KR101270604B1 - Face detecting method for smart airbag - Google Patents

Face detecting method for smart airbag Download PDF

Info

Publication number
KR101270604B1
KR101270604B1 KR1020120013410A KR20120013410A KR101270604B1 KR 101270604 B1 KR101270604 B1 KR 101270604B1 KR 1020120013410 A KR1020120013410 A KR 1020120013410A KR 20120013410 A KR20120013410 A KR 20120013410A KR 101270604 B1 KR101270604 B1 KR 101270604B1
Authority
KR
South Korea
Prior art keywords
value
pixel
image
face
candidate area
Prior art date
Application number
KR1020120013410A
Other languages
Korean (ko)
Inventor
김희수
류현기
이행석
김승미
하수영
나경진
김진경
이재우
Original Assignee
(재)경북차량용임베디드기술연구원
아진산업(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (재)경북차량용임베디드기술연구원, 아진산업(주) filed Critical (재)경북차량용임베디드기술연구원
Priority to KR1020120013410A priority Critical patent/KR101270604B1/en
Application granted granted Critical
Publication of KR101270604B1 publication Critical patent/KR101270604B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Abstract

PURPOSE: A face detection method for a smart airbag is provided to detect a face position of a passenger through gray scale conversion and simple algorithms, thereby simply detecting the face position. CONSTITUTION: An airbag system preprocesses an image inputted through a camera of a vehicle and makes a binary code for the pixels of the preprocessed image(S10,S20). The airbag system assigns label values to the pixels and calculates a candidate area of a human shape(S30). The airbag system assigns a distance value to each pixel of the candidate area(S50). The airbag system extracts a central line through sessionization and labeling value assignment for the pixels and simplifies the central line(S60,S70). The airbag system calculates a central coordinate of a face(S80). [Reference numerals] (AA) Start; (BB) End; (S10) Preprocess an image; (S20) Binarize the image; (S30) Assign label values to each pixel and calculate a candidate area of a human shape; (S40) Fill an empty space filling the label values in an empty pixel; (S50) Assign a distance value to each pixel of the candidate area; (S60) Extract a central line through sessionization and labeling value assignment; (S70) Simplify the central line; (S80) Calculate a central coordinate of a face

Description

스마트 에어백용 얼굴 검출 방법{FACE DETECTING METHOD FOR SMART AIRBAG}Face detection method for smart airbag {FACE DETECTING METHOD FOR SMART AIRBAG}

본 발명은 스마트 에어백용 얼굴 검출 방법에 관한 것으로서, 특히 복잡한 시차 영상을 생성하지 않고도 간단한 알고리즘을 통하여 승객의 얼굴 위치를 검출할 수 있도록 하는 스마트 에어백용 얼굴 검출 방법에 관한 것이다.The present invention relates to a face detection method for a smart airbag, and more particularly, to a face detection method for a smart airbag that enables the passenger's face position to be detected through a simple algorithm without generating a complicated parallax image.

일반적으로 차량에는 사고시에 차량의 구조물과 승객과의 사이에서 전개되어, 승객이 차량의 구조물에 직접적으로 부딪쳐서 상해를 입는 것을 방지하기 위한 에어백 시스템이 장착되어 있다.In general, a vehicle is equipped with an airbag system that is deployed between the structure of the vehicle and the passenger at the time of an accident, so as to prevent the passenger from being directly injured by the structure of the vehicle.

이러한 에어백 시스템들은 차량의 사고를 감지하는 센서로부터 검출된 신호에 따라 제어부(ACU;Airbag Control Unit)가 에어백 쿠션의 전개를 제어함으로써, 승객을 보호하게 되는 것이다.These airbag systems are to protect the passengers by controlling the deployment of the airbag cushion (ACU) according to the signal detected from the sensor for detecting the accident of the vehicle.

그런데, 에어백 쿠션은 통상적으로 일반적인 성인의 신체조건을 고려하여 일반적인 성인에 맞춰진 전개압으로 전개되도록 설계되어 있으므로, 유아나 어린이 가 조수석에 앉을 경우 에어백 쿠션의 전개압으로 인해 이들이 오히려 상해를 입을 수 있는 문제가 있다. However, since airbag cushions are generally designed to be deployed at a deployment pressure that is adapted to a general adult in consideration of general adult physical conditions, they may be injured due to the deployment pressure of the airbag cushion when infants or children sit in the passenger seat. there is a problem.

또한, 성인일지라도 전방 또는 후방으로 치우쳐 앉거나 시트에 깊숙이 내려 앉은 경우 에어백 쿠션이 조수석에 앉은 승객을 설계된 전개압으로 보호하지 못하는 단점이 있다. In addition, even if an adult is sitting forward or rearward or sitting deep in the seat, the airbag cushion does not protect the passenger sitting in the passenger seat with the designed deployment pressure.

따라서, 승객의 유형이나 위치에 따라 에어백 쿠션의 전개압 및 방향이 달라질 수 있도록 하는 에어백 장치가 요구된다. Accordingly, there is a need for an airbag apparatus that allows the deployment pressure and direction of the airbag cushion to vary depending on the type or location of the passenger.

이러한 승객의 유형 및 위치를 결정하기 위하여 일반적으로 중량 센서를 이용한 방식과 스테레오 비전 시스템 (stereo visionsystem)을 이용한 방식 및 거리 센서를 이용한 방식 등이 적용되고 있다. In order to determine the type and location of such a passenger, a method using a weight sensor, a method using a stereo vision system and a method using a distance sensor are generally applied.

중량 센서를 이용한 방식은 조수석에 승차한 승객의 중량에 따라 성인 여부를 판단하여 에어백 쿠션의 전개압을 제어하는 것으로서, 무거운 아동을 성인으로 오판하거나 가벼운 성인을 아동으로 오판할 수 있는 문제가 있다.The method using the weight sensor is to determine whether or not the adult according to the weight of the passenger in the passenger seat to control the deployment pressure of the airbag cushion, there is a problem that can misjudge a heavy child as an adult or a light adult as a child.

또한, 스테레오 비전 시스템 (stereo visionsystem)은 CCD 및 적외선 발광 다이오드를 통해 시차 (disparity)를 정보를 얻고, 이를 이용하여 탑승자의 위치 정보와 얼굴 위치를 추정하는 방식이다. 그런데, 이러한 스테레오 비전 시스템 (stereo visionsystem)은 여러 프레임의 차영상이 축적된 시차 영상을 획득하고, 시차 영상간의 상관 관계를 처리해야 하므로 이미지 처리에 많은 연산 시간이 소모되며, 시차 왜곡에 따른 얼굴 위치 산출 신뢰성이 저하되는 문제점이 있었다.In addition, the stereo vision system obtains disparity information through a CCD and an infrared light emitting diode, and uses the same to estimate a passenger's position information and a face position. However, such a stereo vision system needs to acquire a parallax image in which a difference image of several frames is accumulated, and process the correlation between the parallax images, which consumes a lot of computational time for image processing and a face position due to parallax distortion. There was a problem that the reliability of the calculation is lowered.

배경기술의 문제점을 해결하기 위한 본 발명은 차량에 설치된 카메라를 통해 입력된 영상을 그레이스케일로 변환하고, 그레이스케일로 변환된 영상을 임계값과 비교하여 각 픽셀을 이진화하고, 이진화된 각 픽셀들 중 하나의 폐곡선 내에 위치한 각 픽셀들을 동일 라벨값으로 라벨링 한 후에 라벨링된 영상의 각 픽셀에 대하여 거리 변환 방식을 이용하여 중심선으로 추출한 다음에 가장 중심이되는 선을 추출한 후 이들의 중심값을 이용하여 얼굴 위치를 검출할 수 있도록 하는 스마트 에어백용 얼굴 검출 방법을 제공함에 있다. The present invention for solving the problems of the background technology converts the image input through the camera installed in the vehicle to grayscale, and binarize each pixel by comparing the grayscale converted image with a threshold value, each of the binarized pixels After labeling each pixel located in one closed curve with the same label value, extract each line of the labeled image into the centerline by using the distance conversion method, and then extract the line that is the most central, and then use the center value of these pixels. The present invention provides a face detection method for a smart airbag that can detect a face position.

본 발명은 스마트 에어백용 얼굴 검출 방법에 관한 것으로서, 차량에 설치된 카메라를 통해 입력된 영상을 전처리하는 단계, 전처리된 영상 내의 각 픽셀의 밝기값을 임계값과 비교하고, 대상 픽셀의 밝기 값이 임계값 이하이면 흰색에 해당하는 값을 할당하고 임계값 미만이면 검정색에 해당하는 값을 할당하는 이진화 처리 단계, 이진화 처리된 각 픽셀들에 대한 라벨값을 부여하고, 사람 형태의 후보 영역을 산출하는 단계, 거리 변환 알고리즘을 이용하여 상기 후보 영역 내의 각 픽셀 중 어느 하나를 기준으로 각 픽셀별로 거리값을 할당하는 단계, 거리값이 할당된 각 픽셀들에 대한 세션화 및 라벨링값 부여를 통하여 단일 픽셀이 연속적으로 이어지며 복수의 분기점들로 이루어진 중심선을 추출하는 단계, 중심선 중 각 분기점에 연결된 선의 개수가 기준 개수 이하인 선들을 제거하여 중심선을 단순화하는 단계, 단순화된 중심선 중 각 분기점에 연결된 선의 개수가 기준 개수 이상인 분기점들의 좌표 평균값을 산출하여 해당 좌표를 얼굴의 중심 좌표로 산출하는 단계를 포함한다. The present invention relates to a method for detecting a face for a smart airbag, the method comprising: preprocessing an image input through a camera installed in a vehicle, comparing brightness values of each pixel in the preprocessed image with a threshold value, and the brightness value of the target pixel is critical A binarization processing step of assigning a value corresponding to white if the value is less than the threshold value, and a value corresponding to a black value if the threshold value is less than the threshold value, giving a label value for each binarized pixel, and calculating a candidate region having a human shape. Assigning a distance value to each pixel based on any one of the pixels in the candidate region using a distance conversion algorithm, and assigning a single pixel to each pixel to which the distance value is assigned by sessioning and labeling values. Extracting a center line consisting of a plurality of branch points continuously connected, the number of lines connected to each branch point among the center lines A step of removing the reference count or less lines simplify center line, calculating a coordinate average of the number of lines based on the number associated with each branch point of the simplified center line than to the branch point and a step of calculating the coordinates in the coordinates of the center of the face.

이때, 전처리 단계는 입력된 영상의 사이즈를 축소시키는 영상 사이즈 변환 단계와, 사이즈 변환된 영상을 그레이 스케일로 변환하는 단계와, 그레이 스케일로 변환된 영상의 노이즈 제거 단계를 포함할 수 있다. In this case, the preprocessing step may include an image size conversion step of reducing the size of the input image, converting the size-converted image to gray scale, and removing noise of the image converted to gray scale.

또한, 사람 형태의 후보 영역 산출하는 단계 후에 후보 영역 내 라벨값이 부여되지 않은 비어 있는 픽셀에 후보 영역의 라벨값을 복사하여 채워넣는 빈공간 채우기 단계를 더 수행할 수 있다. In addition, after the step of calculating the candidate region in the form of a person, the empty space filling step of copying and filling the label value of the candidate region into the empty pixel to which the label value is not given in the candidate region may be further performed.

또한, 빈공간 채우기 단계는 상기 후보 영역의 외곽선(outline)을 추적하고, 외곽선 내부의 빈공간에 후보 영역의 라벨값을 복사하여 채워 넣을 수 있다. In addition, the filling of the empty space may track an outline of the candidate area and copy and fill a label value of the candidate area in the empty space inside the outline.

본 발명은 그레이스케일 변환과, 이진화, 라벨링 및 거리 변환 방식과 같은 간단한 알고리즘을 통하여 승객의 얼굴 위치를 검출할 수 있어, 복잡한 시차 영상을 생성 및 알고리즘을 사용하지 않으므로 얼굴 위치 검출을 간단하게 할 수 있으며 시차 왜곡 등으로 인한 얼굴 위치 산출 정확도 저하를 방지할 수 있다. The present invention can detect a passenger's face position through simple algorithms such as grayscale transformation, binarization, labeling, and distance transformation, and thus can easily detect face position by generating complex parallax images and using no algorithm. In addition, it is possible to prevent a decrease in the accuracy of calculating face position due to parallax distortion.

도 1은 본 발명에 따른 스마트 에어백용 얼굴 검출 방법을 순차로 나타낸 흐름도.
도 2는 도 1의 영상 전처리 과정을 나타낸 흐름도.
도 3은 본 발명에 따른 스마트 에어백용 얼굴 검출 방법을 단계별로 나타낸 영상 예시화면.
도 4는 본 발명에 따른 스마트 에어백용 얼굴 검출시 그레이스케일 변환 과정을 설명하기 위한 예시도.
도 5는 본 발명에 따른 스마트 에어백용 얼굴 검출시 적용되는 오츠 알고리즘(Otsu Algorithm)를 설명하기 위한 히스토그램을 나타낸 그래프.
1 is a flowchart sequentially showing a face detection method for a smart airbag according to the present invention.
2 is a flowchart illustrating an image preprocessing process of FIG. 1.
Figure 3 is an example screen showing a step-by-step method for detecting a face for a smart airbag according to the present invention.
4 is an exemplary view for explaining a grayscale conversion process when detecting a face for a smart airbag according to the present invention.
FIG. 5 is a graph illustrating a histogram for explaining an Otsu algorithm applied when detecting a face for a smart airbag according to the present invention. FIG.

이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하기로 한다.
Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

도 1은 본 발명에 따른 스마트 에어백용 얼굴 검출 방법을 순차로 나타낸 흐름도, 도 2는 도 1의 영상 전처리 과정을 나타낸 흐름도, 도 3은 본 발명에 따른 스마트 에어백용 얼굴 검출 방법을 단계별로 나타낸 영상 예시화면이고, 도 4는 본 발명에 따른 스마트 에어백용 얼굴 검출시 그레이스케일 변환 과정을 설명하기 위한 예시도이며, 도 5는 본 발명에 따른 스마트 에어백용 얼굴 검출시 적용되는 오츠 알고리즘(Otsu Algorithm)를 설명하기 위한 히스토그램을 나타낸 그래프이다.
1 is a flowchart sequentially showing a face detection method for a smart airbag according to the present invention, FIG. 2 is a flow chart showing the image preprocessing process of FIG. 1, and FIG. 3 is an image showing the face detection method for a smart airbag according to the present invention step by step. 4 is an exemplary view illustrating a grayscale conversion process when detecting a face for a smart airbag according to the present invention, and FIG. 5 is an Otsu Algorithm applied to detecting a face for a smart airbag according to the present invention. A graph showing a histogram for explaining

우선, 본 발명의 스마트 에어백용 얼굴 검출 방법은 영상 전처리 단계(S10), 이진화 처리 단계(S20), 사람 형태 후보 영역 산출 단계(S30), 빈공간 채우기 단계(S40), 픽셀별 거리값 할당 단계(S50), 중심선 추출 단계(S60), 중심점 단순화 단계(S70) 및 얼굴 중심 좌표 산출 단계(S80)를 포함한다. First, the face detection method for a smart airbag according to the present invention includes an image preprocessing step (S10), a binarization processing step (S20), a human shape candidate area calculation step (S30), a blank space filling step (S40), and a pixel-specific distance value assignment step. S50, a centerline extraction step S60, a center point simplification step S70, and a face center coordinate calculation step S80.

우선, 영상 전처리 단계(S10)는 임베디드 시스템 환경에서 영상 처리 최적화를 위해 실시하는 것으로서, 영상 사이즈 변환 단계(S11)와, 그레이 스케일 변환 단계(S12) 및 노이즈 제거 단계(S13)를 포함한다. First, the image preprocessing step S10 is performed for image processing optimization in an embedded system environment, and includes an image size converting step S11, a gray scale converting step S12, and a noise removing step S13.

영상 사이즈 변환 단계(S11)는 본 발명의 스마트 에어백용 얼굴 검출 방법이 제한된 자원인 임베디드 시스템에서 이루어지기 때문에 입력 영상의 사이즈를 축소시키는 것으로서, 예를 들면 입력된 720X480 사이즈를 360X240으로 변환할 수 있다. The image size converting step (S11) is to reduce the size of the input image since the method for detecting a face for a smart airbag according to the present invention is performed in an embedded system which is a limited resource. .

그레이 스케일 변환 단계(12)는 사이즈 변환된 영상에서 색상 신호를 제거한 휘도 신호만을 추출하여 그레이 스케일로 변환하는 것이다. 즉, 입력된 영상은 IR(적외선) 영상으로서 가시적인 부분은 그레이 스케일 영상이지만 사실상 YCbCr 형태의 휘도(luminance) 신호 Y 와 색차 신호 Cb, Cr이 합해진 형태를 갖는다. 일반적으로, YCbCr은 동영상 압축시 표준으로 사용되는 색 표현 방식으로서 각 픽셀은 도 4와 같이 Y 4개 Cb와 Cr을 각각 1개씩 공유하여 사용되고 있으므로 Y 값만 추출함으로써 그레이 스케일로 변환하는 것이 가능하다. In the gray scale conversion step 12, only the luminance signal from which the color signal is removed from the size-converted image is extracted and converted into the gray scale. That is, the input image is an IR (infrared) image, and the visible portion is a gray scale image, but in fact, a luminance signal Y having a YCbCr type and a chrominance signal Cb, Cr are summed. In general, YCbCr is a color expression method that is used as a standard when compressing a video. Each pixel is used to share four Yb Cb and one Cr as shown in FIG.

노이즈 제거 단계(S13)는 그레이 스케일 변환된 영상에서 노이즈를 제거하기 위한 것으로서, 선형 평활 필터(linear smoothing filter)를 사용할 수 있다. 선형 평활 필터(linear smoothing filter)를 이용한 방식은 특정 픽셀값을 이웃하는 픽셀의 평균값과 같게 함으로써 에지 부분을 부드럽게 할 수 있다. The noise removing step S13 is for removing noise from the gray scale converted image, and may use a linear smoothing filter. The method using a linear smoothing filter can smooth the edge portion by making a specific pixel value equal to the average value of neighboring pixels.

이진화 처리 단계(S20)는 대상 픽셀의 밝기값에 따라 흰색에 해당하는 값 또는 검정색에 해당하는 값을 할당하는 단계로서, 대상 픽셀의 밝기값이 임계값 이하이면 흰색에 해당하는 값(0)을 할당하고 임계값 미만이면 검정색에 해당하는 값(255)을 할당한다. 이때, 이진화 처리를 위한 임계값은 오츠 알고리즘(Otsu Algorithm)을 이용하여 구할 수 있다. The binarization process step (S20) is a step of allocating a value corresponding to white or a value corresponding to black according to the brightness value of the target pixel. When the brightness value of the target pixel is less than or equal to the threshold value, a value (0) corresponding to white is assigned. If the value is less than the threshold value, a black value (255) is assigned. In this case, the threshold for the binarization process may be obtained using an Otsu algorithm.

오츠 알고리즘(Otsu Algorithm)은 영상의 히스토그램 형태가 쌍봉형(bimodal)이라고 가정하였을 때 계곡점(valley)을 찾아서 그 점을 임계값(T)으로 하는 것이다. 즉, 영상 내의 각 픽셀에 대하여 도 5에 도시된 바와 같이 히스토그램을 구하고, 히스토그램을 두 영역으로 나누었을때 두 영역으로 나뉜 분산이 최대가 되도록 하는 점을 임계값을 정하여 히스토그램 2 분할하는 방법이다. The Otsu Algorithm finds a valley point and assumes a threshold value T when assuming that the histogram of the image is bimodal. In other words, the histogram is obtained for each pixel in the image as shown in FIG. 5, and the histogram 2 is divided by setting a threshold value so that the variance divided into two regions is maximized when the histogram is divided into two regions.

예를 들어, 농도 레벨을 1~ m 이라 하고, 농도 레벨 i의 빈도를 n1라 할 때, 화소 수와 각 레벨의 확률은 아래 식과 같아진다.For example, when the density level is 1 to m and the frequency of the density level i is n 1 , the number of pixels and the probability of each level are as follows.

전 화소 수

Figure 112012010700410-pat00001
All pixels
Figure 112012010700410-pat00001

각 레벨의 확률

Figure 112012010700410-pat00002
Probability of each level
Figure 112012010700410-pat00002

레벨 k 로써 2 부분으로 분할하여

Figure 112012010700410-pat00003
의 2개의 영역으로 나누었다고 하면,
Figure 112012010700410-pat00004
의 출현 확률과 평균값은 아래의 식과 같다.Split into two parts with level k
Figure 112012010700410-pat00003
If we divide it into 2 areas of,
Figure 112012010700410-pat00004
The probability of occurrence and the average value of are given by

Figure 112012010700410-pat00005
의 출현 확률
Figure 112012010700410-pat00006
Figure 112012010700410-pat00005
Probability of appearance
Figure 112012010700410-pat00006

Figure 112012010700410-pat00007
의 출현 확률
Figure 112012010700410-pat00008
Figure 112012010700410-pat00007
Probability of appearance
Figure 112012010700410-pat00008

Figure 112012010700410-pat00009
의 평균값
Figure 112012010700410-pat00010
Figure 112012010700410-pat00009
Average of
Figure 112012010700410-pat00010

Figure 112012010700410-pat00011
의평균값
Figure 112012010700410-pat00012
Figure 112012010700410-pat00011
Average value of
Figure 112012010700410-pat00012

단,

Figure 112012010700410-pat00013
는 전 샘플 값의 평균값 only,
Figure 112012010700410-pat00013
Is the mean of all sample values

따라서, f는 다음 식과 같아진다.Therefore, f becomes as follows.

Figure 112012010700410-pat00014
Figure 112012010700410-pat00014

또한, 2 개의 영역 사이의 분산은 다음과 같다.In addition, the dispersion between the two regions is as follows.

Figure 112012010700410-pat00015
Figure 112012010700410-pat00015

이 식을 이용해서 max

Figure 112012010700410-pat00016
을 부여하는 k를 구해서 이것을 임계값으로 한다. 이 방식은 2개의 영역으로 분리하였을 경우 양쪽 영역의 정리가 쉽고 영역 사이의 분리가 우수하다.Using this formula max
Figure 112012010700410-pat00016
Let k be given and set this as the threshold. This method is easy to organize both areas when the two areas are separated and excellent separation between the areas.

한편, 사람 형태의 후보 영역을 산출 단계(S30)는 이진화된 각 픽셀들에 대한 라벨링(Labeling)을 통해 사람 형태를 형태학적으로 구분하기 위한 후보 영역을 산출하는 것이다. On the other hand, the step of calculating the candidate shape of the human shape (S30) is to calculate the candidate region for morphologically distinguishing the human shape by labeling each of the binarized pixels.

이때, 라벨링(Labeling)이란 현재의 픽셀과 붙어있어서 연결된 영역이거나 또는 같은 색상 범위를 갖는 영역들을 하나의 물체로 간주하는 과정으로서, 본 발명에서는 흰색과 검색정에 해당하는 값으로 이진화된 영상을 이용함에 따라 동일한 색상값을 갖는 픽셀들에 동일한 라벨값을 부여하도록 한다. In this case, labeling is a process of considering areas connected to the current pixel or connected areas or areas having the same color range as one object, and the present invention uses a binary image with values corresponding to white and search tablets. As a result, the same label value is assigned to pixels having the same color value.

빈 공간 채우기 단계(S40)는 상술한 라벨링 후에 후보 영역 내에서 라벨값이 부여되지 않은 비어 있는 픽셀이 있을 경우 비어있는 픽셀에 후보 영역의 라벨값을 복사하여 채워넣는 단계이다. In the blank space filling step S40, when there is an empty pixel to which no label value is assigned in the candidate area after the above-mentioned labeling, the empty value is copied and filled with the label value of the candidate area.

즉, 라벨링 후 선택된 후보영역은 내부에 홀(hole)영역을 가지고 있어, 이 홀 영역에 의해 거리변환(Distance Transform)의 결과가 사람 형태의 후보 영역을 결정함에 있어서 상당한 영향을 미치므로 해당 홀을 채워줘야 한다. 이때, 영역내부를 채우는(Fill Image)단계의 알고리즘은 기존의 영상처리에서 일반적으로 사용하는 영역채움 알고리즘을 사용할 경우 처리속도측면에서 계산량이 많으므로, 후보 영역의 외곽선(outline)을 추적하여 내부의 홀을 제거함으로써 계산량을 줄여 빈공간 채우기 시간을 단축시킬 수 있다. In other words, the candidate area selected after labeling has a hole area therein. As a result of the distance transform, the candidate area has a significant influence in determining the candidate area in human form. It must be filled. In this case, the fill image algorithm has a large amount of calculation in terms of processing speed when using the region filling algorithm generally used in the existing image processing. Therefore, the outline of the candidate region is traced to track the outline of the candidate region. By eliminating holes, the amount of calculation can be reduced to shorten the empty space filling time.

거리값 할당 단계(S50)는 휴먼 형태의 특징을 추출하기 위해 라벨링을 통해 얻은 후보 영역 내의 어느 한 픽셀을 기준으로 거리 변환(Distance Transform) 알고리즘을 통해 각 픽셀별로 거리값을 할당하는 것이다. The distance value assigning step (S50) is to assign a distance value for each pixel through a distance transform algorithm based on one pixel in the candidate area obtained through labeling to extract a human-like feature.

거리 변환(Distance Transform) 알고리즘은 이미지상의 한 픽셀에서 가장 가까이 놓인 물체의 경계까지 거리를 구하는 연산으로서, 직관적인 거리 변환은 전경의 경계선을 모두 찾아서 각각의 픽셀에서 거리의 최소값을 할당하면 된다. 그러나 이 방법은 경계가 많은 픽셀로 구성이 되는 경우에 너무 많은 계산을 요구하게 되므로, 본 발명에서는 이미지의 크기에 선형으로 비례하는 알고리즘을 적용하는 경우를 설명하도록 한다. The distance transform algorithm calculates the distance from one pixel on the image to the boundary of the nearest object. Intuitive distance transformation is to find the foreground boundary and assign the minimum distance from each pixel. However, since this method requires too many calculations when the boundary is composed of many pixels, the present invention will be described in the case of applying an algorithm that is linearly proportional to the size of the image.

우선, 픽셀 수에 선형이기 위해서는 라스터 스캔방식에 의해서 알고리즘이 구현될 수 있어야 한다. 거리 변환은 전경내의 각점에 가상의 2차의 포물면(paraboloid)을 생각하고, 결국 임의의 점에서 가장 작은 값을 주는 것을 찾는 것이 된다. 즉, 임의의 점에서 가장 밑에 위치한 포물편(paraboloid)을 찾으면 되지만 이차영역에서 포물면을 찾기는 어려우므로 일차원으로 바꾸어 찾아보면 다음과 같다. First, in order to be linear in the number of pixels, the algorithm should be able to be implemented by the raster scan method. The distance transformation considers a hypothetical secondary paraboloid at each point in the foreground, and eventually finds the one that gives the smallest value at any point. In other words, it is necessary to find the paraboloid located at the lowest point at any point, but it is difficult to find the paraboloid in the secondary region.

x축 방향으로 스캔하면서 x축 방향으로의 거리를 저장하면서 다시 y축 방향으로 스캔하면서 저장된 x방향의 거리의 제곱의 정보를 이용한다. 이것은 x축 방향으로 스캔할 때 거리의 제곱 값을 이미지의 그레이 값으로 저장하면 보다 쉽게 해결이 된다. 그러면 y축 방향으로 스캔할 때는 꼭지점이 이전에 x축 방향 스캔시 저장된 거리의 제곱만큼 이동이 된 이차곡선들 중에서 맨 아래에 놓인 것을 찾으면 된다.While scanning in the x-axis direction, the distance in the x-axis direction is stored, and scanning in the y-axis direction is used again to use information of the square of the distance in the x-direction. This is more easily solved by storing the square of the distance as the gray value of the image when scanning in the x-axis direction. Then, when scanning in the y-axis direction, the vertex is found at the bottom of the quadratic curves previously moved by the square of the distance stored in the x-axis scan.

따라서 유클리디안 거리변환(distance transform)은 일차원의 거리변환(distance transform)을 2번 시행을 하면 얻을 수 있다. 일차원의 거리변환(distance transform)은 각각의 그리드 점에서 값이 이동된 이차곡선들 중에서 해당영역에서 가장 아래에 위치한 것을 선택하여서 그 값을 취하면 된다.Therefore, Euclidean distance transform can be obtained by performing one-dimensional distance transform twice. In the one-dimensional distance transform, one of the quadratic curves whose values are moved at each grid point is selected and taken from the bottom of the corresponding area.

1차원 거리 변환 은 DT(p) = min_{q}((p-q)^2+ F(q))이 된다.The one-dimensional distance transformation is DT (p) = min_ {q} ((p-q) ^ 2 + F (q)).

이때, q 는 모든 그리드점이 된다.Q is all grid points.

초기의 F(q)의 값의 세팅은 전경의 그리드 상에서는 0, 배경에서는 +INFINITY을 넣으면 된다. 전경의 경계에서 형성이 된 2차 곡선이 가장 낮게 형성이 되어서 이것에 의해서 거리가 결정이 된다. 일반적인 F(q)의 값이 주어지는 경우에는 문제는 각각의 그리드 점에서 보는 가장 낮은 이차곡선이 어느 것이고, 그것이 성립이 되는 영역을 찾는 문제로 귀결이 된다. 점 p, q에서 이차곡선의 교차점이 s=( (F[p]+p*p)-(F[q]+q*q) )/ (2*p-2*q) 이므로 쉽게 가장 낮은 2차 곡선의 영역을 찾을 수 있다.The initial value of F (q) can be set to 0 on the foreground grid and + INFINITY on the background. The quadratic curve formed at the boundary of the foreground is the lowest, which determines the distance. Given a general value of F (q), the problem is which one is the lowest quadratic curve seen at each grid point, and the problem is to find the area where it is established. The point 2, the point where the intersection of the quadratic curve is s = ((F [p] + p * p)-(F [q] + q * q)) / (2 * p-2 * q), is the lowest 2 Find the area of the difference curve.

중심선 추출 단계(S60 : Peak Detection)는 거리값이 할당된 후보 영역의 각 픽셀에 대한 을 세선화 및 라벨링을 통해 단일 픽셀이 연속적으로 이어지며 복수의 분기점들로 이루어진 중심선을 추출하는 단계이다. The center line extraction step (S60: Peak Detection) is a step of extracting a center line composed of a plurality of branching points by successive single pixels through thinning and labeling the pixels of the candidate area to which the distance value is assigned.

즉, 중심선 추출 단계(사람 형태 특징 추출)는 거리맵으로부터 가장 높은 거리값을 할당한 마루부분을 찾는 것이다. 이때, 문턱치값을 로컬 또는 글로벌형태로 적용할 경우 추출된 마루(Peak)들이 끊어져 사람 특징을 인지하기 어려운 현상이 발생한다. 따라서, 이러한 문제점을 해결하기 위하여 영상처리에서 일반적으로 사용하는 경계검출 알고리즘의 커널 마스크값을 마루(Peak) 화소(거리값)의 90%되는 거리값을 갖도록 수정 적용하여 피크점과 그 주변 영역을 추출한다. 그리고, 선택된 피크점 주변 영역에 대한 라벨링한다. 이때, 라벨링은 피크 영역에서 멀리 떨어진 소형 영역을 제거하기 위한 것이다. 이후, 추출된 피크점과 그 주변 영역에 대한 세션화를 진행함으로써, 단일 픽셀이 끊어짐 없이 연속적으로 이어지며 복수의 분기점들로 이루어진 중심선을 추출한다. In other words, the centerline extraction step (human shape feature extraction) is to find the floor portion to which the highest distance value is assigned from the distance map. In this case, when the threshold value is applied locally or globally, the extracted peaks are broken, making it difficult to recognize a human feature. Therefore, in order to solve this problem, the kernel mask value of the edge detection algorithm commonly used in image processing is modified to have a distance value of 90% of the peak pixel (distance value), and the peak point and its surrounding area are applied. Extract. Then, the area around the selected peak point is labeled. At this time, the labeling is for removing the small area far from the peak area. Subsequently, by performing sessionization on the extracted peak point and its surrounding area, a single pixel is continuously connected without any break and a center line composed of a plurality of branch points is extracted.

중심선 단순화 단계(S70)는 중심선 중 각 분기점에 연결된 선의 개수가 기준 개수 이하인 선들을 제거하는 단계이다. 즉, 추출된 휴먼형태의 중심선은 분기점(선들의 교점)들을 가지고 있으므로, 이 분기점을 기준으로 연결된 선의 개수가 기준 개수 예를 들어 3개 이하인 분기점을 제거함으로써 중심선을 단순화한다. In the centerline simplifying step S70, the number of lines connected to each branch point among the centerlines is less than the reference number. That is, since the extracted human centerline has branching points (intersections of the lines), the centerline is simplified by eliminating branching points where the number of lines connected based on the branching point is three or less, for example.

얼굴의 중심 좌표 산출 단계(S80)는 단순화된 중심선 중 각 분기점에 연결된 선의 개수가 기준 개수 이상인 분기점들의 좌표 평균값을 산출하여 해당 좌표를 얼굴의 중심 좌표로 산출하는 것이다. 즉, 앉은 사람 형태의 특징(한글의 모음 "ㅗ"의 형태)과 지식기반의 비율(얼굴의 위치를 찾기 위해 수직 길이의 1/3 지점)을 만족하는 3 이상의 분기점을 갖는 점들의 좌표 평균값을 최종 얼굴 부분의 중심 좌표로 추출하는 것이다.
In calculating the center coordinates of the face (S80), a coordinate average value of the branch points having the number of lines connected to each branch point among the simplified center lines is greater than or equal to the reference number is calculated to calculate the coordinates as the center coordinates of the face. That is, the coordinate average value of the points having three or more branch points satisfying the characteristics of the seated person (the form of the Korean vowel “ㅗ”) and the knowledge base (one-third of the vertical length to locate the face) are obtained. It is extracted from the coordinates of the center of the final face.

비록 본 발명이 상기 언급된 바람직한 실시예와 관련하여 설명되어졌지만, 발명의 요지와 범위로부터 벗어남이 없이 다양한 수정이나 변형을 하는 것이 가능하다. 따라서 첨부된 특허청구의 범위는 본 발명의 요지에서 속하는 이러한 수정이나 변형을 포함할 것이다.Although the present invention has been described in connection with the above-mentioned preferred embodiments, it is possible to make various modifications and variations without departing from the spirit and scope of the invention. Accordingly, the appended claims are intended to cover such modifications or changes as fall within the scope of the invention.

Claims (4)

차량에 설치된 카메라를 통해 입력된 영상을 전처리하는 단계;
전처리된 영상 내의 각 픽셀의 밝기값을 임계값과 비교하고, 대상 픽셀의 밝기 값이 임계값 이하이면 흰색에 해당하는 값을 할당하고 임계값 미만이면 검정색에 해당하는 값을 할당하는 이진화 처리 단계;
상기 이진화 처리된 각 픽셀들에 대한 라벨값을 부여하고, 사람 형태의 후보 영역을 산출하는 단계;
거리 변환 알고리즘을 이용하여 상기 후보 영역 내의 각 픽셀 중 어느 하나를 기준으로 각 픽셀별로 거리값을 할당하는 단계;
상기 거리값이 할당된 각 픽셀들에 대한 세션화 및 라벨링값 부여를 통하여 단일 픽셀이 연속적으로 이어지며 복수의 분기점들로 이루어진 중심선을 추출하는 단계;
상기 중심선 중 각 분기점에 연결된 선의 개수가 기준 개수 이하인 선들을 제거하여 중심선을 단순화하는 단계;
상기 단순화된 중심선 중 각 분기점에 연결된 선의 개수가 기준 개수 이상인 분기점 좌표의 평균값을 산출하여 해당 좌표를 얼굴의 중심 좌표로 산출하는 단계를 포함하는 특징으로 하는 스마트 에어백용 얼굴 검출 방법.
Preprocessing an image input through a camera installed in the vehicle;
A binarization processing step of comparing a brightness value of each pixel in the pre-processed image with a threshold value and allocating a value corresponding to white when the brightness value of the target pixel is less than or equal to the threshold value and assigning a value corresponding to black when the threshold value is less than the threshold value;
Assigning a label value to each binarized pixel and calculating a candidate region in a human form;
Allocating a distance value for each pixel based on any one of each pixel in the candidate region using a distance conversion algorithm;
Extracting a center line consisting of a plurality of branching points with successive single pixels through sessionization and labeling value assignment for each pixel to which the distance value is assigned;
Simplifying the center line by removing lines whose number of lines connected to each branch point among the center lines is equal to or less than a reference number;
And calculating a mean value of branch coordinates whose number of lines connected to each branch point among the simplified center lines is equal to or greater than a reference number, and calculating the coordinates as the center coordinates of the face.
제 1항에 있어서,
상기 전처리 단계는,
입력된 영상의 사이즈를 축소시키는 영상 사이즈 변환 단계와,
상기 사이즈 변환된 영상을 그레이 스케일로 변환하는 단계와,
상기 그레이 스케일로 변환된 영상의 노이즈 제거 단계를 포함하는 것을 특징으로 하는 스마트 에어백용 얼굴 검출 방법.
The method of claim 1,
The pre-
An image size conversion step of reducing the size of the input image;
Converting the size-converted image to gray scale;
And a noise removing step of the image converted into the gray scale.
제 1항에 있어서,
상기 사람 형태의 후보 영역 산출하는 단계 후에 상기 후보 영역 내 라벨값이 부여되지 않은 비어 있는 픽셀에 후보 영역의 라벨값을 복사하여 채워넣는 빈공간 채우기 단계를 더 수행하는 것을 특징으로 하는 스마트 에어백용 얼굴 검출 방법.
The method of claim 1,
After the step of calculating the candidate region of the human shape, the smart airbag face characterized in that for performing the empty space filling step of copying and filling the label value of the candidate region to the empty pixel that is not given a label value in the candidate region Detection method.
제 3항에 있어서,
상기 빈공간 채우기 단계는 상기 후보 영역의 외곽선(outline)을 추적하고, 외곽선 내부의 빈공간에 후보 영역의 라벨값을 복사하여 채워넣는 것을 특징으로 하는 스마트 에어백용 얼굴 검출 방법.
The method of claim 3, wherein
The empty space filling step tracks an outline of the candidate area and copies and fills a label value of the candidate area into a blank space inside the outline to fill the blank space.
KR1020120013410A 2012-02-09 2012-02-09 Face detecting method for smart airbag KR101270604B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120013410A KR101270604B1 (en) 2012-02-09 2012-02-09 Face detecting method for smart airbag

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120013410A KR101270604B1 (en) 2012-02-09 2012-02-09 Face detecting method for smart airbag

Publications (1)

Publication Number Publication Date
KR101270604B1 true KR101270604B1 (en) 2013-06-03

Family

ID=48866070

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120013410A KR101270604B1 (en) 2012-02-09 2012-02-09 Face detecting method for smart airbag

Country Status (1)

Country Link
KR (1) KR101270604B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516611A (en) * 2020-04-09 2021-10-19 合肥美亚光电技术股份有限公司 Method and device for determining abnormal material removing area, and material sorting method and equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040008791A (en) * 2002-07-19 2004-01-31 삼성전자주식회사 System and method for detecting and tracking a plurality of faces in real-time by integrating the visual ques
KR20040048753A (en) * 2002-12-04 2004-06-10 삼성전자주식회사 Apparatus and method for distinguishing photograph in face recognition system
KR20100073189A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Apparatus and method for detecting face image
KR20110063989A (en) * 2009-12-07 2011-06-15 한국전자통신연구원 Video object detection apparatus and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040008791A (en) * 2002-07-19 2004-01-31 삼성전자주식회사 System and method for detecting and tracking a plurality of faces in real-time by integrating the visual ques
KR20040048753A (en) * 2002-12-04 2004-06-10 삼성전자주식회사 Apparatus and method for distinguishing photograph in face recognition system
KR20100073189A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Apparatus and method for detecting face image
KR20110063989A (en) * 2009-12-07 2011-06-15 한국전자통신연구원 Video object detection apparatus and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516611A (en) * 2020-04-09 2021-10-19 合肥美亚光电技术股份有限公司 Method and device for determining abnormal material removing area, and material sorting method and equipment
CN113516611B (en) * 2020-04-09 2024-01-30 合肥美亚光电技术股份有限公司 Method and device for determining abnormal material removing area, material sorting method and equipment

Similar Documents

Publication Publication Date Title
KR101717613B1 (en) The moving vehicle detection system using an object tracking algorithm based on edge information, and method thereof
US9965695B1 (en) Document image binarization method based on content type separation
WO2018216629A1 (en) Information processing device, information processing method, and program
WO2008065729A1 (en) Object detecting system, and object detecting method
KR101738129B1 (en) Apparatus and method for recognizing automatic number plate on long distance image using one camera
CN101383005B (en) Method for separating passenger target image and background by auxiliary regular veins
KR101549495B1 (en) An apparatus for extracting characters and the method thereof
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
JP6110174B2 (en) Image detection apparatus, control program, and image detection method
KR20100056143A (en) Method for detecting moving objects using segmentation process
JP2008035301A (en) Mobile body tracing apparatus
US20170358089A1 (en) Object identifying apparatus
KR101282663B1 (en) Apparatus for detecting image region of vehicle number plate and method thereof
KR101967858B1 (en) Apparatus and method for separating objects based on 3D depth image
KR101270604B1 (en) Face detecting method for smart airbag
CN109074646B (en) Image recognition device and image recognition program
CN108268866B (en) Vehicle detection method and system
KR20130128097A (en) Object recognition method and apparatus using depth information
KR101696086B1 (en) Method and apparatus for extracting object region from sonar image
JP5010627B2 (en) Character recognition device and character recognition method
JP2020173584A (en) Object detection device
CN109800758A (en) A kind of natural scene character detecting method of maximum region detection
KR101371875B1 (en) A vehicle detection and distance measurement system and method between the vehicles using stereo vision
Saranya et al. An approach towards ear feature extraction for human identification
JP2009277001A (en) Image processor

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160407

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190410

Year of fee payment: 7