KR100779739B1 - Vehicle occupant head distance extraction method using stereo-vision - Google Patents

Vehicle occupant head distance extraction method using stereo-vision Download PDF

Info

Publication number
KR100779739B1
KR100779739B1 KR1020060049321A KR20060049321A KR100779739B1 KR 100779739 B1 KR100779739 B1 KR 100779739B1 KR 1020060049321 A KR1020060049321 A KR 1020060049321A KR 20060049321 A KR20060049321 A KR 20060049321A KR 100779739 B1 KR100779739 B1 KR 100779739B1
Authority
KR
South Korea
Prior art keywords
head
image
occupant
stereo camera
parallax
Prior art date
Application number
KR1020060049321A
Other languages
Korean (ko)
Inventor
안상호
김영춘
하수영
Original Assignee
인제대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인제대학교 산학협력단 filed Critical 인제대학교 산학협력단
Priority to KR1020060049321A priority Critical patent/KR100779739B1/en
Application granted granted Critical
Publication of KR100779739B1 publication Critical patent/KR100779739B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

A method for measuring and tracking a position of a passenger's head by a time difference by using a stereo camera is provided to detect whether the position of the passenger is within IP, OOP, COOP areas simply, quickly and accurately by recognizing the position of the passenger with a time difference of the position of the passenger's head. A method for measuring and tracking a position of a passenger's head by a time difference by using a stereo camera comprises the following steps of: inputting the right and left images of a passenger photographed by the stereo camera attached to the front of a vehicle(S101); making the inputted right and left images leveled by using a Gaussian kernel and reducing the capacity of the right and left images(S102); extracting a time difference image by using a LOG(Laplacian Of Gaussian) filter and an SAD(Sum of Absolute Differences) from the leveled and reduced right and left images(S103); obtaining an accumulated frame difference from the inputted right and left images and extracting an outline image through a morphology method; joining the time difference image and the outline image and extracting a dead area by using Hough transform(S202,S203); extracting a head time difference by using SAD(Sum of Absolute Differences) from the right and left images and the head area(S105,S106); and determining whether the passenger is within a range of IP(In Position), OOP(Out Of Position), and COOP(Critically Out Of Position) from the extracted head time difference(S107).

Description

스테레오 카메라를 이용한 차량 탑승자 머리 위치 시차 검출 및 추적 방법{Vehicle Occupant Head Distance Extraction Method Using Stereo-Vision}Vehicle Occupant Head Distance Extraction Method Using Stereo-Vision}

도 1은 미국 고속도로 교통안전위원회에서 탑승자 좌석에서의 에어백이 동작할 수 있는지 여부에 따라 정상 영역과 위험 영역을 정해둔 도면이다.FIG. 1 is a diagram illustrating a normal area and a dangerous area according to whether an airbag in a passenger seat can be operated by the US Highway Traffic Safety Administration.

도 2는 본 발명의 실시예에 따른 차량 탑승자 머리 위치 시차 검출 및 추적 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for detecting and tracking a vehicle occupant head position parallax according to an exemplary embodiment of the present invention.

도 3은 스테레오 카메라와 탑승자 사이의 거리에 따른 시차 영상 정보맵을 나타낸 도면이다.3 is a diagram illustrating a parallax image information map according to a distance between a stereo camera and a passenger.

도 4는 누적된 프레임 차와 모폴로지 기법을 이용하여 윤곽선을 추출한 도면이다.4 is a diagram extracting contour lines by using a accumulated frame difference and morphology technique.

도 5는 탑승자의 머리 위치의 시차 및 거리 검출을 위한 스테레오 기하학을 나타낸 도면이다.FIG. 5 is a diagram illustrating stereo geometry for parallax and distance detection of a passenger's head position. FIG.

도 6은 본 발명의 실시예에 따라 스테레오 카메라로 촬영한 좌안 영상과 우안 영상을 나타낸 도면이다.6 is a diagram illustrating a left eye image and a right eye image photographed by a stereo camera according to an exemplary embodiment of the present invention.

도 7은 본 발명의 실시예에 따른 방법을 사용하여 머리 위치 시차 검출 및 추적을 성공적으로 나타낸 실험 결과도이다.7 is an experimental result diagram successfully showing head position parallax detection and tracking using the method according to an embodiment of the present invention.

본 발명은 스테레오 카메라를 이용한 탑승자 머리 위치 시차 검출 및 추적 방법에 관한 것으로서, 구체적으로는 양안 시차에 기반하여 탑승자의 머리 위치의 시차값으로 탑승자의 위치를 파악하는 방법에 관한 것이다.The present invention relates to a method for detecting and tracking a passenger's head position parallax using a stereo camera, and more particularly, to a method for identifying a passenger's position by a parallax value of a passenger's head position based on binocular parallax.

차량의 사고시 탑승자들의 안전은 매우 위험하게 되고 심각한 부상이나 사망사고에 이르기까지 한다. 따라서, 차량 탑승자들의 안전을 위하여 각 자동차 생산업체는 자동차에 에어백을 설치하기 시작하였다. 자동차에 에어백(airback)을 사용함으로 인해 탑승자들의 안전이 매우 향상되었다. In the event of a car accident, the safety of the occupants becomes very dangerous and can result in serious injury or death. Thus, for the safety of vehicle occupants, each car manufacturer has begun installing air bags in cars. The use of airbags in automobiles has greatly improved occupant safety.

그러나, 탑승자가 부적절한 위치에 있을 때 에어백이 작동되면 탑승자들은 매우 심각한 부상을 입을 수 있다. 미국 고속도로 교통안전위원회(National Highway Traffic Safety Administration : NHTSA)에 따르면, 지난 1990부터 2002년 4월까지, 200명 이상이 직접적인 에어백 작동에 의해 사망한 것으로 기록되었다. 이러한 사망자들의 대부분은 어린이였다(어린이 144명, 어른 87명). 부적합한 탑승자 위치에서 에어백 작동에 따른 심각한 부상자의 수는 점점 증가하는 추세이다. However, if the airbag is operated when the occupant is in an improper position, the occupant may be very seriously injured. According to the National Highway Traffic Safety Administration (NHTSA), more than 200 people were killed by direct airbag operation from 1990 to April 2002. Most of these deaths were children (144 children, 87 adults). The number of serious injuries resulting from airbag operation in an inadequate occupant position is increasing.

이에 따라, 미국 고속도로 교통안전위원회(NHTSA)에서는 도 1과 같이 탑승자의 위치를 여러 구역으로 나누고, 탑승자가 적절한 위치에 있을 때에만 에어백이 작동하도록 규정하였다.Accordingly, the US Highway Traffic Safety Administration (NHTSA) has divided the occupant's position into sections as shown in FIG.

도 1은 미국 고속도로 교통안전위원회에서 탑승자 좌석에서의 에어백이 동작할 수 있는지 여부에 따라 정상 영역과 위험 영역을 정해둔 도면이다.FIG. 1 is a diagram illustrating a normal area and a dangerous area according to whether an airbag in a passenger seat can be operated by the US Highway Traffic Safety Administration.

도 1을 참조하면, 에어백이 작동하기 위한 탑승자의 올바른 위치를 결정하기 위해, 좌석과 대쉬보드(Dashboard) 사이를 IP(In Position), OOP(Out of Position) 및 COOP(Critically Out of Position) 영역으로 나누었다. 즉, IP(In Position)은 탑승자의 정상 위치로서, 탑승자가 의자에 가까운 위치이다. OOP(Out of Position)은 탑승자의 비정상 위치(위험위치)로서, 탑승자가 의자와 핸들 중간 위치이다. 마지막으로, COOP(Critically Out of Position)은 탑승자가 매우 위험한 위치로서, 탑승자가 핸들에 쏠린 위치이다.Referring to FIG. 1, in order to determine the correct position of the occupant for the airbag to operate, an IP (In Position), Out of Position (OOP) and Critically Out of Position (COOP) area between the seat and the dashboard Divided by. That is, IP (In Position) is the normal position of the occupant, and the occupant is close to the chair. OOP (Out of Position) is the abnormal position (hazardous position) of the occupant, the occupant is between the chair and the handle. Finally, the COP (Critically Out of Position) is a very dangerous position for the occupant, where the occupant is on the steering wheel.

이와 같이, 탑승자의 위치에 따라 에어백이 정상적으로 동작하기 위해서는 탑승자의 위치가 상기 IP, OOP, COOP 영역 중 어디에 있는지를 간단하고, 빠르게, 그리고 정확하게 실시간으로 검출할 수 있는 방법이 절실히 요청된다.As such, in order for the airbag to operate normally according to the position of the occupant, there is an urgent need for a method capable of detecting in real time the position of the occupant in the IP, OOP, and COOP areas in real time.

본 발명은 양안 시차에 기반하여 차량 탑승자의 머리 위치의 시차값으로 탑승자의 위치를 파악할 수 있는 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a method for determining the position of the occupant by the parallax value of the head position of the vehicle occupant based on binocular parallax.

상기 목적을 달성하기 위한 본 발명의 스테레오 카메라를 이용한 차량 탑승자 머리 위치 시차 검출 및 추적 방법은 (a) 차량 앞 측에 부착된 스테레오 카메라 로부터 촬영된 탑승자의 좌 영상과 우 영상을 입력하는 단계; (b) 상기 입력된 좌우 영상들을 가우시안 커널(Gaussian Kernel)을 이용하여 평탄화하고 좌우 영상들의 용량을 축소시키는 단계; (c) 상기 평탄화 및 축소된 좌우 영상들을 LoG(Laplacian of Gaussian) 필터와 SAD(Sum of Absolute Differences)를 이용하여 시차 영상을 추출하는 단계; (d) 상기 (a) 및 (b) 단계가 수행되는 동안, 상기 (a) 단계에서 입력된 좌 영상 또는 우 영상에서 누적 프레임 차를 구하고, 모폴로지 기법을 통해 윤곽선 영상을 추출하는 단계; (e) 상기 (c) 단계에서 구한 시차 영상과 상기 (d) 단계에서 구한 윤곽선 영상을 결합하고 허프 변환(Hough transform)을 이용하여 머리 영역을 추출하는 단계; (f) 상기 (a) 단계에서 입력되는 좌우 영상과 상기 (e) 단계에서 추출한 머리 영역으로부터 SAD(Sum of Absolute Differences)를 이용하여 머리 시차를 추출하는 단계; 및 (g) 상기 추출된 머리 시차로부터 상기 탑승자가 IP(In Position), OOP(Out of Position) 또는 COOP(Critically Out of Position) 범위에 있는가를 결정하는 단계를 포함하는 것을 특징으로 한다.A vehicle occupant head position parallax detection and tracking method using a stereo camera of the present invention for achieving the above object comprises the steps of: (a) inputting a left image and a right image of the occupant taken from the stereo camera attached to the front of the vehicle; (b) flattening the input left and right images using a Gaussian kernel and reducing the capacity of the left and right images; (c) extracting the parallax image from the flattened and reduced left and right images by using a Laplacian of Gaussian (LoG) filter and Sum of Absolute Differences (SAD); (d) while the steps (a) and (b) are performed, obtaining a cumulative frame difference from the left image or the right image input in the step (a), and extracting the contour image through a morphology technique; (e) combining the parallax image obtained in step (c) and the contour image obtained in step (d) and extracting a head region using a Hough transform; (f) extracting head parallax from the left and right images input in the step (a) and the head region extracted in the step (e) using SAD (Sum of Absolute Differences); And (g) determining whether the occupant is in an IP (In Position), OOP (Out of Position) or COOP (Critically Out of Position) range from the extracted head parallax.

여기서, 상기 (e) 단계에서 추출된 머리 영역으로부터 칼만 필터(Kalman filter)를 이용하여 머리 위치를 추적하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include tracking the head position using a Kalman filter from the head region extracted in the step (e).

또한, 상기 (e) 단계에서 추출된 머리 영역으로부터 차량 탑승자의 크기나 특징을 결정하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include determining a size or a feature of the vehicle occupant from the head region extracted in the step (e).

나아가, 상기 (f) 단계에서 추출되는 머리 시차로부터 하기 수학식 1에 의해 상기 스테레오 카메라와 탑승자 간의 거리가 결정되는 것을 특징으로 한다.Further, the distance between the stereo camera and the occupant is determined by the following equation 1 from the head parallax extracted in step (f).

[수학식 1][Equation 1]

Figure 112006038810257-pat00001
Figure 112006038810257-pat00001

여기서, r은 탑승자 머리와 스테레오 카메라 간의 거리, b는 스테레오 카메라 간의 거리, f는 렌즈의 초점거리이며, d = dl - dr 이고 dl과 dr은 각각 좌 영상과 우 영상에서 영상의 중심과 탑승자 간의 거리를 나타낸다.Where r is the distance between the occupant's head and the stereo camera, b is the distance between the stereo camera, f is the focal length of the lens, and d = dl-dr and dl and dr are between the center of the image and the occupant in the left and right images, respectively. Indicates distance.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 실시예에 따른 차량 탑승자 머리 위치 시차 검출 및 추적 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for detecting and tracking a vehicle occupant head position parallax according to an exemplary embodiment of the present invention.

도 2를 참조하면, 먼저, 스테레오 카메라로부터 좌 영상(Left image)과 우 영상(Right image)을 획득한다(S101).Referring to FIG. 2, first, a left image and a right image are obtained from a stereo camera (S101).

상기 입력된 좌우 영상들은 가우시안 커널(Gaussian Kernel)을 이용하여 평탄화(smoothing)된 후 1/4의 크기로 축소(downsampling)된다(S102). 상기 가우시안 커널(Gaussian Kernel)은 평탄화를 위한 마스크 정보이며, 이러한 평탄화를 통해 원영상의 노이즈를 제거하고 주위 이미지(pixel)를 같게 만든다. 다만, 평탄화를 통해 원 영상의 정보를 상실할 수 있지만, 찾고자 하는 머리 위치는 적은 정보로 찾을 수 있다. The input left and right images are smoothed using a Gaussian kernel and then downsampled to a size of 1/4 (S102). The Gaussian Kernel is mask information for planarization. The planarization removes noise of the original image and makes the surrounding pixels the same. However, although the information of the original image may be lost through flattening, the head position to be searched may be found with little information.

다음으로, 상기 좌우 영상의 차이를 줄이기 위해 LoG(Laplacian of Gaussian) 필터를 취하고, 영역 내에서 좌우 영상 밝기 값의 차를 모두 더한 값인 SAD(Sum of Absolute Differences)를 적용하여 좌우 영상의 에지(edge)를 구한다. 스테레오 이미지이므로 좌우 각각의 상하 영상의 위치는 동일하고 좌우 영상만 다르게 표현된다. 이때 좌우 영상의 차를 구하여 시차 영상을 추출하고(disparity extraction) 이를 이용하여 시차 영상 정보맵(disparity map)을 구한다(S103). Next, a Laglacian of Gaussian (LoG) filter is taken to reduce the difference between the left and right images, and the SAD (Sum of Absolute Differences), which is a value obtained by adding the difference between the left and right image brightness values, is applied to the edge of the left and right images. ) Since it is a stereo image, the positions of the top and bottom images of the left and right sides are the same and only the left and right images are represented differently. At this time, the parallax image is extracted by disparity extraction from the left and right images, and a parallax image information map is obtained using the disparity extraction (S103).

여기서, LoG(Laplacian of Gaussian) 필터란 2차 미분 에지 연산자 중 하나로서, 본 발명에서는 윤곽 검출을 위한 필터이며, 이미지의 색 경계가 있는 경우 미분으로 그 영역만을 추출 가능하다. 라플라시안(Laplacian) 필터는 다른 필터보다 섬세한 에지 검출이 가능하면 2차 미분에 의한 판단시점을 제공하며 모든 방향의 에지를 동시에 검출할 수 있다. 결과 영상은 에지 부분에서 부호가 변경이 되며, 이러한 부호의 변화를 영교차(zero crossing)이라 하며 연산후 영상에 대한 영교차가 발생되는 곳을 찾아서 그에 따라 출력 화소 값을 설정해야 한다. 라플라시안(Laplacian) 필터의 단점은 잡음(noise)에 민감하므로 영교차 처리의 결과가 실제 존재하는 것보다 많은 에지가 검출될 수 있다. 따라서, 라플라시안(Laplacian) 하기 전에 가우시안(gaussian)을 처리해서 잡음(noise)을 줄인다.Here, the Laplacian of Gaussian (LoG) filter is one of the second-order differential edge operators, and according to the present invention, it is a filter for edge detection, and when there is a color boundary of the image, only the region can be extracted as a derivative. Laplacian filters provide edges of second order differentiation and detect edges in all directions at the same time, if more edge detection is possible than other filters. The sign of the resultant image is changed at the edge part, and this change of sign is called zero crossing, and it is necessary to find the place where the zero crossing of the image occurs after the operation and set the output pixel value accordingly. The disadvantage of the Laplacian filter is that it is sensitive to noise so that more edges can be detected than the actual result of zero crossing processing. Thus, Gaussian is processed before Laplacian to reduce noise.

또한, 영상의 잡음을 줄이기 위해 메디안 필터나 모폴로지 기법을 이용하며, 이 영상은 다시 원래 크기로 확대된다. Median filters or morphology techniques are also used to reduce noise in the image, which is then scaled back to its original size.

도 3은 스테레오 카메라와 탑승자 사이의 거리에 따른 시차 영상 정보맵을 나타낸 도면으로서, (a)는 거리가 70 cm 일 때 원 영상이고, (b)는 시차 추출 후의 시차 영상이며, (c)는 상기 (a)와 (b) 영상이 결합 된 영상이다. 또한, (d), (e), (f)는 거리가 50 cm 일 때의 영상들이다.3 is a diagram showing a parallax image information map according to the distance between the stereo camera and the occupant, (a) is an original image when the distance is 70 cm, (b) is a parallax image after parallax extraction, and (c) The images (a) and (b) are combined images. Also, (d), (e), and (f) are images when the distance is 50 cm.

한편, 별도로 우측 영상에서 누적 프레임 차(Cumulative frame difference)를 구해서(움직임 포착)(S202), 모폴로지 기법을 통해 원하는 윤곽선 영역만을 추출해 낸다(S203). 여기서, 모폴로지 기법은 미리 기하학적 형태를 알고 있는 대상 물체의 정보를 반영하여 영상 내에서 원하는 부분을 추출하는 것으로서, 이를 이용하여 우리가 관심을 가지는 물체 이외의 것들은 노이즈(noise)로 간주한다.Meanwhile, a cumulative frame difference is obtained separately from the right image (motion capture) (S202), and only a desired contour region is extracted through a morphology technique (S203). Here, the morphology technique extracts a desired part from the image by reflecting information of an object of which the geometric shape is known in advance. By using this, other than the object of interest is regarded as noise.

도 4는 누적된 프레임 차와 모폴로지 기법을 이용하여 윤곽선을 추출한 도면으로서, (a)는 한 프레임, (b)는 5 프레임 동안 누적된 차 영상, (c)는 모폴로지 기법이 적용된 결과 영상이다.4 is a diagram in which contours are extracted using the accumulated frame difference and morphology technique, (a) is one frame, (b) is a difference image accumulated for five frames, and (c) is a result image to which the morphology technique is applied.

다음으로, 앞서 구한 시차 영상과 윤곽선 영상을 결합하면 머리 영역을 검출할 수 있다(S104). 허프 변환(Hough transform)을 이용하여 머리 위치에 가장 잘 맞는 타원 및 그 위치를 찾는다. 여기서, 허프 변환이란 영상 전 영역에 걸친 패턴 추출에 이용되며, 산재해 있는 패턴, 구멍이 있는 패턴, 잡음이 있는 패턴 등을 포함하는 영상에서 주로 사용되며, 본 발명의 경우 타원(얼굴)을 추출하는데 이용된다. 타원의 세로축을 고려하여 각 픽셀은 세로 축으로 평균한다. Next, when the previously obtained parallax image and the contour image are combined, the head region may be detected (S104). The Hough transform is used to find the ellipse that best fits the head position and its position. Here, the Hough transform is used to extract a pattern over an entire area of the image, and is mainly used in an image including scattered patterns, patterns with holes, patterns with noise, and the like. In the present invention, an ellipse (face) is extracted. It is used to Considering the vertical axis of the ellipse, each pixel is averaged on the vertical axis.

이로써 구해진 스테레오 좌우 영상과 검출된 머리 영역 각각의 값을 SAD(Sum of Absolute Differences)를 이용하여 머리 시차(head disparity)를 추출한다(S105).The head disparity is extracted from each of the stereo left and right images and the detected head region using SAD (Sum of Absolute Differences) (S105).

상기 머리 시차(head disparity)를 이용하여 머리가 차량의 어느 영역에 위치하는지 판단할 수 있다. 여기서, 머리가 앞쪽에 있느냐, 뒤쪽에 있느냐에 따라 앞서 살펴본 IP(In Position), OOP(Out of Position) 또는 COOP(Critically Out of Position) 영역을 결정한다(S107).The head disparity may be used to determine in which area of the vehicle the head is located. In this case, the IP (In Position), OOP (Out of Position) or COOP (Critically Out of Position) areas described above are determined according to whether the head is at the front or the rear (S107).

이와 같은, 탑승자의 머리 위치의 시차 및 거리 검출은 스테레오 기하학을 나타낸 도 5를 참조하여 아래 수학식 1에 의해 검출할 수 있다.Such a parallax and distance detection of the occupant's head position can be detected by Equation 1 below with reference to FIG.

Figure 112006038810257-pat00002
Figure 112006038810257-pat00002

여기서, r은 추적한 탑승자 머리와 스테레오 카메라 간의 거리를, b는 카메라 간의 거리를 나타내며, f는 렌즈의 초점거리이다. 또한, d=dl-dr로서 dl과 dr은 각각 좌 또는 우 영상에서 영상의 중심과 물체 간의 거리를 나타낸다. 예를 들어, 스테레오 카메라의 f가 3.6mm이고 b가 9.5cm 에서, 머리 시차(d)가 24 pixels(1 pixel은 0.02mm이다)라고 가정하면, 물체와 스테레오 카메라 간의 거리는 70cm이다.Where r is the distance between the tracked occupant's head and the stereo camera, b is the distance between the cameras, and f is the focal length of the lens. Also, as d = dl-dr, dl and dr represent the distance between the center of the image and the object in the left or right image, respectively. For example, assuming that f of the stereo camera is 3.6 mm and b is 9.5 cm, the head parallax d is 24 pixels (1 pixel is 0.02 mm), the distance between the object and the stereo camera is 70 cm.

한편, 머리 위치를 표현하는 두 개의 벡터를 이용하여 칼만 필터(Kalman filter)는 머리의 위치를 추적한다(S106). 칼만 필터(Kalman filter)는 반복적인 연산을 통해 최적 값을 추적하는 것을 기본 개념으로 하는 이미 공지된 알고리즘이므로 상세한 설명은 생략하기로 한다. 적은 벡터를 사용하는 단점을 보완하기 위해 예측값과 실제값 간의 분산을 상태 모델과 측정 모델에 적용한다.Meanwhile, the Kalman filter tracks the position of the head by using two vectors representing the head position (S106). The Kalman filter is a well-known algorithm whose basic concept is to track the optimal value through iterative operations, and thus a detailed description thereof will be omitted. To compensate for the disadvantage of using fewer vectors, we apply variances between the predicted and actual values to the state and measurement models.

나아가, 상기 단계 (S104)에서 검출된 머리 영역으로부터 탑승자의 크기나 특징 등을 결정한다(S108).Further, the size or characteristics of the occupant are determined from the head region detected in the step S104 (S108).

도 6은 본 발명의 실시예에 따라 스테레오 카메라로 촬영한 좌안 영상과 우안 영상을 나타낸 도면이고, 도 7은 본 발명의 실시예에 따른 방법을 사용하여 머리 위치 시차 검출 및 추적을 성공적으로 나타낸 실험 결과도이다. FIG. 6 is a diagram illustrating a left eye image and a right eye image captured by a stereo camera according to an embodiment of the present invention, and FIG. 7 is an experiment illustrating successful detection and tracking of head position parallax using a method according to an embodiment of the present invention. The result is also.

도 6 및 도 7을 참조하면, 본 발명의 실시예에 따른 방법을 검증하기 위해 차량에서 획득한 영상을 실험 영상으로 사용하였다. 스테레오 카메라는 탑승자의 앞쪽에 설치되었다. 500 여장의 영상은 15fps의 320×240 크기로 3명의 실험자가 다양한 행동을 취한 것을 포함하고 있다. 실험 결과 제안한 방법이 탑승자의 머리를 제대로 검출 및 추적하고 있음을 알 수 있다.6 and 7, an image obtained from a vehicle was used as an experimental image to verify a method according to an exemplary embodiment of the present invention. Stereo cameras were installed in front of the occupants. Over 500 images are 320 x 240 at 15 fps, which includes three experimenters taking various actions. Experimental results show that the proposed method detects and tracks the occupant's head properly.

본 발명의 양안 시차에 기반하여 차량 탑승자의 머리 위치의 시차값으로 탑승자의 위치를 파악할 수 있는 방법에 의하면, 탑승자의 위치가 상기 IP, OOP, COOP 영역 중 어디에 있는지를 간단하고, 빠르게, 그리고 정확하게 실시간으로 검출할 수 있는 효과가 있다.According to the method of determining the position of the occupant by the parallax value of the head position of the vehicle occupant based on the binocular parallax of the present invention, it is simple, quick and accurate to determine where the occupant's position is in the IP, OOP, and COOP areas. There is an effect that can be detected in real time.

Claims (4)

(a) 차량 앞 측에 부착된 스테레오 카메라로부터 촬영된 탑승자의 좌 영상과 우 영상을 입력하는 단계;(a) inputting a left image and a right image of a passenger photographed from a stereo camera attached to the front side of the vehicle; (b) 상기 입력된 좌우 영상들을 가우시안 커널(Gaussian Kernel)을 이용하여 평탄화하고 좌우 영상들의 용량을 축소시키는 단계;(b) flattening the input left and right images using a Gaussian kernel and reducing the capacity of the left and right images; (c) 상기 평탄화 및 축소된 좌우 영상들을 LoG(Laplacian of Gaussian) 필터와 SAD(Sum of Absolute Differences)를 이용하여 시차 영상을 추출하는 단계;(c) extracting the parallax image from the flattened and reduced left and right images by using a Laplacian of Gaussian (LoG) filter and Sum of Absolute Differences (SAD); (d) 상기 (a) 및 (b) 단계가 수행되는 동안, 상기 (a) 단계에서 입력된 좌 영상 또는 우 영상에서 누적 프레임 차를 구하고, 모폴로지 기법을 통해 윤곽선 영상을 추출하는 단계;(d) while the steps (a) and (b) are performed, obtaining a cumulative frame difference from the left image or the right image input in the step (a), and extracting the contour image through a morphology technique; (e) 상기 (c) 단계에서 구한 시차 영상과 상기 (d) 단계에서 구한 윤곽선 영상을 결합하고 허프 변환(Hough transform)을 이용하여 머리 영역을 추출하는 단계;(e) combining the parallax image obtained in step (c) and the contour image obtained in step (d) and extracting a head region using a Hough transform; (f) 상기 (a) 단계에서 입력되는 좌우 영상과 상기 (e) 단계에서 추출한 머리 영역으로부터 SAD(Sum of Absolute Differences)를 이용하여 머리 시차를 추출하는 단계; 및(f) extracting head parallax from the left and right images input in the step (a) and the head region extracted in the step (e) using SAD (Sum of Absolute Differences); And (g) 상기 추출된 머리 시차로부터 상기 탑승자가 IP(In Position), OOP(Out of Position) 또는 COOP(Critically Out of Position) 범위에 있는가를 결정하는 단계를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 차량 탑승자 머리 위치 시차 검출 및 추적 방법.(g) determining whether the occupant is in an IP (In Position), OOP (Out of Position) or COOP (Critically Out of Position) range from the extracted head parallax. Parallax detection and tracking method for occupant head position. 제 1 항에 있어서,The method of claim 1, 상기 (e) 단계에서 추출된 머리 영역으로부터 칼만 필터(Kalman filter)를 이용하여 머리 위치를 추적하는 단계를 더 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 차량 탑승자 머리 위치 시차 검출 및 추적 방법.A method for detecting and tracking a vehicle occupant's head position using a stereo camera, further comprising tracking a head position using a Kalman filter from the head region extracted in the step (e). 제 1 항에 있어서, The method of claim 1, 상기 (e) 단계에서 추출된 머리 영역으로부터 차량 탑승자의 크기나 특징을 결정하는 단계를 더 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 차량 탑승자 머리 위치 시차 검출 및 추적 방법.Determining and tracking the vehicle occupant head position using a stereo camera, characterized in that further comprising the step of determining the size or characteristics of the vehicle occupant from the head region extracted in the step (e). 제 1 항에 있어서,The method of claim 1, 상기 (f) 단계에서 추출되는 머리 시차로부터 하기 수학식 1에 의해 상기 스테레오 카메라와 탑승자 간의 거리가 결정되는 것을 특징으로 하는 스테레오 카메라를 이용한 차량 탑승자 머리 위치 시차 검출 및 추적 방법.Method for detecting and tracking a vehicle occupant head position using a stereo camera, characterized in that the distance between the stereo camera and the occupant is determined by the following equation 1 from the head parallax extracted in the step (f). [수학식 1][Equation 1]
Figure 112006038810257-pat00003
Figure 112006038810257-pat00003
여기서, r은 탑승자 머리와 스테레오 카메라 간의 거리, b는 스테레오 카메라 간의 거리, f는 렌즈의 초점거리이며, d = dl - dr 이고 dl과 dr은 각각 좌 영상과 우 영상에서 영상의 중심과 탑승자 간의 거리를 나타낸다.Where r is the distance between the occupant's head and the stereo camera, b is the distance between the stereo camera, f is the focal length of the lens, and d = dl-dr and dl and dr are between the center of the image and the occupant in the left and right images, respectively. Indicates distance.
KR1020060049321A 2006-06-01 2006-06-01 Vehicle occupant head distance extraction method using stereo-vision KR100779739B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060049321A KR100779739B1 (en) 2006-06-01 2006-06-01 Vehicle occupant head distance extraction method using stereo-vision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060049321A KR100779739B1 (en) 2006-06-01 2006-06-01 Vehicle occupant head distance extraction method using stereo-vision

Publications (1)

Publication Number Publication Date
KR100779739B1 true KR100779739B1 (en) 2007-11-26

Family

ID=39080937

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060049321A KR100779739B1 (en) 2006-06-01 2006-06-01 Vehicle occupant head distance extraction method using stereo-vision

Country Status (1)

Country Link
KR (1) KR100779739B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101203044B1 (en) 2010-12-13 2012-11-20 국방과학연구소 Clutter reduction method for moving object and target detection system using the method
KR101497557B1 (en) * 2013-10-30 2015-03-02 국방과학연구소 Single-ping-clutter removing technique of active-sonar using estimation of multidimensional-feature-vector
US11878708B2 (en) 2021-06-04 2024-01-23 Aptiv Technologies Limited Method and system for monitoring an occupant of a vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003160021A (en) 2001-07-10 2003-06-03 Eaton Corp Image processing system, image distinguishing system, and method of estimating image movement
JP2003267182A (en) 2002-01-17 2003-09-25 Eaton Corp Image processing system and method therefor
KR20030082550A (en) * 2000-12-07 2003-10-22 지멘스 악티엔게젤샤프트 Device and method for detecting an object in a vehicle
KR20050082678A (en) * 2004-02-20 2005-08-24 주식회사 현대오토넷 The passenger recognition system which uses the stereo camera
KR20060010710A (en) * 2003-05-13 2006-02-02 지멘스 악티엔게젤샤프트 Method for determining the current position of the heads of vehicle occupants

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030082550A (en) * 2000-12-07 2003-10-22 지멘스 악티엔게젤샤프트 Device and method for detecting an object in a vehicle
JP2003160021A (en) 2001-07-10 2003-06-03 Eaton Corp Image processing system, image distinguishing system, and method of estimating image movement
JP2003267182A (en) 2002-01-17 2003-09-25 Eaton Corp Image processing system and method therefor
KR20060010710A (en) * 2003-05-13 2006-02-02 지멘스 악티엔게젤샤프트 Method for determining the current position of the heads of vehicle occupants
KR20050082678A (en) * 2004-02-20 2005-08-24 주식회사 현대오토넷 The passenger recognition system which uses the stereo camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101203044B1 (en) 2010-12-13 2012-11-20 국방과학연구소 Clutter reduction method for moving object and target detection system using the method
KR101497557B1 (en) * 2013-10-30 2015-03-02 국방과학연구소 Single-ping-clutter removing technique of active-sonar using estimation of multidimensional-feature-vector
US11878708B2 (en) 2021-06-04 2024-01-23 Aptiv Technologies Limited Method and system for monitoring an occupant of a vehicle

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
JP6013884B2 (en) Object detection apparatus and object detection method
JP7025912B2 (en) In-vehicle environment recognition device
CN106485233B (en) Method and device for detecting travelable area and electronic equipment
KR101243108B1 (en) Apparatus and method for displaying rear image of vehicle
EP1221643B1 (en) Apparatus and method for detecting traffic lane mark for automotive vehicle
JP6511283B2 (en) Object detection device
JP6054777B2 (en) Stereo camera device
EP2928178B1 (en) On-board control device
KR102270677B1 (en) Apparatus for safety-driving of vehicle
JP5068134B2 (en) Target area dividing method and target area dividing apparatus
KR101093316B1 (en) Method and System for Image Matching While Driving Vehicle
CN110088802B (en) Object detection device
CN109478324A (en) Image processing apparatus, extraneous identification device
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP5401257B2 (en) Far-infrared pedestrian detection device
JP5539250B2 (en) Approaching object detection device and approaching object detection method
KR100779739B1 (en) Vehicle occupant head distance extraction method using stereo-vision
KR20120086577A (en) Apparatus And Method Detecting Side Vehicle Using Camera
Romdhane et al. A generic obstacle detection method for collision avoidance
JP4772622B2 (en) Perimeter monitoring system
JP4791086B2 (en) Collision avoidance system
KR101724735B1 (en) An road analysis and object detection system using stereovision camera
JP2018088237A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program
KR102270678B1 (en) Apparatus for safety-driving of vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121011

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130926

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20141010

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20151102

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20161025

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20181119

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20191119

Year of fee payment: 13