KR100779739B1 - Vehicle occupant head distance extraction method using stereo-vision - Google Patents
Vehicle occupant head distance extraction method using stereo-vision Download PDFInfo
- Publication number
- KR100779739B1 KR100779739B1 KR1020060049321A KR20060049321A KR100779739B1 KR 100779739 B1 KR100779739 B1 KR 100779739B1 KR 1020060049321 A KR1020060049321 A KR 1020060049321A KR 20060049321 A KR20060049321 A KR 20060049321A KR 100779739 B1 KR100779739 B1 KR 100779739B1
- Authority
- KR
- South Korea
- Prior art keywords
- head
- image
- occupant
- stereo camera
- parallax
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/168—Segmentation; Edge detection involving transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/543—Depth or shape recovery from line drawings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
도 1은 미국 고속도로 교통안전위원회에서 탑승자 좌석에서의 에어백이 동작할 수 있는지 여부에 따라 정상 영역과 위험 영역을 정해둔 도면이다.FIG. 1 is a diagram illustrating a normal area and a dangerous area according to whether an airbag in a passenger seat can be operated by the US Highway Traffic Safety Administration.
도 2는 본 발명의 실시예에 따른 차량 탑승자 머리 위치 시차 검출 및 추적 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for detecting and tracking a vehicle occupant head position parallax according to an exemplary embodiment of the present invention.
도 3은 스테레오 카메라와 탑승자 사이의 거리에 따른 시차 영상 정보맵을 나타낸 도면이다.3 is a diagram illustrating a parallax image information map according to a distance between a stereo camera and a passenger.
도 4는 누적된 프레임 차와 모폴로지 기법을 이용하여 윤곽선을 추출한 도면이다.4 is a diagram extracting contour lines by using a accumulated frame difference and morphology technique.
도 5는 탑승자의 머리 위치의 시차 및 거리 검출을 위한 스테레오 기하학을 나타낸 도면이다.FIG. 5 is a diagram illustrating stereo geometry for parallax and distance detection of a passenger's head position. FIG.
도 6은 본 발명의 실시예에 따라 스테레오 카메라로 촬영한 좌안 영상과 우안 영상을 나타낸 도면이다.6 is a diagram illustrating a left eye image and a right eye image photographed by a stereo camera according to an exemplary embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 방법을 사용하여 머리 위치 시차 검출 및 추적을 성공적으로 나타낸 실험 결과도이다.7 is an experimental result diagram successfully showing head position parallax detection and tracking using the method according to an embodiment of the present invention.
본 발명은 스테레오 카메라를 이용한 탑승자 머리 위치 시차 검출 및 추적 방법에 관한 것으로서, 구체적으로는 양안 시차에 기반하여 탑승자의 머리 위치의 시차값으로 탑승자의 위치를 파악하는 방법에 관한 것이다.The present invention relates to a method for detecting and tracking a passenger's head position parallax using a stereo camera, and more particularly, to a method for identifying a passenger's position by a parallax value of a passenger's head position based on binocular parallax.
차량의 사고시 탑승자들의 안전은 매우 위험하게 되고 심각한 부상이나 사망사고에 이르기까지 한다. 따라서, 차량 탑승자들의 안전을 위하여 각 자동차 생산업체는 자동차에 에어백을 설치하기 시작하였다. 자동차에 에어백(airback)을 사용함으로 인해 탑승자들의 안전이 매우 향상되었다. In the event of a car accident, the safety of the occupants becomes very dangerous and can result in serious injury or death. Thus, for the safety of vehicle occupants, each car manufacturer has begun installing air bags in cars. The use of airbags in automobiles has greatly improved occupant safety.
그러나, 탑승자가 부적절한 위치에 있을 때 에어백이 작동되면 탑승자들은 매우 심각한 부상을 입을 수 있다. 미국 고속도로 교통안전위원회(National Highway Traffic Safety Administration : NHTSA)에 따르면, 지난 1990부터 2002년 4월까지, 200명 이상이 직접적인 에어백 작동에 의해 사망한 것으로 기록되었다. 이러한 사망자들의 대부분은 어린이였다(어린이 144명, 어른 87명). 부적합한 탑승자 위치에서 에어백 작동에 따른 심각한 부상자의 수는 점점 증가하는 추세이다. However, if the airbag is operated when the occupant is in an improper position, the occupant may be very seriously injured. According to the National Highway Traffic Safety Administration (NHTSA), more than 200 people were killed by direct airbag operation from 1990 to April 2002. Most of these deaths were children (144 children, 87 adults). The number of serious injuries resulting from airbag operation in an inadequate occupant position is increasing.
이에 따라, 미국 고속도로 교통안전위원회(NHTSA)에서는 도 1과 같이 탑승자의 위치를 여러 구역으로 나누고, 탑승자가 적절한 위치에 있을 때에만 에어백이 작동하도록 규정하였다.Accordingly, the US Highway Traffic Safety Administration (NHTSA) has divided the occupant's position into sections as shown in FIG.
도 1은 미국 고속도로 교통안전위원회에서 탑승자 좌석에서의 에어백이 동작할 수 있는지 여부에 따라 정상 영역과 위험 영역을 정해둔 도면이다.FIG. 1 is a diagram illustrating a normal area and a dangerous area according to whether an airbag in a passenger seat can be operated by the US Highway Traffic Safety Administration.
도 1을 참조하면, 에어백이 작동하기 위한 탑승자의 올바른 위치를 결정하기 위해, 좌석과 대쉬보드(Dashboard) 사이를 IP(In Position), OOP(Out of Position) 및 COOP(Critically Out of Position) 영역으로 나누었다. 즉, IP(In Position)은 탑승자의 정상 위치로서, 탑승자가 의자에 가까운 위치이다. OOP(Out of Position)은 탑승자의 비정상 위치(위험위치)로서, 탑승자가 의자와 핸들 중간 위치이다. 마지막으로, COOP(Critically Out of Position)은 탑승자가 매우 위험한 위치로서, 탑승자가 핸들에 쏠린 위치이다.Referring to FIG. 1, in order to determine the correct position of the occupant for the airbag to operate, an IP (In Position), Out of Position (OOP) and Critically Out of Position (COOP) area between the seat and the dashboard Divided by. That is, IP (In Position) is the normal position of the occupant, and the occupant is close to the chair. OOP (Out of Position) is the abnormal position (hazardous position) of the occupant, the occupant is between the chair and the handle. Finally, the COP (Critically Out of Position) is a very dangerous position for the occupant, where the occupant is on the steering wheel.
이와 같이, 탑승자의 위치에 따라 에어백이 정상적으로 동작하기 위해서는 탑승자의 위치가 상기 IP, OOP, COOP 영역 중 어디에 있는지를 간단하고, 빠르게, 그리고 정확하게 실시간으로 검출할 수 있는 방법이 절실히 요청된다.As such, in order for the airbag to operate normally according to the position of the occupant, there is an urgent need for a method capable of detecting in real time the position of the occupant in the IP, OOP, and COOP areas in real time.
본 발명은 양안 시차에 기반하여 차량 탑승자의 머리 위치의 시차값으로 탑승자의 위치를 파악할 수 있는 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a method for determining the position of the occupant by the parallax value of the head position of the vehicle occupant based on binocular parallax.
상기 목적을 달성하기 위한 본 발명의 스테레오 카메라를 이용한 차량 탑승자 머리 위치 시차 검출 및 추적 방법은 (a) 차량 앞 측에 부착된 스테레오 카메라 로부터 촬영된 탑승자의 좌 영상과 우 영상을 입력하는 단계; (b) 상기 입력된 좌우 영상들을 가우시안 커널(Gaussian Kernel)을 이용하여 평탄화하고 좌우 영상들의 용량을 축소시키는 단계; (c) 상기 평탄화 및 축소된 좌우 영상들을 LoG(Laplacian of Gaussian) 필터와 SAD(Sum of Absolute Differences)를 이용하여 시차 영상을 추출하는 단계; (d) 상기 (a) 및 (b) 단계가 수행되는 동안, 상기 (a) 단계에서 입력된 좌 영상 또는 우 영상에서 누적 프레임 차를 구하고, 모폴로지 기법을 통해 윤곽선 영상을 추출하는 단계; (e) 상기 (c) 단계에서 구한 시차 영상과 상기 (d) 단계에서 구한 윤곽선 영상을 결합하고 허프 변환(Hough transform)을 이용하여 머리 영역을 추출하는 단계; (f) 상기 (a) 단계에서 입력되는 좌우 영상과 상기 (e) 단계에서 추출한 머리 영역으로부터 SAD(Sum of Absolute Differences)를 이용하여 머리 시차를 추출하는 단계; 및 (g) 상기 추출된 머리 시차로부터 상기 탑승자가 IP(In Position), OOP(Out of Position) 또는 COOP(Critically Out of Position) 범위에 있는가를 결정하는 단계를 포함하는 것을 특징으로 한다.A vehicle occupant head position parallax detection and tracking method using a stereo camera of the present invention for achieving the above object comprises the steps of: (a) inputting a left image and a right image of the occupant taken from the stereo camera attached to the front of the vehicle; (b) flattening the input left and right images using a Gaussian kernel and reducing the capacity of the left and right images; (c) extracting the parallax image from the flattened and reduced left and right images by using a Laplacian of Gaussian (LoG) filter and Sum of Absolute Differences (SAD); (d) while the steps (a) and (b) are performed, obtaining a cumulative frame difference from the left image or the right image input in the step (a), and extracting the contour image through a morphology technique; (e) combining the parallax image obtained in step (c) and the contour image obtained in step (d) and extracting a head region using a Hough transform; (f) extracting head parallax from the left and right images input in the step (a) and the head region extracted in the step (e) using SAD (Sum of Absolute Differences); And (g) determining whether the occupant is in an IP (In Position), OOP (Out of Position) or COOP (Critically Out of Position) range from the extracted head parallax.
여기서, 상기 (e) 단계에서 추출된 머리 영역으로부터 칼만 필터(Kalman filter)를 이용하여 머리 위치를 추적하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include tracking the head position using a Kalman filter from the head region extracted in the step (e).
또한, 상기 (e) 단계에서 추출된 머리 영역으로부터 차량 탑승자의 크기나 특징을 결정하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include determining a size or a feature of the vehicle occupant from the head region extracted in the step (e).
나아가, 상기 (f) 단계에서 추출되는 머리 시차로부터 하기 수학식 1에 의해 상기 스테레오 카메라와 탑승자 간의 거리가 결정되는 것을 특징으로 한다.Further, the distance between the stereo camera and the occupant is determined by the following equation 1 from the head parallax extracted in step (f).
[수학식 1][Equation 1]
여기서, r은 탑승자 머리와 스테레오 카메라 간의 거리, b는 스테레오 카메라 간의 거리, f는 렌즈의 초점거리이며, d = dl - dr 이고 dl과 dr은 각각 좌 영상과 우 영상에서 영상의 중심과 탑승자 간의 거리를 나타낸다.Where r is the distance between the occupant's head and the stereo camera, b is the distance between the stereo camera, f is the focal length of the lens, and d = dl-dr and dl and dr are between the center of the image and the occupant in the left and right images, respectively. Indicates distance.
이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명의 실시예에 따른 차량 탑승자 머리 위치 시차 검출 및 추적 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for detecting and tracking a vehicle occupant head position parallax according to an exemplary embodiment of the present invention.
도 2를 참조하면, 먼저, 스테레오 카메라로부터 좌 영상(Left image)과 우 영상(Right image)을 획득한다(S101).Referring to FIG. 2, first, a left image and a right image are obtained from a stereo camera (S101).
상기 입력된 좌우 영상들은 가우시안 커널(Gaussian Kernel)을 이용하여 평탄화(smoothing)된 후 1/4의 크기로 축소(downsampling)된다(S102). 상기 가우시안 커널(Gaussian Kernel)은 평탄화를 위한 마스크 정보이며, 이러한 평탄화를 통해 원영상의 노이즈를 제거하고 주위 이미지(pixel)를 같게 만든다. 다만, 평탄화를 통해 원 영상의 정보를 상실할 수 있지만, 찾고자 하는 머리 위치는 적은 정보로 찾을 수 있다. The input left and right images are smoothed using a Gaussian kernel and then downsampled to a size of 1/4 (S102). The Gaussian Kernel is mask information for planarization. The planarization removes noise of the original image and makes the surrounding pixels the same. However, although the information of the original image may be lost through flattening, the head position to be searched may be found with little information.
다음으로, 상기 좌우 영상의 차이를 줄이기 위해 LoG(Laplacian of Gaussian) 필터를 취하고, 영역 내에서 좌우 영상 밝기 값의 차를 모두 더한 값인 SAD(Sum of Absolute Differences)를 적용하여 좌우 영상의 에지(edge)를 구한다. 스테레오 이미지이므로 좌우 각각의 상하 영상의 위치는 동일하고 좌우 영상만 다르게 표현된다. 이때 좌우 영상의 차를 구하여 시차 영상을 추출하고(disparity extraction) 이를 이용하여 시차 영상 정보맵(disparity map)을 구한다(S103). Next, a Laglacian of Gaussian (LoG) filter is taken to reduce the difference between the left and right images, and the SAD (Sum of Absolute Differences), which is a value obtained by adding the difference between the left and right image brightness values, is applied to the edge of the left and right images. ) Since it is a stereo image, the positions of the top and bottom images of the left and right sides are the same and only the left and right images are represented differently. At this time, the parallax image is extracted by disparity extraction from the left and right images, and a parallax image information map is obtained using the disparity extraction (S103).
여기서, LoG(Laplacian of Gaussian) 필터란 2차 미분 에지 연산자 중 하나로서, 본 발명에서는 윤곽 검출을 위한 필터이며, 이미지의 색 경계가 있는 경우 미분으로 그 영역만을 추출 가능하다. 라플라시안(Laplacian) 필터는 다른 필터보다 섬세한 에지 검출이 가능하면 2차 미분에 의한 판단시점을 제공하며 모든 방향의 에지를 동시에 검출할 수 있다. 결과 영상은 에지 부분에서 부호가 변경이 되며, 이러한 부호의 변화를 영교차(zero crossing)이라 하며 연산후 영상에 대한 영교차가 발생되는 곳을 찾아서 그에 따라 출력 화소 값을 설정해야 한다. 라플라시안(Laplacian) 필터의 단점은 잡음(noise)에 민감하므로 영교차 처리의 결과가 실제 존재하는 것보다 많은 에지가 검출될 수 있다. 따라서, 라플라시안(Laplacian) 하기 전에 가우시안(gaussian)을 처리해서 잡음(noise)을 줄인다.Here, the Laplacian of Gaussian (LoG) filter is one of the second-order differential edge operators, and according to the present invention, it is a filter for edge detection, and when there is a color boundary of the image, only the region can be extracted as a derivative. Laplacian filters provide edges of second order differentiation and detect edges in all directions at the same time, if more edge detection is possible than other filters. The sign of the resultant image is changed at the edge part, and this change of sign is called zero crossing, and it is necessary to find the place where the zero crossing of the image occurs after the operation and set the output pixel value accordingly. The disadvantage of the Laplacian filter is that it is sensitive to noise so that more edges can be detected than the actual result of zero crossing processing. Thus, Gaussian is processed before Laplacian to reduce noise.
또한, 영상의 잡음을 줄이기 위해 메디안 필터나 모폴로지 기법을 이용하며, 이 영상은 다시 원래 크기로 확대된다. Median filters or morphology techniques are also used to reduce noise in the image, which is then scaled back to its original size.
도 3은 스테레오 카메라와 탑승자 사이의 거리에 따른 시차 영상 정보맵을 나타낸 도면으로서, (a)는 거리가 70 cm 일 때 원 영상이고, (b)는 시차 추출 후의 시차 영상이며, (c)는 상기 (a)와 (b) 영상이 결합 된 영상이다. 또한, (d), (e), (f)는 거리가 50 cm 일 때의 영상들이다.3 is a diagram showing a parallax image information map according to the distance between the stereo camera and the occupant, (a) is an original image when the distance is 70 cm, (b) is a parallax image after parallax extraction, and (c) The images (a) and (b) are combined images. Also, (d), (e), and (f) are images when the distance is 50 cm.
한편, 별도로 우측 영상에서 누적 프레임 차(Cumulative frame difference)를 구해서(움직임 포착)(S202), 모폴로지 기법을 통해 원하는 윤곽선 영역만을 추출해 낸다(S203). 여기서, 모폴로지 기법은 미리 기하학적 형태를 알고 있는 대상 물체의 정보를 반영하여 영상 내에서 원하는 부분을 추출하는 것으로서, 이를 이용하여 우리가 관심을 가지는 물체 이외의 것들은 노이즈(noise)로 간주한다.Meanwhile, a cumulative frame difference is obtained separately from the right image (motion capture) (S202), and only a desired contour region is extracted through a morphology technique (S203). Here, the morphology technique extracts a desired part from the image by reflecting information of an object of which the geometric shape is known in advance. By using this, other than the object of interest is regarded as noise.
도 4는 누적된 프레임 차와 모폴로지 기법을 이용하여 윤곽선을 추출한 도면으로서, (a)는 한 프레임, (b)는 5 프레임 동안 누적된 차 영상, (c)는 모폴로지 기법이 적용된 결과 영상이다.4 is a diagram in which contours are extracted using the accumulated frame difference and morphology technique, (a) is one frame, (b) is a difference image accumulated for five frames, and (c) is a result image to which the morphology technique is applied.
다음으로, 앞서 구한 시차 영상과 윤곽선 영상을 결합하면 머리 영역을 검출할 수 있다(S104). 허프 변환(Hough transform)을 이용하여 머리 위치에 가장 잘 맞는 타원 및 그 위치를 찾는다. 여기서, 허프 변환이란 영상 전 영역에 걸친 패턴 추출에 이용되며, 산재해 있는 패턴, 구멍이 있는 패턴, 잡음이 있는 패턴 등을 포함하는 영상에서 주로 사용되며, 본 발명의 경우 타원(얼굴)을 추출하는데 이용된다. 타원의 세로축을 고려하여 각 픽셀은 세로 축으로 평균한다. Next, when the previously obtained parallax image and the contour image are combined, the head region may be detected (S104). The Hough transform is used to find the ellipse that best fits the head position and its position. Here, the Hough transform is used to extract a pattern over an entire area of the image, and is mainly used in an image including scattered patterns, patterns with holes, patterns with noise, and the like. In the present invention, an ellipse (face) is extracted. It is used to Considering the vertical axis of the ellipse, each pixel is averaged on the vertical axis.
이로써 구해진 스테레오 좌우 영상과 검출된 머리 영역 각각의 값을 SAD(Sum of Absolute Differences)를 이용하여 머리 시차(head disparity)를 추출한다(S105).The head disparity is extracted from each of the stereo left and right images and the detected head region using SAD (Sum of Absolute Differences) (S105).
상기 머리 시차(head disparity)를 이용하여 머리가 차량의 어느 영역에 위치하는지 판단할 수 있다. 여기서, 머리가 앞쪽에 있느냐, 뒤쪽에 있느냐에 따라 앞서 살펴본 IP(In Position), OOP(Out of Position) 또는 COOP(Critically Out of Position) 영역을 결정한다(S107).The head disparity may be used to determine in which area of the vehicle the head is located. In this case, the IP (In Position), OOP (Out of Position) or COOP (Critically Out of Position) areas described above are determined according to whether the head is at the front or the rear (S107).
이와 같은, 탑승자의 머리 위치의 시차 및 거리 검출은 스테레오 기하학을 나타낸 도 5를 참조하여 아래 수학식 1에 의해 검출할 수 있다.Such a parallax and distance detection of the occupant's head position can be detected by Equation 1 below with reference to FIG.
여기서, r은 추적한 탑승자 머리와 스테레오 카메라 간의 거리를, b는 카메라 간의 거리를 나타내며, f는 렌즈의 초점거리이다. 또한, d=dl-dr로서 dl과 dr은 각각 좌 또는 우 영상에서 영상의 중심과 물체 간의 거리를 나타낸다. 예를 들어, 스테레오 카메라의 f가 3.6mm이고 b가 9.5cm 에서, 머리 시차(d)가 24 pixels(1 pixel은 0.02mm이다)라고 가정하면, 물체와 스테레오 카메라 간의 거리는 70cm이다.Where r is the distance between the tracked occupant's head and the stereo camera, b is the distance between the cameras, and f is the focal length of the lens. Also, as d = dl-dr, dl and dr represent the distance between the center of the image and the object in the left or right image, respectively. For example, assuming that f of the stereo camera is 3.6 mm and b is 9.5 cm, the head parallax d is 24 pixels (1 pixel is 0.02 mm), the distance between the object and the stereo camera is 70 cm.
한편, 머리 위치를 표현하는 두 개의 벡터를 이용하여 칼만 필터(Kalman filter)는 머리의 위치를 추적한다(S106). 칼만 필터(Kalman filter)는 반복적인 연산을 통해 최적 값을 추적하는 것을 기본 개념으로 하는 이미 공지된 알고리즘이므로 상세한 설명은 생략하기로 한다. 적은 벡터를 사용하는 단점을 보완하기 위해 예측값과 실제값 간의 분산을 상태 모델과 측정 모델에 적용한다.Meanwhile, the Kalman filter tracks the position of the head by using two vectors representing the head position (S106). The Kalman filter is a well-known algorithm whose basic concept is to track the optimal value through iterative operations, and thus a detailed description thereof will be omitted. To compensate for the disadvantage of using fewer vectors, we apply variances between the predicted and actual values to the state and measurement models.
나아가, 상기 단계 (S104)에서 검출된 머리 영역으로부터 탑승자의 크기나 특징 등을 결정한다(S108).Further, the size or characteristics of the occupant are determined from the head region detected in the step S104 (S108).
도 6은 본 발명의 실시예에 따라 스테레오 카메라로 촬영한 좌안 영상과 우안 영상을 나타낸 도면이고, 도 7은 본 발명의 실시예에 따른 방법을 사용하여 머리 위치 시차 검출 및 추적을 성공적으로 나타낸 실험 결과도이다. FIG. 6 is a diagram illustrating a left eye image and a right eye image captured by a stereo camera according to an embodiment of the present invention, and FIG. 7 is an experiment illustrating successful detection and tracking of head position parallax using a method according to an embodiment of the present invention. The result is also.
도 6 및 도 7을 참조하면, 본 발명의 실시예에 따른 방법을 검증하기 위해 차량에서 획득한 영상을 실험 영상으로 사용하였다. 스테레오 카메라는 탑승자의 앞쪽에 설치되었다. 500 여장의 영상은 15fps의 320×240 크기로 3명의 실험자가 다양한 행동을 취한 것을 포함하고 있다. 실험 결과 제안한 방법이 탑승자의 머리를 제대로 검출 및 추적하고 있음을 알 수 있다.6 and 7, an image obtained from a vehicle was used as an experimental image to verify a method according to an exemplary embodiment of the present invention. Stereo cameras were installed in front of the occupants. Over 500 images are 320 x 240 at 15 fps, which includes three experimenters taking various actions. Experimental results show that the proposed method detects and tracks the occupant's head properly.
본 발명의 양안 시차에 기반하여 차량 탑승자의 머리 위치의 시차값으로 탑승자의 위치를 파악할 수 있는 방법에 의하면, 탑승자의 위치가 상기 IP, OOP, COOP 영역 중 어디에 있는지를 간단하고, 빠르게, 그리고 정확하게 실시간으로 검출할 수 있는 효과가 있다.According to the method of determining the position of the occupant by the parallax value of the head position of the vehicle occupant based on the binocular parallax of the present invention, it is simple, quick and accurate to determine where the occupant's position is in the IP, OOP, and COOP areas. There is an effect that can be detected in real time.
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060049321A KR100779739B1 (en) | 2006-06-01 | 2006-06-01 | Vehicle occupant head distance extraction method using stereo-vision |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060049321A KR100779739B1 (en) | 2006-06-01 | 2006-06-01 | Vehicle occupant head distance extraction method using stereo-vision |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100779739B1 true KR100779739B1 (en) | 2007-11-26 |
Family
ID=39080937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060049321A KR100779739B1 (en) | 2006-06-01 | 2006-06-01 | Vehicle occupant head distance extraction method using stereo-vision |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100779739B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101203044B1 (en) | 2010-12-13 | 2012-11-20 | 국방과학연구소 | Clutter reduction method for moving object and target detection system using the method |
KR101497557B1 (en) * | 2013-10-30 | 2015-03-02 | 국방과학연구소 | Single-ping-clutter removing technique of active-sonar using estimation of multidimensional-feature-vector |
US11878708B2 (en) | 2021-06-04 | 2024-01-23 | Aptiv Technologies Limited | Method and system for monitoring an occupant of a vehicle |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003160021A (en) | 2001-07-10 | 2003-06-03 | Eaton Corp | Image processing system, image distinguishing system, and method of estimating image movement |
JP2003267182A (en) | 2002-01-17 | 2003-09-25 | Eaton Corp | Image processing system and method therefor |
KR20030082550A (en) * | 2000-12-07 | 2003-10-22 | 지멘스 악티엔게젤샤프트 | Device and method for detecting an object in a vehicle |
KR20050082678A (en) * | 2004-02-20 | 2005-08-24 | 주식회사 현대오토넷 | The passenger recognition system which uses the stereo camera |
KR20060010710A (en) * | 2003-05-13 | 2006-02-02 | 지멘스 악티엔게젤샤프트 | Method for determining the current position of the heads of vehicle occupants |
-
2006
- 2006-06-01 KR KR1020060049321A patent/KR100779739B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030082550A (en) * | 2000-12-07 | 2003-10-22 | 지멘스 악티엔게젤샤프트 | Device and method for detecting an object in a vehicle |
JP2003160021A (en) | 2001-07-10 | 2003-06-03 | Eaton Corp | Image processing system, image distinguishing system, and method of estimating image movement |
JP2003267182A (en) | 2002-01-17 | 2003-09-25 | Eaton Corp | Image processing system and method therefor |
KR20060010710A (en) * | 2003-05-13 | 2006-02-02 | 지멘스 악티엔게젤샤프트 | Method for determining the current position of the heads of vehicle occupants |
KR20050082678A (en) * | 2004-02-20 | 2005-08-24 | 주식회사 현대오토넷 | The passenger recognition system which uses the stereo camera |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101203044B1 (en) | 2010-12-13 | 2012-11-20 | 국방과학연구소 | Clutter reduction method for moving object and target detection system using the method |
KR101497557B1 (en) * | 2013-10-30 | 2015-03-02 | 국방과학연구소 | Single-ping-clutter removing technique of active-sonar using estimation of multidimensional-feature-vector |
US11878708B2 (en) | 2021-06-04 | 2024-01-23 | Aptiv Technologies Limited | Method and system for monitoring an occupant of a vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10452931B2 (en) | Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system | |
JP6013884B2 (en) | Object detection apparatus and object detection method | |
JP7025912B2 (en) | In-vehicle environment recognition device | |
CN106485233B (en) | Method and device for detecting travelable area and electronic equipment | |
KR101243108B1 (en) | Apparatus and method for displaying rear image of vehicle | |
EP1221643B1 (en) | Apparatus and method for detecting traffic lane mark for automotive vehicle | |
JP6511283B2 (en) | Object detection device | |
JP6054777B2 (en) | Stereo camera device | |
EP2928178B1 (en) | On-board control device | |
KR102270677B1 (en) | Apparatus for safety-driving of vehicle | |
JP5068134B2 (en) | Target area dividing method and target area dividing apparatus | |
KR101093316B1 (en) | Method and System for Image Matching While Driving Vehicle | |
CN110088802B (en) | Object detection device | |
CN109478324A (en) | Image processing apparatus, extraneous identification device | |
US20200074212A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP5401257B2 (en) | Far-infrared pedestrian detection device | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
KR100779739B1 (en) | Vehicle occupant head distance extraction method using stereo-vision | |
KR20120086577A (en) | Apparatus And Method Detecting Side Vehicle Using Camera | |
Romdhane et al. | A generic obstacle detection method for collision avoidance | |
JP4772622B2 (en) | Perimeter monitoring system | |
JP4791086B2 (en) | Collision avoidance system | |
KR101724735B1 (en) | An road analysis and object detection system using stereovision camera | |
JP2018088237A (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program | |
KR102270678B1 (en) | Apparatus for safety-driving of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
N231 | Notification of change of applicant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121011 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20130926 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20141010 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20151102 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20161025 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20181119 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20191119 Year of fee payment: 13 |