KR100686564B1 - Apparatus for detecting occupant's posture - Google Patents

Apparatus for detecting occupant's posture

Info

Publication number
KR100686564B1
KR100686564B1 KR1019980011427A KR19980011427A KR100686564B1 KR 100686564 B1 KR100686564 B1 KR 100686564B1 KR 1019980011427 A KR1019980011427 A KR 1019980011427A KR 19980011427 A KR19980011427 A KR 19980011427A KR 100686564 B1 KR100686564 B1 KR 100686564B1
Authority
KR
South Korea
Prior art keywords
rider
pattern
distance
linear
distance distribution
Prior art date
Application number
KR1019980011427A
Other languages
Korean (ko)
Other versions
KR19980080977A (en
Inventor
히데유키 다나카
다이치 다니가와
야스카즈 사노
Original Assignee
후지 덴키 홀딩스 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지 덴키 홀딩스 가부시끼가이샤 filed Critical 후지 덴키 홀딩스 가부시끼가이샤
Publication of KR19980080977A publication Critical patent/KR19980080977A/en
Application granted granted Critical
Publication of KR100686564B1 publication Critical patent/KR100686564B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Air Bags (AREA)
  • Image Analysis (AREA)

Abstract

본원 발명은 승차자의 자세 판별 처리의 간소화 및 고속화를 도모하는 것을 목적으로 한다.An object of the present invention is to simplify and speed up the attitude determination process of a rider.

자동차(3)의 천장 부분 등에, 예컨대 복수의 광 센서 소자로 이루어지는 직선형의 광 센서 어레이를 적어도 한 쌍 가지고 승차자(2)의 이미지를 결상하는 승차자 센서(1)와, 이 승차자 이미지의 적어도 하나의 직선형 시야내의 거리 분포를 측정하는 거리 측정 연산 처리 장치(101)와, 이 거리 분포를 표준의 거리 분포와 비교하여 승차자의 유무 및 자세를 판별하는 승차자 판별 처리 장치(102)를 설치하고, 이 처리 장치(102)에 의해 시야내 거리 분포의 특징(유사도)에 착안하여 패턴매칭의 대상을 압축하는 것으로, 특히 판별 처리의 간략화와 고속화를 도모한다.A occupant sensor 1 which forms an image of the occupant 2 with at least one pair of linear light sensor arrays composed of a plurality of optical sensor elements, for example, on the ceiling of the vehicle 3, and at least one of the occupant images A distance measurement arithmetic processing unit 101 for measuring a distance distribution in a linear visual field and a rider discrimination processing device 102 for determining the presence or absence of a rider by comparing the distance distribution with a standard distance distribution are provided. By focusing on the characteristics (similarity) of the intra-view distance distribution by the apparatus 102, the object of pattern matching is compressed, and the discrimination process is simplified and speeded up especially.

Description

승차자의 자세 판별 장치{APPARATUS FOR DETECTING OCCUPANT'S POSTURE}Rider's posture determination device {APPARATUS FOR DETECTING OCCUPANT'S POSTURE}

본원 발명은 복수의 광 센서 소자로 이루어지는 직선형의 광 센서 어레이를 이용하여 승차자, 특히 자동차 승차자의 유무 및 자세를 판별하는 장치에 관한 것으로서, 특히 차량의 충격을 검지하여 좌석 부근에 설치된 에어백을 전개할 때의 제어에 이용하기에 적합한 승차자의 자세 판별 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for determining the presence or absence of a rider, in particular an automobile rider, using a linear optical sensor array comprising a plurality of optical sensor elements. In particular, the present invention detects a vehicle impact and deploys an airbag installed near a seat. The present invention relates to an occupant's attitude determination device suitable for use in control of time.

에어백 장착율은 최근 수년 동안 증가 추세에 있고, 차종에 상관없이 에어백은 표준 장비가 되어 가고 있다. 그러나, 아이가 좌석의 전방에 서 있거나, 몸집이 작은 여성이 앉아 있는 경우에는 에어백이 사망 사고의 원인이 되는 것으로 보고되어 있다. 그 때문에, 이러한 사망 사고를 방지하기 위한 에어백의 전개 제어가 여러 가지 제안되었다. 그 중에서, 자동차 내의 천장 위치에 센서를 설치하여 이 센서로부터 승차자까지의 거리를 측정하고, 그 거리 분포로부터 승차자의 유무 및 자세를 검출하는 종래 방법(1997년 6월 20일자로 출원된 미국 특허 출원 제08/879,821호에 개시된 실시예 참조)에 관해서 이하에 설명한다.Airbag installation rates have been increasing in recent years, and airbags are becoming standard equipment regardless of vehicle type. However, airbags have been reported to cause death if the child is standing in front of the seat or a small female is sitting. For this reason, various deployment control of airbags for preventing such a death accident has been proposed. Among them, a conventional method of installing a sensor at a ceiling position in a vehicle to measure a distance from the sensor to a rider and detecting the presence or absence of a rider from the distance distribution (US patent application filed on June 20, 1997) Reference is made to the embodiment disclosed in 08 / 879,821).

도 21은 이러한 참조 문헌의 미국 특허 출원 제08/879,821호의 실시예를 설명하기 위한 개요도로서, 도면 부호 1은 승차자 센서, 2는 승차자, 3은 자동차를 각각 나타낸다.FIG. 21 is a schematic view for explaining an embodiment of US Patent Application No. 08 / 879,821 of this reference document, where 1 is a rider sensor, 2 is a rider, and 3 is a car.

이것은 승차자 센서(1)에 승차자(2)의 이미지를 결상시키는 것으로, 여기서는 예컨대 승차자(2)에 대하여 4개의 직선형의 시야 영역(R1, R2, R3, R4)을 설정하여 각 영역마다 복수 부위의 승차자 센서 출력을 얻고, 이 출력을 도시되지 않은 처리 장치로써 연산 처리하며, 승차자의 각 부위의 거리 측정을 행하여 각 검사 영역 마다의 거리 분포를 얻어, 이 거리 분포로부터 처리 장치로 승차자의 유무뿐만 아니라 그 자세도 판단하는 것이다. 거리 측정의 원리에 관해서는 후술한다.This forms an image of the occupant 2 in the occupant sensor 1. Here, for example, four linear viewing regions R1, R2, R3, and R4 are set for the occupant 2, and a plurality of portions are provided for each region. Obtain the occupant sensor output, calculate the output with a processing device not shown, measure the distance of each part of the occupant to obtain a distance distribution for each inspection area, and from this distance distribution to the processing device, The attitude is also judged. The principle of the distance measurement will be described later.

그런데, 판별하여야 할 승차자 등의 자세는 여러 가지가 생각되지만, 도 22의 (a)∼(c) 및 (a)'∼(c)' 내지 도 24에 자동차 좌석, 승차자 자세 등과 그 감시 시야와의 관계를 나타내고, 도 25의 (a)∼(c) 내지 도 27의 (a) 및 (b)에 승차자 센서에 의한 거리 측정예를 나타낸다.By the way, various attitudes such as a rider to be discriminated can be considered. However, in FIGS. 22 (a) to (c) and (a) 'to (c)' to FIG. Relationship is shown, and the distance measurement example by a rider sensor is shown to FIG. 25 (a)-(c)-FIG. 27 (a) and (b).

그래서, 도 22의 (a)는 무인 시의 좌석 사시도이고 (a) '는 그 측면도, (b)는 자동차 승차자의 정상 자세 사시도이고 (b)' 는 그 측면도, (c)는 자동차 승차자의 앞으로 기울어진 자세를 나타내는 사시도이고 (c) '는 그 측면도, 도 23의 (a)는 전향 차일드 시트 장착시의 사시도이고 (a)' 는 그 측면도, (b)는 후향 차일드 시트 장착시의 사시도이고 (b) '는 그 측면도, (c)는 아이가 자동차내에 서 있는 스탠딩 차일드 상태인 경우이고 (c)' 는 그 측면도, 도 24는 옆으로 앉은 자세를 각각 나타낸다. 또한, 도 24의 측면도는 정상 자세 시의 측면도, 즉 도 22의 (b) '와 동일하므로 생략하였다.Thus, FIG. 22A is a perspective view of an unmanned seat, (a) is a side view thereof, (b) is a normal attitude perspective view of a car rider, (b) is a side view thereof, and (c) is a front view of a car rider. (C) is a side view thereof, FIG. 23 (a) is a perspective view when the front child seat is mounted, (a) is its side view, and (b) is a perspective view when the rear child seat is mounted. (b) is the side view, (c) is the case of the standing child in which the child stands in the car, and (c) is the side view, and FIG. 24 shows the sitting position sideways, respectively. In addition, the side view of FIG. 24 is abbreviate | omitted since it is the same as the side view of a normal posture, ie, FIG. 22 (b) '.

도 25의 (a)∼(c)는 도 22의 (a)∼(c)에 대응하는 거리 측정예, 도 26의 (a)∼(c)는 도 23의 (a)∼(c)에 대응하는 거리 측정예, 도 27의 (a)는 도 24에 대응하는 거리 측정예를 각각 나타내고 있다. 또한, 도 27의 (b)는 전향 차일드 시트 장착으로 무인시의 거리 측정예를 나타내고 있다. 또한, 도 25의 (a)∼(c) 내지 도 27의 (a) 및 (b) 등의 거리 분포도에 있어서, 종축은 센서로부터의 거리치, 횡축은 시야내 위치를 각각 나타내고, 이하 거리 분포도에서는 특별히 정해지지는 않았을 뿐 같은 것으로 한다.25A to 25C show distance measurement examples corresponding to FIGS. 22A to 22C, and FIGS. 26A to 26C show FIGS. 23A to 23C. A corresponding distance measurement example and FIG. 27A shows a distance measurement example corresponding to FIG. 24, respectively. In addition, FIG. 27 (b) has shown the distance measurement example at the time of unattended by mounting a forward child seat. 25 (a) to 25 (c) to 27 (a) and (b), the vertical axis represents the distance value from the sensor and the horizontal axis represents the position in the field of view, respectively. Esau is not specifically defined, but the same.

즉, 각 직선형의 시야 영역(R1, R2, R3, R4)의 거리치가 각각 이산치로서 얻어지는 것을 알 수 있다. 이러한 이산적인 거리 분포를 얻는 개념에 관해서는 후술한다.That is, it turns out that the distance value of each linear viewing area | region R1, R2, R3, R4 is obtained as a discrete value, respectively. The concept of obtaining such discrete distance distribution will be described later.

그런데, 자동차 승차자의 유무 및 자세 판별은 이상과 같이 하여 얻을 수 있는 시야 마다의 거리 분포를 표준 패턴과 비교하는 소위 패턴 매칭에 의해 행하여지는 것이 보통이다. 그러나, 표준 패턴은 자동차 승차자의 유무, 자세, 이에 부가하여 자동차 좌석의 기준 위치로부터의 거리라든지 기울기 등에 따라서 다종·다양하기 때문에, 그 모든 표준 패턴과의 비교에는 많은 처리 시간이 필요하게 되는 문제가 있다.By the way, it is common to determine the presence or absence of a vehicle rider and the attitude by so-called pattern matching which compares the distance distribution for each field of vision obtained as described above with a standard pattern. However, since the standard patterns vary depending on the presence or absence of the vehicle rider, the attitude, and the distance from the reference position of the car seat or the inclination, the standard patterns require a lot of processing time in comparison with the standard patterns. have.

따라서, 본원 발명의 과제는 유무 및 자세 판별을 위한 처리, 특히 패턴 매칭을 위한 처리 시간을 단축하는 것에 있다.Accordingly, an object of the present invention is to reduce the processing time for the presence or absence and the posture determination, in particular the processing time for pattern matching.

이러한 과제를 해결하기 위해서, 본원 발명에서는 복수의 광 센서 소자로 이루어진 적어도 한 쌍의 직선형의 광 센서 어레이를 구비하여 승차자의 다른 위치에 나타나는 상을 결상하는 센서와, 상기 센서에 의해 결상된 그 승차자의 상으로부터 상기 적어도 한 쌍의 직선형의 광 센서 어레이에 의해 감시되는 각각의 직선형 시야 영역 내의 거리 분포를 측정하는 거리 측정 연산 처리 장치와, 상기 측정된 거리 분포로부터 추상 패턴을 추출하고, 상기 승차자 판별 처리 장치에 미리 저장된 복수의 모델 패턴을 상기 추상 패턴과 비교하여, 상기 승차자 또는 대상의 특정 자세를 판별하는 승차자 판별 처리 장치를 구비하도록 하고 있다.In order to solve this problem, in the present invention, a sensor having at least one pair of linear optical sensor arrays composed of a plurality of optical sensor elements to form an image appearing at another position of the occupant, and the occupant formed by the sensor A distance measurement arithmetic processing unit for measuring a distance distribution in each linear viewing area monitored by the at least one pair of linear light sensor arrays from an image, extracting an abstract pattern from the measured distance distribution, and determining the occupant A plurality of model patterns stored in advance in the processing apparatus are compared with the abstract patterns to provide a rider discrimination processing apparatus that determines a specific posture of the rider or the subject.

또한, 본원 발명에서는, 상기 적어도 하나의 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정하며, 상기 승차자 판별 처리 장치는 각각의 상기 직선형 시야 영역내의 거리 분포가 좌우 대칭성이 있는지를 체크함으로써 추상 패턴을 추출하고, 거리 분포가 대칭성을 가지고 있는지의 여부에 따라 미리 선택된 복수의 모델 패턴을 상기 추상 패턴과 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 상기 승차자 또는 그 대상의 특정 자세를 판별한다.Further, in the present invention, the at least one linear viewing region is set to extend in a substantially horizontal direction with respect to the occupant, and the occupant discrimination processing apparatus abstracts by checking whether the distance distribution in each of the linear viewing regions is symmetrical. After extracting the pattern and comparing the plurality of preselected model patterns with the abstract pattern according to whether the distance distribution has symmetry, the model pattern in the narrow range is selected, and then the specific posture of the rider or the object is determined.

또한, 본원 발명에서는, 상기 거리 분포의 좌우 대칭성은 각각의 상기 직선형 시야 영역내의 거리 분포 패턴을 그 중심 부분에 대하여 좌우 반전시켜서, 상기 각각의 직선형 시야 영역 내에서 반전되기 전의 거리 분포 패턴과 반전된 후의 거리 분포 패턴과의 대응 위치에서의 거리 차를 얻고, 각각의 상기 거리 차가 소정치 보다 크지 않은지의 여부나 상기 거리 차의 적산치가 소정치 보다 크지 않은지의 여부를 판정함으로써 체크된다.Further, in the present invention, the left and right symmetry of the distance distribution inverts the distance distribution pattern in each of the linear viewing areas with respect to the center portion thereof, thereby inverting the distance distribution pattern before being inverted in each of the linear viewing areas. The distance difference at the corresponding position with the subsequent distance distribution pattern is obtained, and it is checked by determining whether each said distance difference is not larger than a predetermined value or whether the integrated value of the distance difference is not larger than a predetermined value.

또한, 본원 발명에서는, 상기 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정하고, 상기 승차자 판별 처리 장치는 그 시야 영역의 인접 영역 간의 거리 분포 패턴의 변화분에 관해서의 각 시야 사이의 상관도를 체크함으로써 추상 패턴을 추출하고, 그 상관도에 따라서 미리 선택된 복수의 모델 패턴과 추상 패턴을 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 상기 승차자 또는 대상의 특정 자세를 판별한다.In addition, in this invention, the said linear viewing area | region is set so that it may extend in substantially horizontal direction with respect to a rider, and the said rider discrimination processing apparatus correlates between each visual field regarding the change of the distance distribution pattern between adjacent areas of the viewing area. The abstract pattern is extracted by checking the figure, and the model pattern of the narrow range is selected by comparing a plurality of model patterns previously selected with the abstract pattern according to the correlation, and then the specific attitude of the rider or the subject is determined.

또한, 본원 발명에서는, 상기 직선형 시야 영역중 인접한 시야 영역 간의 상관도는, 상기 시야 영역중 인접한 시야 영역의 대응 위치에서 각각의 시야 영역내의 거리 분포 패턴의 변화분의 차를 구하고, 상기 변화분의 차가 소정치 보다 크지 않은지의 여부나 상기 차의 적산치가 소정치 보다 크지 않은지의 여부를 판정함으로써 체크된다.In the present invention, the correlation between adjacent viewing areas in the linear viewing area is obtained by calculating a difference of changes in the distance distribution pattern in each viewing area at a corresponding position of adjacent viewing areas in the viewing area. It is checked by determining whether the difference is not larger than a predetermined value or whether the integrated value of the difference is not larger than a predetermined value.

또한, 본원 발명에서는, 상기 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정하고, 상기 시야 영역 각각의 제1 시야 위치와 제2 시야 위치 사이의 거리 분포의 오목한 형태 또는 볼록한 형태의 패턴을 체크함으로써 추상 패턴을 추출하고, 그 추상 패턴과 거리 분포 패턴이 오목한 형태 또는 볼록한 형태 인지의 여부에 따라 미리 선택된 복수의 모델 패턴을 상기 추상 패턴과 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 승차자 또는 그 대상의 특정 자세를 판별한다.Further, in the present invention, the linear viewing region is set to extend in a substantially horizontal direction with respect to the occupant, and the concave or convex pattern of the distance distribution between the first viewing position and the second viewing position of each of the viewing regions is set. By checking, the abstract pattern is extracted, and the model pattern in the narrow range is selected by comparing a plurality of preselected model patterns with the abstract patterns according to whether the abstract pattern and the distance distribution pattern are concave or convex, and then the passenger or The specific posture of the object is determined.

또한, 본원 발명에서는, 상기 거리 분포 패턴의 오목한 형태 또는 볼록한 형태는 각각의 상기 직선형 시야 영역에서 상기 제1 시야 위치와 제2 시야 위치에 있어서의 거리치의 평균치와, 상기 제1 위치와 제2 위치와의 중간 위치에 있어서의 거리치를 비교함으로써 판별된다.Further, in the present invention, the concave or convex shape of the distance distribution pattern is an average value of the distance values at the first viewing position and the second viewing position in each of the linear viewing regions, and the first and second positions. It discriminates by comparing the distance value in the intermediate position with.

또한, 본원 발명에서는, 상기 직선형 시야 영역은 승차자애 대하여 대략 수평 방향으로 연장하도록 설정하며, 상기 승차자 판별 처리 장치는 인접한 시야 영역에서의 거리치와 비교하여 각각의 직선형 시야 영역의 소정의 위치에서 측정된 거리의 증감 경향을 체크함으로써 추상 패턴을 추출하고, 상기 거리의 상기 증감 경향에 따라 미리 선택된 복수의 모델 패턴과 상기 추상 패턴을 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 상기 승차자 또는 대상의 특정 자세를 판별한다.Further, in the present invention, the linear viewing region is set to extend in a substantially horizontal direction with respect to the occupant, and the occupant discrimination processing apparatus measures at a predetermined position of each linear viewing region in comparison with the distance value in the adjacent viewing region. Extracting an abstract pattern by checking a trend of increasing or decreasing the distance, selecting a model pattern in a narrow range by comparing the abstract pattern with a plurality of pre-selected model patterns according to the trend of increasing or decreasing the distance, and then specifying the passenger or the target Determine your posture.

또한, 본원 발명에서는, 상기 소정의 위치는 측방향에서 보았을 때 정상 자세로 앉아 있는 승차자의 중앙 위치일 수 있다.In addition, in the present invention, the predetermined position may be the center position of the rider sitting in the normal posture when viewed in the lateral direction.

또한, 본원 발명에서는, 상기 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정하고, 상기 승차자 판별 처리 장치는 각각의 상기 직선형 시야 영역내의 거리 분포 패턴의 대칭성에 관한 종합적인 판단에 기초하여 그 승차자의 자세와, 거리 분포 패턴의 오목한 형태 또는 볼록한 형태와, 상기 거리 분포 패턴의 변화분에 관해서 상기 적어도 하나의 직선형 시야 영역중 인접한 시야 영역 간의 상관도와, 상기 직선형 시야 영역의 소정의 위치에서 측정된 거리의 증감 경향을 판별한다.Further, in the present invention, the linear viewing region is set to extend in a substantially horizontal direction with respect to the occupant, and the occupant discrimination processing apparatus is configured based on a comprehensive judgment regarding the symmetry of the distance distribution pattern in each of the linear viewing regions. Correlation between the occupant's posture, the concave or convex shape of the distance distribution pattern, and the variation of the distance distribution pattern, and the correlation between adjacent viewing areas in the at least one linear viewing area, and measured at a predetermined position of the linear viewing area. The trend of increasing and decreasing the distance is determined.

또한, 본원 발명에서는, 상기 직선형 시야 영역은 승차자에 대하여 대략 수직 방향으로 연장하도록 설정하고, 상기 승차자 판별 처리 장치는 에어백의 전개축에 대하여 대략 대칭인 위치에 있는 한 쌍의 시야 영역의 거리 분포 패턴 간의 상관도를 체크함으로써 추상 패턴을 추출하고, 그 추상 패턴과 상기 상관도에 따라서 미리 선택된 복수의 모델 패턴을 비교함으로써 승차자 또는 그 대상의 특정 자세를 판별한다.Further, in the present invention, the linear viewing region is set to extend in a substantially vertical direction with respect to the occupant, and the occupant discrimination processing apparatus is a distance distribution pattern of a pair of viewing regions at positions substantially symmetric with respect to the deployment axis of the airbag. The abstract pattern is extracted by checking the degree of correlation between them, and the specific posture of the occupant or the object is determined by comparing the abstract pattern with a plurality of preselected model patterns according to the degree of correlation.

또한, 본원 발명에서는, 상기 한 쌍의 시야 영역의 거리 분포 패턴 간의 상관도는, 한 쌍의 시야 영역에 대응하는 위치에서 측정된 각각의 거리 차를 소정치와 비교하거나 또는 그 차의 적산치를 소정치와 비교함으로써 판정된다.In addition, in the present invention, the correlation between the distance distribution patterns of the pair of viewing areas may be compared with a predetermined value or the integrated value of each difference measured at a position corresponding to the pair of viewing areas. It is determined by comparing with politics.

또한, 본원 발명에서는, 상기 승차자 판별 처리 장치는 통상시에는 에어백의 전개축에 관계되는 시야 영역내의 거리 분포만을 측정하여 개략적인 자세를 판별하며, 충돌시에는 이 개략적인 자세 판별을 포함한 승차자의 자세 판별 처리를 다른 긴급을 요하지 않는 처리 보다 우선하여 행한다.Further, in the present invention, the rider discrimination processing apparatus usually measures only the distance distribution in the field of view related to the deployment axis of the airbag to determine a rough posture, and at the time of a collision, the rider's posture including the coarse posture discrimination. The discrimination process is given priority over other urgent processes.

또한, 본원 발명에서는, 차량의 좌석 부근에 설치된 수용부에 수용된 에어백과, 차량의 충격을 검지하여 에어백을 전개시키는 센서를 구비한 에어백 시스템에 사용하기 위한 승차자의 자세 판별 장치에 있어서, 적어도 한 쌍의 센서 어레이를 가지며, 상기 에어백을 수용하는 상기 에어백 수용부와 상기 좌석 간의 공간에 존재하는 승차자 또는 그 대상의 복수 부분에서의 거리 분포를 검출하는 거리 센서와, 그 거리 분포의 패턴과 거리 분포의 복수의 모델 패턴을 비교함으로써 상기 승차자의 자세 또는 대상의 형태를 판별하여, 그 판별 결과에 따라서 상기 에어백의 전개를 제어하거나 또는 상기 에어백이 전개되어야 하는지의 여부를 결정하도록 한다.In the present invention, at least one pair of occupant attitude determination apparatuses for use in an airbag system having an airbag housed in a receiving portion provided near a seat of a vehicle, and a sensor for detecting an impact of the vehicle and deploying the airbag. A distance sensor for detecting a distance distribution in a plurality of portions of a rider or a subject existing in a space between the airbag accommodation portion and the seat that accommodates the airbag, and a pattern and distance distribution of the distance distribution; By comparing a plurality of model patterns, the posture of the rider or the shape of the object is determined, and according to the determination result, the deployment of the airbag is controlled or whether the airbag should be deployed.

즉, 본원 발명에 의하면, 표준 거리 분포를 그 대칭성 등에 의해 복수의 그룹으로 미리 분류하여 두고, 이 그룹화에 대응하여 시야내의 거리 분포를 분류한 후, 표준 거리 분포의 그룹과 비교하도록 하였기 때문에, 패턴 매칭을 위한 대상을 압축할 수 있고, 자세 판별을 위한 처리 시간의 단축화를 도모할 수 있다.That is, according to the present invention, since the standard distance distribution is previously classified into a plurality of groups by its symmetry, the distance distribution in the visual field is classified according to the grouping, and then the pattern is compared with the group of the standard distance distribution. The object for matching can be compressed and the processing time for attitude determination can be shortened.

도 1은 본원 발명이 적용되는 장치 전체를 나타내는 구성도이다.1 is a block diagram showing the entire apparatus to which the present invention is applied.

즉, 자동차(3)의 천장 중앙부에 승차자 센서(1)가 설치되고, 이 승차자 센서(1)의 출력에 거리 측정 연산 처리 장치(101) 및 승차자 판별 처리 장치(102)를 접속하여 구성된다. 도면 부호 2는 승차자를 나타낸다.That is, the occupant sensor 1 is provided in the ceiling center part of the motor vehicle 3, and the distance measurement arithmetic unit 101 and the occupant discrimination apparatus 102 are connected to the output of this occupant sensor 1, and is comprised. Reference numeral 2 denotes a rider.

즉, 승차자 센서(1)에 승차자(2)의 이미지를 결상시키지만, 여기서도 도 21과 같이 승차자(2)에 대하여, 예컨대 4개의 직선형의 시야 영역(R1, R2, R3, R4)을 설정하여 각 영역 마다 복수 부위의 승차자 센서 출력을 얻고, 본 출력을 거리 측정 연산 처리 장치(101)로써 연산 처리한 후, 승차자 판별 처리 장치(102)에서 미리 저장되어 있는 표준 패턴과 비교 등을 행하여, 승차자의 유무뿐만 아니라 그 자세도 판단하도록 하고 있다.That is, the image of the occupant 2 is imaged on the occupant sensor 1, but as shown in FIG. 21, four linear viewing regions R1, R2, R3, and R4 are set for the occupant 2 as shown in FIG. The occupant sensor output of a plurality of areas is obtained for each area, the output is calculated by the distance measuring arithmetic processing unit 101, and then compared with a standard pattern stored in advance in the occupant discrimination processing apparatus 102, and the like. Not only the presence but also the attitude to judge.

승차자 판별 처리 장치(102)에서 판별된 승차자의 자세 신호는, 예컨대 좌석 센서(204)의 출력 신호와 동시에 중앙 처리 장치(201)에 입력된다. 중앙 처리 장치(201)에서는 충격 검지 센서(202)가 충격을 검지하는 경우, 직전(直前)의 승차자 자세 정보와 좌석 센서(204)로부터의 승차자의 착석 정보에 기초하여 에어백의 전개 명령을 결정하고, 좌석의 부근에 설치된 수용부내의 에어백을 기동하는 인플레이터(inflator)(203)에 그 명령을 지시한다.The rider's attitude signal determined by the rider discrimination processing apparatus 102 is input to the central processing unit 201 simultaneously with the output signal of the seat sensor 204, for example. In the central processing unit 201, when the shock detection sensor 202 detects an impact, the deployment command of the airbag is determined based on the previous passenger attitude information and the seating information of the passenger from the seat sensor 204. The command is instructed to an inflator 203 for activating the airbag in the accommodation portion provided near the seat.

도 2는 도 1에서 이용되는 승차자 센서의 일예를 나타낸다.FIG. 2 shows an example of a occupant sensor used in FIG. 1.

즉, 본 실시예에서 승차자 센서(1)는 4쌍의 광 센서 어레이를 설치하여 형성되는 다단 수광 IC(10)와 결상 렌즈(21, 22)를 일체화하여 구성한다. 또한, 광 센서 어레이 쌍은 적어도 한 쌍이 있으면 되지만, 본 실시예에서는 복수의 직선형의 시야 영역(R1, R2, R3, R4)을 설정하기 위해 4단 구성으로 한 예를 나타내고 있다. 또한, 도 2의 도면 부호 4는 보조 광원, 부호 V는 센서의 시야 중심 방향을 나타낸다.That is, in this embodiment, the occupant sensor 1 is configured by integrating the multi-stage light receiving IC 10 and the imaging lenses 21 and 22 formed by providing four pairs of optical sensor arrays. In addition, although at least one pair of optical sensor array pairs may be sufficient, in this embodiment, the example which set it in four stages in order to set several linear viewing area | regions R1, R2, R3, R4 is shown. 2 denotes an auxiliary light source, and V denotes a viewing center direction of the sensor.

도 3에 거리 측정 연산 처리 장치(101)의 구체예를 나타낸다.3 shows a specific example of the distance measurement arithmetic unit 101.

즉, 메모리로서의 레지스터(1011, 1012), 부분 데이타 추출부(1013), 상관 검출·거리 연산부(1014) 및 이들 각 부를 제어하는 컨트롤러(1015) 등으로 구성된다. 이하, 거리 측정 연산 처리 장치(101)에 의한 거리 측정 방법에 관해서 설명한다. 우선, 도 4를 참조하여 그 원리를 설명한다.That is, it is comprised of the registers 1011 and 1012 as memory, the partial data extraction part 1013, the correlation detection / distance calculation part 1014, the controller 1015 which controls these parts, etc. Hereinafter, the distance measuring method by the distance measurement arithmetic processing apparatus 101 is demonstrated. First, the principle will be described with reference to FIG.

도 4에 도시된 바와 같이, 결상 렌즈(21, 22)의 중심을 원점 0으로 하여 횡축 X, 종축 Y를 설정하고, 각각의 렌즈에 의한 결상 위치를 (L1, R1)로 한다. 또한, 결상 렌즈(22)의 중심점 OL의 좌표는 (-B/2, 0)이고, 결상 렌즈(21)의 중심점 OR의 좌표는 (B/2, 0)이다. 대상물(피사체)의 점 M의 좌표를 (-x, y)로 하고, 점 OL을 통하여 직선 M0에 평행한 직선이 광 센서 어레이(12)와 교차하는 위치를 L0, 점 OR을 통하여 직선 M0에 평행한 직선이 광 센서 어레이(11)와 교차하는 위치를 R0라고 한다.As shown in Fig. 4, the horizontal axis X and the vertical axis Y are set with the center of the imaging lenses 21 and 22 as the origin 0, and the imaging positions by the respective lenses are set to (L 1 , R 1 ). In addition, the coordinates of the center O L of the imaging lens 22 is (-B / 2, 0) coordinates of the center point O of the R, and the imaging lens 21 (B / 2, 0). The coordinate of the point M of the object (subject) is (-x, y), and the position where the straight line parallel to the straight line M0 intersects with the optical sensor array 12 through the point O L is through L 0 , the point O R. The position where the straight line parallel to the straight line M0 intersects with the optical sensor array 11 is called R 0 .

여기서, aL은 점 L0와 점 L1 사이의 거리를 나타내고, aR은 점 R0와 점 R1 사이의 거리를 나타낸다. L0, R0은 aL, aR 을 구할 때의 기준 위치가 된다. 이 때, △ M0L0와 △0LL1L0, △M0R0과 △0RR1R0은 각각 서로 유사하므로,Here, a L represents the distance between the point L 0 and the point L 1 , and a R represents the distance between the point R 0 and the point R 1 . L 0 and R 0 are reference positions when a L and a R are obtained. At this time, Δ M0 L 0 and Δ0 L L 1 L 0 , ΔM0 R 0 and Δ0 R R 1 R 0 are similar to each other,

[수학식 1][Equation 1]

(-x+B/2)f=aL·y(-x + B / 2) f = a L · y

[수학식 2][Equation 2]

(x+B/2)f=aR·y(x + B / 2) f = a R · y

가 성립된다. 수학식 1 및 수학식 2로부터 x를 소거하면,Is established. Eliminating x from Equations 1 and 2,

[수학식 3][Equation 3]

y=B·f/(aL+aR)y = B · f / (a L + a R )

가 된다. 또한, 센서 피치를 p, 센서수를 x 로 하면, aL + aR = p·x가 되므로,Becomes If the sensor pitch is p and the number of sensors is x, a L + a R = p.x.

[수학식 4][Equation 4]

y=B·f/(p·x)y = Bf / (px)

로도 표현된다. 즉, 좌측의 광 센서 어레이(12)의 결상 위치 L1과 점 L0와의 거리 aL과, 우측의 광 센서 어레이(11)의 결상 위치 R1과 점 R0의 거리 aR을 알면, 상기 수학식 3으로부터 대상물까지의 거리 y를 구할 수 있게 된다. 또한, 이러한 거리 측정 원리 자체는 공지되어 있다.It is also expressed as In other words, knowing the imaging position L 1 and point L 0 between the distance a L and a image forming position R 1 and the distance a R of the point R 0 of the optical sensor array 11 to the right of the optical sensor array 12 to the left, the The distance y from the equation 3 to the object can be obtained. In addition, this distance measurement principle itself is known.

이상과 같은 2개의 이미지가 상대적인 위치를 결정하기 위해서, 상기 거리 측정 연산 처리 장치(101)에 의한 예컨대 다음에 진술하는 상관 연산을 행한다.In order to determine the relative positions of the two images as described above, the above-described correlation calculation by the ranging measurement processing apparatus 101, for example, is performed.

양측의 광 센서 어레이(11, 12)의 각 소자의 출력은 예컨대, 8비트의 디지털 신호로 변환된 후, 도 3에 나타내는 메모리로서의 레지스터(1011, 1012)에 저장되고, 이 저장된 데이터로부터 한 쌍의 계산 영역(111, 112)이 부분 데이타 추출부(1013)에 의해서 선택된다. 이 계산 영역(111, 112)은 도 5에 도시된 바와 같이 n개의 소자로 이루어지고, 각각 (A1~An), (B1~Bn)의 양자화 데이타로 이루어지는 것으로 한다.The output of each element of the optical sensor arrays 11 and 12 on both sides is, for example, converted into an 8-bit digital signal, and then stored in registers 1011 and 1012 as a memory shown in FIG. Are calculated by the partial data extracting unit 1013. As shown in Fig. 5, the calculation regions 111 and 112 are composed of n elements, and each of the calculation regions 111 and 112 is composed of quantized data of (A 1 to A n ) and (B 1 to B n ).

여기서, 센서 정면에서 소정의 각도(도 4에서 Y 축과 대상물 좌표 M과 원점 0를 잇는 직선 M0와 이루는 각도)에 있는 대상물까지의 거리 지표(aL + aR)를 구하는 데는, 상기 양자화 데이터에 관해서 도 3에 나타내는 상관 검출·거리 연산부(1014)에 의해, 도 5와 같이 소정 크기의 윈도우(W1~Wm+1)를 설정하고, 1센서 단위(1비트)씩 교대로 어긋나게 한 (m + 1)조의 부분 집합(C0~Cm)을 고려하여, 이 부분 집합마다 양자화 데이타의 차의 절대치의 합으로 이루어지는 평가 함수 f(C0)~f(Cm)을 계산하고, 이 평가 함수치가 최소가 되는 조합(Ck)을 구함으로써, 첨자 k의 값으로부터 좌우의 상이 벗어난 상태를 알 수 있고, 상기 수학식 3에서 표시되는 것과 같은 (aL + aR)에 비례하는 거리 지표를 구할 수 있는 것이 공지되어 있다(예컨대, 일본 특허 제2676985호, 대응 미국 특허 제5602944호 및 대응 독일 특허 제4121145호 공보 참조).Herein, the quantization data is used to obtain the distance index a L + a R from the front of the sensor to an object at a predetermined angle (an angle formed by a straight line M0 connecting the Y axis, the object coordinate M, and the origin 0 in FIG. 4). The correlation detection / distance calculation unit 1014 shown in FIG. 3 sets windows W 1 to W m + 1 of predetermined sizes as shown in FIG. 5, and alternately shifts by one sensor unit (1 bit). Considering the subset (C 0 -C m ) of the (m + 1) pair, the evaluation functions f (C 0 )-f (C m ) consisting of the sum of the absolute values of the differences of the quantization data for each subset are calculated, By finding the combination C k at which the evaluation function value is the minimum, the state in which the left and right phases deviate from the value of the subscript k can be known, which is proportional to (a L + a R ) as expressed by Equation 3 above. It is known that distance indicators can be obtained (for example, Japanese Patent No. 2676985, large). See U.S. Patent No. 5,602,944 and corresponding German Patent No. 4121145 No.).

그래서, 예컨대 도 6에 나타낸 바와 같이 계산 영역(111, 112)을 1비트(1피치:p)씩 순차적으로 어긋나게 해가면서, 각 계산 영역(111, 112)에 관해서 전술한 바와 같은 거리 지표를 구하는 처리를 행하면, 제1번째~제s번째의 계산 영역에서 s개의 이산적인 거리 데이타를 얻을 수 있게 된다.Thus, for example, as shown in Fig. 6, the calculation regions 111 and 112 are sequentially shifted by one bit (1 pitch: p), and the distance indices as described above for each calculation region 111 and 112 are obtained. By performing the processing, s discrete distance data can be obtained in the first to the sth calculation areas.

도 7은 승차자 판별 처리 장치(102)의 구체예를 나타내는 블록도이다. 이러한 구체예의 승차자 판별 처리 장치(102)는 다른 판별 알고리즘에 따라 본 거리 분포 패턴과 비교될 협폭의 모델 패턴을 선택하기 위한 4개의 판별부(103-106)와, 이 판별부(103-106)의 출력치(A-D)의 임의의 조합과 비교하기 위해 대상 형태 또는 승차자의 특정의 자세를 각각 형성하는 복수의 모델 패턴을 저장한 기준치 메모리(107)와, 패턴 매칭을 위해 기준치 메모리(106)에 저장되어 있는 데이터와 판별부(103-106)의 출력치(A-D)의 조합을 비교하여 패턴 매칭의 결과를 생성하는 비교기(108)로 구성된다. 여기서, 이러한 판별부(103-106)를 포함한 승차자 판별 처리 장치(102)가 사용되며, 승차자 센서(1)의 광 센서 어레이(12)에 의해 감시되는 복수의 직선형 시야 영역은 승차자(2)에 관하여 대체로 수평 방향으로 설정되거나 또는 형성된다.7 is a block diagram showing a specific example of the occupant discrimination processing apparatus 102. The occupant discrimination apparatus 102 of this specific example includes four discrimination units 103-106 for selecting a narrow model pattern to be compared with the distance distribution pattern viewed according to another discrimination algorithm, and this discrimination unit 103-106. The reference value memory 107 stores a plurality of model patterns each forming a target shape or a specific posture of the occupant for comparison with any combination of the output values AD of the reference value and the reference value memory 106 for pattern matching. And a comparator 108 for generating a result of pattern matching by comparing a combination of the stored data and the output values AD of the discriminating units 103-106. Here, the occupant discrimination processing apparatus 102 including such discriminating units 103-106 is used, and a plurality of linear viewing areas monitored by the optical sensor array 12 of the occupant sensor 1 are supplied to the occupant 2. It is generally set or formed in the horizontal direction with respect to it.

판별부(103)는 거리 분포 대칭성 판별 장치(1031), 기준치 메모리(1033) 및 대칭성/기준치 비교기(1032)를 포함한다.The determination unit 103 includes a distance distribution symmetry determining device 1031, a reference value memory 1033, and a symmetry / reference value comparator 1032.

거리 분포 대칭성 판별 장치(1031)는 각각의 직선형 시야 영역(R1, R2, R3, R4)내의 거리에 관한 정보를 수신하고, 직선형 시야 영역의 각각에 관하여 거리 분포의 좌우 대칭성의 가부를 검출하고, R1, R2, R3, R4 순으로 복수의 시야 영역(R1, R2, R3, R4)내의 좌우 대칭성에 관한 결과를 출력한다. 예를 들면, 판별 장치(1031)에 의해 얻어진 결과는 패터닝되거나 또는 "0110" 으로 코딩되어(여기서, "0" 은 대칭성이 있음을 나타내고, "1" 은 대칭성이 없음을 나타냄), 그 코딩된 형태로 출력된다. 한편, 기준치 메모리(1033)에는 승차자의 여러가지의 자세 또는 대상의 다양한 형태와 관련된 복수의 모델 대칭성 패턴을 미리 저장시킨다. 대칭성/기준치 비교기(1032)는 복수의 기준치 메모리(1033)에 미리 저장되어 있는 복수의 모델 대칭 패턴과 거리 분포 대칭성 판별 장치(1031)의 출력을 비교하고, 승차자의 자세 또는 대상의 형태에 관한 협폭 범위의 모델 패턴의 선택 결과를 나타내는 출력(A)을 비교기(108)에 출력한다. 판별부(103)에 의해 사용되는 알고리즘은 전술된 "거리 분포의 좌우 대칭성에 관한 판별(제1 실시예)" 에 상당한다.The distance distribution symmetry discriminating apparatus 1031 receives information about the distances in each of the linear viewing areas R1, R2, R3, and R4, detects whether the left and right symmetry of the distance distribution is related to each of the linear viewing areas, The results relating to the left and right symmetry in the plurality of viewing areas R1, R2, R3, and R4 are output in the order of R1, R2, R3, and R4. For example, the result obtained by the discriminating device 1031 may be patterned or coded as "0110" (where "0" indicates symmetry and "1" indicates no symmetry) and the coded Output in the form On the other hand, the reference value memory 1033 stores in advance a plurality of model symmetry patterns relating to various postures of the passenger or various shapes of the object. The symmetry / reference value comparator 1032 compares the outputs of the distance distribution symmetry discrimination apparatus 1031 with a plurality of model symmetry patterns previously stored in the plurality of reference value memories 1033, and narrows the rider's attitude or the shape of the object. An output A indicating the selection result of the model pattern of the range is output to the comparator 108. The algorithm used by the discriminating unit 103 corresponds to the above-described "discerning about the left and right symmetry of the distance distribution (first embodiment)".

판별부(104)는 라인간 상관 연산기(1041), 기준치 메모리(1043), 및 상관치/기준치 비교기(1042)를 구비한다. 라인간 상관 연산기(1041)는 각각의 직선형 시야 영역(R1, R2, R3, R4)내의 거리 분포에 관한 정보를 수신하고, 각각의 시야 영역내 거리 분포의 변화분에 의하여 인접한 직선형 시야 영역, 즉 (1) R1과 R2 사이, (2) R2와 R3 사이, (3) R3와 R4 사이의 상관도를 검출하여 (1), (2), (3) 순으로 결과를 출력한다. 예를 들면, 판별 장치(1041)에 의해 얻어지는 결과는 패터닝되거나 또는 "100" 으로 코딩되어(여기서, "0" 은 대칭성이 있음을 나타내고, "1" 은 대칭성이 없음을 나타냄), 그 코딩 형태로 발생된다. 한편, 기준치 메모리(1043)에는 승차자의 여러가지의 자세 또는 대상의 형태에 관련된 복수의 모델 상관 패턴을 미리 저장시킨다. 상관치/기준치 비교기(1042)는 기준치 메모리(1043)에 저장되어 있는 복수의 모델 상관 패턴과 라인 상관성 판별 장치(1041)의 출력을 비교하고, 승차자 자세 또는 대상의 형태에 관한 협폭 범위의 모델 패턴 선택의 결과를 나타내는 출력(B)을 비교기(108)에 출력시킨다. 판별부(104)에 의해 사용되는 알고리즘은 전술된 "인접 라인 간의 상관성에 관한 판별(제2 실시예)" 에 상당한다.The discriminating unit 104 includes an interline correlation calculator 1041, a reference value memory 1043, and a correlation value / reference value comparator 1042. The inter-line correlation calculator 1041 receives information about the distance distribution in each of the linear viewing areas R1, R2, R3, and R4, and the adjacent linear viewing area by the change in the distance distribution in each viewing area, that is, The correlation is detected between (1) R1 and R2, (2) between R2 and R3, and (3) between R3 and R4, and the results are output in the order of (1), (2) and (3). For example, the result obtained by the discriminating apparatus 1041 is patterned or coded as "100" (where "0" indicates symmetry and "1" indicates no symmetry), and the coding form thereof. Is caused by. On the other hand, the reference value memory 1043 stores in advance a plurality of model correlation patterns relating to various postures or types of objects of the rider. The correlation value / reference value comparator 1042 compares the plurality of model correlation patterns stored in the reference value memory 1043 with the outputs of the line correlation discrimination apparatus 1041, and models a narrow range of models regarding the occupant attitude or the shape of the object. An output B indicating the result of the selection is output to the comparator 108. The algorithm used by the discriminating unit 104 corresponds to the " determination on correlation between adjacent lines (second embodiment) ".

판별부(105)는 거리 분포 요철성 판별 장치(1051), 기준치 메모리(1053), 요철성/기준치 비교기(1052)를 구비한다. 거리 분포 요철성 판별 장치(1051)는 각각의 직선형 시야 영역(R1, R2, R3, R4)내의 거리에 관한 정보를 수신하고, 시야 영역내의 중심 위치의 반대측의 시야 영역내에서 제1 시야 위치와 제2 시야 위치 사이의 거리 분포에 기초하여 각각의 직선형 시야 영역에 관하여 거리 분포의 임의의 요철성을 검출하며, 복수의 시야 영역(R1, R2, R3, R4)의 요철성에 관한 결과를 시야 영역 R1, R2, R3, R4 순으로 출력한다. 예를 들면, 판별 장치(1051)를 통해 얻어진 결과는 패터닝되거나 또는 "0120" 으로 코딩되는데, 여기서 "0" 은 평평한 형태를 나타내고, "1" 은 볼록한 형태를 나타내고, "2" 는 오목한 형태를 나타낸다. 한편, 기준치 메모리(1053)에는 대상 각각의 형태 및 승차자 각각의 자세와 관련된 복수의 모델 요철 패턴을 미리 저장시킨다. 요철성/기준치 비교기(1052)는 기준치 메모리(1053)에 미리 저장되어 있는 복수의 표준 요철 패턴과 거리 분포 요철성 판별 장치(1051)의 출력을 비교하고, 승차자 자세 또는 대상의 형태에 관한 협폭 범위의 모델 패턴의 선택 결과를 나타내는 출력(C)을 비교기(108)에 출력시킨다. 이 판별부(105)에 의해 사용되는 알고리즘은 전술된 "요철성 판별(제3 실시예)" 에 상당한다.The discriminating unit 105 includes a distance distribution unevenness determining unit 1051, a reference value memory 1053, and an unevenness / reference value comparator 1052. The distance distribution unevenness determining unit 1051 receives information about the distance in each of the linear viewing regions R1, R2, R3, and R4, and the first viewing position and the first viewing position in the viewing region opposite to the center position in the viewing region. Based on the distance distribution between the second viewing positions, any unevenness of the distance distribution is detected with respect to each linear viewing region, and the results regarding the unevenness of the plurality of viewing regions R1, R2, R3, and R4 are displayed. Outputs in order of R1, R2, R3, R4. For example, the results obtained through the discriminating device 1051 are patterned or coded as "0120", where "0" represents a flat shape, "1" represents a convex shape, and "2" represents a concave shape. Indicates. On the other hand, the reference value memory 1053 stores in advance a plurality of model uneven patterns related to the shape of each object and the attitude of each occupant. The unevenness / reference value comparator 1052 compares the output of the distance distribution unevenness determination device 1051 with a plurality of standard unevenness patterns previously stored in the reference value memory 1053, and narrows the range of the occupant posture or the shape of the object. The output C indicating the selection result of the model pattern is output to the comparator 108. The algorithm used by this discriminating unit 105 corresponds to the "unevenness determination (third embodiment)" described above.

판별부(106)는 시야 영역내의 중간 위치에서의 거리를 추출하는 추출기(1061), 기준치 메모리(1063) 및 중간 거리치/기준치 비교기(1062)를 구비한다. 추출기(1061)는 각각의 직선형 시야 영역(R1, R2, R3, R4)내의 거리에 관한 정보를 수신하고, 인접한 시야 영역에서와 비교되는 각각의 시야 영역내의 중간 위치에서의 거리치의 증감을 검출하며, 각각의 직선형 시야 영역(R1, R2, R3, R4)에서의 거리 증감에 관한 결과를 R1, R2, R3, R4 순으로 출력한다. 예를 들면, 추출기(1061)에 의해 얻어지는 결과는 패터닝되거나 또는 "+, -, -, -" 로 코딩될 수 있는데, 여기서 " + "는 증가를 나타내고, " - "는 감소를 나타낸다. 한편, 기준치 메모리(1063)에는 승차자의 여러가지의 자세 또는 대상의 형태와 관련된 복수의 모델 증감 패턴을 미리 저장시킨다. 중간 거리치/기준치 비교기(1062)는 기준치 메모리(1063)에 미리 저장되어 있는 복수의 모델 증감 패턴과 추출기(1061)의 출력을 비교하고, 승차자의 자세 또는 대상의 형태에 관한 협폭 범위의 모델 패턴 선택의 결과를 나타내는 출력(D)을 비교기(108)에 출력시킨다. 판별부(106)에 의해 사용되는 알고리즘은 전술된 " 라인간 거리의 증감 판별(제4 실시예) "에 상당한다.The discriminating unit 106 includes an extractor 1061, a reference value memory 1063, and an intermediate distance / reference value comparator 1062 for extracting a distance at an intermediate position in the viewing area. The extractor 1061 receives information about the distance in each of the linear viewing areas R1, R2, R3, and R4, and detects the increase and decrease of the distance value at an intermediate position in each viewing area compared to that in the adjacent viewing area. The results of the distance increase and decrease in each of the linear viewing areas R1, R2, R3, and R4 are output in the order of R1, R2, R3, and R4. For example, the results obtained by extractor 1061 can be patterned or coded as "+,-,-,-", where "+" indicates an increase and "-" indicates a decrease. On the other hand, the reference value memory 1063 stores in advance a plurality of model increase / decrease patterns related to various postures or types of objects of the rider. The intermediate distance value / reference value comparator 1062 compares a plurality of model increase / decrease patterns previously stored in the reference value memory 1063 with the outputs of the extractor 1061, and a narrow range model pattern relating to the rider's posture or object shape. An output D indicating the result of the selection is output to the comparator 108. The algorithm used by the discriminating unit 106 corresponds to the above-described "decrease / decrease determination of the distance between lines (fourth embodiment)".

전술된 바와 같이 판별부(103-106)와는 다른 출력(A-D)을 수신하는 비교기(108)는 라인 간의 거리의 증감에 관한 판별 "의 결과로서 판별부(106)의 출력(D)을 초기에 수신하고, 특징적인 패턴과 일치하는 모델 패턴군을 생성하기 위해 기준치 메모리(107)에 저장되어 있는 모델 패턴과 출력(D)의 특징적인 패턴을 비교한다. 만일 특정 승차자의 자세 또는 대상의 형태가 이러한 모델 패턴군으로부터 지정될 수 있는 경우, 이러한 데이터는 자세 정보로서 생성된다. 특정 결과가 이러한 출력(D)으로부터만 얻어질 수 없고 복수의 모델 패턴이 특성 패턴에 상당한 경우, 상당하는 모델 증감 패턴은 1군으로 분류되고, " 요철에 관한 판별 "이 이러한 모델 패턴군에 관하여 행해진다. 즉, " 요철에 관한 판별 " 결과로서 판별부(105)의 출력(C)에 기초하여, 출력(C)으로 나타나는 요철 패턴에 일치하는 임의의 모델 요철 패턴은 전술된 바와 같이 선택된 모델 증감 패턴군으로부터 추출된다. 특정의 모델 요철 패턴이 얻어지는 경우, 이 패턴과 관련된 승차자의 자세 또는 대상의 형태는 자세정보로서 생성된다. 그러나, 특정 결과가 여전히 " 요철에 관한 판별 "에 의해 얻어질 수 없는 경우, 출력(C) 패턴에 상당하는 모델 요철 패턴은 1군으로 분류되고, 하나의 특정 패턴은 " 라인 간의 상관성에 관한 판별 "의 결과로서 판별부(104)의 출력(B)에 기초하여 상기 1군으로부터 추출된다. 필요하다면, " 거리 분포의 좌우 대칭성에 관한 판별 "의 결과로서 판별부(103)의 출력(A)을 승차자의 자세를 판별하는데 또한 사용할 수도 있다.As described above, the comparator 108, which receives an output AD different from the discriminator 103-106, initially outputs the output D of the discriminator 106 as a result of the discrimination regarding the increase or decrease of the distance between the lines. Receive and compare the model pattern stored in the reference memory 107 with the characteristic pattern of the output D to generate a model pattern group that matches the characteristic pattern. This data is generated as attitude information if it can be specified from such a group of model patterns, and if a specific result cannot be obtained only from this output D and a plurality of model patterns correspond to the characteristic pattern, a corresponding model increase / decrease pattern Are classified into one group, and "discrimination about irregularities " is performed with respect to this model pattern group. That is, based on the output C of the discriminating unit 105 as a result of " discrimination concerning irregularities " Appear as Any model uneven pattern matching the uneven pattern is extracted from the selected model increase / decrease pattern group as described above.When a specific model uneven pattern is obtained, the pose of the rider or the object associated with this pattern is generated as the posture information. However, if a particular result still cannot be obtained by "determination regarding unevenness", the model unevenness pattern corresponding to the output (C) pattern is classified into 1 group, and one specific pattern is related to "correlation between lines". As a result of the discrimination ", it is extracted from said group 1 based on the output B of the discrimination unit 104. If necessary, the output A of the discrimination unit 103 as a result of the" discrimination concerning the left-right symmetry of the distance distribution ". ) Can also be used to determine the rider's posture.

도 28은 승차자의 자세 또는 대상 형태 각각에 관련하여 전술된 4개의 판별 알고리즘에 따른 판별 결과를 나타낸다. 도 29 내지 도 34는 시트 위치의 변화에 따른 판별 결과에서의 차를 상세하게 나타낸다. "성인(앞으로 기울어진 자세)/시트 위치: " 0" 인 경우에, 예를 들면 협폭의 증감 패턴 결과는 "9" (이 수의 의미는 후에 기술됨)이지만, 이 증감 패턴은 도 33에 도시된 "차일드 시트(후향 위치)/시트 위치: " 0" 및 도 34에 도시된 "스탠딩 차일드/시트 위치 : " 0" 인 경우에는 "9" 를 나타내기도 한다. 그러므로, 이러한 3가지 경우에 있어서 "라인 간의 거리의 증감에 관한 판별" 을 행하는 판별부(106)를 통해서만 판별될 수 없다는 것을 이해할 것이다. 이러한 3가지 경우에 관하여 판별부(105)를 통해 행해지는 "요철 판별" 의 결과가 고려되는 경우, "0100" 은 "성인(앞으로 기울어진 자세)/시트 위치:0" 인 경우에서의 "요철 판별" 의 결과로서 얻어지는데 반해, "0120" 및 "0102"는 도 33의 " 차일드 시트(후향 위치)/시트 위치: "0 " 및 도 34의 " 스탠딩 차일드/시트 위치: "0 "에서의 결과로서 각각 얻어진다. 이러한 3가지 경우는 상호 명확하게 판별될 수 있다는 것을 이해할 수 있을 것이다. 한편, 도 29에 도시된 " 무인/시트 위치:+75mm 및 도 32에 도시된 "차일드 시트(전향 위치)/시트 위치:+75mm는 출력(D)을 출력하는 " 라인 간의 거리 증감에 관한 판별 "과, 출력(C)을 출력하는 " 요철 판별 "과, 출력(B)을 출력하는 " 라인 간의 상관성에 관한 판별 " 및 출력(A)을 출력하는 " 거리 분포의 좌우 대칭성에 관한 판별 "에서 동일 결과를 초래하므로, 이 2 가지 경우는 4개의 판별 알고리즘에 의해 상호 판별될 수 없다. 그러나, 이것은 극단적으로 제한된 경우이고, 만일 필요한 경우 상기 경우들은 직선형 시야 영역 R3에서의 거리치를 비교함으로써 상호 판별될 수 있다.FIG. 28 shows the discrimination results according to the four discrimination algorithms described above with respect to each of the rider's postures or object shapes. 29-34 show the difference in the determination result according to the change of a sheet position in detail. In the case of "adult (lean forward) / sheet position:" 0 ", for example, a narrow increase / decrease pattern result is" 9 "(the meaning of this number is described later), but this increase / decrease pattern is shown in FIG. In the case of the "child seat (rear position) / seat position:" 0 "shown and the" standing child / seat position: "0" shown in Fig. 34, "9" is also indicated. It will be understood that it cannot be determined only by the judging section 106 which performs "determination on the increase or decrease of the distance between lines." The result of the "unevenness determination" performed through the judging section 105 for these three cases is If considered, "0100" is obtained as a result of "unevenness determination" in the case of "adult (lean forward) / seat position: 0", whereas "0120" and "0102" are "child" in FIG. Seat (rear position) / seat position: "0" and the standing child / seat position: "0" of FIG. 34 It will be understood that these three cases can be clearly distinguished from each other on the other hand, on the other hand, the "unattended / seat position shown in Fig. 29: + 75mm and the" child seat "shown in Fig. Forward position) / sheet position: + 75mm means "determination on increasing / decreasing distance between lines" outputting output D, "unevenness determination" outputting output C, and "line outputting output B" The two cases cannot be mutually discriminated by the four discrimination algorithms, because the same result is obtained in the determination of the correlation between the " and the determination of the symmetry of the distance distribution of the output A ". This is an extremely limited case and if necessary the cases can be mutually discriminated by comparing the distance values in the linear viewing area R3.

전술된 실시예에서, 비교기(108)는 "라인 간의 거리 증감에 관한 판별" 의 결과로서 출력(D)을 초기에 처리하고, "요철 판별" 의 결과로서 출력(C)을 처리하고, "라인 간의 상관성에 관한 판별" 의 결과로서 출력(B)을 처리하고, "거리 분포의 좌우 대칭성에 관한 판별" 의 결과로서 출력(A)을 기술된 순서대로, 즉 D, C, B, A 순으로 처리한다. 그러나, 비교기(108)는 다른 순서로 출력(A-D)을 처리하고, 많은 경우에 2개의 출력은 그 중에서도 특히 특정 패턴을 지정하기에 충분하다. 여기서 중요한 것은 출력(D)을 출력하는 " 라인 간의 거리의 증감에 관한 판별" 이 첫번째로 행해지고, 이 "라인 간의 거리의 증감에 관한 판별" 과 다른 3 가지 판별 알고리즘 중의 적어도 하나가 함께 조합되어야 한다는 것이다. 지금까지 행해진 실험 결과로부터, 본원 발명자는 판별부(106)에 의해 행해지는 "라인 간의 거리의 증감에 관한 판별" 이 패턴 매칭을 위해 모델 패턴의 범위를 좁히는데 가장 용이한 방법이고, 승차자의 자세 또는 대상의 형태를 판별하거나 또는 판단할 때, 판별에 대한 처리 시간을 줄이는데 매우 효과적이다는 점을 확인하였다.In the above-described embodiment, the comparator 108 initially processes the output D as a result of "determination regarding increase or decrease of distance between lines", processes the output C as a result of "determination of unevenness", and the "line" Process the output B as a result of the "determination on correlation between" and output A in the order described, i.e. in the order of D, C, B, A Process. However, comparator 108 processes the outputs A-D in a different order, and in many cases the two outputs are particularly sufficient to specify a particular pattern, among others. What is important here is that the "determination regarding the increase or decrease of the distance between lines" outputting the output D is first performed, and this "determination regarding the increase or decrease of the distance between lines" and at least one of the other three discrimination algorithms must be combined together. will be. From the results of the experiments conducted so far, the inventors of the present invention have made the "determination regarding increase and decrease of the distance between lines" performed by the discriminating unit 106 is the easiest method for narrowing the range of the model pattern for pattern matching, and the attitude of the rider. Or, when determining or determining the shape of the object, it was confirmed that it is very effective in reducing the processing time for the determination.

승차자 센서(1)가 자동차 천장에 부착되고, 센서(1)의 시야 영역이 예시된 실시예에서 자동차 시트에 관하여 수평 방향으로 설정되지만, 본원 발명은 이 장치에 제한되지 않는다. 예를 들면, 승차자 센서는 운전자가 볼 수 있는 상위부인 앞에 장착된 룸 미러에 부착될 수 있거나 또는 승객 앞에 장착된 대시보드에 부착될 수 있다.Although the occupant sensor 1 is attached to the ceiling of the vehicle and the viewing area of the sensor 1 is set in the horizontal direction with respect to the automobile seat in the illustrated embodiment, the present invention is not limited to this apparatus. For example, the occupant sensor can be attached to a front mounted room mirror, which is visible to the driver, or can be attached to a dashboard mounted in front of the passenger.

다음, 각각의 판별부(103-106)의 판별 처리의 내용은 판별부(103)에 의해 행해지는 "거리 분포의 좌우 대칭성에 관한 판별(제1 실시예)" , 판별부(104)에 의해 행해지는 "라인 간의 상관성에 관한 판별(제2 실시예)" , 판별부(105)에 의해 행해지는 "요철에 관한 판별(제3 실시예)" , 판별부(106)에 의해 행해지는 "라인 간의 거리 증감에 관한 판별(제4 실시예)" 순으로, 특히 상세하게 기술될 것이다.Next, the content of the discrimination process of each of the discriminating units 103-106 is determined by the discriminating unit 104, " a discrimination on the left and right symmetry of the distance distribution (first embodiment) " "Determination on Correlation Between Lines (Second Embodiment)", "Determination on Unevenness (Third Embodiment)" Determined by 105, " Lines Performed by Determination Unit 106 Will be described in detail in the order of " discrimination (fourth embodiment) relating to the increase / decrease in the liver ".

이와 같이 얻어진 거리 분포 데이터에 대하여, 본원 발명에서는 이하와 같은 처리를 행한다.In the present invention, the following processing is performed on the distance distribution data thus obtained.

즉, 도 25에서도 볼 수 있듯이, 도 25의 (b)의 정상 자세, (c)의 앞으로 기울어진 자세, 도 26의 (a)의 전향 차일드 시트, (b)의 후향 차일드 시트와 같이, 에어백의 전개축(본 실시예의 경우 시야 범위의 중심 위치)에 대하여 좌우로 대략 대칭이 되는 것과, 도 27의 (a)에 나타낸 바와 같이 옆으로 앉은 자세에 대하여 비대칭인 것으로 대별할 수 있다. 그래서, 본원 발명에서는 먼저, 시야마다의 거리 분포 데이타의 대칭성에 착안하여, 자세 판별을 행하도록 한다.That is, as can also be seen in FIG. 25, the airbag is the same as the normal posture of FIG. 25B, the forward inclined posture of FIG. 25C, the forward child seat of FIG. 26A, and the rearward child seat of FIG. 26B. It is roughly symmetrical from side to side with respect to the development axis (in the present embodiment, the center position of the viewing range), and asymmetrical with respect to the side sitting position as shown in Fig. 27A. Therefore, in the present invention, first, the attitude is determined by paying attention to the symmetry of the distance distribution data for each field of view.

거리 분포 데이타의 대칭성에 착안하기 위해서, 예컨대, 도 8의 (a)와 같이 시야 마다의 거리 분포 데이타에 대하여, 이것을 시야내에서 반전시킨 도 8의 (b)와 같은 분포를 구하고, 덧붙여 이것들의 차를 도 8의 (c)와 같이 구한다. 이와 동일하게, 도 9의 (a)와 같이 시야마다의 거리 분포 데이타에 대하여, 그 반전 분포 도 9의 (b)와, 이것들의 차인 도 9의 (c)를 구한다.In order to focus on the symmetry of the distance distribution data, for example, as shown in FIG. 8A, with respect to the distance distribution data for each field of view, the distribution as shown in FIG. 8B in which this is inverted in the field of view is obtained. The difference is obtained as shown in Fig. 8C. Similarly, as shown in FIG. 9A, the inversion distribution FIG. 9B and FIG. 9C, which is the difference between them, are obtained for the distance distribution data for each visual field.

이렇게 해서 구한 차에 관해서, 소정의 임계치(TH)와 비교하거나, 또는 차의 양(+)측 또는 음(-)측의 적산치를 S로 하여, 이것을 소정의 임계치(THS)와 비교함으로써 대칭성을 판별한다. 이 처리를 행하는 것이 판별부(103)이다.As for the difference obtained in this way, the symmetry can be compared with a predetermined threshold TH, or an integrated value of the positive (+) side or the negative (-) side of the difference is S, and this is compared with the predetermined threshold THS. Determine. It is the determination unit 103 that performs this process.

도 8의 (a)∼(c)는 좌우 대칭인 경우이고, 각 시야 위치마다의 차 및 차의 적산치는 동시에 소정치 이하가 되어 있다. 도 9의 (a)∼(c)는 도 24에 나타내는 것과 같은 옆으로 앉은 자세로 좌우 비대칭인 경우이고, 각 시야 위치마다의 차 및 이 차의 적산치는 동시에 소정 임계치 이상이 되어 있다. 이렇게 하여 판별기(1031)로 대칭성을 판단할 수 있고, 이것을 바탕으로 패턴 매칭을 위한 대상을 압축할 수 있기 때문에, 처리 시간을 대폭 단축하는 것이 가능하여진다. 이 압축을 하는 것이 비교기(1032)이고, 판별기(1031)의 출력을 메모리(1033)에 저장되어 있는 표준의 거리 분포의 그룹과 비교하여, 결과를 A로서 출력한다.(A)-(c) of FIG. 8 is a case where it is symmetrical, and the integrated value of the difference and each difference for every viewing position is simultaneously below a predetermined value. 9 (a) to 9 (c) show a side sitting position as shown in FIG. 24, which is asymmetrical, and the difference between each viewing position and the integrated value of the difference are equal to or larger than a predetermined threshold. In this way, the discriminator 1031 can determine the symmetry, and based on this, the object for pattern matching can be compressed, so that the processing time can be greatly reduced. This compression is performed by a comparator 1032, which compares the output of the discriminator 1031 with a group of standard distance distributions stored in the memory 1033, and outputs the result as A. FIG.

이로써, 대칭성이 인지되는 경우에는, 대칭성을 갖는 그룹으로서 예컨대 무인시(도 22의 (a))라든지 승차자의 정상 자세시(도 22의 (b)), 승차자의 앞으로 기울어진 자세시(도 22의 (c)), 전향 차일드 시트(도 23의 (a)), 후향 차일드 시트(도 23의 (b))로, 거리 분포의 패턴을 압축할 수 있다. 한편, 대칭성이 인지되지 않은 경우에는, 승차자의 옆으로 앉은 자세(도 24)에 있어서의 각종 패턴으로 압축할 수 있다.As a result, when symmetry is perceived, as a group having symmetry, for example, an unattended time (FIG. 22A), a normal posture time of the rider (FIG. 22B), and a forward tilted time of the rider (FIG. 22). The pattern of the distance distribution can be compressed with (c)), the forward child sheet (FIG. 23A), and the rear child sheet (FIG. 23B). On the other hand, when symmetry is not recognized, it can be compressed into various patterns in the posture of the occupant (FIG. 24).

다음에, 패턴 매칭을 위한 대상을 압축하는 제2 방법으로서, 시야내의 거리 분포의 변화분에 관해서의 각 시야 사이의 상관도에 착안하는 방법이 있다. 그 처리를 행하는 것이 도 7의 판별부(104)이다.Next, as a second method of compressing an object for pattern matching, there is a method of paying attention to the degree of correlation between each field of view with respect to the change in distance distribution in the field of view. The determination unit 104 of FIG. 7 performs the processing.

도 10의 (a)∼(c), 도 11의 (a)∼(c)는, 이것을 구체적으로 설명하기 위한 설명도이고, 도 25의 (a)∼(c), 도 26의 (a)∼(c)와 달리 거리가 변화하는 부분을 추출한 결과를 나타낸다. 도 10의 (a)∼(c)로부터도 명백하듯이, 거리가 변화하는 부분에 관해서 각 시야별로 보면, 예컨대 도 10의 (a)의 무인 좌석의 시야(R1, R2, R3), 도 10의 (b)의 정상 자세의 시야(R1, R2), 도 11의 (a)의 전향 차일드 시트의 시야(R2, R3) 및 도 11의 (c)의 스탠딩 차일드의 시야(R1, R2, R3)에 관해서는, 서로 높은 상관이 있는 것을 알 수 있다. 그 상관을 검출하는 것이 연산기(1041)이 다.(A)-(c) of FIG. 10, (a)-(c) of FIG. 11 are explanatory drawing for demonstrating this concretely, FIG. 25 (a)-(c), FIG. 26 (a) Unlike (-), the result which extracted the part from which a distance changes is shown. As is also apparent from FIGS. 10A to 10C, the view of the unseat seat of FIG. 10A, for example, the views R1, R2, and R3 of FIG. Field of view (R1, R2) of the normal posture of (b), field of view (R2, R3) of the forward child seat of (a) of FIG. 11, and field of view (R1, R2, R3) of the standing child of (c) of FIG. ), It can be seen that there is a high correlation with each other. It is the calculator 1041 that detects the correlation.

그래서, 도 10의 (a)∼(c), 도 11의 (a)∼(c)의 시야(R1)의 거리 분포와 시야(R2)의 거리 분포와의 차(R1-R2), 시야(R2)의 거리 분포와 시야(R3)의 거리 분포와의 차(R2- R3) 및 시야(R3)의 거리 분포와 시야(R4)의 거리 분포와의 차(R3-R4)를 각각 도 12의 (a)∼(c), 도 13의 (a)∼(c)와 같이 구하여, 각 차를 각각 소정 임계치(TH1~TH6)와 비교하거나 또는 각 차의 절대치로서의 적산치 S를 각각 소정 임계치(THS1~THS3)와 비교하는 것으로, 상관도의 높이를 알 수 있다. 따라서, 이 결과를 이용하여 비교기(1042) 및 메모리(1043)에 의해, 패턴 매칭을 위한 대상군을 압축하는 것으로 하면, 처리 시간을 단축할 수 있게 된다.Thus, the difference R1-R2 between the distance distribution of the field of view R1 and the distance distribution of the field of view R2 in FIGS. 10A to 10C, and FIGS. The difference R2-R3 between the distance distribution of R2 and the distance distribution of the field of view R3 and the difference R3-R4 between the distance distribution of the field of view R3 and the distance distribution of the field of view R4 are respectively shown in FIG. (a) to (c) and Fig. 13 (a) to (c), each difference is compared with the predetermined thresholds TH1 to TH6, or the integrated value S as the absolute value of each difference is respectively determined as the predetermined threshold ( The height of the correlation can be seen by comparing with THS1 to THS3). Therefore, using this result, if the comparator 1042 and the memory 1043 compress the target group for pattern matching, the processing time can be shortened.

도 14의 (a)∼(c)는 본원 발명의 제3 실시예를 설명하기 위한 제1 설명도, 도 15의 (a)∼(c)는 마찬가지로 그 제2 설명도이다.14A to 14C are first explanatory diagrams for explaining a third embodiment of the present invention, and FIGS. 15A to 15C are second explanatory diagrams similarly.

이것은 시야내 거리 분포가 여러 가지의 자세에 따라, 각 시야(R1~R4)에 있어서 특유의 볼록 형상, 오목 형상을 가진 것에 착안한 것이며 예컨대,This focuses on having a convex shape and a concave shape peculiar to each of the visual fields R1 to R4 according to various attitudes in the visual field distance distribution.

1) 무인 좌석의 R1, R2, R3 : 위 볼록, R4 : 단조(평탄)1) R1, R2, R3 of unmanned seat: upper convex, R4: forged (flat)

2) 정상 자세의 R1, R2 : 아래 오목2) R1, R2 of normal posture: lower concave

3) 앞으로 기울어진 자세의 R1, R2 : 아래 오목3) R1, R2 in forward tilted position: lower concave

4) 전향 차일드 시트의 R1, R2, R3 : 아래 볼록, R4 : 단조(평탄)4) R1, R2, R3: convex lower, R4: forged (flat) of forward car seat

5) 후향 차일드 시트의 R1 : 위 볼록, R2, R3, R4 : 아래 볼록5) R1 of the rear car seat: upper convex, R2, R3, R4: lower convex

6) 스탠딩 차일드의 R1, R2, R3 : 위 볼록, R4: 아래 볼록이다.6) R1, R2, R3 of standing child: upper convex, R4: lower convex.

따라서, 시야의 거리 분포 상태를 판별기(1051)로 조사하고, 이것을 비교기(1052)에서 메모리(1053)로부터의 기준치와 비교함으로써, 대상을 압축하는 것이 가능해진다.Therefore, the object can be compressed by checking the distance distribution state of the visual field with the discriminator 1051 and comparing it with the reference value from the memory 1053 in the comparator 1052.

도 14의 (a)∼(c), 도 15의 (a)∼(c)는 이러한 것을 구체적으로 설명하기 위한 것으로, 여기서는 시야(R1)에 관해서만 나타내고 있다.14 (a) to 14 (c) and 15 (a) to 15 (c) are for describing this in detail, and only the visual field R1 is shown here.

즉, 시야(R1)의 제1 시야내 위치(PF1)에서의 거리치와, 시야내 위치(PF2)에 있어서의 거리치와의 평균치(LA)를 구한다. 이것을 PF1과 PF2의 중간 위치(PFC)에서의 거리치(LC)와 비교하여,That is, the average value LA of the distance value in the 1st in-view position PF1 of the visual field R1, and the distance value in the in-view position PF2 is calculated | required. This is compared with the distance LC at the intermediate position PFC of PF1 and PF2,

LC>LA : 위 볼록LC > LA: Stomach convex

LC = LA : 평탄LC = LA: flat

LC<LA : 아래 볼록LC <LA: lower convex

과 같이 판단하는 것이다. 또한, 시야를 R1에 한정하지 않고 다른 시야들에 관해서도 행하면, 또한 대상을 압축하는 것이 가능해진다.Judgment is as follows. Further, if the field of view is not limited to R1 but also for other fields of view, the object can be further compressed.

대상을 압축하기 위한 다른 방법(제4 실시예)으로서, 적어도 하나, 바람직하게는 복수 시야의 특정한 시야내 위치의 거리 정보로부터 승차자의 개략 자세를 판별하는 방법이 고려된다.As another method (fourth embodiment) for compressing an object, a method of determining the outline attitude of the rider from at least one, preferably distance information of a specific in-view position of a plurality of views is considered.

이것을 설명하는 것이 도 16의 (a)∼(f)이다. 이것은 시야(R1~R4)의 특정한 시야내 위치, 예컨대 그 중앙 위치(정상 자세 승차자의 좌우 방향의 중심 위치)의 거리치를 나타내는 것으로, 도 16의 (a)는 무인 좌석, (b)는 정상 자세, (c)는 앞으로 기울어진 자세, (d)는 전향 차일드 시트 등과 같이 시야(R1~R4)를 향하여 증대하는 경향이 있는 예이고, (e)는 후향 차일드 시트와 같이 시야(R1~R4)를 향하여 감소하는 경향이 있는 예이고, (f)는 스탠딩 차일드와 같이 극대치를 갖는 예로 분류할 수 있다.This is explained with reference to Figs. 16A to 16F. This represents a distance value of a specific in-view position of the visual field R1 to R4, for example, its center position (center position in the left and right direction of the normal posture rider), and FIG. 16A shows an unmanned seat, and b shows a normal posture. (c) is an inclined forward position, (d) is an example of a tendency to increase toward the field of view R1 to R4 such as a forward child seat, and (e) is a field of view (R1 to R4) like a rear child seat. (F) may be classified as an example having a maximum value such as a standing child.

도 35의 (a)에 도시된 바와 같이 각각의 시야 영역내의 거리 정보는 승차자센서(1)에 의해 얻어지는데, 직선형 시야 영역(R1, R2, R3, R4)은 승차자에 관하여 대체로 수평 방향으로 설정되거나 또는 형성된다. 도 35의 (b)에 도시된 바와 같이, 거리 정보는 판별부(106)의 추출기(1061)에 의해 수신되고, 이 정보로부터 각각의 시야 영역내의 중간 위치에서의 거리치를 차례로 측정하여, 시야 영역 간의 거리의 증감을 얻게 된다. 각각의 시야 영역(R1, R2, R3, R4)에서의 거리 증감 결과가 R1, R2, R3, R4 순으로 패터닝되는 경우, 도 35의 (b)의 경우의 결과는 "+, +, +, +" 로 패터닝되는데, "+" 는 증가를 나타내고 "-" 는 감소를 나타낸다. 한편, 기준 메모리(1063)는 도 36 내지 도 38에 도시된 바와 같이 27개 모델의 증감 패턴을 미리 저장하고, 이 패턴은 승차자의 자세 또는 대상의 형태와 관련된다. 중간거리치/기준치 비교기(1063)는 추출기(1061)의 출력 패턴 "+, +, +, +" 과 기준치 메모리(1063)에 저장되어 있는 27개 모델의 증감 패턴을 비교하고, 이 출력 패턴 "+, +, +, +" 은 모델 증감 패턴(1)으로 표시되는 "단조로운 증가" 로 판단되며, 이 결과는 비교기(108)에 출력(D)으로서 출력된다.As shown in FIG. 35A, distance information in each viewing area is obtained by the occupant sensor 1, and the linear viewing areas R1, R2, R3, and R4 are generally set in the horizontal direction with respect to the occupant. Or formed. As shown in FIG. 35B, the distance information is received by the extractor 1061 of the discriminating unit 106, and from this information, the distance value at an intermediate position in each field of view is sequentially measured, and the field of view is determined. You will get a change in the distance between them. When the distance increase / decrease result in each of the viewing areas R1, R2, R3, and R4 is patterned in the order of R1, R2, R3, and R4, the result in the case of FIG. 35 (b) is "+, +, +, Patterned with "+", where "+" represents an increase and "-" represents a decrease. On the other hand, the reference memory 1063 stores the increase and decrease patterns of the 27 models in advance as shown in Figs. 36 to 38, and this pattern is related to the posture of the rider or the shape of the object. The intermediate distance value / reference value comparator 1063 compares the output patterns " +, +, +, + " of the extractor 1061 with the increase / decrease patterns of 27 models stored in the reference value memory 1063, and the output pattern " +, +, +, + "Is judged to be a" monostatic increase "represented by the model increase / decrease pattern 1, and this result is output to the comparator 108 as an output D.

추출기(1061)에 의해 실행되는 패터닝이 시야 영역 간의 거리의 증감만을 기초로 하며, 각각의 시야 영역내의 중간 위치에서 측정된 거리의 절대치가 비교 또는 패턴 매칭에 사용되지 않는다고 하는 것에 주목해야 한다. 이것은, 도 31의 "성인(앞으로 기울어진 자세)/시트 위치:"0" 의 경우에 얻어지는 증감 패턴이 각각의 시야 영역의 거리의 절대치는 달라도, 도 33의 "차일드 시트(후향)/시트 위치:0" 및 도 34의 "스탠딩 차일드/시트 위치:"0" 에서와 같은 결과 "9" 를 가지기 때문이다. 그러므로, 이런 3가지 경우는 판별부(106)에 의한 "라인 간의 거리의 증감에 관한 판별" 을 통해서만 상호 판별될 수 없다.It should be noted that the patterning performed by the extractor 1061 is based only on the increase and decrease of the distance between the viewing areas, and the absolute value of the distance measured at the intermediate position in each viewing area is not used for comparison or pattern matching. This means that the "child seat (rear) / seat position of FIG. 33 is different even if the increase / decrease pattern obtained in the case of" adult (lean forward) / sheet position: "0" in FIG. 31 differs in the absolute value of the distance of each viewing area. This is because it has a result " 9 " as in " 0 " and " standing child / sheet position: " 0 " Therefore, these three cases cannot be mutually discriminated only through " determination of increase / decrease in distance between lines &quot;

전술된 바와 같이, 패턴 매칭용 모델 패턴 범위는 판별부(103)에서 "거리 분포의 좌우 대칭성에 관한 판별" 을 행하고, 판별부(104)에서 "라인 간의 상관성에 관한 판별" 을 행하고, 판별부(105)에서 "요철성 판별" 을 행하고, 판별부(106)에서 "라인 간의 거리 증감에 관한 판별" 을 행함으로써 좁혀질 수 있으므로, 승차자의 자세는 비교적 소량의 정보에 기초하여 판별될 수 있다. 판별부(105)에 의해 행해지는 "요철성 판별" 은 예시된 실시예에 한정되지 않고, 다른 방법으로도 실행될 수 있다. 예를 들면, 직선형 시야 영역내 중간 위치에서의 거리치와 직선형 시야 영역에서의 모든 다른 측정 시점 사이의 거리치의 차가 각각 얻어지고, 이 차의 평균은 임계치와 비교된다. 본 패턴은 평균치가 임계치 보다 크면 볼록한 형태(또는 위로 돌출한 형태)이고, 평균치가 임계치 보다 작으면 오목한 형태(또는 아래로 돌출한 형태)이다. 평균치가 임계치의 일정 범위에 있으면, 그 패턴은 평평한 형태라고 판별될 수 있다.As described above, in the pattern matching model pattern range, the discrimination unit 103 performs "determination on the left and right symmetry of the distance distribution", and the determination unit 104 performs "determination on the correlation between lines", and the determination unit Since it can be narrowed by performing " unevenness determination " at 105 and by " discerning about distance increase / decrease between lines " in the discrimination unit 106, the attitude of the rider can be determined based on a relatively small amount of information. . The "unevenness determination" performed by the determining unit 105 is not limited to the illustrated embodiment, but may be executed in other ways. For example, the difference between the distance value at the intermediate position in the linear viewing area and all other measurement points in the linear viewing area is obtained, respectively, and the average of the difference is compared with the threshold. This pattern is convex (or protruding upwards) if the mean is greater than the threshold and concave (or protruding downwards) if the average is less than the threshold. If the mean is within a range of the threshold, the pattern can be determined to be flat.

또한, 충돌이 발생했을 때, 상기의 제4 실시예의 판별 결과에서 에어백 전개의 방법을 결정할 수 있는 경우에는 그 방법으로 전개하면 좋다. 그런데, 중앙 처리 장치(201)(ECU)는 다른 자동차 제어 등에도 사용되는 일이 있기 때문에, 특정한 시야내의 위치 이외의 많은 위치의 거리 정보를 이용하여 상세한 자세 정보를 얻고, 이 정보에 의거하여 에어백 전개 방법을 결정할 필요가 있는 경우에는, 자세 판별 처리를 제 때에 맞출 수 없게 되는 경우가 생길 우려가 있지만, 충돌 발생시의 자세 판별 처리를 다른 긴급을 필요로 하지 않는 처리에 비하여 우선적으로 행하도록 하여 놓으면, 단시간에 처리가 행해지고, 제 때에 맞출 수 없게 되는 우려를 방지할 수 있다.Further, when a collision occurs, when the method of airbag deployment can be determined from the above determination result of the fourth embodiment, it may be deployed by that method. However, since the central processing unit 201 (ECU) may be used for other vehicle control or the like, detailed attitude information is obtained by using distance information of many positions other than a position within a specific field of view, and based on this information, the airbag If it is necessary to determine the development method, there is a possibility that the attitude determination processing may not be timely adjusted. However, if the attitude determination processing at the time of occurrence of collision is made to be prioritized over the processing that does not require other emergency, In this case, the processing can be performed in a short time, and it is possible to prevent the possibility of timely misalignment.

도 17의 (a) 및 (b)는 본원 발명의 제5의 실시예를 설명하기 위한 설명도, 도 18의 (a)∼(b) 및 (a)'∼(b) '는 그 경우의 좌석, 승차자 등과 감시 시야와의 관계를 설명하기 위한 제1 설명도, 도 19의 (a)∼(b) 및 (a)'∼(b) '는 마찬가지로 그 제2 설명도, 도 20의 (a)∼(d)는 도 18의 (a)∼(b) 및 (a)'∼(b) ', 도 19의 (a)∼(b) 및 (a)'∼(b) '의 각 경우의 거리 분포예를 각각 나타내고 있다.17 (a) and 17 (b) are explanatory diagrams for explaining the fifth embodiment of the present invention, and FIGS. 18 (a) to (b) and (a) 'to (b)' show the case; The first explanatory diagram for explaining the relationship between the seat, the occupant, and the surveillance field of view, (a) to (b) and (a) 'to (b)' of Fig. 19 are similarly the second explanatory diagram of Fig. 20 ( a) to (d) are the angles of (a) to (b) and (a) 'to (b)' of FIG. 18, and (a) to (b) and (a) 'to (b)' of FIG. The distance distribution example in the case is shown, respectively.

도 18의 (a)는 무인시의 좌석 사시도이고, (a) '는 그 측면도, (b)는 자동차 승차자의 정상 자세 사시도이고, (b)' 는 그 측면도, 도 19의 (a)는 자동차 승차자의 앞으로 기울어진 자세 사시도이고, (a) '는 그 측면도, (b)는 옆으로 앉은 자세의 사시도이고, (b)' 는 그 측면도를 각각 나타낸다. 즉, 종래는 시야를 좌석, 승차자에 대하여 거의 수평으로 설정하여 거리를 측정하도록 하였지만, 이 예에서는 시야를 좌석, 승차자에 대하여 거의 수직으로 설정한 점이 특징이다.Fig. 18A is a perspective view of a seat when unmanned, (a) is a side view thereof, (b) is a normal posture perspective view of a car rider, (b) is a side view thereof, and Fig. 19A is a car (A) is a side view, (b) is a perspective view of the side sitting position, (b) 'shows the side view, respectively. In other words, the distance is measured by setting the field of view almost horizontally with respect to the seat and the rider, but this embodiment is characterized in that the field of view is set almost perpendicular to the seat and the rider.

또한, 도 20의 (a)는 무인 좌석시, (b)는 자동차 승차자의 정상 자세시, (c)는 자동차 승차자의 앞으로 기울어진 자세시, (d)는 자동차 승차자의 옆으로 앉은 자세시의 각 거리 분포 데이타를 각각 나타내고, (R1~R5)는 각 시야를 나타내고 있다. 따라서, 도 20의 (a)∼(d)의 거리 분포 데이타에서는 종축은 시야내 위치를 나타내고, 횡축은 센서로부터의 거리를 각각 나타내고, 또한 도 20의 (b), (c) 및 (d) 등의 일점 쇄선은 무인 좌석시의 참조 패턴(거리치)을 나타내고 있다.20 (a) is an unmanned seat, (b) is a normal position of the car rider, (c) is a forward position of the car rider, and (d) is a side sitting position of the car rider. Each distance distribution data is shown, and (R1-R5) has shown each visual field. Therefore, in the distance distribution data of FIGS. 20A to 20D, the vertical axis represents the position in the visual field, the horizontal axis represents the distance from the sensor, respectively, and FIGS. 20B and 20C show the distance from the sensor. The dashed-dotted line of the back shows the reference pattern (distance value) at the time of an unmanned seat.

도 20의 (a)∼(d)로부터, 각 자세에는From (a)-(d) of FIG. 20, in each posture

(1) 무인 좌석의 경우의 시야 R1과 R5, R2와 R4(1) Field of view R1 and R5, R2 and R4 for unattended seating

(2) 정상 자세인 경우의 시야 R1과 R5, R2와 R4(2) Field of view R1 and R5 in normal posture, R2 and R4

와 같이, 상관이 높은 자세와,As with high posture,

(3) 옆으로 앉은 자세의 시야 R1과 R5, R2와 R4(3) sitting sideways view R1 and R5, R2 and R4

와 같이, 상관이 낮은 자세인 것을 알 수 있다. 또한, 상관이 높은 자세에는 상기 외에 차일드 시트의 시야 R1과 R5, R2와 R4 등이 있다.As can be seen, the posture is low in correlation. In addition, the postures having a high correlation include the view R1 and R5, R2 and R4 of the child seat in addition to the above.

그래서, 본원 발명에서는 좌우의 대응하는 감시 시야의 상관도에 의해서 판별대상을 압축하고, 자세 판별 시간의 단축화를 도모한다.Therefore, in the present invention, the object to be discriminated is compressed by the degree of correlation between the left and right corresponding surveillance fields, and the posture discrimination time can be shortened.

그 상관도 판별의 구체예를 나타내는 것이 도 17의 (a) 및 (b)이고, 도 17의 (a)에 정상 자세시의 시야 R1의 거리 분포로부터 시야 R5의 거리 분포를 뺀 차의 분포 [R1-R5] 와, 시야 R2의 거리 분포로부터 시야 R4의 거리 분포를 뺀 차의 분포 [R2-R4] 를 나타내고, 옆으로 앉은 자세에 관해서도 같은 처리를 한 예를 도 17의 (b)에 각각 나타내고 있다.17 (a) and (b) show specific examples of the correlation determination, and in FIG. 17 (a), the distribution of the difference obtained by subtracting the distance distribution of the field of view R5 from the distance distribution of the field of view R1 in the normal posture [ R1-R5] and the distribution [R2-R4] of the difference obtained by subtracting the distance distribution of the field of view R4 from the distance distribution of the field of view R2, and the same process was also performed to the side sitting position in Fig. 17B, respectively. It is shown.

도 17의 (a)에서는 상기의 차에 대하여 소정의 임계치(TH1~TH4)를 설정하는 것으로 시야 사이의 상관도를 판단하도록 하고 있다. 여기서는, 차가 어느것이나 임계치 이내에서 상관도가 높은 경우를 나타내고 있다. 이와 동일하게, 차의 적산치에 관해서도 고려할 수 있고, 도 17의 (b)에서는 이 적산치(S1, S2)(도 17의 (b)의 사선부 참조)에 관해서 각각 소정의 임계치(THS1, THS2)를 설정함으로써, 시야 사이의 상관도를 판단하도록 하고 있다. 여기에서는 적산치(S1, S2)가 어느것이나 임계치(THS1, THS2)를 초과하고, 상관도가 낮은 경우를 나타내고 있다.In FIG. 17A, the correlation between the visual fields is determined by setting predetermined thresholds TH1 to TH4 for the above difference. Here, the case where the difference is high within all the thresholds is shown. Similarly, the integrated value of the car can also be considered, and in FIG. 17B, the predetermined thresholds THS1, S2, S2 (see the hatched portion in FIG. 17B) are respectively regarded. THS2) is used to determine the correlation between the visual fields. In this case, the integrated values S1 and S2 exceed the thresholds THS1 and THS2, and the correlation is low.

즉, 상관도가 높은 자세에서는 도 20의 (a)와 같이 무인 좌석의 경우의 시야 R1, R5 및 시야 R2, R4, 도 20의 (b)와 같이 정상 자세인 경우의 시야 R1, R5 및 시야 R2, R4 등이 있고, 상관이 낮은 자세에서는 도 20의 (d)와 같이 옆으로 앉은 자세의 경우의 시야 R1, R5 및 시야 R2, R4가 있다. 따라서, 측정된 거리 분포에 관해서, 시야 R1, R5 및 시야 R2, R4가 서로 높은 상관을 갖는 경우에, 미리 준비되어 있는 표준 패턴에서는 무인 좌석이라든지 정상 자세와 같이 높은 상관을 갖는 표준 패턴을 선택하고 이것과의 비교로부터 자세 판별을 행하고, 상관도가 낮은 경우에는 옆으로 앉은 자세와 같이 상관이 낮은 표준 패턴과의 비교로부터 자세 판별을 행하는 것으로, 패턴 매칭을 위한 시간을 단축하고자 하는 것이다.That is, in the posture with high correlation, the visual fields R1, R5 and the visual fields R2, R4 in the case of the unmanned seat as shown in FIG. 20A, and the visual fields R1, R5 and the visual field in the normal posture as shown in FIG. There are R2, R4, and the like. In a posture with low correlation, there are visual fields R1, R5 and visual fields R2, R4 in the case of sitting sideways as shown in FIG. 20 (d). Therefore, with respect to the measured distance distribution, when the visual fields R1, R5 and the visual fields R2, R4 have a high correlation with each other, in the standard pattern prepared in advance, a standard pattern having a high correlation such as an unmanned seat or a normal posture is selected. The posture determination is performed by comparison with this, and when the correlation is low, the posture determination is performed by comparison with a standard pattern having a low correlation, such as a sitting posture, to shorten the time for pattern matching.

그런데, 에어백의 전개는 충돌이 발생하고 나서, 승차자의 큰 이동이 없는 동안에 행하여질 필요가 있기 때문에, 승차자의 자세 판별은 충돌이 발생하고 나서 에어백 전개 신호를 발생시킬 때까지의 짧은 시간으로 행할 필요가 있다. 여기서, 복수의 감시 시야의 거리 분포에 관해서, 기준 자세의 거리 분포와의 패턴 매칭 판별을 행하면 시간이 지나치게 걸리기 때문에, 본원 발명에서는 통상적으로 에어백 전개의 중심축 방향, 즉 좌석의 중앙을 1개의 시야, 예컨대 R3에 의해서 감시하여, 이 시야R3에서의 거리 분포에 관해서만 표준의 거리 분포 패턴과 정합 판별을 하고, 승차자 자세를 개략적으로 판별하도록 한다.However, since the deployment of the airbag needs to be performed after the collision has occurred and there is no large movement of the occupant, the attitude of the occupant needs to be performed in a short time from the collision to the generation of the airbag deployment signal. There is. Here, since it takes too much time to determine the pattern matching with the distance distribution of the reference posture with respect to the distance distribution of the plurality of surveillance fields of view, in the present invention, in general, one field of view is provided in the direction of the central axis of the airbag deployment, that is, the center of the seat. For example, by monitoring by R3, only the distance distribution in this field of view R3 is matched with the standard distance distribution pattern, and the rider attitude is roughly discriminated.

그리고, 충돌 발생시에는 상기와 같은 개략적인 판별로 에어백의 전개 제어가 가능한 경우에는 그 결과를 이용하지만, 더욱 상세한 자세 정보가 필요한 경우에는 복수 시야에 착안한 상세한 자세 판별 처리를 다른 긴급을 필요로 하지 않는 처리 보다 우선적으로 처리함으로써, 고속 처리를 가능하게 하여 안전성을 확보하고 있다.In the event of a collision, the result is used when the deployment control of the airbag is possible by the above-mentioned rough determination. However, when more detailed attitude information is needed, detailed posture determination processing focusing on multiple views does not require another emergency. By prioritizing the processing that is not performed, high-speed processing is enabled and safety is ensured.

본원 발명에 의하면, 시야내의 거리 분포 데이타에 여러 가지의 가공을 행하여 그 특징을 추출하거나 채용하는 데이타의 양을 최소한으로 하고, 패턴 매칭을 위한 대상을 압축하였기 때문에, 그 자세 판별을 위한 처리 시간을 대폭 단축할 수 있는 이점을 얻을 수 있다.According to the present invention, various processing is performed on the distance distribution data in the field of view to minimize the amount of data for extracting or employing the feature and compressing the object for pattern matching, thereby reducing the processing time for the attitude determination. The advantage of greatly shortening can be obtained.

또한, 본원 발명에 의하면, 시야내 거리 분포 데이타의 시야 사이의 특징(유사도)에 착안하여, 패턴 매칭을 위해 대상을 압축하였기 때문에, 처리 시간을 대폭 단축할 수 있는 이점을 얻을 수 있다. 또한, 충돌시에는 통상적으로 최소한의 데이타에 의한 자세 판별을 행하고, 이로써 에어백의 전개 제어가 가능한 경우에는 그 결과를 이용하고, 그렇지 않은 경우에는 자세 판별을 위한 처리를 다른 긴급을 필요로 하지 않은 처리 보다 우선하게 함으로써 처리가 신속해지고 안전성이 향상될 수 있다.Further, according to the present invention, since the object is compressed for pattern matching, focusing on the characteristics (similarity) between the fields of view of the intra-field distance distribution data, the processing time can be greatly reduced. In the case of a collision, the attitude determination is usually performed by the minimum data. Thus, when the airbag deployment control is possible, the result is used. Otherwise, the processing for the attitude determination does not require any emergency. By prioritizing, processing can be speeded up and safety can be improved.

도 1은 본원 발명이 적용되는 장치의 전체 구성을 나타내는 구성도.1 is a block diagram showing the overall configuration of a device to which the present invention is applied.

도 2는 도 1에서 사용되는 광 센서 어레이와 시야의 관계를 설명하기 위한 설명도.2 is an explanatory diagram for explaining a relationship between an optical sensor array and a field of view used in FIG. 1;

도 3은 거리 측정 연산 처리 장치의 구체예를 나타내는 구성도.3 is a configuration diagram showing a specific example of the distance measurement arithmetic processing unit.

도 4는 거리 측정 원리 설명도.4 is an explanatory diagram of a distance measurement principle.

도 5는 거리 측정 원리에 있어서의 상관 연산(correlation calculation) 설명도.5 is an explanatory diagram of correlation calculation in the distance measurement principle.

도 6은 복수 지점에서의 거리 측정 원리 설명도.6 is an explanatory diagram of a distance measuring principle at a plurality of points.

도 7은 승차자 판별 처리 장치의 구체예를 나타내는 구성도.7 is a configuration diagram showing a specific example of a rider discrimination processing apparatus.

도 8의 (a)∼(c)는 본원 발명의 제1 실시예를 설명하기 위한 제1 설명도.8 (a) to 8 (c) are first explanatory diagrams for explaining the first embodiment of the present invention.

도 9의 (a)∼(c)는 본원 발명의 제1 실시예를 설명하기 위한 제2 설명도.9 (a) to 9 (c) are second explanatory diagrams for explaining the first embodiment of the present invention.

도 10의 (a)∼(c)는 본원 발명의 제2 실시예를 설명하기 위한 제1 설명도.10 (a) to 10 (c) are first explanatory diagrams for explaining a second embodiment of the present invention.

도 11의 (a)∼(c)는 본원 발명의 제2 실시예를 설명하기 위한 제2 설명도.11 (a) to 11 (c) are second explanatory diagrams for describing the second embodiment of the present invention.

도 12의 (a)∼(c)는 본원 발명의 제2 실시예를 설명하기 위한 제3 설명도.12 (a) to 12 (c) are third explanatory diagrams for explaining the second embodiment of the present invention.

도 13의 (a)∼(c)는 본원 발명의 제2 실시예를 설명하기 위한 제4 설명도.13 (a) to 13 (c) are fourth explanatory diagrams for explaining the second embodiment of the present invention.

도 14의 (a)∼(c)는 본원 발명의 제3 실시예를 설명하기 위한 제1 설명도.14 (a) to 14 (c) are first explanatory diagrams for explaining a third embodiment of the present invention.

도 15의 (a)∼(c)는 본원 발명의 제3 실시예를 설명하기 위한 제2 설명도.15 (a) to 15 (c) are second explanatory diagrams for explaining the third embodiment of the present invention.

도 16의 (a)∼(f)는 본원 발명의 제4 실시예를 설명하기 위한 설명도.16A to 16F are explanatory views for explaining the fourth embodiment of the present invention.

도 17의 (a) 및 (b)는 본원 발명의 제5 실시예를 설명하기 위한 설명도.17 (a) and 17 (b) are explanatory diagrams for describing the fifth embodiment of the present invention.

도 18의 (a)∼(b) 및 (a)'∼(b) '는 좌석, 승차자 자세 등과 그 수직 감시 시야와의 관계를 나타내는 제1 설명도.(A)-(b) and (a) '-(b)' of FIG. 18 are 1st explanatory drawing which shows the relationship between a seat, a rider posture, etc., and its vertical monitoring visual field.

도 19의 (a)∼(b) 및 (a)'∼(b) '는 좌석, 승차자 자세 등과 그 수직 감시 시야와의 관계를 나타내는 제2 설명도.(A)-(b) and (a) '-(b)' of FIG. 19 are 2nd explanatory drawing which shows the relationship between a seat, a rider posture, etc., and its vertical monitoring visual field.

도 20의 (a)∼(d)는 도 18의 (a)∼(b) 및 (a)'∼(b) ', 도 19의 (a)∼(b) 및 (a)'∼(b) '의 경우의 거리 측정예를 나타내는 설명도.(A)-(d) of FIG. 20 shows (a)-(b) and (a) '-(b)' of FIG. 18, (a)-(b) and (a) '-(b) of FIG. Explanatory drawing which shows the example of distance measurement in case of "'.

도 21은 종래예를 나타내는 개념도.21 is a conceptual diagram showing a conventional example.

도 22의 (a)∼(c) 및 (a)'∼(c) '는 좌석, 승차자 자세 등과 그 수평 감시 시야와의 관계를 나타내는 제1 설명도.(A)-(c) and (a) '-(c)' of FIG. 22 are 1st explanatory drawing which shows the relationship between a seat, a rider posture, etc., and its horizontal monitoring visual field.

도 23의 (a)∼(c) 및 (a)'∼(c) '는 좌석, 승차자 자세 등과 그 수평 감시 시야와의 관계를 나타내는 제2 설명도.(A)-(c) and (a) '-(c)' of FIG. 23 are 2nd explanatory drawing which shows the relationship between a seat, a rider posture, etc., and its horizontal monitoring visual field.

도 24는 좌석, 승차자 자세 등과 그 수평 감시 시야와의 관계를 나타내는 제3 설명도.FIG. 24 is a third explanatory diagram showing a relationship between a seat, a rider's posture, and the like, and a horizontal monitoring field of view; FIG.

도 25의 (a)∼(c)는 도 22의 (a)∼(c) 및 (a)'∼(c) '에 대응하는 거리 측정예의 설명도.25 (a) to 25 (c) are explanatory diagrams of a distance measurement example corresponding to FIGS. 22 (a) to (c) and (a) 'to (c)'.

도 26의 (a)∼(c)는 도 23의 (a)∼(c) 및 (a)'∼(c) '에 대응하는 거리 측정예의 설명도.(A)-(c) is explanatory drawing of the distance measurement example corresponding to (a)-(c) and (a) '-(c)' of FIG.

도 27의 (a) 및 (b)는 도 24에 대응하는 거리 측정예 및 무인시의 전향 차일드 시트(child seat) 장착시의 거리 측정예의 설명도.27 (a) and 27 (b) are explanatory diagrams of a distance measurement example corresponding to FIG. 24 and an example of distance measurement at the time of mounting a forward child seat when unattended;

도 28은 4개의 판별 알고리즘에 따른 판별 결과를 나타내는 도면.Fig. 28 shows determination results according to four discrimination algorithms.

도 29 내지 도 34는 시트 위치 변화에 따른 판별 결과의 차이를 상세하게 나타낸 도면.29 to 34 are diagrams showing in detail the difference of the determination result according to the change of the sheet position.

도 35의 (a)는 승차자 센서(1)에 의해 얻어지는 각각의 시야 영역내 거리치를 나타낸 도면.FIG. 35A is a diagram showing distance values in respective viewing areas obtained by the occupant sensor 1. FIG.

도 35의 (b)는 판별부(106)의 추출기(1061)에 의해 얻어지는 각각의 시야 영역내 중간 위치에서의 거리치를 나타낸 도면.35B is a diagram showing a distance value at an intermediate position in each field of view obtained by the extractor 1061 of the discriminating unit 106;

도 36 내지 도 38은 승차자의 자세 또는 대상의 형태와 관련된 모델 패턴을 나타낸 도면.36 to 38 show model patterns related to the rider's posture or the shape of the object.

〈도면의 주요 부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

1, 1A : 승차자 센서1, 1A: passenger sensor

2, 2A : 승차자2, 2A: rider

3 : 자동차3: car

4 : 보조 광원4: auxiliary light source

10 : 다단(多段) 수광 IC10: multi-stage light receiving IC

11, 12 : 광 센서 어레이11, 12: light sensor array

21, 22 : 결상 렌즈21, 22: imaging lens

101 : 거리 측정 연산 처리 장치101: distance measurement operation processing device

102 : 승차자 판별 처리 장치102: rider determination processing device

103~106 : 판별부103 ~ 106: discrimination unit

107, 1033, 1043, 1053, 1063 : 메모리107, 1033, 1043, 1053, 1063: memory

108, 1032, 1042, 1052, 1062 : 비교기108, 1032, 1042, 1052, 1062: comparators

201 : 중앙 처리 장치201: central processing unit

202 : 충격 검지 센서202: shock detection sensor

203 : 에어백 인플레이터203: Airbag Inflator

204 : 좌석 센서204: seat sensor

1011, 1012 : 레지스터1011, 1012: register

1013 : 부분 데이터 추출부1013: partial data extraction unit

1014 : 상관 검출·거리 연산부1014: correlation detection distance calculation unit

1015 : 컨트롤러1015: controller

1031, 1051 : 판별기1031, 1051: discriminator

1041 : 연산기1041: Operator

Claims (13)

승차자의 자세 판별 장치로서,As a posture determination device of a rider, 한 쌍의 결상 렌즈와, 복수의 광 센서 소자를 각각 포함하는 적어도 두 쌍의 직선형 광 센서 어레이를 구비하며, 상기 적어도 한 쌍의 직선형 광 센서 어레이에 의해 모니터링되는 각각의 직선형 시야 영역 내에서의 승차자의 상이한 위치에 나타나는 상을 형성하는 센서와;A rider in each linear field of view having a pair of imaging lenses and at least two pairs of linear light sensor arrays each comprising a plurality of optical sensor elements, and monitored by said at least one pair of linear light sensor arrays. A sensor forming an image appearing at different positions of the sensor; 상기 센서에 의해 형성된 승차자의 상으로부터의 거리 분포를 검출하는 거리 측정 연산 처리 장치와;A distance measurement arithmetic processing unit for detecting a distance distribution from an image of a rider formed by the sensor; 상기 검출된 거리 분포로부터 추상(abstracted) 패턴을 추출하고, 미리 기억되어 있는 복수의 모델 패턴을 상기 추상 패턴과 비교하여, 상기 승차자 또는 대상의 특정 자세를 판별하는 승차자 판별 처리 장치를 구비하고,And a rider discrimination processing apparatus which extracts an abstracted pattern from the detected distance distribution, compares a plurality of model patterns stored in advance with the abstract pattern, and determines a specific posture of the rider or the object. 적어도 하나의 상기 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정되며, 상기 승차자 판별 처리 장치는 각각의 상기 직선형 시야 영역내의 거리 분포가 좌우 대칭성이 있는지를 체크함으로써 추상 패턴을 추출하고, 거리 분포가 대칭성을 가지고 있는지의 여부에 따라 미리 선택된 복수의 모델 패턴을 상기 추상 패턴과 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 상기 승차자 또는 그 대상의 특정 자세를 판별하는 것을 특징으로 하는 승차자의 자세 판별 장치.At least one linear viewing region is set to extend in a substantially horizontal direction with respect to a rider, and the occupant discrimination processing apparatus extracts an abstract pattern by checking whether the distance distribution in each of the linear viewing regions is symmetrical, and the distance The posture of the rider, characterized in that a specific posture of the rider or the object is determined after selecting a model pattern having a narrow range by comparing a plurality of preselected model patterns with the abstract pattern according to whether the distribution has symmetry. Discrimination device. 제1항에 있어서, 상기 거리 분포의 추상 패턴의 좌우 대칭성은, 각각의 상기 직선형 시야 영역내의 거리 분포 패턴을 그 중심 부분에 대하여 좌우 반전시켜서, 상기 각각의 직선형 시야 영역 내에서 반전되기 전의 거리 분포 패턴과 반전된 후의 거리 분포 패턴과의 대응 위치에서의 거리 차를 얻고, 각각의 상기 거리 차가 소정치 보다 크지 않은지의 여부나 상기 거리 차의 적산치가 소정치 보다 크지 않은지의 여부를 판정함으로써, 체크되는 것을 특징으로 하는 승차자의 자세 판별 장치.2. The distance distribution according to claim 1, wherein the left and right symmetry of the abstract pattern of the distance distribution is inverted from the center portion of the distance distribution pattern in each of the linear viewing areas, and thus the distance distribution before being inverted in each of the linear viewing areas. By checking the distance difference at the corresponding position between the pattern and the distance distribution pattern after inversion, and determining whether each said distance difference is not larger than a predetermined value or whether the integrated value of said distance difference is not larger than a predetermined value, The attitude determination device of the rider, characterized in that the. 승차자의 자세 판별 장치로서,As a posture determination device of a rider, 한 쌍의 결상 렌즈와, 복수의 광 센서 소자를 각각 포함하는 적어도 두 쌍의 직선형 광 센서 어레이를 구비하며, 상기 적어도 한 쌍의 직선형 광 센서 어레이에 의해 모니터링되는 각각의 직선형 시야 영역 내에서의 승차자의 상이한 위치에 나타나는 상을 형성하는 센서와;A rider in each linear field of view having a pair of imaging lenses and at least two pairs of linear light sensor arrays each comprising a plurality of optical sensor elements, and monitored by said at least one pair of linear light sensor arrays. A sensor forming an image appearing at different positions of the sensor; 상기 센서에 의해 형성된 승차자의 상으로부터의 거리 분포를 검출하는 거리 측정 연산 처리 장치와;A distance measurement arithmetic processing unit for detecting a distance distribution from an image of a rider formed by the sensor; 상기 검출된 거리 분포로부터 추상(abstracted) 패턴을 추출하고, 미리 기억되어 있는 복수의 모델 패턴을 상기 추상 패턴과 비교하여, 상기 승차자 또는 대상의 특정 자세를 판별하는 승차자 판별 처리 장치를 구비하고,And a rider discrimination processing apparatus which extracts an abstracted pattern from the detected distance distribution, compares a plurality of model patterns stored in advance with the abstract pattern, and determines a specific posture of the rider or the object. 상기 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정하고, 상기 승차자 판별 처리 장치는 상기 직선형 시야 영역의 인접 영역 간의 거리 분포 패턴의 변화분에 관해서의 각 시야 사이의 상관도를 체크함으로써 추상 패턴을 추출하고, 그 상관도에 따라서 미리 선택된 복수의 모델 패턴과 추상 패턴을 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 상기 승차자 또는 대상의 특정 자세를 판별하는 것을 특징으로 하는 승차자의 자세 판별 장치.The linear viewing region is set to extend in a substantially horizontal direction with respect to the occupant, and the occupant discrimination processing apparatus abstracts by checking the correlation between the respective visual fields with respect to changes in the distance distribution pattern between adjacent regions of the linear viewing region. A pattern determination apparatus for a rider, characterized in that a model pattern having a narrow range is selected by extracting a pattern, comparing a plurality of previously selected model patterns with an abstract pattern according to the correlation, and then determining a specific posture of the rider or the target. . 제3항에 있어서, 상기 직선형 시야 영역 중 인접한 시야 영역 간의 상관도는, 상기 직선형 시야 영역 중 인접한 시야 영역의 대응 위치에서 각각의 시야 영역내의 거리 분포 패턴의 변화분의 차를 구하고, 상기 변화분의 차가 소정치 보다 크지 않은지의 여부나 상기 차의 적산치가 소정치 보다 크지 않은지의 여부를 판정함으로써, 체크되는 것을 특징으로 하는 승차자의 자세 판별 장치.The correlation between the adjacent visual field areas of the linear visual field areas is obtained by obtaining a difference of the variation of the distance distribution pattern in each visual field area at a corresponding position of the adjacent visual field areas of the linear visual field areas. The vehicle occupant's attitude discrimination apparatus is checked by determining whether the difference is not greater than a predetermined value or whether the integrated value of the difference is not greater than a predetermined value. 승차자의 자세 판별 장치로서,As a posture determination device of a rider, 한 쌍의 결상 렌즈와, 복수의 광 센서 소자를 각각 포함하는 적어도 두 쌍의 직선형 광 센서 어레이를 구비하며, 상기 적어도 한 쌍의 직선형 광 센서 어레이에 의해 모니터링되는 각각의 직선형 시야 영역 내에서의 승차자의 상이한 위치에 나타나는 상을 형성하는 센서와;A rider in each linear field of view having a pair of imaging lenses and at least two pairs of linear light sensor arrays each comprising a plurality of optical sensor elements, and monitored by said at least one pair of linear light sensor arrays. A sensor forming an image appearing at different positions of the sensor; 상기 센서에 의해 형성된 승차자의 상으로부터의 거리 분포를 검출하는 거리 측정 연산 처리 장치와;A distance measurement arithmetic processing unit for detecting a distance distribution from an image of a rider formed by the sensor; 상기 검출된 거리 분포로부터 추상(abstracted) 패턴을 추출하고, 미리 기억되어 있는 복수의 모델 패턴을 상기 추상 패턴과 비교하여, 상기 승차자 또는 대상의 특정 자세를 판별하는 승차자 판별 처리 장치를 구비하고,And a rider discrimination processing apparatus which extracts an abstracted pattern from the detected distance distribution, compares a plurality of model patterns stored in advance with the abstract pattern, and determines a specific posture of the rider or the object. 상기 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정하고, 상기 승차자 판별 처리 장치는 상기 직선형 시야 영역 각각의 제1 시야 위치와 제2 시야 위치 사이의 거리 분포의 오목한 형태 또는 볼록한 형태의 패턴을 체크함으로써 추상 패턴을 추출하고, 거리 분포 패턴이 오목한 형태 또는 볼록한 형태인지의 여부에 따라 미리 선택된 복수의 모델 패턴을 상기 추상 패턴과 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 승차자 또는 그 대상의 특정 자세를 판별하는 것을 특징으로 하는 승차자의 자세 판별 장치.The linear viewing region is set to extend in a substantially horizontal direction with respect to the occupant, and the occupant discrimination processing apparatus is a concave or convex pattern of the distance distribution between the first viewing position and the second viewing position of each of the linear viewing regions. Extracts an abstract pattern, compares a plurality of preselected model patterns with the abstract pattern according to whether the distance distribution pattern is concave or convex, selects a narrow pattern model pattern, and then A rider's posture determination device, characterized in that it determines a particular posture. 제5항에 있어서, 상기 거리 분포 패턴의 오목한 형태 또는 볼록한 형태는 각각의 상기 직선형 시야 영역에서 상기 제1 시야 위치와 제2 시야 위치에 있어서의 거리치의 평균치와, 상기 제1 시야 위치와 제2 시야 위치와의 중간 위치에 있어서의 거리치를 비교함으로써 판별되는 것을 특징으로 하는 승차자의 자세 판별 장치.The concave or convex form of the distance distribution pattern is an average value of distance values at the first viewing position and the second viewing position in each of the linear viewing regions, and the first viewing position and the second viewing position. A rider's attitude discrimination apparatus, which is determined by comparing a distance value at an intermediate position with a visual field position. 승차자의 자세 판별 장치로서,As a posture determination device of a rider, 한 쌍의 결상 렌즈와, 복수의 광 센서 소자를 각각 포함하는 적어도 두 쌍의 직선형 광 센서 어레이를 구비하며, 상기 적어도 한 쌍의 직선형 광 센서 어레이에 의해 모니터링되는 각각의 직선형 시야 영역 내에서의 승차자의 상이한 위치에 나타나는 상을 형성하는 센서와;A rider in each linear field of view having a pair of imaging lenses and at least two pairs of linear light sensor arrays each comprising a plurality of optical sensor elements, and monitored by said at least one pair of linear light sensor arrays. A sensor forming an image appearing at different positions of the sensor; 상기 센서에 의해 형성된 승차자의 상으로부터의 거리 분포를 검출하는 거리 측정 연산 처리 장치와;A distance measurement arithmetic processing unit for detecting a distance distribution from an image of a rider formed by the sensor; 상기 검출된 거리 분포로부터 추상(abstracted) 패턴을 추출하고, 미리 기억되어 있는 복수의 모델 패턴을 상기 추상 패턴과 비교하여, 상기 승차자 또는 대상의 특정 자세를 판별하는 승차자 판별 처리 장치를 구비하고,And a rider discrimination processing apparatus which extracts an abstracted pattern from the detected distance distribution, compares a plurality of model patterns stored in advance with the abstract pattern, and determines a specific posture of the rider or the object. 상기 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정하며, 상기 승차자 판별 처리 장치는 인접한 시야 영역에서의 거리치와 비교하여 각각의 직선형 시야 영역의 소정의 위치에서 측정된 거리의 증감 경향을 체크함으로써 추상 패턴을 추출하고, 상기 거리의 상기 증감 경향에 따라 미리 선택된 복수의 모델 패턴과 상기 추상 패턴을 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 상기 승차자 또는 대상의 특정 자세를 판별하는 것을 특징으로 하는 승차자의 자세 판별 장치.The linear viewing region is set to extend in a substantially horizontal direction with respect to the occupant, and the occupant discrimination processing apparatus compares the distance value in a predetermined position of each linear viewing region with respect to the distance value in the adjacent viewing region. Extracting an abstract pattern by checking, selecting a model pattern having a narrow range by comparing the plurality of model patterns previously selected according to the tendency of increase and decrease of the distance with the abstract pattern, and determining a specific posture of the rider or the target; The posture discrimination apparatus of a rider. 제7항에 있어서, 상기 소정의 위치는 측방향에서 보았을 때 정상 자세로 앉아 있는 승차자의 중앙 위치인 것을 특징으로 하는 승차자의 자세 판별 장치.The apparatus of claim 7, wherein the predetermined position is a center position of a rider sitting in a normal posture when viewed from the lateral direction. 승차자의 자세 판별 장치로서,As a posture determination device of a rider, 한 쌍의 결상 렌즈와, 복수의 광 센서 소자를 각각 포함하는 적어도 두 쌍의 직선형 광 센서 어레이를 구비하며, 상기 적어도 한 쌍의 직선형 광 센서 어레이에 의해 모니터링되는 각각의 직선형 시야 영역 내에서의 승차자의 상이한 위치에 나타나는 상을 형성하는 센서와;A rider in each linear field of view having a pair of imaging lenses and at least two pairs of linear light sensor arrays each comprising a plurality of optical sensor elements, and monitored by said at least one pair of linear light sensor arrays. A sensor forming an image appearing at different positions of the sensor; 상기 센서에 의해 형성된 승차자의 상으로부터의 거리 분포를 검출하는 거리 측정 연산 처리 장치와;A distance measurement arithmetic processing unit for detecting a distance distribution from an image of a rider formed by the sensor; 상기 검출된 거리 분포로부터 추상(abstracted) 패턴을 추출하고, 미리 기억되어 있는 복수의 모델 패턴을 상기 추상 패턴과 비교하여, 상기 승차자 또는 대상의 특정 자세를 판별하는 승차자 판별 처리 장치를 구비하고,And a rider discrimination processing apparatus which extracts an abstracted pattern from the detected distance distribution, compares a plurality of model patterns stored in advance with the abstract pattern, and determines a specific posture of the rider or the object. 상기 직선형 시야 영역은 승차자에 대하여 대략 수평 방향으로 연장하도록 설정하고, 상기 승차자 판별 처리 장치는 각각의 상기 직선형 시야 영역내의 거리 분포 패턴의 대칭성에 관한 종합적인 판단에 기초하여 그 승차자의 자세와, 거리 분포 패턴의 오목한 형태 또는 볼록한 형태와, 상기 거리 분포 패턴의 변화분에 관해서 상기 적어도 하나의 직선형 시야 영역 중 인접한 시야 영역 간의 상관도와, 상기 직선형 시야 영역의 소정의 위치에서 측정된 거리의 증감 경향을 판별하는 것을 특징으로 하는 승차자의 자세 판별 장치.The linear viewing region is set to extend in a substantially horizontal direction with respect to the occupant, and the occupant discrimination processing apparatus determines the attitude and distance of the occupant based on a comprehensive judgment regarding the symmetry of the distance distribution pattern in each of the linear viewing regions. The correlation between the concave or convex shape of the distribution pattern and the variation of the distance distribution pattern and the adjacent visual field of the at least one linear visual field, and the tendency of increase and decrease of the distance measured at a predetermined position of the linear visual field are shown. The attitude | position determination apparatus of the occupant characterized by the above-mentioned. 승차자의 자세 판별 장치로서,As a posture determination device of a rider, 한 쌍의 결상 렌즈와, 복수의 광 센서 소자를 각각 포함하는 적어도 두 쌍의 직선형 광 센서 어레이를 구비하며, 상기 적어도 한 쌍의 직선형 광 센서 어레이에 의해 모니터링되는 각각의 직선형 시야 영역 내에서의 승차자의 상이한 위치에 나타나는 상을 형성하는 센서와;A rider in each linear field of view having a pair of imaging lenses and at least two pairs of linear light sensor arrays each comprising a plurality of optical sensor elements, and monitored by said at least one pair of linear light sensor arrays. A sensor forming an image appearing at different positions of the sensor; 상기 센서에 의해 형성된 승차자의 상으로부터의 거리 분포를 검출하는 거리 측정 연산 처리 장치와;A distance measurement arithmetic processing unit for detecting a distance distribution from an image of a rider formed by the sensor; 상기 검출된 거리 분포로부터 추상(abstracted) 패턴을 추출하고, 미리 기억되어 있는 복수의 모델 패턴을 상기 추상 패턴과 비교하여, 상기 승차자 또는 대상의 특정 자세를 판별하는 승차자 판별 처리 장치를 구비하고,And a rider discrimination processing apparatus which extracts an abstracted pattern from the detected distance distribution, compares a plurality of model patterns stored in advance with the abstract pattern, and determines a specific posture of the rider or the object. 상기 직선형 시야 영역은, 승차자에 대하여 대략 수직 방향으로 연장하도록 설정하고, 상기 승차자 판별 처리 장치는 에어백의 전개축에 대하여 대략 대칭인 위치에 있는 한 쌍의 시야 영역의 거리 분포 패턴 간의 상관도를 체크함으로써 추상 패턴을 추출하고, 그 추상 패턴과 상기 상관도에 따라서 미리 선택된 복수의 모델 패턴을 비교함으로써 승차자 또는 그 대상의 특정 자세를 판별하는 것을 특징으로 하는 승차자의 자세 판별 장치.The linear viewing region is set to extend in a direction substantially perpendicular to the occupant, and the occupant discrimination processing apparatus checks the correlation between the distance distribution patterns of the pair of viewing regions at positions substantially symmetric with respect to the deployment axis of the airbag. Thereby extracting the abstract pattern and comparing the abstract pattern with a plurality of pre-selected model patterns in accordance with the correlation to determine a specific posture of the rider or the object. 제10항에 있어서, 상기 한 쌍의 시야 영역의 거리 분포 패턴 간의 상관도는 상기 한 쌍의 시야 영역내의 대응하는 위치에서 측정된 각각의 거리 차를 소정치와 비교하거나 또는 그 차의 적산치를 소정치와 비교함으로써 판정되는 것을 특징으로 하는 승차자의 자세 판별 장치.11. The method of claim 10, wherein the correlation between the distance distribution patterns of the pair of viewing areas is determined by comparing each distance difference measured at a corresponding position in the pair of viewing areas with a predetermined value or by subtracting the integrated value of the difference. A rider's attitude discrimination apparatus which is determined by comparing with stationary. 제11항에 있어서, 상기 승차자 판별 처리 장치는 통상시에는 에어백의 전개축에 관계되는 시야 영역내의 거리 분포만을 측정하여 승차자의 개략적인 자세를 판별하며, 충돌시에는 상기 개략적인 자세 판별을 포함한 승차자의 자세 판별 처리를 다른 긴급을 요하지 않는 처리 보다 우선하여 행하는 것을 특징으로 하는 승차자의 자세 판별 장치.12. The passenger according to claim 11, wherein the occupant determination processing apparatus normally measures only a distribution of distances in a field of view related to the deployment axis of the airbag to determine a rough attitude of the occupant, and at the time of a collision, the occupant including the rough attitude determination. The attitude | position determination apparatus of the occupant which carries out priority of the attitude | position determination process of this process over the process which does not require other emergency. 차량의 좌석 부근에 설치된 수용부에 수용된 에어백과, 차량의 충격을 검지하여 에어백을 전개시키는 센서를 구비한 에어백 시스템에 사용하기 위한 승차자의 자세 판별 장치에 있어서,In the occupant attitude determination device for use in an airbag system having an airbag accommodated in a receiving portion provided near a seat of a vehicle and a sensor for detecting an impact of the vehicle and deploying the airbag, 한 쌍의 결상 렌즈와 적어도 두 쌍의 센서 어레이를 구비하며, 상기 에어백을 수용하는 상기 에어백 수용부와 상기 좌석 간의 공간에 존재하는 승차자 또는 그 대상의 복수 부분에서의 거리 분포를 검출하는 거리 센서와;A distance sensor having a pair of imaging lenses and at least two pairs of sensor arrays, the distance sensor detecting a distance distribution in a plurality of portions of a rider or an object present in a space between the airbag receiving portion and the seat for receiving the airbag; ; 그 거리 분포의 패턴과 거리 분포의 복수의 모델 패턴을 비교함으로써 상기 승차자의 자세 또는 대상의 형태를 판별하여, 그 판별 결과에 따라서 상기 에어백의 전개를 제어하거나 또는 상기 에어백이 전개되어야 하는지의 여부를 결정하는 처리 장치를 구비하고,By comparing the pattern of the distance distribution and a plurality of model patterns of the distance distribution, the attitude of the rider or the shape of the object is determined, and according to the determination result, the deployment of the airbag is controlled or whether the airbag should be deployed. And a processing apparatus for determining 상기 처리 장치는 상기 거리 분포가 좌우 대칭성이 있는지를 체크함으로써 추상 패턴을 추출하고, 상기 거리 분포가 대칭성을 가지고 있는지의 여부에 따라 미리 선택된 복수의 모델 패턴을 상기 추상 패턴과 비교함으로써 협폭 범위의 모델 패턴을 선택한 후, 상기 승차자의 자세 또는 상기 대상의 형태를 판별하는 것을 특징으로 하는 승차자의 자세 판별 장치.The processing apparatus extracts an abstract pattern by checking whether the distance distribution has left and right symmetry, and compares a plurality of preselected model patterns with the abstract pattern according to whether the distance distribution has symmetry, thereby narrowing the model in a narrow range. And a posture of the rider or a shape of the object after selecting a pattern.
KR1019980011427A 1997-04-01 1998-04-01 Apparatus for detecting occupant's posture KR100686564B1 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP8309797 1997-04-01
JP97-083097 1997-04-01
JP8489997 1997-04-03
JP97-084899 1997-04-03
JP32476497 1997-11-26
JP97-324764 1997-11-26

Publications (2)

Publication Number Publication Date
KR19980080977A KR19980080977A (en) 1998-11-25
KR100686564B1 true KR100686564B1 (en) 2008-03-24

Family

ID=27304125

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980011427A KR100686564B1 (en) 1997-04-01 1998-04-01 Apparatus for detecting occupant's posture

Country Status (2)

Country Link
KR (1) KR100686564B1 (en)
DE (1) DE19814691B4 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102975719A (en) * 2011-09-02 2013-03-20 现代自动车株式会社 Device and method for detecting driver's condition using infrared ray sensor

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19855301A1 (en) * 1998-12-01 2000-06-08 Volkswagen Ag Method and measuring device for detecting the seating position of a vehicle occupant
DE19910592A1 (en) * 1999-03-10 2000-09-14 Volkswagen Ag Restraint
DE19926845A1 (en) * 1999-04-09 2000-10-19 Steinel Gmbh & Co Kg Security unit for car occupants controls airbag and safety belts according to impact parameters recorded by sensors
DE19932520A1 (en) * 1999-07-12 2001-02-01 Hirschmann Austria Gmbh Rankwe Device for controlling a security system
DE10003220A1 (en) * 2000-01-26 2001-08-02 Volkswagen Ag Driver-specific setting of motor vehicle seat involves setting seat using measured points of overall stature of driver or passenger and dimensional data of vehicle
DE10007014C2 (en) * 2000-02-16 2002-09-19 Bosch Gmbh Robert Method and device for seat occupancy detection
DE10207503B3 (en) * 2002-02-22 2004-03-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analyzing crash process outcome scatter involves simulating locus point position spatial scatter at defined time points, analyzing whether position scatters of first and second locus points correlate
DE10226257A1 (en) * 2002-06-13 2003-12-24 Bosch Gmbh Robert Method for detecting a person in a room
DE10248762B4 (en) * 2002-10-18 2005-06-23 Wilhelm Karmann Gmbh Motor vehicle with a mobile roof
US20060291697A1 (en) * 2005-06-21 2006-12-28 Trw Automotive U.S. Llc Method and apparatus for detecting the presence of an occupant within a vehicle
US11485383B2 (en) * 2019-12-06 2022-11-01 Robert Bosch Gmbh System and method for detecting and mitigating an unsafe condition in a vehicle
US11807181B2 (en) 2020-10-27 2023-11-07 GM Global Technology Operations LLC Vision-based airbag enablement
CN116879903B (en) * 2023-07-26 2024-06-04 苏州呐敏智能装备科技有限公司 Distance history time synchronization method, device, electronic equipment and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6061611A (en) * 1983-09-14 1985-04-09 Mitsubishi Electric Corp Measuring apparatus for distance between cars
JPS60152904A (en) * 1984-01-20 1985-08-12 Nippon Denso Co Ltd Vehicle-driver-position recognizing apparatus
JPH07196006A (en) * 1993-12-29 1995-08-01 Sensor Technol Kk Occupant detection system for front passenger seat
US5531472A (en) * 1995-05-01 1996-07-02 Trw Vehicle Safety Systems, Inc. Apparatus and method for controlling an occupant restraint system
US6027138A (en) * 1996-09-19 2000-02-22 Fuji Electric Co., Ltd. Control method for inflating air bag for an automobile

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102975719A (en) * 2011-09-02 2013-03-20 现代自动车株式会社 Device and method for detecting driver's condition using infrared ray sensor

Also Published As

Publication number Publication date
DE19814691A1 (en) 1999-03-04
DE19814691B4 (en) 2008-11-27
KR19980080977A (en) 1998-11-25

Similar Documents

Publication Publication Date Title
US6116640A (en) Apparatus for detecting occupant&#39;s posture
KR100686564B1 (en) Apparatus for detecting occupant&#39;s posture
US6027138A (en) Control method for inflating air bag for an automobile
US6850268B1 (en) Apparatus for detecting passenger occupancy of vehicle
US7505841B2 (en) Vision-based occupant classification method and system for controlling airbag deployment in a vehicle restraint system
KR100941271B1 (en) Prevention method of lane departure for vehicle
US7580548B2 (en) Abnormality detecting apparatus for imaging apparatus
US20070289799A1 (en) Vehicle occupant detecting system
US10131309B2 (en) Apparatus and method for controlling airbag
EP1033694A2 (en) Rear-view monitoring system for vehicles
EP1870296B1 (en) Vehicle seat detecting system, operation device controlling system, and vehicle
US20060114318A1 (en) Abnormality detecting apparatus for imaging apparatus
US20060186651A1 (en) Detection system, informing system, actuation system and vehicle
KR20010005883A (en) Occupant type and position detection system
US6834116B2 (en) Method and device for determining the position of an object within a given area
US20060280336A1 (en) System and method for discriminating passenger attitude in vehicle using stereo image junction
JP3312729B2 (en) Outside monitoring device with fail-safe function
KR100527466B1 (en) Method and apparatus for determining head position of vehicle driver
US7492923B2 (en) Method and device for detecting the occupancy state of a seat
JP3826245B2 (en) Crew attitude determination device
JPH10329641A (en) Attitude judging device for occupant
CN117203094A (en) System and method for detecting proper seat belt usage and distance
JP3819551B2 (en) Vehicle distance measuring device
JP2020144573A (en) Driver monitoring device
JPH1151644A (en) Distance measuring instrument for vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee