KR20240011931A - Occupant classification method and apparatus for vehicle - Google Patents

Occupant classification method and apparatus for vehicle Download PDF

Info

Publication number
KR20240011931A
KR20240011931A KR1020220089107A KR20220089107A KR20240011931A KR 20240011931 A KR20240011931 A KR 20240011931A KR 1020220089107 A KR1020220089107 A KR 1020220089107A KR 20220089107 A KR20220089107 A KR 20220089107A KR 20240011931 A KR20240011931 A KR 20240011931A
Authority
KR
South Korea
Prior art keywords
seat
seated person
determining
class
vehicle
Prior art date
Application number
KR1020220089107A
Other languages
Korean (ko)
Inventor
조웅래
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020220089107A priority Critical patent/KR20240011931A/en
Priority to EP23185771.5A priority patent/EP4310799A1/en
Priority to US18/353,420 priority patent/US20240029452A1/en
Priority to CN202310889972.XA priority patent/CN117416301A/en
Publication of KR20240011931A publication Critical patent/KR20240011931A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R22/00Safety belts or body harnesses in vehicles
    • B60R22/48Control systems, alarms, or interlock systems, for the correct application of the belt or harness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01516Passenger detection systems using force or pressure sensing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01554Seat position sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Seats For Vehicles (AREA)

Abstract

차량 내부의 이미지를 획득하는 단계; 시트 포지션을 획득하는 단계; 시트 면적 값을 판단하는 단계; 착좌자를 검출하고, 검출된 착좌자에 대응되는 착좌자 면적 값을 판단하는 단계; 및 상기 시트 면적 값과 해당 시트의 착좌자 면적 값에 따른 면적비를 기반으로 상기 착좌자의 클래스(Class)를 판단하는 단계;를 포함하는 차량용 착좌자 분류 방법 및 장치가 소개된다.Obtaining images of the interior of the vehicle; Obtaining a seating position; determining a sheet area value; Detecting a seated person and determining a seated area value corresponding to the detected seated person; and determining the class of the seated person based on the area ratio of the seat area value and the seated person area value of the corresponding seat. A method and device for classifying a seated person for a vehicle including a step is introduced.

Description

차량용 착좌자 분류 방법 및 장치{OCCUPANT CLASSIFICATION METHOD AND APPARATUS FOR VEHICLE}Vehicle seat classification method and device {OCCUPANT CLASSIFICATION METHOD AND APPARATUS FOR VEHICLE}

본 발명은 차량용 착좌자 분류 방법 및 장치에 관한 것으로, 보다 상세하게는, 영상 정보에 기반하여 착좌자를 분류할 수 있도록 하는 차량용 착좌자 분류 방법 및 장치에 관한 것이다.The present invention relates to a method and device for classifying vehicle occupants, and more specifically, to a method and device for classifying vehicle occupants based on image information.

차량과 관련한 기술들이 꾸준히 발전함에 따라, 오늘날의 차량에는 기본적인 주행 기능뿐만 아니라 탑승자의 안전과 관련된 기능, 편의와 관련된 기능 등 다양한 기능들이 탑재되게 되었다. 또한, 이러한 기능들이 적절하게 적용되어 오작동을 방지하고, 향상된 성능을 제공할 수 있도록 하기 위하여 각 기능의 적용 대상이 되는 차량의 탑승자를 감지하거나 분류하는 기술들이 함께 발전하게 되었다.As vehicle-related technologies continue to develop, today's vehicles are equipped with a variety of functions, including basic driving functions, functions related to the safety of passengers, and functions related to convenience. Additionally, in order to properly apply these functions to prevent malfunctions and provide improved performance, technologies for detecting or classifying the occupants of vehicles subject to each function have been developed.

이러한 탑승자 감지 또는 분류 기술에 대한 일 예로, 시트 벨트의 착용을 유도하기 위한 SBR(Seat Belt Reminder) 기술이 있다. SBR 기술은 탑승자의 시트 벨트 착용 여부를 판단하고, 미착용 시 알림 등을 통해 시트 벨트 착용을 유도하는 기술이다. SBR 기술은 이를 위해 무게 정보를 이용하여 승객 탑승 여부를 판단한다. 보다 상세하게는, 시트 상단의 착좌면에 부착된 스위치 센서 통해 가해지는 하중을 감지하고, 이를 제어기에 전달함으로써 탑승 여부를 판단할 수 있도록 한다. 그러나, 이러한 방식의 SBR 기술은 일반적으로 하중의 유무만을 감지할 수 있으므로 사람과 물건을 구별하지 못하고, 탑승자를 분류할 수 없는 한계가 존재한다. An example of such occupant detection or classification technology is SBR (Seat Belt Reminder) technology to encourage the wearing of seat belts. SBR technology is a technology that determines whether the passenger is wearing a seat belt and encourages the seat belt to be worn through notifications when not wearing it. For this purpose, SBR technology uses weight information to determine whether a passenger is on board. More specifically, the load applied is detected through a switch sensor attached to the seating surface at the top of the seat, and this is transmitted to the controller to determine whether or not to ride. However, since this type of SBR technology can generally only detect the presence or absence of a load, there are limitations in that it cannot distinguish between people and objects and cannot classify occupants.

또 다른 예로, 시트 상단의 착좌면에 구조물을 장착하여 가해지는 하중에 따라 승객 탑승 여부를 판단하고, 탑승자의 유형을 분류하는 ODS(Occupant Detection System) 기술이 있다. ODS는 탑승자 정보를 별도 제어기에 송출하여, 탑승자가 유아인 경우 에어백 전개를 억제할 수 있도록 한다. ODS 기술은 전술한 SBR과 달리 하중의 정도를 감지할 수 있으므로 하중의 정도에 따라 탑승자를 분류할 수 있게 된다. 다만, ODS 기술도 전술한 SBR 기술과 마찬가지로 무게 정보만을 이용하므로 사람과 물건을 구별할 수 없는 한계가 존재한다.Another example is ODS (Occupant Detection System) technology, which attaches a structure to the seating surface at the top of the seat to determine whether a passenger is on board and classifies the type of occupant according to the applied load. The ODS transmits occupant information to a separate controller, allowing airbag deployment to be suppressed if the occupant is an infant. Unlike the aforementioned SBR, ODS technology can detect the degree of load, making it possible to classify occupants according to the degree of load. However, like the aforementioned SBR technology, ODS technology uses only weight information, so there is a limitation in being unable to distinguish between people and objects.

이에 따라, 탑승자를 보다 정확히 감지하고, 세밀하게 분류할 수 있도록 하는 방안이 제시될 필요가 있다.Accordingly, there is a need to propose a method to detect passengers more accurately and classify them in detail.

상기의 배경기술로서 설명된 사항들은 본 발명의 배경에 대한 이해증진을 위한 것일 뿐, 이 기술분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술에 해당함을 인정하는 것으로 받아들여져서는 안 될 것이다.The matters described as background technology above are only for the purpose of improving understanding of the background of the present invention, and should not be taken as recognition that they correspond to prior art already known to those skilled in the art.

KRKR 10-2006-0003193 10-2006-0003193 AA

본 발명은 영상 정보에 기반하여 착좌자를 보다 정확하고 세세하게 분류할 수 있도록 하는 차량용 착좌자 분류 방법 및 장치에 관한 것이다.The present invention relates to a method and device for classifying seated occupants for a vehicle that allows more accurate and detailed classification of seated occupants based on image information.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

상기와 같은 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 차량용 착좌자 분류 방법은, 차량 내부의 이미지를 획득하는 단계; 시트의 시트 포지션을 획득하는 단계; 상기 시트 포지션과 연관된 파라미터에 기반하여 시트 면적 값을 판단하는 단계; 상기 획득된 이미지로부터 착좌자를 검출하고, 검출된 착좌자에 대응되는 착좌자 면적 값을 판단하는 단계; 및 상기 시트 면적 값과 해당 시트의 착좌자 면적 값에 따른 면적비를 기반으로 상기 착좌자의 클래스(Class)를 판단하는 단계;를 포함한다.In order to solve the above technical problem, a method for classifying seat occupants for a vehicle according to an embodiment of the present invention includes the steps of acquiring an image of the interior of the vehicle; Obtaining a seating position of a seat; determining a seat area value based on parameters associated with the seat position; Detecting a seated person from the acquired image and determining a seated area value corresponding to the detected seated person; and determining the class of the seated person based on an area ratio according to the seat area value and the seated person's area value of the corresponding seat.

예를 들어, 상기 이미지는, 상기 차량 내부의 전방에, 후방을 향하도록 구비되는 인캐빈 카메라(In-Canbin Camera)에 의해 촬영된 이미지일 수 있다.For example, the image may be an image captured by an in-cabin camera installed at the front of the vehicle, facing rearward.

예를 들어, 상기 시트 포지션은, 상기 시트의 전후 방향 위치를 포함하고, 상기 시트 면적 값을 판단하는 단계는, 적어도 상기 시트의 최전방 및 최후방 위치에 대응되도록 기 설정된 파라미터에 기반하여 상기 시트 면적 값을 판단하는 단계;를 포함할 수 있다.For example, the seat position includes the front and rear positions of the seat, and the step of determining the seat area value includes at least the seat area based on parameters preset to correspond to the frontmost and rearmost positions of the seat. It may include a step of determining a value.

예를 들어, 상기 시트 포지션을 획득하는 단계는, 상기 시트와 연결되는 시트 트랙 포지션 센서(Seat Track Position Sensor)로부터 상기 시트의 전후 방향 위치에 따른 시트 포지션을 획득하는 단계;를 포함할 수 있다.For example, the step of acquiring the seat position may include obtaining a seat position according to the front-to-back position of the seat from a seat track position sensor connected to the seat.

예를 들어, 상기 시트 포지션은, 상기 시트의 시트백 리클라인 각도를 포함하고, 상기 시트 면적 값을 판단하는 단계는, 상기 리클라인 각도를 추가적으로 고려하여 상기 시트 면적 값을 판단하는 단계;를 포함할 수 있다.For example, the seat position may include a recline angle of the seatback of the seat, and the step of determining the seat area value may include determining the seat area value by additionally considering the recline angle. You can.

예를 들어, 상기 획득된 이미지로부터 상기 착좌자를 검출할 수 없는 경우 상기 클래스를 특정 클래스로 판단하는 단계;를 더 포함할 수 있다.For example, if the seated person cannot be detected from the acquired image, determining the class as a specific class may be further included.

예를 들어, 상기 착좌자 면적 값을 판단하는 단계는, 상기 획득된 이미지로부터 착좌자 분할(Segmentation)을 획득하는 단계; 및 상기 획득된 착좌자 분할에 기반하여 상기 착좌자 면적 값을 판단하는 단계;를 포함할 수 있다.For example, determining the area value of the seated person may include obtaining segmentation of the seated person from the acquired image; and determining the seat area value based on the obtained seat segmentation.

예를 들어, 상기 착좌자 분할을 획득하는 단계는, 상기 획득된 이미지를 소정의 인공 지능 학습 모델에 입력함으로써, 상기 획득된 이미지로부터 상기 착좌자 분할을 획득하는 단계;를 포함할 수 있다.For example, the step of obtaining the seated person segment may include obtaining the seated person segment from the acquired image by inputting the acquired image into a predetermined artificial intelligence learning model.

예를 들어, 상기 인공 지능 학습 모델은, 인공 지능 알고리즘으로서, 기계학습, 신경망, 딥러닝, 분류 알고리즘 또는 이들의 조합 중 적어도 하나를 포함할 수 있다.For example, the artificial intelligence learning model is an artificial intelligence algorithm and may include at least one of machine learning, neural network, deep learning, classification algorithm, or a combination thereof.

예를 들어, 상기 착좌자의 클래스를 판단하는 단계는, 상기 면적비와 기 설정된 문턱값(Threshold)을 비교하고, 비교 결과에 기반하여 상기 착좌자의 클래스를 판단하는 단계;를 포함할 수 있다.For example, the step of determining the class of the seated person may include comparing the area ratio with a preset threshold and determining the class of the seated person based on the comparison result.

예를 들어, 상기 착좌자의 클래스를 판단하는 단계는, 기 설정된 복수의 문턱값 중 서로 인접하는 두 문턱값 사이의 범위로 정의되는 복수의 클래스룰 통해 상기 착좌자의 클래스를 판단하는 단계;를 포함할 수 있다.For example, the step of determining the class of the seated person may include determining the class of the seated person through a plurality of class rules defined as a range between two adjacent threshold values among a plurality of preset thresholds. You can.

예를 들어, 상기 착좌자의 무게 정보를 획득하는 단계;를 더 포함하고, 상기 착좌자의 클래스를 판단하는 단계는, 상기 무게 정보를 더 고려하여 상기 착좌자의 클래스를 판단하는 단계;를 포함할 수 있다.For example, the step of obtaining weight information of the seated person may further include, and the step of determining the class of the seated person may include determining the class of the seated person by further considering the weight information. .

예를 들어, 상기 착좌자의 무게 정보를 획득하는 단계는, 상기 시트와 연결되는 무게 센서로부터 상기 착좌자의 무게 정보를 획득하는 단계;를 포함할 수 있다.For example, the step of acquiring the weight information of the seated person may include obtaining the weight information of the seated person from a weight sensor connected to the seat.

예를 들어, 상기 착좌자의 클래스를 판단하는 단계는, 상기 면적비를 복수의 시트에 대하여 각각 판단하는 단계; 및 상기 각각 판단된 면적비를 기반으로 상기 착좌자의 클래스를 상기 복수의 시트에 대하여 각각 판단하는 단계;를 포함할 수 있다.For example, determining the class of the seated person may include determining the area ratio for each of a plurality of seats; and determining the class of the seated person for each of the plurality of seats based on the determined area ratios.

상기와 같은 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 차량용 착좌자 분류 장치는, 적어도 하나의 시트; 차량 내부를 촬영하는 카메라; 및 상기 적어도 하나의 시트 중 대상 시트의 시트 포지션을 획득하여, 상기 시트 포지션과 연관된 파라미터에 기반하여 시트 면적 값을 판단하고, 상기 카메라를 통해 획득한 차량 내부의 이미지로부터 착좌자를 검출하여, 검출된 착좌자에 대응되는 착좌자 면적 값을 판단하고, 상기 시트 면적 값과 상기 대상 시트의 상기 착좌자 면적 값에 따른 면적비를 기반으로 상기 착좌자의 클래스(Class)를 판단하는 제어기:를 포함한다.In order to solve the above technical problem, a vehicle occupant classification device according to an embodiment of the present invention includes at least one seat; Cameras that film the interior of a vehicle; and acquire the seat position of the target seat among the at least one seat, determine the seat area value based on the parameter associated with the seat position, and detect the seated person from the image inside the vehicle obtained through the camera, and detect the seated person. It includes a controller that determines the seat area value corresponding to the seated person and determines the class of the seated person based on the area ratio of the seat area value and the seated area value of the target seat.

본 발명의 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 차량용 착좌자 분류 방법은 영상 정보를 활용하여 착좌자를 보다 정확히 감지하고, 세세하게 분류할 수 있다.The method for classifying seated occupants in a vehicle according to at least one embodiment of the present invention configured as described above can more accurately detect and classify seated occupants in detail by utilizing image information.

착좌자 감지의 정확도 향상을 통해 잘못된 감지로 인해 차량에 탑재되는 기능들이 오작동하거나 본래의 성능을 발휘하지 못하게 되는 문제를 완화할 수 있다.By improving the accuracy of seated occupant detection, problems such as malfunctioning of functions installed in the vehicle or failure to perform as intended due to incorrect detection can be alleviated.

나아가, 착좌자 분류의 세밀화를 통해 차량에 탑재되는 각 기능이 개별 착좌자의 특성을 보다 구체적으로 반영하여 적용될 수 있게 되어 성능 향상을 도모할 수 있게 된다.Furthermore, through further refinement of the classification of occupants, each function mounted on the vehicle can be applied to more specifically reflect the characteristics of each occupant, thereby improving performance.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명의 일 실시예에 따른 차량용 착좌자 분류 장치의 구성을 나타낸 도면.
도 2는 본 발명의 일 실시예에 따른 시트가 포함된 차량 내부의 이미지를 표현한 도면.
도 3은 본 발명의 일 실시예에 따른 착좌자 분류에 있어서 착좌자 면적 값을 판단하는 모습을 나타낸 도면.
도 4는 본 발명의 일 실시예에 따른 착좌자 분류에 있어서, 면적비와 문턱값을 통한 착좌자 클래스 분류를 나타내는 도면.
도 5는 본 발명의 일 실시예에 따른 차량용 착좌자 분류 방법의 순서도.
1 is a diagram showing the configuration of a vehicle seat classification device according to an embodiment of the present invention.
Figure 2 is a diagram representing an image of the interior of a vehicle including a seat according to an embodiment of the present invention.
Figure 3 is a diagram showing determining the area value of a seated person in classifying a seated person according to an embodiment of the present invention.
Figure 4 is a diagram showing classification of seated person classes based on area ratio and threshold value in classifying seated persons according to an embodiment of the present invention.
Figure 5 is a flowchart of a method for classifying seat occupants for a vehicle according to an embodiment of the present invention.

본 명세서 또는 출원에 개시되어 있는 본 발명의 실시예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서 또는 출원에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다. Specific structural and functional descriptions of the embodiments of the present invention disclosed in the present specification or application are merely illustrative for the purpose of explaining the embodiments according to the present invention, and the embodiments according to the present invention are implemented in various forms. It may be possible and should not be construed as being limited to the embodiments described in this specification or application.

본 발명에 따른 실시예는 다양한 변경을 가할 수 있고 여러가지 형태를 가질 수 있으므로 특정 실시예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Since the embodiments according to the present invention can make various changes and have various forms, specific embodiments will be illustrated in the drawings and described in detail in the specification or application. However, this is not intended to limit the embodiments according to the concept of the present invention to a specific disclosed form, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in this specification, should not be interpreted as having an ideal or excessively formal meaning. .

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves.

본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In this specification, terms such as “comprise” or “have” are intended to indicate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

제어기(Controller)는 담당하는 기능의 제어를 위해 다른 제어기나 센서와 통신하는 통신 장치, 운영체제나 로직 명령어와 입출력 정보 등을 저장하는 메모리 및 담당 기능 제어에 필요한 판단, 연산, 결정 등을 수행하는 하나 이상의 프로세서를 포함할 수 있다.A controller is a communication device that communicates with other controllers or sensors to control the function it is in charge of, a memory that stores the operating system, logic commands, input/output information, etc., and a device that performs the judgments, calculations, and decisions necessary to control the function it is in charge of. It may include more than one processor.

본 발명의 실시예들에서는 영상 정보를 이용하여 착좌자를 분류함에 있어, 시트 포지션에 따른 시트의 상대적인 면적과 영상 정보 상의 착좌자 면적을 기반으로 착좌자를 감지하여 감지 정확도를 높이고, 착좌자 유형을 세밀하게 분류할 수 있도록 하는 차량용 착좌자 분류 방법 및 장치를 제안한다. In embodiments of the present invention, when classifying a seated person using image information, the seated person is detected based on the relative area of the seat according to the seat position and the seated person's area on the image information to increase detection accuracy and to classify the seated person's type in detail. We propose a classification method and device for vehicle occupants that allows for proper classification.

본 발명에 따른 차량용 착좌자 분류 방법을 설명하기에 앞서, 도 1을 참조하여 본 발명의 일 실시예에 따른 차량용 착좌자 분류 장치를 먼저 설명한다.Before explaining the method for classifying vehicle occupants according to the present invention, a vehicle occupant classification device according to an embodiment of the present invention will first be described with reference to FIG. 1 .

도 1은 본 발명의 일 실시예에 따른 차량용 착좌자 분류 장치의 구성을 나타낸 도면이다.Figure 1 is a diagram showing the configuration of a vehicle seat classification device according to an embodiment of the present invention.

도 1을 참조하면, 실시예에 따른 차량용 착좌자 분류 장치(100)는 시트(110), 포지션 센서(120), 무게 센서(130), 카메라(140) 및 제어기(150)를 포함할 수 있다. 도 1은 본 발명의 실시예들과 관련된 구성 요소를 위주로 도시한 것으로, 실제 분류 장치(100)의 구현에 있어서는 이보다 많거나 적은 구성 요소가 포함될 수 있음은 당업자에 자명하다. 이하 각 구성요소를 설명한다.Referring to FIG. 1, the vehicle occupant classification device 100 according to the embodiment may include a seat 110, a position sensor 120, a weight sensor 130, a camera 140, and a controller 150. . Figure 1 mainly shows components related to embodiments of the present invention, and it is obvious to those skilled in the art that more or fewer components may be included in the actual implementation of the classification device 100. Each component is described below.

먼저, 실시예에 따른 차량용 착좌자 분류 장치(100)는 적어도 하나의 시트(110)를 포함하며, 시트(110)는 운전석(111), 조수석(112) 등 배치 장소에 따라 구분될 수 있다. 한편, 본 발명에 있어서, 시트(110)는 시트 포지션이 조절될 수 있다. 시트 포지션은 운전석(111), 조수석(112) 등에 배치된 시트(110)의 주행 방향과 평행한 방향을 따른 위치 및 시트백 각도 중 적어도 하나를 포함할 수 있다. 여기서, 위치는 시트(110)가 배치 장소에서 일정 범위 이내를 유지하면서 시트 트랙 등을 통해 전후 방향으로 이동한 위치를 포함한 시트(110)의 상태를 의미할 수 있다. 또한, 시트백 각도는 시트(110)의 리클라인 또는 릴랙스 모드 등에 따른 착좌면 또는 지면에 대한 시트백의 각도를 의미할 수 있다.First, the vehicle occupant classification device 100 according to the embodiment includes at least one seat 110, and the seats 110 may be divided into a driver's seat 111, a passenger seat 112, etc. depending on the placement location. Meanwhile, in the present invention, the seat position of the seat 110 can be adjusted. The seat position may include at least one of a position and a seatback angle along a direction parallel to the driving direction of the seat 110 disposed on the driver's seat 111, the passenger seat 112, etc. Here, the position may refer to the state of the sheet 110, including a position in which the sheet 110 moves in the forward and backward direction through a seat track, etc., while maintaining within a certain range from the placement location. Additionally, the seatback angle may mean the angle of the seatback with respect to the seating surface or the ground depending on the recline or relaxation mode of the seat 110.

한편, 본 발명의 일 실시예에 따른 차량용 착좌자 분류 장치(100)는 시트와 연결되어 시트 포지션을 감지하는 포지션 센서(120)를 더 포함할 수 있다. 예컨대, 포지션 센서(120)는 시트 트랙 상에서 시트(110)의 전후 방향 위치를 감지하는 시트 트랙 포지션 센서(Seat Track Position Sensor)를 포함할 수 있다. 이러한 포지션 센서(120)를 통해 시트(110) 포지션을 보다 정확하게 감지할 수 있게 되고, 이를 착좌자 분류에 활용할 수 있게 된다. 또한, 포지션 센서(120)를 통해 시트(110) 포지션의 변동 여부를 지속적으로 모니터링하고, 변동 사항을 토대로 착좌자 분류를 갱신할 수 있게 된다.Meanwhile, the vehicle occupant classification device 100 according to an embodiment of the present invention may further include a position sensor 120 that is connected to the seat and detects the seat position. For example, the position sensor 120 may include a seat track position sensor that detects the front-to-back position of the seat 110 on the seat track. Through this position sensor 120, the position of the seat 110 can be detected more accurately, and this can be used to classify the seated person. In addition, it is possible to continuously monitor whether the position of the seat 110 changes through the position sensor 120 and update the classification of the seated person based on the changes.

또한, 본 발명의 일 실시예에 따른 차량용 착좌자 분류 장치(100)는 시트(110)에 연결되어, 시트(110)에 가해지는 하중을 감지하고, 착좌자의 무게 정보를 전달하는 무게 센서(130)를 더 포함할 수 있다. 이러한 무게 센서(130)는 OCS(Occupant Classification System) 또는 ODS(Occupant Detection System)를 통해 구현될 수도 있다. 착좌자 분류 장치(100)에 무게 센서(130)가 구비되는 경우 영상 정보에 더하여 무게 정보를 추가적으로 활용하여 착좌자를 분류할 수 있게 되어 분류의 정밀도를 향상시킬 수 있게 된다.In addition, the vehicle seat classification device 100 according to an embodiment of the present invention is connected to the seat 110, detects the load applied to the seat 110, and includes a weight sensor 130 that transmits weight information of the seated person. ) may further be included. This weight sensor 130 may be implemented through an Occupant Classification System (OCS) or an Occupant Detection System (ODS). When the weight sensor 130 is provided in the seated person classification device 100, the seated person can be classified by additionally utilizing weight information in addition to image information, thereby improving classification accuracy.

한편, 카메라(140)는 차량 내부를 촬영하고, 촬영된 이미지를 전달하는 기능을 수행한다. 카메라(140)에 의해 촬영되는 이미지는 적어도 하나의 시트(110) 또는 시트(110)와 함께 그에 착석한 착좌자를 포함할 수 있다. 또한, 카메라(140)는 시트(110) 및 착좌자의 전면이 잘 표현될 수 있도록 차량 내부의 전방에 구비되어 후방을 향하도록 배치되는 것이 적절하다. 예컨대, 카메라(140)는 인캐빈 카메라(In-Cabin Camera)로 구현될 수 있다. 아울러, 인캐빈 카메라는 차량 실내에 장착되어 탑승객의 상태를 실시간으로 확인할 수 있어 본 발명의 일 실시예에 따른 착좌자 분류 장치(100)가 실시간 이미지를 활용하여 착좌자의 승하차 및 변동 등을 지속적으로 모니터링할 수 있게 된다.Meanwhile, the camera 140 performs the function of photographing the interior of the vehicle and transmitting the captured image. An image captured by the camera 140 may include at least one seat 110 or a person seated on the seat 110 together with the seat 110 . Additionally, it is appropriate for the camera 140 to be installed at the front of the vehicle and facing rearward so that the front of the seat 110 and the seated person can be clearly displayed. For example, the camera 140 may be implemented as an in-cabin camera. In addition, the in-cabin camera is mounted inside the vehicle and can check the status of the passengers in real time, so the occupant classification device 100 according to an embodiment of the present invention continuously monitors the boarding and exiting and changes of the occupants using real-time images. Monitoring becomes possible.

카메라(140)에 의해 촬영된 이미지는 시트(110)와 착좌자를 포함할 수 있는데, 카메라(140)가 고정된 상태에서 시트(110)가 전후 방향으로 이동되거나, 리클라인되는 등 시트(110) 포지션이 변경되는 경우 이미지 상 시트(110)가 차지하는 영역에 변동이 생기게 된다. 시트(110) 포지션이 변경되더라도 시트(110) 자체의 면적에 영향을 미치지는 않지만, 시트(110)가 전방에 위치하는 경우 후방에 위치하는 경우에 비해 카메라(140)에 가까이 위치하게 되어 이미지 상에서 큰 영역을 차지하게 된다. 또한, 시트백의 리클라인 각도가 작은 경우 리클라인 각도가 큰 경우에 비해 더 넓은 면적이 사영되어 이미지 상에서 큰 영역을 차지하게 된다. 따라서, 시트(110) 포지션을 고려하여 이미지 상의 시트(110) 면적 값을 판단하는 경우 보다 정확한 결과를 도출할 수 있게 된다.The image captured by the camera 140 may include the seat 110 and the seated person, and the seat 110 may be moved forward or backward or reclined while the camera 140 is fixed. When the position changes, the area occupied by the sheet 110 in the image changes. Even if the position of the seat 110 is changed, it does not affect the area of the seat 110 itself, but when the seat 110 is located in the front, it is located closer to the camera 140 compared to when the seat 110 is located in the rear, so it is not visible in the image. It occupies a large area. Additionally, when the recline angle of the seatback is small, a larger area is projected and occupies a larger area in the image compared to when the recline angle is large. Therefore, when determining the area value of the sheet 110 on the image by considering the position of the sheet 110, more accurate results can be derived.

한편, 제어기(150)는 포지션 센서(120) 등으로부터 시트(110) 포지션을 획득하고, 카메라(140)로부터 차량 내부의 이미지를 획득할 수 있다.Meanwhile, the controller 150 may obtain the position of the seat 110 from the position sensor 120, etc., and obtain an image of the inside of the vehicle from the camera 140.

제어기(150)는 시트(110) 포지션과 연관된 파라미터에 기반하여 시트(110) 면적 값을 판단할 수 있는데, 획득한 시트(110) 포지션을 통해 시트(110)의 현재 포지션에 대응되는 파라미터를 추출하고, 이에 기반하여 시트(110)의 면적 값을 판단할 수 있다. 여기서, 시트(110) 면적 값은 시트(110)의 실제 면적이 아닌 이미지 상에서의 시트(110)가 차지하는 영역에 대한 면적을 의미하는 것으로 볼 수 있다.The controller 150 can determine the area value of the seat 110 based on the parameters associated with the seat 110 position, and extracts the parameter corresponding to the current position of the seat 110 through the acquired position of the seat 110. And based on this, the area value of the sheet 110 can be determined. Here, the area value of the sheet 110 can be viewed as meaning the area of the area occupied by the sheet 110 on the image, not the actual area of the sheet 110.

또한, 제어기(150)는 획득한 차량 내부의 이미지로부터 착좌자를 검출하고, 검출된 착좌자에 대응되는 면적 값을 판단할 수 있다.Additionally, the controller 150 may detect a seated person from the acquired image of the inside of the vehicle and determine an area value corresponding to the detected seated person.

시트(110) 면적 값과 해당 시트(110)의 착좌자 면적 값이 판단된 경우 제어기(150)는 이들을 통해 면적비를 판단할 수 있으며, 면적비에 기반하여 착좌자의 클래스(Class) 즉, 유형을 분류할 수 있다. 여기서 면적비는 착좌자 면적 값/시트(110) 면적 값으로 판단될 수 있는데, 이에 따르면 면적비가 클수록 착좌자가 비교적 큰 사람인 것으로, 면적비가 작을수록 비교적 작은 사람인 것으로 볼 수 있다. When the area value of the seat 110 and the area value of the seated person on the seat 110 are determined, the controller 150 can determine the area ratio through these, and classify the class, that is, the type, of the seated person based on the area ratio. can do. Here, the area ratio can be judged as the area value of the seated person/the area value of the seat 110. According to this, the larger the area ratio, the more the person seated is a relatively large person, and the smaller the area ratio, the smaller the person is.

시트(110) 포지션은 시트(110) 면적 값뿐만 아니라, 해당 시트(110)의 착좌자와 카메라(140)간의 거리, 각도에도 영향을 주어 시트(110) 포지션에 따라 동일 착좌자에 대한 이미지 내의 착좌자 면적 값도 달라지게 된다. 따라서, 단순히 착좌자의 면적만 고려하는 경우 시트(110) 포지션에 따라 이미지 상의 착좌자 면적 값이 달라지게 되어 일정한 기준을 통해 착좌자를 분류할 수 없게 된다. 반면, 위와 같은 면적비를 통해 착좌자의 클래스를 판단하는 경우 분류 기준을 일정하게 유지할 수 있고, 착좌자 분류의 정밀도를 향상시킬 수 있게 된다.The position of the seat 110 affects not only the area value of the seat 110, but also the distance and angle between the seated person on the seat 110 and the camera 140, so that the image for the same seated person depends on the seat 110 position. The seating area value also changes. Therefore, when only the area of the seated person is considered, the area value of the seated person in the image varies depending on the position of the seat 110, making it impossible to classify the seated person using a certain standard. On the other hand, when determining the class of a seated person through the above area ratio, the classification standard can be kept constant and the precision of classifying the seated person can be improved.

시트(110) 면적 값과 착좌자 면적 값의 판단에 대한 구체적인 내용과 면적비를 통한 착좌자 클래스 판단에 대한 구체적인 내용에 대하여는 도 2 내지 4를 통해 이하 상세히 설명하도록 한다.Specific details regarding the determination of the area value of the seat 110 and the area of the seated person and the determination of the seated person's class based on the area ratio will be described in detail below with reference to FIGS. 2 to 4.

도 2는 본 발명의 일 실시예에 따른 시트가 포함된 차량 내부의 이미지를 표현한 도면이다.Figure 2 is a diagram representing an image of the interior of a vehicle including a seat according to an embodiment of the present invention.

도 2를 참조하면, 운전석(111) 및 조수석(112)이 포함된 이미지가 나타난다. 운전석(111)과 조수석(112)의 실제 시트(110) 크기는 동일하나, 운전석(111)은 조수석(112)에 비해 이미지 상에서 보다 큰 면적을 차지하고 있는 것을 확인할 수 있다. 이는 운전석(111)의 포지션이 조수석(112)에 비해 전방에 위치하고 있어 카메라(140)와 상대적으로 가깝기 때문이다. 이러한 점을 고려하여 제어기(150)는 시트(110) 포지션를 획득하고, 이와 연관된 파라미터에 기반하여 시트(110) 면적 값을 판단한다.Referring to Figure 2, an image including the driver's seat 111 and the passenger seat 112 appears. The actual seat 110 sizes of the driver's seat 111 and the passenger seat 112 are the same, but it can be seen that the driver's seat 111 occupies a larger area in the image than the passenger seat 112. This is because the position of the driver's seat 111 is located forward compared to the passenger seat 112 and is relatively close to the camera 140. Considering this, the controller 150 obtains the position of the seat 110 and determines the area value of the seat 110 based on the parameters associated therewith.

여기서, 파라미터는 시트(110) 포지션에 따라 시트(110) 면적 값을 결정하게 되며, 시트(110)가 전방에 위치할수록 시트(110) 면적 값이 커지고, 시트(110)가 후방에 위치할수록 시트(110) 면적 값이 작아지도록 설정되는 것이 적절하다. 이 경우 파라미터는 적어도 시트(110)의 최전방 위치 및 최후방 위치에 대응되도록 설정되어 제어기(150)가 시트(110)의 전후방 위치에 따른 면적 값을 판단할 수 있도록 할 수 있다.Here, the parameter determines the area value of the seat 110 according to the position of the seat 110. The closer the seat 110 is located to the front, the larger the area value of the seat 110 is, and the closer the seat 110 is located to the rear, the larger the seat 110 area value is. (110) It is appropriate that the area value is set to be small. In this case, the parameters may be set to correspond to at least the frontmost position and the rearmost position of the seat 110 so that the controller 150 can determine the area value according to the front and rear positions of the seat 110.

또한, 시트(110) 포지션에는 시트(110)의 전후방 위치뿐만 아니라, 시트백 리클라인 각도도 포함될 수 있다. 이 경우 제어기(150)는 시트(110)의 전후방 위치와 함께 리클라인 각도를 추가적으로 고려하여 시트(110) 면적 값을 판단함으로써 실제 이미지 상에서 시트(110)가 차지하는 영역에 따른 면적에 보다 근접한 값을 얻을 수 있게 된다.Additionally, the position of the seat 110 may include not only the front and rear positions of the seat 110 but also the seatback recline angle. In this case, the controller 150 determines the area value of the seat 110 by additionally considering the recline angle along with the front and rear positions of the seat 110, thereby determining a value closer to the area according to the area occupied by the seat 110 in the actual image. can be obtained.

도 2는 본 발명에 있어서, 시트(110) 포지션에 따른 시트(110) 면적 값에 대하여 설명한 것으로, 착좌자 면적 값의 판단에 대하여는 이하, 도 3을 참조하여 설명한다.FIG. 2 illustrates the area value of the seat 110 according to the position of the seat 110 in the present invention, and the determination of the area value of the seated person will be described below with reference to FIG. 3 .

도 3은 본 발명의 일 실시예에 따른 착좌자 분류에 있어서 착좌자 면적 값을 판단하는 모습을 나타낸 도면이다.Figure 3 is a diagram showing how to determine the area value of a seated person in classifying a seated person according to an embodiment of the present invention.

도 3을 참조하면, 시트(110) 및 착좌자가 포함된 차량 내부 이미지를 확인할 수 있다. 제어기(150)는 획득된 이미지로부터 착좌자를 검출하고, 검출된 착좌자에 대응되는 착좌자 면적 값을 판단한다.Referring to FIG. 3, an image of the interior of the vehicle including the seat 110 and the occupants can be seen. The controller 150 detects the seated person from the acquired image and determines the seated area value corresponding to the detected seated person.

여기서, 착좌자의 검출은 이미지 상에 나타난 착좌자를 인식하는 것으로, 인공 지능 학습 모델에 의해 이루어질 수 있다. 인공 지능 학습 모델은 특히 딥러닝(Deep Learning)을 포함할 수 있다. 딥러닝에 의할 경우 착좌자는 ROI(Region Of Interest)로 설정될 수 있으며, ROI 탐색을 통해 착좌자 검출이 이루어질 수 있다.Here, the detection of the seated person is to recognize the seated person appearing on the image, and can be accomplished using an artificial intelligence learning model. Artificial intelligence learning models may specifically include deep learning. In the case of deep learning, the seated person can be set as ROI (Region Of Interest), and the seated person can be detected through ROI search.

ROI 탐색을 위해서 먼저, 학습데이터인 이미지와 클래스 정보, 위치 정보 등을 포함하는 라벨이 준비된다. 본 발명의 실시예에 있어서는 착좌자의 이미지와 해당 이미지의 착좌자의 클래스(어른, 아이 등) 및 이미지 상에서의 착좌자의 위치 등이 준비될 수 있다. 딥러닝 과정에서 학습 모델은 이러한 정보들을 통해 착좌자의 특징을 학습하게 되고, 정확도 향상을 위해서 반복 학습이 수반될 수 있다. 딥러닝을 통해 학습이 수행된 이후, 학습 모델은 도 3과 같은 이미지를 입력받아 이미지 상에서 학습한 착좌자의 특징을 만족하는 영역을 탐색하게 된다. 착좌자의 특징을 만족하는 영역을 찾은 경우 학습 모델은 해당 영역을 착좌자로 검출할 수 있게 된다. To explore ROI, first, labels containing learning data images, class information, and location information are prepared. In an embodiment of the present invention, an image of the seated person, the class of the seated person in the image (adult, child, etc.), and the position of the seated person on the image may be prepared. In the deep learning process, the learning model learns the characteristics of the seated person through this information, and repeated learning may be involved to improve accuracy. After learning is performed through deep learning, the learning model receives the image shown in Figure 3 and searches for an area that satisfies the characteristics of the seated person learned from the image. If an area that satisfies the characteristics of the seated person is found, the learning model can detect the area as the seated person.

만약, 착좌자가 검출되지 않는 경우 제어기(150)는 시트(110)에 착좌자가 없는 것으로 보고 '미탑승 상태' 또는 'Empty' 등과 같은 클래스를 도출할 수 있다. 특히, 획득된 이미지 상에 복수의 시트(110)가 포함되고, 그 중 일부 시트(110)의 착좌자가 검출되지 않는 경우 어느 시트(110)에 착좌자가 존재하고, 어느 시트(110)에 착좌자가 존재하지 않는지 확인할 수 있게 된다.If a seated person is not detected, the controller 150 may determine that there is no seated person in the seat 110 and derive a class such as 'unoccupied state' or 'Empty'. In particular, when a plurality of seats 110 are included in the acquired image and the occupants of some of the seats 110 are not detected, which seat 110 is the occupant present and which seat 110 is the occupant? You can check whether it does not exist.

한편, 착좌자 면적 값은 착좌자 분할(Segmentation)에 의해 판단될 수 있다. 이를 위해 제어기(150)는 획득된 이미지로부터 다시 착좌자 분할을 획득하고, 이에 기반하여 착좌자 면적 값을 판단할 수 있다. 여기서, 분할은 이미지 상에 나타난 개체들을 종류별로 분리하는 것으로, 이미지의 픽셀 수준에서 각 부분이 갖는 의미에 따라 영역을 분리하는 것이다. 본 발명의 실시예에 있어서는 착좌자와 착좌자가 아닌 영역을 분리하는 것을 의미하며, 착좌자 분할이란 이미지 상에서 착좌자에 해당하는 영역을 분리한 것으로 이해될 수 있다. 착좌자 면적 값을 판단함에 있어서 착좌자 분할을 이용함으로써 이미지 상에서 착좌자가 차지하는 영역을 보다 정밀하게 식별할 수 있게 되고, 이를 통해 이미지 상의 착좌자 면적 값 판단의 정확도를 향상시킬 수 있게 된다. 이러한 착좌자 분할은 인공 지능 학습 모델에 의해 수행될 수 있는데, 여기서 인공 지능 학습 모델이란 인공 지능 알고리즘으로서, 기계학습, 신경망, 딥러닝, 분류 알고리즘 또는 이들의 조합 중 적어도 하나를 포함할 수 있다. Meanwhile, the seat area value can be determined by seat segmentation. To this end, the controller 150 may obtain the seated person's segment again from the acquired image and determine the seated person's area value based on this. Here, segmentation means separating the objects that appear in the image by type, and is separating areas according to the meaning of each part at the pixel level of the image. In an embodiment of the present invention, it means separating the seated area from the area other than the seated area, and segmentation of the seated person can be understood as separating the area corresponding to the seated person on the image. In determining the area value of the seated person, by using the seated person segmentation, the area occupied by the seated person on the image can be identified more precisely, thereby improving the accuracy of determining the area value of the seated person on the image. This seated segmentation may be performed by an artificial intelligence learning model, where the artificial intelligence learning model is an artificial intelligence algorithm and may include at least one of machine learning, neural network, deep learning, classification algorithm, or a combination thereof.

한편, 도 3을 참조하면, 획득된 이미지 상에 복수의 시트(110)가 포함될 수 있다. 이러한 경우, 제어기(150)는 각 시트(110)와 해당 시트(110) 착좌자의 면적값에 따른 면적비를 시트(110)별로 각각 판단하고, 이를 기반으로 착좌자의 클래스를 시트별로 각각 판단할 수 있다. 예를 들면, 획득된 이미지 상에 운전석(111)과 조수석(112)이 포함되며 운전자(113)와 동승자(114)가 착좌한 경우 제어기(150)는 운전석(111)의 시트 면적 값, 조수석(112)의 시트 면적 값을 각각 판단하고, 운전자(113) 및 동승자(114)의 착좌자 면적 값을 각각 판단하게 된다. 그 후, 운전석(111)에 대한 면적비는 운전자(113)의 착좌자 면적 값/운전석(111) 시트 면적 값으로, 조수석(112)에 대한 면적비는 동승자(114)의 착좌자 면적 값/조수석(112) 시트 면적 값으로 각각 판단하게 된다. 이후 제어기(150)는 판단된 각각의 면적비에 기반하여 운전자(113)와 동승자(114)의 클래스를 각각 판단하게 된다. 또한, 도 3에 도시된 것과 달리 차량에 동승자(114)가 미탑승한 상태를 가정하면, 우선 운전자(113)의 클래스를 판단하는 과정은 동일하게 수행된다. 착좌자가 없는 조수석(112)의 경우 착좌자가 검출되지 않게됨에 따라 제어기(150)가 착좌자 클래스를 '미탑승 상태' 또는 'Empty' 등의 특정 클래스로 판단하거나 착좌자 면적 값이 0이 되어 제어기(150)는 착좌자 클래스를 '미탑승 상태' 또는 'Empty' 등의 특정 클래스로 판단할 수 있다.Meanwhile, referring to FIG. 3, a plurality of sheets 110 may be included in the acquired image. In this case, the controller 150 determines the area ratio according to the area value of each seat 110 and the seated person on the seat 110 for each seat 110, and based on this, the class of the seated person can be determined for each seat. . For example, when the driver's seat 111 and the passenger seat 112 are included in the acquired image and the driver 113 and the passenger 114 are seated, the controller 150 determines the seat area value of the driver's seat 111, the passenger seat ( The seat area values of the driver 112) are determined, and the seat area values of the driver 113 and the passenger 114 are determined respectively. Thereafter, the area ratio for the driver's seat 111 is the seating area value of the driver 113/the seat area value of the driver's seat 111, and the area ratio for the passenger seat 112 is the seating area value of the passenger 114/passenger seat ( 112) Each is judged based on the sheet area value. Thereafter, the controller 150 determines the classes of the driver 113 and the passenger 114 based on each determined area ratio. Additionally, unlike what is shown in FIG. 3 , assuming that the passenger 114 is not in the vehicle, the process of determining the class of the driver 113 is performed in the same manner. In the case of the passenger seat 112 without a seated person, as the seated person is not detected, the controller 150 determines the seated class as a specific class such as 'unoccupied' or 'Empty', or the seated area value becomes 0 and the controller 150 (150) may determine the seated person's class to be a specific class such as 'unoccupied state' or 'Empty'.

도 2 및 도 3은 본 발명의 일 실시예에 따른 착좌자 분류에 있어서, 시트(110) 및 착좌자 면적 값을 도출하는 과정에 대하여 설명한 것으로, 도출된 면적 값을 통해 착좌자의 클래스를 판단하는 과정에 대하여는 도 4를 통해 이하 설명한다.Figures 2 and 3 illustrate the process of deriving the area values of the seat 110 and the seated person in classifying the seated person according to an embodiment of the present invention, and the class of the seated person is determined through the derived area values. The process will be described below with reference to Figure 4.

도 4는 본 발명의 일 실시예에 따른 착좌자 분류에 있어서, 면적비와 문턱값을 통한 착좌자 클래스 분류를 나타내는 도면이다.Figure 4 is a diagram showing classification of seated person classes based on area ratio and threshold value in classifying seated persons according to an embodiment of the present invention.

도 4를 참조하면, 일축은 시간, 일축은 면적비를 나타내는 그래프가 표현된다. 여기서 면적비는 전술한 바와 같이 시트(110) 면적 값과 착좌자 면적 값의 비율을 의미하며, 문턱값(Threshold)은 면적비의 구간을 구획하는 기준으로 이해될 수 있다. 문턱값은 미리 설정되는 값으로, 하나 이상의 값을 포함할 수 있으며, 적어도 하나 이상의 문턱값을 경계로 형성되는 각 구간에 따라 착좌자의 클래스가 판단될 수 있다. 도 4에서와 같이 문턱값이 제1 문턱값 내지 제4 문턱값을 포함하는 경우를 예로 들면, 각 문턱값들에 의해 그래프 상에는 5개의 구간이 형성되게 된다. 이를 통해 제어기(150)는 면적비가 제1 문턱값 미만인 경우 상기 착좌자의 클래스를 제1 클래스로, 면적비가 제1 문턱값 이상, 제2 문턱값 미만인 경우 착좌자의 클래스를 제2 클래스로, 면적비가 제2 문턱값 이상, 제3 문턱값 미만인 경우 착좌자의 클래스를 제3 클래스로, 면적비가 제3 문턱값 이상, 제4 문턱값 미만인 경우 착좌자의 클래스를 제4 클래스로, 면적비가 제4 문턱값 이상인 경우 착좌자의 클래스를 제5 클래스로 판단할 수 있게 된다. 여기서, 면적비가 착좌자 면적 값/시트(110) 면적 값인 것을 전제로 하면, 전 면적비가 클수록 착좌자의 상대적인 크기가 큰 것으로 이해될 수 있으므로 제1 클래스를 갖는 착좌자는 상대적으로 가장 작은 사람 또는 미탑승 상태를 의미하고, 제5 클래스는 상대적으로 가장 큰 사람을 의미하는 것으로 분류될 수 있다. 예컨대, 아래 표 1과 같이 착좌자가 분류될 수 있다.Referring to FIG. 4, a graph is displayed where one axis represents time and one axis represents area ratio. Here, the area ratio refers to the ratio of the area value of the seat 110 and the area value of the seated person, as described above, and the threshold value can be understood as a standard for dividing the section of the area ratio. The threshold value is a preset value and may include one or more values, and the class of the seated person may be determined according to each section formed around at least one threshold value. For example, in the case where the threshold includes the first to fourth thresholds as shown in FIG. 4, five sections are formed on the graph by each threshold. Through this, the controller 150 sets the class of the seated person to the first class when the area ratio is less than the first threshold, and sets the class of the seated person to the second class when the area ratio is more than the first threshold or less than the second threshold. If the area ratio is above the 2nd threshold but below the 3rd threshold, the class of the seated person is set to the 3rd class, and if the area ratio is above the 3rd threshold but below the 4th threshold, the class of the seated person is set to the 4th class, and the area ratio is set to the 4th threshold. In the above case, the class of the seated person can be judged as the 5th class. Here, assuming that the area ratio is the seat area value/seat 110 area value, it can be understood that the larger the total area ratio, the larger the relative size of the seated person, so the seated person with the first class is the relatively smallest person or non-mounted person. It means status, and the fifth class can be classified as meaning the relatively largest person. For example, seated persons may be classified as shown in Table 1 below.

구간section 클래스class 착좌자seater 면적비<제1 문턱값Area ratio < first threshold 제1 클래스1st class LargeLarge 제1문턱 값≤면적비<제2 문턱값First threshold value ≤ area ratio < second threshold value 제2 클래스second class MediumMedium 제2 문턱값≤면적비<제3 문턱값Second threshold ≤ area ratio < third threshold 제3 클래스third class SmallSmall 제3 문턱값≤면적비<제4 문턱값Third threshold ≤ area ratio < fourth threshold 제4 클래스4th class ChildChild 제4 문턱값≤면적비Fourth threshold ≤ area ratio 제5 클래스5th class EmptyEmpty

이하, 지금까지 설명한 본 발명의 실시예들에 따른 착좌자 분류의 과정이 수행되는 순서를 도 5를 참조하여 설명한다. Hereinafter, the order in which the process of classifying a seated person according to the embodiments of the present invention described so far is performed will be described with reference to FIG. 5.

도 5는 본 발명의 일 실시예에 따른 차량용 착좌자 분류 방법의 순서도이다.Figure 5 is a flowchart of a method for classifying seat occupants for a vehicle according to an embodiment of the present invention.

도 5를 참조하면, 먼저 카메라(140)에 의해 촬영된 차량 내부의 이미지가 제어기(150)에 입력된다(S401). 또한, 제어기(150)는 시트 트랙 포지션 센서(130)등으로부터 시트(110)의 전후 방향 위치, 시트백의 리클라인 각도 등을 포함하는 시트(110) 포지션을 획득하게 된다(S402).Referring to FIG. 5, first, the image inside the vehicle captured by the camera 140 is input to the controller 150 (S401). Additionally, the controller 150 obtains the seat 110 position including the front-to-back position of the seat 110, the recline angle of the seatback, etc. from the seat track position sensor 130 (S402).

시트(110) 포지션을 통해 제어기(150)는 시트(110) 면적 값을 판단하게 된다(S403). 이 경우 시트(110) 면적 값은 시트(110) 포지션과 연관된 파라미터에 기반하여 판단되며, 파라미터는 적어도 시트(110)의 최전방 및 최후방 위치에 대등되도록 기 설정될 수 있다. 또한, 제어기(150)는 시트백의 리클라인 각도를 추가적으로 고려하여 시트(110) 면적 값을 판단할 수 잇으며, 이 경우 파라미터는 시트백의 리클라인 각도에도 연관되도록 설정될 수 있다.The controller 150 determines the area value of the seat 110 through the position of the seat 110 (S403). In this case, the area value of the seat 110 is determined based on parameters associated with the position of the seat 110, and the parameters may be preset to be at least equal to the frontmost and rearmost positions of the seat 110. Additionally, the controller 150 may determine the area value of the seat 110 by additionally considering the recline angle of the seatback. In this case, the parameter may be set to be related to the recline angle of the seatback.

한편, 제어기(150)는 획득된 이미지로부터 착좌자를 검출한다(S404). 이 경우 착좌가가 검출되지 않는 경우(S404의 No) 제어기(150)는 착좌자의 클래스를 제1 클래스 등의 특정 클래스로 판단할 수 있다(S405). 착좌자가 검출되는 경우(S404의 Yes)에는 제어기(150)가 시트(110) 면적 값과 해당 시트(110)의 착좌자 면적 값에 따른 면적비를 판단하게 된다(S406). Meanwhile, the controller 150 detects the seated person from the acquired image (S404). In this case, if the seated person is not detected (No in S404), the controller 150 may determine the class of the seated person to be a specific class, such as the first class (S405). When a seated person is detected (Yes in S404), the controller 150 determines an area ratio according to the area value of the seat 110 and the seated person's area value of the seat 110 (S406).

제어기(150)는 판단된 면적비를 기반으로 착좌자의 클래스를 판단하며, 이 경우 착좌자의 클래스 판단은 판단된 면적비와 문턱값의 비교 결과에 기반하여 수행될 수 있다. 제어기(150)는 면적비가 제1 문턱값 이상, 제2 문턱값 미만인 경우(S407의 Yes) 착좌자의 클래스를 제2 클래스로(S408), 면적비가 제2 문턱값 이상 제3 문턱값 미만인 경우(S409의 Yes) 착좌자의 클래스를 제3 클래스로(S410), 면적비가 제3 문턱값 이상, 제4 문턱값 미만인 경우(S411의 Yes) 착좌자의 클래스를 제4 클래스로(S412), 면적비가 제4 문턱값 이상인 경우(S413의 Yes) 착좌자의 클래스를 제5 클래스로(S412) 판단할 수 있으며, 면적비가 제1 문턱값 미만인 경우(S413의 No)에는 착좌자의 클래스를 제1 클래스(S4150)로 판단할 수 있다. 면적비와 문턱값의 비교결과에 기반하여 착좌자의 클래스를 판단하는 과정은 이와 같이 일련의 순서에 따라 이루어질 수도 있으나, 각 조건 만족 여부에 따라 개별적으로 수행될 수도 있다.The controller 150 determines the class of the seated person based on the determined area ratio. In this case, the class of the seated person may be determined based on a comparison result between the determined area ratio and the threshold value. If the area ratio is greater than or equal to the first threshold and less than the second threshold (Yes in S407), the controller 150 sets the class of the seated person to the second class (S408). If the area ratio is greater than or equal to the second threshold but less than the third threshold ( Yes in S409) If the class of the seated person is set to the third class (S410), and the area ratio is greater than or equal to the third threshold but less than the fourth threshold (Yes in S411), the class of the seated person is set to the fourth class (S412), and the area ratio is set to the fourth class (S412). 4 If it is more than the threshold (Yes in S413), the class of the seated person can be determined as the 5th class (S412), and if the area ratio is less than the first threshold (No in S413), the class of the seated person can be determined as the 1st class (S4150). It can be judged as follows. The process of determining the class of the seated person based on the result of comparing the area ratio and the threshold value may be performed in a series like this, but may also be performed individually depending on whether each condition is satisfied.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 차량용 착좌자 분류 방법은 영상 정보를 활용하여 착좌자를 보다 정확히 감지하고, 세세하게 분류할 수 있다.The method for classifying seated occupants in a vehicle according to at least one embodiment of the present invention configured as described above can more accurately detect and classify seated occupants in detail by utilizing image information.

착좌자 감지의 정확도 향상을 통해 잘못된 감지로 인해 차량에 탑재되는 기능들이 오작동하거나 본래의 성능을 발휘하지 못하게 되는 문제를 완화할 수 있다.By improving the accuracy of seated occupant detection, problems such as malfunctioning of functions installed in the vehicle or failure to perform as intended due to incorrect detection can be alleviated.

나아가, 착좌자 분류의 세밀화를 통해 차량에 탑재되는 각 기능이 개별 착좌자의 특성을 보다 구체적으로 반영하여 적용될 수 있게 되어 성능 향상을 도모할 수 있게 된다.Furthermore, through further refinement of the classification of occupants, each function mounted on the vehicle can be applied to more specifically reflect the characteristics of each occupant, thereby improving performance.

상기한 바와 같이 본 발명의 특정한 실시예에 관련하여 도시하고 설명하였지만, 이하의 특허청구범위에 의해 제공되는 본 발명의 기술적 사상을 벗어나지 않는 한도 내에서, 본 발명이 다양하게 개량 및 변화될 수 있다는 것은 당 업계에서 통상의 지식을 가진 자에게 있어서 자명할 것이다.Although the present invention has been shown and described in relation to specific embodiments of the present invention as described above, it is understood that the present invention can be variously improved and changed without departing from the technical spirit of the present invention provided by the following claims. This will be self-evident to those skilled in the art.

110 : 시트
140 : 카메라
150 : 제어기
110: sheet
140: camera
150: controller

Claims (15)

차량 내부의 이미지를 획득하는 단계;
시트의 시트 포지션을 획득하는 단계;
상기 시트 포지션과 연관된 파라미터에 기반하여 시트 면적 값을 판단하는 단계;
상기 획득된 이미지로부터 착좌자를 검출하고, 검출된 착좌자에 대응되는 착좌자 면적 값을 판단하는 단계; 및
상기 시트 면적 값과 해당 시트의 착좌자 면적 값에 따른 면적비를 기반으로 상기 착좌자의 클래스(Class)를 판단하는 단계;를 포함하는 차량용 착좌자 분류 방법.
Obtaining images of the interior of the vehicle;
Obtaining a seating position of a seat;
determining a seat area value based on parameters associated with the seat position;
Detecting a seated person from the acquired image and determining a seated area value corresponding to the detected seated person; and
A method of classifying a seated person for a vehicle comprising: determining a class of the seated person based on an area ratio between the seat area value and the seated person area value of the corresponding seat.
청구항 1에 있어서,
상기 이미지는,
상기 차량 내부의 전방에, 후방을 향하도록 구비되는 인캐빈 카메라(In-Canbin Camera)에 의해 촬영된 이미지인 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 1,
The image above is,
A method of classifying seat occupants for a vehicle, characterized in that the image is captured by an in-cabin camera provided at the front of the vehicle interior, facing rearward.
청구항 1에 있어서,
상기 시트 포지션은,
상기 시트의 전후 방향 위치를 포함하고,
상기 시트 면적 값을 판단하는 단계는,
적어도 상기 시트의 최전방 및 최후방 위치에 대응되도록 기 설정된 파라미터에 기반하여 상기 시트 면적 값을 판단하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 1,
The seat position is,
Including the front-to-back position of the sheet,
The step of determining the sheet area value is,
A method for classifying seat occupants in a vehicle, comprising: determining the seat area value based on parameters preset to correspond to at least the frontmost and rearmost positions of the seat.
청구항 3에 있어서,
상기 시트 포지션을 획득하는 단계는,
상기 시트와 연결되는 시트 트랙 포지션 센서(Seat Track Position Sensor)로부터 상기 시트의 전후 방향 위치에 따른 시트 포지션을 획득하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 3,
The step of acquiring the seat position is,
Obtaining a seat position according to the front-to-back position of the seat from a seat track position sensor connected to the seat.
청구항 3에 있어서,
상기 시트 포지션은,
상기 시트의 시트백 리클라인 각도를 포함하고,
상기 시트 면적 값을 판단하는 단계는,
상기 리클라인 각도를 추가적으로 고려하여 상기 시트 면적 값을 판단하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 3,
The seat position is,
Including a seatback recline angle of the seat,
The step of determining the sheet area value is,
A method for classifying seat occupants in a vehicle, comprising: determining the seat area value by additionally considering the recline angle.
청구항 1에 있어서,
상기 획득된 이미지로부터 상기 착좌자를 검출할 수 없는 경우 상기 클래스를 특정 클래스로 판단하는 단계;를 더 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 1,
If the seated person cannot be detected from the acquired image, determining the class as a specific class.
청구항 1에 있어서,
상기 착좌자 면적 값을 판단하는 단계는,
상기 획득된 이미지로부터 착좌자 분할(Segmentation)을 획득하는 단계; 및
상기 획득된 착좌자 분할에 기반하여 상기 착좌자 면적 값을 판단하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 1,
The step of determining the seat area value is,
Obtaining seated segmentation from the acquired image; and
Determining the seat area value based on the obtained seat segmentation.
청구항 7에 있어서,
상기 착좌자 분할을 획득하는 단계는,
상기 획득된 이미지를 소정의 인공 지능 학습 모델에 입력함으로써, 상기 획득된 이미지로부터 상기 착좌자 분할을 획득하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 7,
The step of obtaining the seated division is,
Obtaining the seated person segment from the acquired image by inputting the acquired image into a predetermined artificial intelligence learning model. A method for classifying a seated person for a vehicle, comprising:
청구항 8에 있어서,
상기 인공 지능 학습 모델은,
인공 지능 알고리즘으로서, 기계학습, 신경망, 딥러닝, 분류 알고리즘 또는 이들의 조합 중 적어도 하나를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 8,
The artificial intelligence learning model is,
An artificial intelligence algorithm, comprising at least one of machine learning, neural network, deep learning, classification algorithm, or a combination thereof.
청구항 1에 있어서,
상기 착좌자의 클래스를 판단하는 단계는,
상기 면적비와 기 설정된 문턱값(Threshold)을 비교하고, 비교 결과에 기반하여 상기 착좌자의 클래스를 판단하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 1,
The step of determining the class of the seated person is,
Comparing the area ratio with a preset threshold and determining the class of the seated person based on the comparison result.
청구항 10에 있어서,
상기 착좌자의 클래스를 판단하는 단계는,
기 설정된 복수의 문턱값 중 서로 인접하는 두 문턱값 사이의 범위로 정의되는 복수의 클래스룰 통해 상기 착좌자의 클래스를 판단하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 10,
The step of determining the class of the seated person is,
A method for classifying a seated person in a vehicle, comprising: determining the class of the seated person through a plurality of class rules defined as a range between two adjacent thresholds among a plurality of preset thresholds.
청구항 1에 있어서,
상기 착좌자의 무게 정보를 획득하는 단계;를 더 포함하고,
상기 착좌자의 클래스를 판단하는 단계는,
상기 무게 정보를 더 고려하여 상기 착좌자의 클래스를 판단하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 1,
Further comprising: acquiring weight information of the seated person,
The step of determining the class of the seated person is,
A method of classifying a seated person for a vehicle, comprising: determining the class of the seated person by further considering the weight information.
청구항 12에 있어서,
상기 착좌자의 무게 정보를 획득하는 단계는,
상기 시트와 연결되는 무게 센서로부터 상기 착좌자의 무게 정보를 획득하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 12,
The step of obtaining the weight information of the seated person is,
A method for classifying a seated person in a vehicle, comprising: acquiring weight information of the seated person from a weight sensor connected to the seat.
청구항 1에 있어서,
상기 착좌자의 클래스를 판단하는 단계는,
상기 면적비를 복수의 시트에 대하여 각각 판단하는 단계; 및
상기 각각 판단된 면적비를 기반으로 상기 착좌자의 클래스를 상기 복수의 시트에 대하여 각각 판단하는 단계;를 포함하는 것을 특징으로 하는 차량용 착좌자 분류 방법.
In claim 1,
The step of determining the class of the seated person is,
determining the area ratio for each of a plurality of sheets; and
A method for classifying a seated person in a vehicle, comprising: determining the class of the seated person for each of the plurality of seats based on the determined area ratio.
적어도 하나의 시트;
차량 내부를 촬영하는 카메라; 및
상기 적어도 하나의 시트 중 대상 시트의 시트 포지션을 획득하여, 상기 시트 포지션과 연관된 파라미터에 기반하여 시트 면적 값을 판단하고, 상기 카메라를 통해 획득한 차량 내부의 이미지로부터 착좌자를 검출하여, 검출된 착좌자에 대응되는 착좌자 면적 값을 판단하고, 상기 시트 면적 값과 상기 대상 시트의 상기 착좌자 면적 값에 따른 면적비를 기반으로 상기 착좌자의 클래스(Class)를 판단하는 제어기:를 포함하는 차량용 착좌자 분류 장치.

at least one sheet;
Cameras that film the interior of a vehicle; and
Obtain the seat position of the target seat among the at least one seat, determine the seat area value based on the parameter associated with the seat position, detect the seated person from the image inside the vehicle obtained through the camera, and detect the seated seat. A controller for determining the seat area value corresponding to the seat and determining the class of the seated person based on the seat area value and the area ratio according to the seat area value of the target seat: A seat for a vehicle including: Sorting device.

KR1020220089107A 2022-07-19 2022-07-19 Occupant classification method and apparatus for vehicle KR20240011931A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020220089107A KR20240011931A (en) 2022-07-19 2022-07-19 Occupant classification method and apparatus for vehicle
EP23185771.5A EP4310799A1 (en) 2022-07-19 2023-07-17 Seat belt wearing determination apparatus
US18/353,420 US20240029452A1 (en) 2022-07-19 2023-07-17 Seat belt wearing determination apparatus
CN202310889972.XA CN117416301A (en) 2022-07-19 2023-07-19 Safety belt wearing determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220089107A KR20240011931A (en) 2022-07-19 2022-07-19 Occupant classification method and apparatus for vehicle

Publications (1)

Publication Number Publication Date
KR20240011931A true KR20240011931A (en) 2024-01-29

Family

ID=89523567

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220089107A KR20240011931A (en) 2022-07-19 2022-07-19 Occupant classification method and apparatus for vehicle

Country Status (2)

Country Link
KR (1) KR20240011931A (en)
CN (1) CN117416301A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060003193A (en) 2004-07-05 2006-01-10 주식회사 현대오토넷 Air bag control devce

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060003193A (en) 2004-07-05 2006-01-10 주식회사 현대오토넷 Air bag control devce

Also Published As

Publication number Publication date
CN117416301A (en) 2024-01-19

Similar Documents

Publication Publication Date Title
CN111469802B (en) Seat belt state determination system and method
CN113147664B (en) Method and system for detecting whether a seat belt is used in a vehicle
EP1759932B1 (en) Method of classifying vehicle occupants
US6757009B1 (en) Apparatus for detecting the presence of an occupant in a motor vehicle
US7636479B2 (en) Method and apparatus for controlling classification and classification switching in a vision system
US7505841B2 (en) Vision-based occupant classification method and system for controlling airbag deployment in a vehicle restraint system
US7471832B2 (en) Method and apparatus for arbitrating outputs from multiple pattern recognition classifiers
US20040220705A1 (en) Visual classification and posture estimation of multiple vehicle occupants
EP1842735A2 (en) Object detecting system, actuating device control system, vehicle, and object detecting method
US8560179B2 (en) Adaptive visual occupant detection and classification system
KR20240011931A (en) Occupant classification method and apparatus for vehicle
CN112989915A (en) System and method for detecting abnormal passenger behavior in an autonomous vehicle
CN114475511B (en) Vision-based airbag activation
US20240029452A1 (en) Seat belt wearing determination apparatus
CN115476739B (en) Seat adjusting method
EP4303822A1 (en) Child seat detection for a seat occupancy classification system
KR20240011544A (en) Method and apparatus for determining whether seat belt is worn
WO2024046623A1 (en) Transport means, assembly and method for categorising a passenger of a transport means
CN117253218A (en) Safety belt height adjusting method and related device
CN117657060A (en) Method and device for personalized active safety control