KR102655441B1 - 차량의 안전장치 제어시스템 및 그 제어방법 - Google Patents

차량의 안전장치 제어시스템 및 그 제어방법 Download PDF

Info

Publication number
KR102655441B1
KR102655441B1 KR1020190039410A KR20190039410A KR102655441B1 KR 102655441 B1 KR102655441 B1 KR 102655441B1 KR 1020190039410 A KR1020190039410 A KR 1020190039410A KR 20190039410 A KR20190039410 A KR 20190039410A KR 102655441 B1 KR102655441 B1 KR 102655441B1
Authority
KR
South Korea
Prior art keywords
passenger
information
posture
mobile device
vehicle
Prior art date
Application number
KR1020190039410A
Other languages
English (en)
Other versions
KR20200120972A (ko
Inventor
송지운
김도형
이충령
이규상
정가람
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190039410A priority Critical patent/KR102655441B1/ko
Publication of KR20200120972A publication Critical patent/KR20200120972A/ko
Application granted granted Critical
Publication of KR102655441B1 publication Critical patent/KR102655441B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/16Inflatable occupant restraints or confinements designed to inflate upon impact or impending impact, e.g. air bags
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Air Bags (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 차량의 안전장치 제어시스템 및 그 제어방법이 개시된다. 본 발명의 차량에 설치된 안전장치를 제어하는 장치는, 차량에 탑승한 승객의 모바일 장치로부터 승객 및 승객 주변의 영상정보, 모바일장치 자세정보를 수신하는 통신부, 상기 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 상기 승객 얼굴영역을 파싱(parsing)하여 승객 구분정보를 판단하며, 상기 모바일장치 자세정보와 상기 승객 주변영역에 기초하여 승객 자세정보를 판단하는 승객 인식부, 상기 승객 구분정보 및 승객 자세정보에 기초하여 상기 안정장치의 전개를 제어하는 전개 제어정보를 결정하는 제어부를 포함한다.

Description

차량의 안전장치 제어시스템 및 그 제어방법{SYSTEM AND METHOD FOR CONTROLLING AIRBAG OF VEHICLE}
본 발명은 차량의 안전장치 제어시스템 및 그 제어방법에 관한 것으로서, 보다 상세하게는 차량에 탑승한 승객의 모바일 장치를 통해 획득한 승객의 영상정보와 모바일장치 자세정보를 이용하여 승객의 구분 및 자세를 판단하고, 그 판단결과에 따라 안전장치의 전개를 능동적으로 제어하는 차량의 안전장치 제어시스템 및 그 제어방법에 관한 것이다.
에어백(Air bag)은 차량에 충돌이 발생했을 때, 해당 충격으로부터 차량에 탑승한 승객을 보호하는 장치로서, 안전벨트와 더불어 승객을 보호하기 위해 차량에 설치된 대표적인 장치이다.
에어백 시스템은 검지 시스템과 에어백 모듈로 이루어져 있는데, 검지 시스템은 센서, 배터리, 진단 장치 등을 포함하고, 에어백 모듈은 에어백과 작동기체를 팽창시키는 장치를 포함한다.
그리고 검지 시스템의 센서에 의해 차량의 충돌이 감지되면 작동기체를 팽창시키는 장치가 폭발하고, 그 폭발가스로 인해 에어백이 순간적으로 부풀게 되며, 일반적으로 충돌이 발생하고 에어백이 완전히 작동되는데 걸리는 시간은 0.05초 정도인 것으로 알려져 있다. 에어백은 잘못 작동하면 승객에게 오히려 부상을 입힐 수 있고, 한번 작동하면 재사용이 불가능하기 때문에 최근의 차량은 특정한 상황에서만 에어백이 작동하도록 설계되고 있다.
한편, 자율주행 차량은 운전에 대한 자유도가 생기므로, 자율주행 차량에 탑승한 승객은 현재와 같은 착좌자세가 아닌 다양한 착좌자세가 가능하다. 예를 들어, 승객은 시트를 눕혀 누운 상태를 유지할 수 있다.
그러나, 종래의 자율주행 차량은 탑승한 승객의 착좌자세 변화를 감지할 수 없어, 승객의 다양한 착좌자세에 대응하여 에어백이 전개되지 못하는 문제가 있었다. 즉, 종래에는 차량에서 승객이 어떻게 위치하는지는 고려하지 않고 정해진 위치로만 에어백이 전개되었기 때문에, 승객이 시트에 정자세로 있지 않는 경우에는 에어백의 전개로 인해서 승객이 목 부상을 입거나 머리를 다치게 되는 2차 상해가 발생하는 문제가 있었다. 또한, 탑승한 승객의 성별, 나이, 체구 등에 따라서 바르게 앉은 경우에도 각 승객의 머리의 위치는 상이할 수 있는데, 이 경우에도 동일하게 설정된 위치에서 에어백이 전개되면 승객을 효과적으로 보호하지 못하는 문제가 있었다.
이에, 일반 차량은 물론 자율주행 차량에 탑승한 승객의 착좌자세 변화에 대응하여 에어백을 전개시킬 수 있는 기술 개발이 요구되고 있다.
본 발명은 상기와 같은 문제점들을 개선하기 위하여 안출된 것으로, 본 발명의 목적은 차량에 탑승한 승객의 착좌자세 변화에 대응하여 안전장치를 능동적으로 제어할 수 있는 차량의 안전장치 제어시스템 및 그 제어방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 측면에 따른 제어장치는, 차량에 설치된 안전장치를 제어하는 장치에 있어서, 상기 차량에 탑승한 승객의 모바일 장치로부터 승객 및 승객 주변의 영상정보, 모바일장치 자세정보를 수신하는 통신부, 상기 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 상기 승객 얼굴영역을 파싱(parsing)하여 승객 구분정보를 판단하며, 상기 모바일장치 자세정보와 상기 승객 주변영역에 기초하여 승객 자세정보를 판단하는 승객 인식부, 상기 승객 구분정보 및 승객 자세정보에 기초하여 상기 안정장치의 전개를 제어하는 전개 제어정보를 결정하는 제어부를 포함한다.
본 발명에서 상기 승객 인식부는, 상기 영상정보에서 승객 얼굴영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객의 성별, 나이, 크기 중 적어도 하나를 포함하는 승객 구분정보를 인식하는 승객 구분모듈, 상기 영상정보에서 승객 주변영역을 검출하고, 상기 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하며, 상기 승객 주변 차량 인테리어, 상기 모바일장치 자세정보, 상기 승객의 이목구비 위치 중 적어도 하나를 분석하여 승객 자세정보를 판단하는 승객 자세 인식모듈을 포함할 수 있다.
본 발명에서 상기 승객 자세 인식모듈은, 상기 승객 얼굴영역에서 이목구비를 검출하고, 상기 모바일장치 자세정보와 상기 승객 주변 차량 인테리어와의 상관관계를 이용하여 상기 이목구비의 위치를 추정하며, 상기 모바일장치 자세정보, 상기 승객 주변 차량 인테리어와의 상관관계, 상기 이목구비의 위치 중 적어도 하나를 분석하여 상기 승객의 자세 및 방향을 판단할 수 있다.
본 발명에서 상기 제어부는, 상기 승객 구분정보에 기초하여 상기 안전장치의 전개 강도를 결정하고, 상기 승객 자세정보의 자세에 기초하여 상기 안전장치의 전개 압력을 결정하며, 상기 승객 자세정보의 방향에 기초하여 상기 안전장치의 전개 방향을 결정할 수 있다.
본 발명의 다른 측면에 따른 차량의 안전장치 제어시스템은, 차량에 설치된 안전장치를 제어하는 시스템에 있어서, 상기 차량에 탑승한 승객이 구비하며, 촬영부를 통해 승객 및 승객 주변의 영상정보를 획득하고, 센서부를 통해 모바일장치 자세정보를 측정하는 적어도 하나의 모바일 장치, 통신망을 통해 상기 모바일 장치로부터 영상정보 및 모바일장치 자세정보를 수신하고, 상기 영상정보 및 모바일장치 자세정보에 기초하여 승객 구분정보 및 승객 자세정보를 판단하며, 상기 승객 구분정보 및 승객 자세정보에 기초하여 상기 안정장치의 전개를 제어하는 전개 제어정보를 결정하는 제어장치를 포함한다.
본 발명에서 상기 모바일 장치는, 상기 제어장치와의 통신을 위한 통신부, 상기 차량에 탑승한 승객 및 승객 주변을 포함하는 영상정보를 획득하는 촬영부, 상기 모바일장치 자세정보를 측정하는 센서부, 상기 통신부를 통해 제어장치에 연결된 경우, 상기 촬영부 및 센서부를 구동시키고, 상기 촬영부를 통해 획득된 영상정보와 상기 센서부에서 측정된 모바일장치 자세정보를 상기 통신부를 통해 상기 제어장치로 전송하는 제어부를 포함할 수 있다.
본 발명에서 상기 제어장치는, 상기 모바일 장치로부터 영상정보 및 모바일장치 자세정보를 수신하는 통신부, 상기 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객 구분정보를 판단하며, 상기 모바일장치 자세정보와 상기 승객 주변영역에 기초하여 승객 자세정보를 판단하는 승객 인식부, 상기 승객 구분정보 및 승객 자세정보에 기초하여, 상기 안전장치의 전개 유무, 전개 강도, 전개 위치, 전개 압력, 전개 방향 중 적어도 하나를 포함하는 전개 제어정보를 결정하는 제어부를 포함할 수 있다.
본 발명에서 상기 승객 인식부는, 상기 영상정보에서 승객 얼굴영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객의 성별, 나이, 크기 중 적어도 하나를 포함하는 승객 구분정보를 인식하는 승객 구분모듈, 상기 영상정보에서 승객 주변영역을 검출하고, 상기 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하며, 상기 승객 주변 차량 인테리어, 상기 모바일장치 자세정보, 상기 승객의 이목구비 위치 중 적어도 하나를 분석하여 승객 자세정보를 판단하는 승객 자세 인식모듈을 포함할 수 있다.
본 발명에서 상기 제어장치는, 복수의 모바일 장치로부터 영상정보 및 모바일장치 자세정보를 각각 수신한 경우, 복수의 영상정보를 조합하고, 상기 조합된 영상정보에 기초하여 각 승객의 구분정보를 각각 판단하며, 각 승객의 구분정보와 해당 승객의 모바일장치 자세정보에 기초하여 각 승객의 자세정보를 판단하고, 각 승객의 구분정보 및 자세정보에 기초하여 해당 안정장치의 전개를 제어하는 전개 제어정보를 각각 결정할 수 있다.
본 발명의 또 다른 측면에 따른 차량의 안전장치 제어방법은, 차량에 설치된 제어장치가 안전장치를 제어하는 방법에 있어서, 상기 차량에 탑승한 승객의 모바일 장치로부터 승객 및 승객 주변의 영상정보, 모바일장치 자세정보를 수신하는 단계, 상기 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객 구분정보를 판단하며, 상기 모바일장치 자세정보와 상기 승객 주변영역에 기초하여 승객 자세정보를 판단하는 단계, 상기 승객 구분정보 및 승객 자세정보에 기초하여 상기 안정장치의 전개를 제어하는 전개 제어정보를 결정하는 단계를 포함한다.
본 발명에서 상기 판단하는 단계는, 상기 영상정보에서 승객 얼굴영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객의 성별, 나이, 크기 중 적어도 하나를 포함하는 승객 구분정보를 인식하는 단계, 상기 영상정보에서 승객 주변영역을 검출하고, 상기 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하며, 상기 승객 주변 차량 인테리어, 상기 모바일장치 자세정보, 상기 승객의 이목구비 위치 중 적어도 하나를 분석하여 승객 자세정보를 판단하는 단계를 포함할 수 있다.
본 발명은 차량에 탑승한 승객의 모바일 장치를 통해 획득한 승객의 영상정보와 모바일장치 자세정보를 이용하여 승객의 구분 및 자세를 판단하고, 그 판단결과에 따라 안전장치의 전개를 능동적으로 제어함으로써, 차량에 탑승한 승객의 다양한 착좌자세 변화에 대응하여 안전장치를 능동적으로 제어할 수 있고, 이러한 안전장치의 최적 작동을 통해 승객 보호 성능을 향상시킬 수 있다.
또한, 본 발명은 차량에 탑승한 승객의 모바일 장치를 통해 획득한 승객의 영상정보와 모바일장치 자세정보를 이용하여 승객의 구분 및 자세를 판단함으로써, 승객 인식 오류를 최소화할 수 있고, 승객 인식 결과에 기초하여 안전장치의 전개를 제어함으로써, 승객 보호 성능이 향상되는 효과가 있다.
한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.
도 1은 본 발명의 일 실시예에 따른 자율주행 차량의 안전장치 제어시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 자율주행 차량의 안전장치 제어시스템을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 승객과 대시보드 간의 거리에 따라 다르게 전개되는 에어백을 비교하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 자율주행 차량의 에어백 제어 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 제어장치가 에어백의 전개를 제어하는 방법을 설명하는 흐름도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 차량의 안전장치 제어시스템 및 그 제어방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.
본 발명은 차량에 탑승한 승객이 소지한 모바일 장치를 통해 획득한 승객의 영상정보와 모바일장치 자세정보를 이용하여 승객의 구분 및 착좌자세를 판단하고, 그 판단결과에 따라 안전장치의 전개를 능동적으로 제어하는 시스템 및 방법에 관한 것이다. 이때, 차량은 일반 차량, 자율주행 차량 등을 포함하나, 이하에서는 설명의 편의를 위해 자율주행 차량을 예로 하여 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 자율주행 차량의 안전장치 제어시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 자율주행 차량(10)에 탑승한 승객은 운전에 대한 자유도가 생기므로, 착좌자세를 변화시켜가면서 자신의 모바일 장치(100)를 이용하여 다양한 애플리케이션을 실행시킬 수 있다. 이러한 자율주행 차량(10)에 충돌이 발생했을 때, 해당 충격으로부터 차량(10)에 탑승한 승객을 보호하기 위해서는, 승객의 착좌자세 변화에 대응하여 안전장치(300)를 전개시킬 필요가 있다.
이에, 본 발명은 승객의 착좌자세 변화에 대응하여 안전장치(300)를 전개시키기 위해, 자율주행 차량(10)에 탑승한 승객 각각이 가지는 모바일 장치(100)를 이용할 수 있다.
이하 도면을 참조하여, 모바일 장치(100)를 이용하여 안전장치(300)를 제어하는 시스템 및 방법에 대해 설명하기로 한다. 이하, 본 발명에서는 설명의 편의를 위해 안전장치(300)를 에어백으로 한정하여 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 자율주행 차량의 안전장치 제어시스템을 나타낸 블록도, 도 3은 본 발명의 일 실시예에 따른 승객과 대시보드 간의 거리에 따라 다르게 전개되는 에어백을 비교하는 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 안전장치 제어시스템은 차량에 탑승한 승객이 가지는 모바일 장치(100), 에어백(300)의 전개를 제어하는 제어장치(200)를 포함한다. 이때, 모바일 장치(100)와 제어장치(200)는 승객이 차량에 탑승한 경우 유선, 무선 등의 다양한 통신망을 통해 연결될 수 있다.
자율주행 차량은 운전에 대한 자유도가 생기므로, 승객은 착좌자세를 변화시켜가면서 자신의 모바일 장치(100)를 이용하여 다양한 애플리케이션을 실행시킬 수 있다. 이때, 승객의 다양한 착좌자세 변화에 대응하여 에어백(300)을 전개시키기 위해, 모바일 장치(100)는 다양한 애플리케이션의 실행중에도 승객의 영상과 모바일장치 자세정보를 자동으로 획득하여 제어장치(200)로 전송한다. 즉, 모바일 장치(100)는 촬영부(120) 및 센서부(130)를 구비하고, 촬영부(120)를 통해 승객 및 승객 주변의 영상정보를 획득하며, 센서부(130)를 통해 모바일장치 자세정보를 측정하고, 영상정보 및 모바일장치 자세정보를 통신망을 통해 제어장치(200)로 전송한다.
이러한 모바일 장치(100)는 통신부(110), 촬영부(120), 센서부(130), 제어부(140), 저장부(150)를 포함한다.
통신부(110)는 제어장치(200)와의 통신을 위한 구성으로, 촬영부(120)를 통해 획득된 영상정보, 센서부(130)를 통해 측정된 모바일장치 자세정보 등 다양한 정보를 송수신할 수 있다. 이때, 통신부(110)는 근거리 통신모듈, 무선 통신모듈, 이동통신 모듈, 유선 통신모듈 등 다양한 형태로 구현될 수 있다.
촬영부(120)는 차량에 탑승한 승객 및 승객 주변을 포함하는 영상정보를 실시간 또는 주기적으로 획득하고, 획득된 영상정보를 제어부(140)로 전송한다. 이러한 촬영부(120)는 예컨대, 카메라, 특히 고화질 카메라일 수 있다. 고화질 카메라를 사용함으로써 승객의 안면부를 인식 및 분석하는데 유리할 수 있다. 또한, 복수의 승객이 자율주행 차량에 탑승한 경우, 각 승객이 이용하는 각 모바일 장치(100)는 영상정보를 제어장치(200)로 전송하므로, 제어장치(200)는 복수의 모바일 장치로부터 전송된 영상정보를 조합하여 승객을 식별할 수 있고, 이로 인해 승객 감지 효율을 증가시킬 수 있다.
센서부(130)는 모바일 장치(100)에 실장되어, 모바일장치 자세정보를 실시간 또는 주기적으로 측정하고, 측정된 모바일장치 자세정보를 제어부(140)로 전송한다. 여기서, 모바일장치 자세정보는 위치(좌표), 각속도, 기울기, 방향, 회전각 등을 포함할 수 있다.
이러한 센서부(130)는 자이로 센서(Gyro Sensor), 가속도 센서, 지자기 센서, 중력 센서, 자세 센서 등 모바일 장치(100)의 자세를 측정할 수 있는 다양한 센서를 포함하여 구성될 수 있다. 센서부(130)는 상기 센서들 중 적어도 하나의 센서를 이용하여 모바일 장치(100)의 자세정보를 측정할 수 있으나, 모바일 장치(100)의 자세정보 판단에 대한 정확도를 높이기 위해 모바일 장치(100)에 실장된 센서를 모두를 이용할 수도 있다. 예컨대, 센서부(130)는 미리 구비된 센서, 즉, 자이로 센서, 중력 센서, 기울기 센서 또는, 지자기 센서를 이용하여 하나 이상의 지점에서 중력 방향에 대해 측정된 기울기 값을 측정하고, 측정된 기울기 값을 이용하여 모바일장치 자세정보로 판단할 수 있다.
센서부(130)는 측정된 모바일장치 자세정보를 주기적 혹은 실시간으로 감지하고, 이에 대한 전기적 신호를 제어부(140)로 송신한다.
제어부(140)는 통신부(110)를 통해 모바일 장치(100)가 제어장치(200)에 연결된 경우, 촬영부(120) 및 센서부(130)를 구동시키고, 촬영부(120)를 통해 획득된 영상정보와 센서부(130)에서 측정된 모바일장치 자세정보를 통신부(110)를 통해 제어장치(200)로 전송한다.
이러한 제어부(140)는 적어도 하나의 연산 장치를 포함할 수 있는데, 여기서 상기 연산 장치는 범용적인 중앙연산장치(CPU), 특정 목적에 적합하게 구현된 프로그래머블 디바이스 소자(CPLD, FPGA), 주문형 반도체 연산장치(ASIC) 또는 마이크로 컨트롤러 칩일 수 있다.
저장부(150)는 모바일장치(100)의 동작과 관련된 데이터들을 저장하는 구성이다. 여기서 저장부(150)는 공지된 저장매체를 이용할 수 있으며, 예를 들어, ROM, PROM, EPROM, EEPROM, RAM 등과 같이 공지된 저장매체 중 어느 하나 이상을 이용할 수 있다. 특히, 저장부(150)에는 모바일 장치(100)가 차량에 연결된 경우, 다양한 애플리케이션의 실행중에도 촬영부(120)와 센서부(130)를 구동시켜 영상정보와 모바일장치 자세정보를 획득할 수 있는 애플리케이션(또는 애플릿) 등이 저장될 수 있으며, 저장되는 정보들은 필요에 따라 제어부(120)에 의해 취사 선택될 수 있다.
한편, 본 발명에 따른 모바일 장치는(100)는 모바일 장치(100)의 동작과 관련된 다양한 정보를 표시하거나, 또는 사용자로부터 정보를 입력받기 위한 사용자 인터페이스부(미도시)를 더 포함할 수 있다. 사용자 인터페이스부는 디스플레이부 또는 입력부로 동작할 수 있다.
또한, 본 발명에 따른 모바일 장치(100)는 전원을 공급하는 전원공급부(미도시)를 더 포함할 수 있다. 전원 공급부는 제어부(140)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 모바일 장치 바디에 착탈 가능하게 결합될 수 있다. 또한, 전원공급부는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스의 일 예로서 구성될 수 있다. 또한, 전원공급부는 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다.
한편, 상기와 같이 구성된 모바일 장치(100)는 촬영부(120)를 통해 승객의 얼굴 인식이 가능하고, 센서부(130)를 통해 모바일 장치(100)의 자세 측정이 가능하며, 다양한 유무선 환경에 적용될 수 있는 전자 기기일 수 있다. 예컨대, 모바일 장치(100)는 PDA(Personal Digital Assistant), 스마트폰, 셀룰러폰, PCS(Personal Communication Service)폰, GSM(Global System for Mobile)폰, W-CDMA(Wideband CDMA)폰, CDMA-2000폰, MBS(Mobile Broadband System)폰 등을 포함한다. 여기서 모바일 장치(100)는 휴대용 소형기기를 나타낼 수 있지만, 캠코더 또는 랩탑 컴퓨터 등을 포함하는 경우에는 이동통신단말기로 지칭될 수 있으므로, 본 발명의 실시예에서는 이에 특별히 한정하지는 않을 것이다.
제어장치(200)는 통신망을 통해 모바일 장치(100)로부터 영상정보 및 모바일장치 자세정보를 수신하고, 그 영상정보 및 모바일장치 자세정보에 기초하여 승객의 구분 및 자세를 판단하며, 그 판단결과에 따라 에어백(300)의 전개를 제어한다.
즉, 제어장치(200)는 모바일 장치(100)로부터 수신한 영상정보를 통해 승객의 성별, 나이, 크기 등의 승객 구분정보를 인식한다. 또한, 제어장치(200)는 모바일장치 자세정보, 승객 주변 차량 인테리어와의 상관 관계, 승객의 이목구비 위치 등을 분석하여 승객 자세정보를 판단한다. 그런 후, 제어장치(200)는 승객 구분정보와 승객 자세정보에 기초하여, 에어백(300)의 전개 유무, 전개 방향, 전개 강도, 전개량 등의 전개 제어정보를 결정한다. 제어장치(200)는 결정된 전개 제어정보에 따라 능동적으로 에어백(300)을 제어할 수 있다. 여기서, 차량 인테리어는 시트, 대시보드, 창문 등 차량을 구성하는 요소일 수 있다.
이러한 제어장치(200)는 통신부(210), 승객 인식부(220), 제어부(230)를 포함한다.
통신부(210)는 모바일 장치(100)로부터 승객 및 승객 주변의 영상정보, 모바일장치 자세정보를 수신한다.
승객 인식부(220)는 통신부(210)를 통해 수신한 영상정보 및 모바일장치 자세정보에 기초하여 승객을 구분하고, 승객의 자세를 판단한다. 즉, 승객 인식부(220)는 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 승객 얼굴영역을 파싱(parsing)하여 승객 구분정보를 판단하며, 모바일장치 자세정보와 승객 주변영역에 기초하여 승객 자세정보를 판단한다.
이러한 승객 인식부(220)는 승객 구분모듈(222) 및 승객 자세 인식모듈(224)을 포함한다.
승객 구분모듈(222)은 영상정보에서 승객 얼굴영역을 검출하고, 검출된 승객 얼굴영역을 파싱하여 승객의 성별, 나이, 크기 등을 구분한다.
즉, 승객 구분모듈(222)은 하르(haar) 특징 기반의 얼굴영역 검출 알고리즘, 스킬 컬러 기반의 얼굴영역 검출 알고리즘 등 다양한 알고리즘을 이용하여 얼굴영역을 검출할 수 있다. 그런 후, 승객 구분모듈(222)은 검출된 얼굴영역을 파싱하여 승객의 성별, 나이, 크기 등을 포함하는 승객 구분정보를 판단할 수 있다.
예컨대, 승객 구분모듈(222)은 검출된 얼굴영역을 이목구비 영역과 머리카락 영역으로 세분화하고, 세분화된 머리카락 영역과 이목구비 영역의 세로비를 비교하여 승객의 성별을 구분할 수 있다.
또한, 승객 구분모듈(222)은 검출된 얼굴영역을 이용하여 승객의 나이(연령대)를 인식할 수 있다. 구체적으로, 승객 구분모듈(222)은 얼굴영역을 대상으로 영상 크기/밝기 정규화 프로세싱, 영상 중심을 일치시키는 프로세싱, LBP(Local Binary Pattern) 변환 프로세싱 등과 같은 전처리 프로세싱을 수행한다. 그런 후, 승객 구분모듈(222)은 전처리된 얼굴영역 중 이목구비 이외의 영역(양볼, 이마 또는 목 부위 등)에 대한 각 픽셀 값들의 히스토그램 데이터를 이용하여 이 영역에 존재하는 홈부라인 즉, 피부 주름 라인의 크기 또는 깊이에 대한 질감 데이터를 생성한다. 이 질감 데이터는 양볼, 이마 또는 목 부위의 주름살을 표상하는 홈부라인의 깊이, 크기 등에 대한 분포 데이터를 의미하는 것으로, 이 질감 데이터를 각 연령대별로 기 DB화된 기준 질감 데이터와 매칭하는 프로세싱을 수행함으로써, 승객의 나이를 추정할 수 있다. 또한, 승객 구분모듈(222)은 얼굴 인식의 결과에 기초하여 승객의 나이를 추정할 수 있다. 예컨대, 저장부(미도시)에는 양 눈사이의 거리와 같은 나이에 따른 사람 얼굴의 평균 정보가 저장될 수 있고, 승객 구분모듈(222)은 얼굴 인식의 결과를 저장부에 저장된 정보와 비교하여 승객의 나이를 추정할 수 있다.
승객 자세 인식모듈(224)은 모바일장치 자세정보, 승객 주변의 차량 인테리어와의 상관관계, 승객의 이목구비 위치를 분석하여 승객의 자세를 판단한다. 즉, 승객 자세 인식모듈(224)은 영상정보에서 승객 주변영역을 검출하고, 검출된 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하며, 인식된 승객 주변 차량 인테리어, 모바일장치 자세정보, 승객의 이목구비 위치 등을 분석하여 승객 자세정보를 판단한다. 이때, 승객 자세 인식모듈(224)은 승객 얼굴영역에서 이목구비를 검출하고, 모바일장치 자세정보와 승객 주변 차량 인테리어와의 상관관계를 이용하여 승객의 이목구비의 위치를 추정할 수 있다.
구체적으로, 에어백(300)이 전개되는 대시보드와 승객 얼굴영역의 이격 거리에 따라 에어백의 전개량(전개 압력)이 달라지므로, 승객 자세 인식모듈(224)은 에어백의 전개량을 제어하기 위해 승객의 얼굴영역과 대시보드 간의 거리를 추정해야 한다. 이에, 승객 자세 인식모듈(224)은 영상정보에서 얼굴영역이 차지하는 비율에 따라 모바일 장치(100)와 승객 간의 상대적 거리, 승객의 얼굴 위치 등을 추정한다. 그런 후, 승객 자세 인식모듈(224)은 모바일장치 자세정보(위치)와 대시보드의 위치를 이용하여 모바일 장치(100)와 대시보드 간의 거리를 추정한다. 그런 후, 승객 자세 인식모듈(224)은 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하고, 인식된 승객 주변 차량 인테리어와 모바일장치 자세정보(위치) 간의 상관관계를 이용하여 차량 인테리어와 모바일 장치(100) 간의 거리를 인식한다. 그러면, 승객 자세 인식모듈(224)은 모바일 장치(100)와 승객 간의 상대적 거리, 모바일 장치(100)와 대시보드 간의 거리, 차량 인테리어와 모바일 장치(100) 간의 거리를 이용하여 승객 얼굴영역과 대시보드 간의 거리, 승객의 자세를 판단할 수 있다. 예컨대, 승객 얼굴영역과 대시보드 간의 거리가 가까울수록 앉는 자세일 수 있고, 승객 얼굴영역과 대시보드 간의 거리가 멀수록 누운 자세일 수 있다.
또한, 승객 자세 인식모듈(224)은 영상정보에서 검출된 얼굴영역에서 이목구비를 검출하고, 모바일장치 자세정보와 승객 주변 차량 인테리어와의 상관관계를 이용하여 검출된 이목구비의 위치를 추정한다. 여기서, 이목구비의 위치는 모바일 장치(100)의 위치를 기준으로 하는 상대 좌표일 수 있다. 그런 후, 승객 자세 인식모듈(224)는 좌측 눈과 우측 눈 간의 거리 등을 산출하여, 승객의 방향을 판단할 수 있다.
상술한 바와 같이 승객 자세 인식모듈(224)은 영상정보 및 모바일장치 자세정보에 기초하여, 승객의 자세정보를 판단할 수 있다. 여기서, 승객의 자세정보는 승객의 얼굴영역과 대시보드간의 거리, 승객의 방향 등을 포함할 수 있다.
한편, 승객 인식부(220)는 컴퓨팅 장치상에서 프로그램을 실행하기 위해 필요한 프로세서 등에 의해 각각 구현될 수 있다. 이처럼 승객 인식부(220)는 물리적으로 독립된 각각의 구성에 의해 구현될 수도 있고, 하나의 프로세서 내에서 기능적으로 구분되는 형태로 구현될 수도 있다.
제어부(230)는 승객 인식부(220)에서 인식된 승객 구분정보 및 승객 자세정보에 기초하여, 에어백(300)의 전개 유무, 전개 강도, 전개 위치, 전개량, 전개 방향(각도) 등을 포함하는 전개 제어정보를 결정한다.
즉, 제어부(230)는 승객의 성별, 나이, 크기 등 승객 구분정보에 기초하여 에어백(300)의 전개 강도를 다르게 결정할 수 있고, 승객 자세정보에 기초하여 에어백의 전개 위치, 전개량, 전개 방향(각도)을 결정할 수 있다. 이때, 승객 자세정보는 승객의 얼굴영역과 대시보드 간의 거리, 승객의 방향 등을 포함하므로, 제어부(230)는 승객의 얼굴영역과 대시보드 간의 거리 또는 승객의 방향 등에 기초하여 에어백(300)의 전개를 제어할 수 있다.
예컨대, 제어부(230)는 승객의 얼굴영역(안면부)과 대시보드 간의 거리 정보에 기초하여 에어백(300)의 전개량과 전개 시간을 다르게 제어할 수 있다. 구체적으로, 제어부(230)는 승객의 얼굴영역(안면부)과 대시보드 간의 거리가 상대적으로 가까울수록 상대적으로 더 작은 전개량 및 상대적으로 더 짧은 전개 시간으로 에어백(300)을 전개하도록 제어하고, 승객의 얼굴영역(안면부)과 대시보드 간의 거리가 상대적으로 멀수록 상대적으로 더 큰 전개량 및 상대적으로 더 긴 전개 시간으로 에어백(300)을 전개하도록 제어할 수 있다. 즉, 승객의 얼굴영역(안면부)과 대시보드와 가까울수록 에어백을 통해서 채워야 하는 승객과 대시보드 사이의 공간이 적으므로, 제어부(230)는 에어백(300)의 전개 압력을 상대적으로 적게 제어한다. 또한 승객의 얼굴영역(안면부)과 대시보드와 가까울수록 충돌까지 걸리는 시간이 적게 걸리므로, 제어부(230)는 에어백(300)이 상대적으로 더 빠르게 전개될 수 있도록 제어한다.
예를 들면, 제어부(230)는 승객의 얼굴영역(안면부)이 대시보드와 상대적으로 먼 경우 도 3의 (a)와 같이 에어백(300)이 확장전개되도록 제어하고, 승객의 얼굴영역(안면부)이 대시보드와 상대적으로 가까운 경우 도 3의 (b)와 같이 에어백(300)이 일반 전개되도록 제어한다. 승객의 얼굴영역(안면부)과 대시보드 사이의 공간을 에어백(300)으로 채움으로써, 차량 충돌시 승객의 연속적인 충돌을 방지하기 위해서, 제어부(230)는 승객의 얼굴영역(안면부)과 대시보드 간의 거리에 따라서 에어백(300)의 전개량을 다르게 제어한다.
또한, 제어부(230)는 승객의 방향에 기초하여 에어백(300)의 전개 방향을 다르게 제어한다. 즉, 제어부(230)는 승객의 방향에 따라 일반전개, 좌향 전개, 우향전개 등의 에어백(300)의 전개 방향을 결정한다. 예컨대, 승객 방향이 "정면"인 경우 "일반전개", "좌향"인 경우 "좌향전개", "우향"인 경우 "우향전개"로 결정할 수 있다.
또한, 제어부(230)는 차량의 충돌신호 또는 충돌예측신호 입력 시, 전개 제어정보에 따라 에어백(300)이 동작하도록 제어한다.
제어부(230)는 통신부(210), 승객 인식부(220)를 포함하는 제어장치(200)의 다양한 구성부들의 동작을 제어하는 구성으로, 적어도 하나의 연산 장치를 포함할 수 있는데, 여기서 상기 연산 장치는 범용적인 중앙연산장치(CPU), 특정 목적에 적합하게 구현된 프로그래머블 디바이스 소자(CPLD, FPGA), 주문형 반도체 연산장치(ASIC) 또는 마이크로 컨트롤러 칩일 수 있다.
한편, 상기와 같이 구성된 제어장치(200)는 예컨대, 에어백(300)의 전개를 제어하는 ACU(에어백 제어장치)일 수 있다.
에어백(300)은 제어장치(200)로부터 전개 제어정보를 수신하고, 차량의 충돌신호 또는 충돌예측신호 입력 시, 상기 전개 제어정보에 따라 전개 강도, 전개량, 전개 방향 등을 조절하여 전개한다. 이러한 에어백(300)은 운전석 및 동승석 전방에서 전개되는 정면에어백을 기본으로 하여, 승객의 측방에서 전개되어 승객을 보호하는 커튼에어백 및 사이드에어백이 있고, 승객의 무릎을 보호하기 위한 무릎에어백 등이 마련될 수 있다.
한편, 도 2에서는 자율주행 차량에 한명의 승객이 탑승한 경우에 대해서만 설명하였으나, 자율주행 차량에는 운전석외 다른 좌석에도 승객이 탑승할 수 있다. 이런 경우, 각 승객은 자신의 모바일 장치(100)를 자유롭게 이용할 수 있고, 자율주행 차량에 탑승한 승객들의 모바일 장치(100)는 각각 촬영부(120)를 통해 획득된 영상정보와 센서부(130)를 통해 측정된 모바일장치 자세정보를 각각 제어장치(200)로 전송할 수 있다. 그러면, 제어장치(200)는 복수의 모바일 장치로부터 영상정보 및 모바일장치 자세정보를 각각 수신하고, 수신한 복수의 영상정보를 조합하여 승객을 각각 구분한다. 그런 후, 제어장치(200)는 모바일장치 자세정보에 기초하여 승객 자세정보를 판단하며, 승객 구분정보 및 승객 자세정보에 기초하여 각 에어백의 전개를 제어할 수 있다.
상술한 바와 같이, 자율주행 차량에 탑승한 승객의 모바일 장치(100)는 촬영부(120)를 통해 승객과 승객 주변을 포함하는 영상정보를 획득하고, 센서부(130)를 통해 모바일장치 자세정보를 측정하여 영상정보와 함께 제어장치(200)로 전송하며, 제어장치(200)는 영상정보 및 모바일장치 자세정보에 기초하여 승객의 구분 및 자세를 판단하고, 그 판단결과에 따라 차량 내부에 설치된 에어백(300)의 전개 유무, 전개 강도, 전개량, 전개 방향 등을 능동적으로 제어할 수 있다. 이처럼, 본 발명은 자율주행 차량에 탑승한 승객의 다양한 착좌자세 변화에 대응하여 에어백(300)을 능동적으로 제어함으로써, 시트의 각도가 후방을 향해 누워있는 상태이거나 시트의 위치가 전방 또는 후방으로 이동한 상태에서 충돌 사고가 발생하게 되더라도, 이에 최적화하여 에어백(300)을 선택적으로 전개시키게 되는바, 차량에 탑승한 승객을 충돌사고의 충격으로부터 안전하게 보호할 수 있다.
도 4는 본 발명의 일 실시예에 따른 자율주행 차량의 에어백 제어 방법을 설명하기 위한 도면이다.
도 4를 참조하면, 승객이 자율주행 차량에 탑승하여, 승객의 모바일 장치(100)가 차량의 제어장치(200)와 연결되면(S410), 모바일 장치(100)는 촬영부(120)를 통해 승객 및 승객 주변을 포함하는 영상정보를 획득하고, 센서부(130)를 통해 모바일장치 자세정보를 측정한다(S420).
단계 S420이 수행되면, 모바일 장치(100)는 획득된 영상정보와 측정된 모바일장치 자세정보를 제어장치(200)로 전송한다(S430).
단계 S430이 수행되면, 제어장치(200)는 모바일 장치(100)로부터 수신한 영상정보 및 모바일장치 자세정보에 기초하여 승객 구분정보 및 승객 자세정보를 판단한다(S440). 이때, 제어장치(200)는 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 검출된 승객 얼굴영역을 파싱(parsing)하여 승객 구분정보를 판단하며, 모바일장치 자세정보와 승객 주변영역에 기초하여 승객 자세정보를 판단한다.
단계 S440이 수행되면, 제어장치(200)는 승객 구분정보 및 승객 자세정보에 기초하여 에어백(300)의 전개를 제어하는 전개 제어정보를 결정한다(S450). 즉, 제어장치(200)는 승객 구분정보 및 승객 자세정보에 기초하여, 에어백(300)의 전개 유무, 전개 강도, 전개 위치, 전개량, 전개 방향 등의 전개 제어정보를 결정한다. 제어장치(200)가 에어백(300)의 전개를 제어하는 방법에 대한 상세한 설명은 도 5를 참조하기로 한다.
단계 S450이 실행되면, 제어장치(200)는 에어백(300)의 전개 제어정보를 에어백(300)으로 전송한다(S460).
상술한 과정은 실시간 또는 주기적으로 수행되므로, 자율주행 차량에 탑승한 승객의 착좌자세 변화에 대응하여 에어백(300)을 능동적으로 전개시킬 수 있다.
도 5는 본 발명의 일 실시예에 따른 제어장치가 에어백의 전개를 제어하는 방법을 설명하는 흐름도이다.
도 5를 참조하면, 제어장치(200)는 모바일 장치(100)로부터 승객 및 승객 주변의 영상정보 및 모바일장치 자세정보가 수신되면(S510), 영상정보를 통해 승객의 성별, 나이, 크기 등을 포함하는 승객 구분정보를 인식한다(S520). 이때, 제어장치(200)는 영상정보에서 얼굴 검출 알고리즘을 이용하여 승객 얼굴영역을 검출하고, 검출된 승객 얼굴영역을 파싱(parsing)하여 승객의 성별, 나이, 크기 등의 승객 구분정보를 인식할 수 있다.
단계 S520이 수행되면, 제어장치(200)는 모바일장치 자세정보, 승객 주변의 차량 인테리어와의 상관관계, 승객의 이목구비 위치를 분석하여 승객 자세정보를 판단한다(S530). 즉, 제어장치(200)는 영상정보에서 승객 주변영역을 검출하고, 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하며, 승객 얼굴영역에서 이목구비를 검출하고, 모바일장치 자세정보와 승객 주변 차량 인테리어와의 상관관계를 이용하여 승객 이목구비의 위치를 추정할 수 있다. 그런 후, 제어장치(200)는 모바일장치 자세정보, 승객 주변의 차량 인테리어(예컨대, 시트)의 위치를 이용하여 승객과 대시보드간의 거리를 추정하고, 모바일 장치(100)의 방향과 승객 이목구비의 위치에 기초하여 승객의 얼굴 방향을 추정할 수 있다. 여기서, 승객과 대시보드간의 거리, 승객의 얼굴 방향 등이 승객의 자세정보일 수 있다.
단계 S530이 수행되면, 제어장치(200)는 승객 구분정보에 기초하여 에어백의 전개 강도를 결정하고, 승객 자세정보에 기초하여 에어백의 전개량, 전개 방향을 결정한다(S540). 즉, 제어장치(200)는 승객 구분정보에 따라 전개강도 강, 전개 강도 약, 전개하지 않음으로 전개 강도를 결정할 수 있다. 이때, 승객 구분정보에 따른 전개강도는 미리 설정될 수 있다.
예컨대, 승객 구분정보가 "남자, 20세이상~65세미만", "여자, 20세이상~60세미만"인 경우는 "전개강도 강", 승객 구분정보가 "남자, 20세미만 또는 65세이상", "여자, 20세미만 또는 60세이상"인 "전개강도 약", 탑승한 승객이 없는 경우 "전개하지 않음"으로 결정할 수 있다.
상기와 같이 전개 강도가 결정되면, 제어장치(200)는 승객 자세에 따라 확장 전개 또는 일반전개의 전개량을 결정한다. 예컨대, 승객 자세가 "기 설정된 일정 각도 이상으로 누워 있는 자세"인 경우 "확장전개", "기 설정된 일정 각도 미만으로 앉아 있는 자세"인 경우 "일반전개"로 결정할 수 있다.
상기와 같이 전개량이 결정되면, 제어장치(200)는 승객 방향에 따라 일반전개, 좌향 전개, 우향전개 등의 전개방향을 결정한다. 예컨대, 승객 방향이 "정면"인 경우 "일반전개", "좌향"인 경우 "좌향전개", "우향"인 경우 "우향전개"로 결정할 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 차량의 안전장치 제어시스템 및 그 제어방법은, 차량에 탑승한 승객의 모바일 장치를 통해 획득한 승객의 영상정보와 모바일장치 자세정보를 이용하여 승객의 구분 및 자세를 판단하고, 그 판단결과에 따라 안전장치의 전개를 능동적으로 제어함으로써, 차량에 탑승한 승객의 다양한 착좌자세 변화에 대응하여 안전장치를 능동적으로 제어할 수 있고, 이러한 안전장치의 최적 작동을 통해 승객 보호 성능을 향상시킬 수 있다.
또한, 본 발명의 일 실시예에 따른 차량의 안전장치 제어시스템 및 그 제어방법은, 차량에 탑승한 승객의 모바일 장치를 통해 획득한 승객의 영상정보와 모바일장치 자세정보를 이용하여 승객의 구분 및 자세를 판단함으로써, 승객 인식 오류를 최소화할 수 있고, 승객 인식 결과에 기초하여 안전장치의 전개를 제어함으로써, 승객 보호 성능을 향상시킬 수 있는 효과가 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.
10 : 자율주행 차량
100 : 모바일 장치
110, 210 : 통신부
120 : 촬영부
130 : 센서부
140, 230 : 제어부
150 : 저장부
200 : 제어장치
220 : 승객 인식부
222: 승객 구분모듈
224 : 승객 자세 인식모듈
300 : 안전장치

Claims (13)

  1. 차량에 설치된 안전장치를 제어하는 제어장치에 있어서,
    승객이 상기 차량에 탑승한 경우, 상기 승객이 가지는 모바일 장치와 연결되어, 상기 모바일 장치에 의해 획득된 승객 및 승객 주변의 영상정보, 모바일장치 자세정보를 수신하는 통신부;
    상기 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 상기 승객 얼굴영역을 파싱(parsing)하여 승객 구분정보를 판단하며, 상기 모바일장치 자세정보와 상기 승객 주변영역에 기초하여 승객 자세정보를 판단하는 승객 인식부; 및
    상기 승객 구분정보 및 승객 자세정보에 기초하여 상기 안전장치의 전개를 제어하는 전개 제어정보를 결정하는 제어부
    를 포함하는 것을 특징으로 하는 제어장치.
  2. 제1항에 있어서,
    상기 승객 인식부는,
    상기 영상정보에서 승객 얼굴영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객의 성별, 나이, 크기 중 적어도 하나를 포함하는 승객 구분정보를 인식하는 승객 구분모듈; 및
    상기 영상정보에서 승객 주변영역을 검출하고, 상기 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하며, 상기 승객 주변 차량 인테리어, 상기 모바일장치 자세정보, 상기 승객의 이목구비 위치 중 적어도 하나를 분석하여 승객 자세정보를 판단하는 승객 자세 인식모듈을 포함하는 것을 특징으로 하는 제어장치.
  3. 제2항에 있어서,
    상기 승객 자세 인식모듈은,
    상기 승객 얼굴영역에서 이목구비를 검출하고, 상기 모바일장치 자세정보와 상기 승객 주변 차량 인테리어와의 상관관계를 이용하여 상기 이목구비의 위치를 추정하며, 상기 모바일장치 자세정보, 상기 승객 주변 차량 인테리어와의 상관관계, 상기 이목구비의 위치 중 적어도 하나를 분석하여 상기 승객의 자세 및 방향을 판단하는 것을 특징으로 하는 제어장치.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 승객 구분정보에 기초하여 상기 안전장치의 전개 강도를 결정하고, 상기 승객 자세정보의 자세에 기초하여 상기 안전장치의 전개량을 결정하며, 상기 승객 자세정보의 방향에 기초하여 상기 안전장치의 전개 방향을 결정하는 것을 특징으로 하는 제어장치.
  5. 차량에 설치된 안전장치를 제어하는 차량의 안전장치 제어시스템에 있어서,
    승객에게 구비되며, 상기 승객이 차량에 탑승하면 통신망을 통해 제어장치와 연결되고, 촬영부를 통해 승객 및 승객 주변의 영상정보를 획득하고, 센서부를 통해 모바일장치 자세정보를 측정하며, 상기 영상정보 및 모바일장치 자세정보를 상기 제어장치로 전송하는 적어도 하나의 모바일 장치; 및
    상기 모바일 장치로부터 영상정보 및 모바일장치 자세정보를 수신하고, 상기 영상정보 및 모바일장치 자세정보에 기초하여 승객 구분정보 및 승객 자세정보를 판단하며, 상기 승객 구분정보 및 승객 자세정보에 기초하여 상기 안전장치의 전개를 제어하는 전개 제어정보를 결정하는 제어장치;
    를 포함하는 차량의 안전장치 제어시스템.
  6. 제5항에 있어서,
    상기 모바일장치는,
    상기 제어장치와의 통신을 위한 통신부;
    상기 차량에 탑승한 승객 및 승객 주변을 포함하는 영상정보를 획득하는 촬영부;
    상기 모바일장치 자세정보를 측정하는 센서부; 및
    상기 통신부를 통해 제어장치에 연결된 경우, 상기 촬영부 및 센서부를 구동시키고, 상기 촬영부를 통해 획득된 영상정보와 상기 센서부에서 측정된 모바일장치 자세정보를 상기 통신부를 통해 상기 제어장치로 전송하는 제어부를 포함하는 것을 특징으로 하는 차량의 안전장치 제어시스템.
  7. 제5항에 있어서,
    상기 제어장치는,
    상기 모바일 장치로부터 영상정보 및 모바일장치 자세정보를 수신하는 통신부;
    상기 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객 구분정보를 판단하며, 상기 모바일장치 자세정보와 상기 승객 주변영역에 기초하여 승객 자세정보를 판단하는 승객 인식부; 및
    상기 승객 구분정보 및 승객 자세정보에 기초하여, 상기 안전장치의 전개 유무, 전개 강도, 전개량, 전개 방향 중 적어도 하나를 포함하는 전개 제어정보를 결정하는 제어부를 포함하는 것을 특징으로 하는 차량의 안전장치 제어시스템.
  8. 제7항에 있어서,
    상기 승객 인식부는,
    상기 영상정보에서 승객 얼굴영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객의 성별, 나이, 크기 중 적어도 하나를 포함하는 승객 구분정보를 인식하는 승객 구분모듈; 및
    상기 영상정보에서 승객 주변영역을 검출하고, 상기 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하며, 상기 승객 주변 차량 인테리어, 상기 모바일장치 자세정보, 상기 승객의 이목구비 위치 중 적어도 하나를 분석하여 승객 자세정보를 판단하는 승객 자세 인식모듈을 포함하는 것을 특징으로 하는 차량의 안전장치 제어시스템.
  9. 제5항에 있어서,
    상기 제어장치는,
    복수의 모바일 장치로부터 영상정보 및 모바일장치 자세정보를 각각 수신한 경우, 복수의 영상정보를 조합하고, 상기 조합된 영상정보에 기초하여 각 승객의 구분정보를 각각 판단하며, 각 승객의 구분정보와 해당 승객의 모바일장치 자세정보에 기초하여 각 승객의 자세정보를 판단하고, 각 승객의 구분정보 및 자세정보에 기초하여 해당 안전장치의 전개를 제어하는 전개 제어정보를 각각 결정하는 것을 특징으로 하는 차량의 안전장치 제어시스템.
  10. 차량에 설치된 제어장치가 안전장치를 제어하는 차량의 안전장치 제어방법에 있어서,
    승객이 상기 차량에 탑승한 경우, 상기 승객이 구비한 모바일 장치와 연결되고, 상기 모바일 장치로부터 승객 및 승객 주변의 영상정보, 모바일장치 자세정보를 수신하는 단계;
    상기 영상정보에서 승객 얼굴영역과 승객 주변영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객 구분정보를 판단하며, 상기 모바일장치 자세정보와 상기 승객 주변영역에 기초하여 승객 자세정보를 판단하는 단계; 및
    상기 승객 구분정보 및 승객 자세정보에 기초하여 상기 안전장치의 전개를 제어하는 전개 제어정보를 결정하는 단계
    를 포함하는 것을 특징으로 하는 차량의 안전장치 제어방법.
  11. 제10항에 있어서,
    상기 판단하는 단계는,
    상기 영상정보에서 승객 얼굴영역을 검출하고, 상기 승객 얼굴영역을 파싱하여 승객의 성별, 나이, 크기 중 적어도 하나를 포함하는 승객 구분정보를 인식하는 단계; 및
    상기 영상정보에서 승객 주변영역을 검출하고, 상기 승객 주변영역을 통해 승객 주변 차량 인테리어를 인식하며, 상기 승객 주변 차량 인테리어, 상기 모바일장치 자세정보, 상기 승객의 이목구비 위치 중 적어도 하나를 분석하여 승객 자세정보를 판단하는 단계를 포함하는 것을 특징으로 하는 차량의 안전장치 제어방법.
  12. 제11항에 있어서,
    상기 승객 자세정보를 판단하는 단계는,
    상기 승객 얼굴영역에서 이목구비를 검출하고, 상기 모바일장치 자세정보와 상기 승객 주변 차량 인테리어와의 상관관계를 이용하여 상기 이목구비의 위치를 추정하는 단계; 및
    상기 모바일장치 자세정보, 상기 승객 주변 차량 인테리어와의 상관관계, 상기 이목구비의 위치 중 적어도 하나를 분석하여 상기 승객의 자세 및 방향을 판단하는 단계를 포함하는 것을 특징으로 하는 차량의 안전장치 제어방법.
  13. 제10항에 있어서,
    상기 전개 제어정보를 결정하는 단계는,
    상기 승객 구분정보에 기초하여 상기 안전장치의 전개 강도를 결정하고, 상기 승객 자세정보의 자세에 기초하여 상기 안전장치의 전개 압력을 결정하며, 상기 승객 자세정보의 방향에 기초하여 상기 안전장치의 전개 방향을 결정하는 것을 특징으로 하는 차량의 안전장치 제어방법.
KR1020190039410A 2019-04-04 2019-04-04 차량의 안전장치 제어시스템 및 그 제어방법 KR102655441B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190039410A KR102655441B1 (ko) 2019-04-04 2019-04-04 차량의 안전장치 제어시스템 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190039410A KR102655441B1 (ko) 2019-04-04 2019-04-04 차량의 안전장치 제어시스템 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20200120972A KR20200120972A (ko) 2020-10-23
KR102655441B1 true KR102655441B1 (ko) 2024-04-08

Family

ID=73039242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190039410A KR102655441B1 (ko) 2019-04-04 2019-04-04 차량의 안전장치 제어시스템 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR102655441B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024165997A1 (en) * 2023-02-09 2024-08-15 Gentex Corporation Mirror rotation calibration

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100630842B1 (ko) 2005-06-08 2006-10-02 주식회사 현대오토넷 스테레오 영상 정합을 이용한 자동차의 탑승자 자세 판별시스템 및 그 방법
JP2010100125A (ja) 2008-10-22 2010-05-06 Denso It Laboratory Inc 制御装置及び制御方法
JP5638139B2 (ja) 2011-08-10 2014-12-10 本田技研工業株式会社 乗員検知装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5446763A (en) * 1977-09-20 1979-04-12 Rikagaku Kenkyusho Preparation of diterpene derivative
KR20160024256A (ko) * 2014-08-25 2016-03-04 현대모비스 주식회사 에어백 전개 방법 및 그 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100630842B1 (ko) 2005-06-08 2006-10-02 주식회사 현대오토넷 스테레오 영상 정합을 이용한 자동차의 탑승자 자세 판별시스템 및 그 방법
JP2010100125A (ja) 2008-10-22 2010-05-06 Denso It Laboratory Inc 制御装置及び制御方法
JP5638139B2 (ja) 2011-08-10 2014-12-10 本田技研工業株式会社 乗員検知装置

Also Published As

Publication number Publication date
KR20200120972A (ko) 2020-10-23

Similar Documents

Publication Publication Date Title
CN111507174B (zh) 预测乘客的身高及体重的方法及装置
CN107428302B (zh) 利用车辆内部相机的占用者尺寸和姿势的检测
US7978881B2 (en) Occupant information detection system
US7630804B2 (en) Occupant information detection system, occupant restraint system, and vehicle
EP1674347B1 (en) Detection system, occupant protection device, vehicle, and detection method
US7729513B2 (en) Contact time calculation apparatus, obstacle detection apparatus, contact time calculation method, and obstacle detection method
US20210001796A1 (en) Physique estimation device and physique estimation method
CN113147664A (zh) 检测车辆中是否使用了安全带的方法和系统
US10351087B2 (en) Protection control apparatus
US10713829B2 (en) Accident report device and accident report method
US8897969B2 (en) Collision safety control apparatus and method for vehicle
KR102655441B1 (ko) 차량의 안전장치 제어시스템 및 그 제어방법
US20060149426A1 (en) Detecting an eye of a user and determining location and blinking state of the user
KR101461911B1 (ko) 안전벨트 체결 상태 가이드 장치 및 방법
US11752963B2 (en) Apparatus for operating airbag of autonomous vehicle and control method thereof
US11858442B2 (en) Apparatus for protecting passenger in vehicle and control method thereof
JP2018156212A (ja) 体格判定装置、体格判定方法およびプログラム
KR101621874B1 (ko) 에어백 시스템, 그 제어방법 및 웨어러블 디바이스
US20230334878A1 (en) Condition monitoring apparatus and storage medium
US20230406250A1 (en) Vehicle for protecting occupant and operating method thereof
CN113879243A (zh) 车辆气囊控制方法、存储介质、控制装置和车辆
EP4358040A1 (en) Seat belt detection
KR20240011544A (ko) 시트 벨트 착용 여부 판단 방법 및 장치
CN113487830A (zh) 车辆安全预警方法、设备、存储介质及装置
CN117710946A (zh) 基于车载摄像头的安全带使用识别方法、装置和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant