KR102232646B1 - 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치 - Google Patents

운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치 Download PDF

Info

Publication number
KR102232646B1
KR102232646B1 KR1020200176052A KR20200176052A KR102232646B1 KR 102232646 B1 KR102232646 B1 KR 102232646B1 KR 1020200176052 A KR1020200176052 A KR 1020200176052A KR 20200176052 A KR20200176052 A KR 20200176052A KR 102232646 B1 KR102232646 B1 KR 102232646B1
Authority
KR
South Korea
Prior art keywords
vehicle
body structure
information
vehicle occupant
data
Prior art date
Application number
KR1020200176052A
Other languages
English (en)
Inventor
박종준
Original Assignee
주식회사 모빌린트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모빌린트 filed Critical 주식회사 모빌린트
Priority to KR1020200176052A priority Critical patent/KR102232646B1/ko
Application granted granted Critical
Publication of KR102232646B1 publication Critical patent/KR102232646B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J5/00Doors
    • B60J5/04Doors arranged at the vehicle sides
    • B60J5/047Doors arranged at the vehicle sides characterised by the opening or closing movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/16Inflatable occupant restraints or confinements designed to inflate upon impact or impending impact, e.g. air bags
    • B60R21/20Arrangements for storing inflatable members in their non-use or deflated condition; Arrangement or mounting of air bag modules or components
    • B60R21/207Arrangements for storing inflatable members in their non-use or deflated condition; Arrangement or mounting of air bag modules or components in vehicle seats
    • B60R21/2072Arrangements for storing inflatable members in their non-use or deflated condition; Arrangement or mounting of air bag modules or components in vehicle seats in children's seats
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R22/00Safety belts or body harnesses in vehicles
    • B60R22/10Safety belts or body harnesses in vehicles specially adapted for children or animals
    • B60R22/105Safety belts or body harnesses in vehicles specially adapted for children or animals for children
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/16Inflatable occupant restraints or confinements designed to inflate upon impact or impending impact, e.g. air bags
    • B60R21/20Arrangements for storing inflatable members in their non-use or deflated condition; Arrangement or mounting of air bag modules or components
    • B60R21/207Arrangements for storing inflatable members in their non-use or deflated condition; Arrangement or mounting of air bag modules or components in vehicle seats
    • B60R2021/2078Arrangements for storing inflatable members in their non-use or deflated condition; Arrangement or mounting of air bag modules or components in vehicle seats in rear seats
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 명세서는 차량의 실내 장치를 조절하기 위한 방법에 관한 것이다.
보다 구체적으로, 상기 방법은 상기 차량의 외부에 설치된 오브젝트 검출 장치를 통해 상기 차량과 소정 거리 내에 위치한 차량 탑승자의 이미지 데이터를 획득하는 단계; 스켈레톤(skeleton)화 관련 딥러닝(deep learning) 알고리즘을 이용하여 상기 이미지 데이터로부터 상기 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 추출하는 단계; 및 상기 차량의 특정 도어(door)가 열림을 감지한 경우, 상기 추출된 신체 구조 정보에 기초하여 상기 특정 도어에 대응하는 탑승석 관련 실내 장치를 조절하는 단계를 포함하는 것을 특징으로 한다.

Description

운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치{Method for automatically controlling indoor devices of a vehicle including driver's seat, and apparatus therefor}
본 명세서는 차량의 실내 장치를 조절하기 위한 방법에 관한 것으로서, 보다 상세하게는 차량 탑승자의 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 지원하는 장치에 관한 것이다.
최근 쏘카 등과 같은 공유 차량 서비스 또는 카카오 블랙 등과 같은 고급 택시 서비스를 이용하는 사용자가 증가하고 있으며, 해당 서비스를 정기적으로 이용하는 횟수도 증가하고 있다. 따라서, 사용자가 해당 서비스를 이용하는 경우, 해당 사용자가 차량에 탑승하기 전에 자동으로 해당 사용자가 탑승할 좌석 또는 해당 좌석과 관련된 차량 실내 장치의 자동 조절이 필요할 수 있다. 이러한 자동 조절이 수행되기 위해서는 사용자의 신체 구조가 모두 다르기 때문에 이를 고려하여 좌석 또는 차량 내 실내 장치의 자동 조절을 할 수 있는 기술이 개발되어야 한다. 그렇지 않은 경우, 해당 서비스를 이용할 때마다 사용자는 자신의 신체 구조에 맞게 차량의 시트, 백미러, 사이드 미러, 콘텐츠가 출력되는 디스플레이 장치 등 차량의 실내 장치들의 위치를 서비스를 이용할 때마다 매번 수행해야 하는 불편함이 있다.
따라서, 본 명세서는 상기와 같은 사용자의 불편을 최소화하기 위해 차량의 외부에 설치된 오브젝트 검출 장치를 통해 차량 탑승자의 이미지 데이터를 획득하고, 이에 따른 차량 탑승자의 신체 구조를 파악함으로써 차량 탑승자의 탑승석의 시트 등과 같은 차량 내 실내 장치들을 자동으로 조절하기 위한 방법을 제공함에 목적이 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서는 실내 장치를 조절하기 위한 차량에 있어서, 상기 차량의 외부에 설치되며, 상기 차량과 소정 거리 내에 위치한 차량 탑승자의 이미지 데이터를 획득하기 위한 오브젝트 검출 장치, 상기 이미지 데이터는 상기 차량과 상기 차량 탑승자 사이의 거리를 나타내는 거리 정보를 포함하며; 스켈레톤(skeleton)화 관련 딥러닝(deep learning) 알고리즘을 이용하여 상기 이미지 데이터로부터 상기 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 추출하는 AI 장치, 상기 신체 구조 정보는 상기 차량 탑승자의 신체 구조 중에서 상기 실내 장치의 조절과 관련된 신체 부위 각각의 위치에 대한 신체 부위 위치 정보, 상기 신체 부위 각각의 크기에 대한 신체 부위 크기 정보 또는 상기 차량 탑승자의 신체 구조 중에서 특이 사항을 가지는 신체 부위의 특이 사항 정보 중 적어도 하나를 포함하며; 상기 차량의 특정 도어(door)의 개폐 여부를 감지하는 센싱 장치; 및 상기 추출된 신체 구조 정보에 기초하여 상기 특정 도어에 대응하는 탑승석 관련 실내 장치를 조절하는 제어 장치를 포함하는 것을 특징으로 한다.
또한, 본 명세서에서 상기 제어 장치는 상기 센싱 장치에 의해 상기 특정 도어의 열림이 감지된 경우, 상기 추출된 신체 구조 정보에 기초하여 상기 실내 장치를 조절하도록 제어하는 것을 특징으로 한다.
또한, 본 명세서에서 각 신체 부위의 크기는 상기 이미지 데이터에 포함되는 거리 정보에 기초하여 산출되는 것을 특징으로 한다.
또한, 본 명세서에서 상기 특이 사항 정보는 상기 차량 탑승자의 임신 여부 또는 장애 여부인 것을 특징으로 한다.
또한, 본 명세서에서 상기 실내 장치의 조절과 관련된 각 신체 부위는 눈, 팔꿈치, 무릎, 허리, 팔, 다리, 상체 또는 목인 것을 특징으로 한다.
또한, 본 명세서의 상기 차량은 출력부를 더 포함하고, 상기 제어 장치는 상기 이미지 데이터의 획득이 끝났음을 알리는 알림 신호를 시각적, 청각적, 후각적 또는 촉각적 형태로 출력하도록 출력부를 제어하는 것을 특징으로 한다.
또한, 본 명세서에서 상기 오브젝트 검출 장치는 1개의 스테레오 카메라, 2개의 카메라 또는 1개의 초음파센서와 1개의 카메라로 구성되는 것을 특징으로 한다.
또한, 본 명세서에서 상기 실내 장치는 상기 특정 도어에 대응하는 탑승석의 시트, 운전대, 백미러, 사이드미러, 상기 차량 뒷자석에 배치되는 디스플레이 장치, 안마 장치, 에어백 또는 안전벨트 중 적어도 하나를 포함하는 것을 특징으로 한다.
또한, 본 명세서에서 상기 제어 장치는 상기 차량 탑승자가 유아 또는 어린이인 경우, 상기 에어백 또는 상기 안전벨트를 조절하는 것을 특징으로 한다.
또한, 본 명세서는 차량의 실내 장치를 조절하기 위한 방법에 있어서, 상기 차량의 외부에 설치된 오브젝트 검출 장치를 통해 상기 차량과 소정 거리 내에 위치한 차량 탑승자의 이미지 데이터를 획득하는 단계, 상기 이미지 데이터는 상기 차량과 상기 차량 탑승자 사이의 거리를 나타내는 거리 정보를 포함하며; 스켈레톤(skeleton)화 관련 딥러닝(deep learning) 알고리즘을 이용하여 상기 이미지 데이터로부터 상기 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 추출하는 단계, 상기 신체 구조 정보는 상기 차량 탑승자의 신체 구조 중에서 상기 실내 장치의 조절과 관련된 신체 부위 각각의 위치에 대한 신체 부위 위치 정보, 상기 신체 부위 각각의 크기에 대한 신체 부위 크기 정보 또는 상기 차량 탑승자의 신체 구조 중에서 특이 사항을 가지는 신체 부위의 특이 사항 정보 중 적어도 하나를 포함하며; 및 상기 차량의 특정 도어(door)가 열림을 감지한 경우, 상기 추출된 신체 구조 정보에 기초하여 상기 특정 도어에 대응하는 탑승석 관련 실내 장치를 조절하는 단계를 포함하는 것을 특징으로 한다.
본 명세서는 차량 탑승자의 이미지 데이터를 획득하고, 이를 통해 차량 탑승자의 신체 구조 정보를 이용해 탑승석의 시트 또는 차량 내 실내 장치들을 자동으로 조절함으로써 사용자의 편의성을 증대시킬 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 2는 본 발명의 일 실시예에 따른 AI 장치의 블록도이다.
도 3은 본 발명이 적용될 수 있는 DNN 모델의 예시이다.
도 4는 본 명세서에서 제안하는 차량의 실내 장치를 조절하기 위한 방법의 일례를 나타낸 순서도이다.
도 5는 스켈레톤화해주는 딥러닝 알고리즘을 통해 사람의 신체 구조를 스켈레톤화한 일례를 나타낸 도이다.
도 6은 본 명세서에서 제안하는 차량의 실내 장치를 조절하기 위한 방법의 일례를 나타낸 순서도이다.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥 상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
차량의 구성 요소
본 명세서에서 사용하는 차량은 도로나 선로 위를 주행하는 수송 수단으로 정의된다. 상기 차량은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다. 차량은 개인이 소유한 차량일 수 있다. 차량은, 공유형 차량일 수 있다.
도 1은 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 1을 참조하면, 차량(10)은, 사용자 인터페이스 장치(100), 오브젝트 검출 장치(110), 통신 장치(120), 운전 조작 장치(130), 메인 ECU(140), 차량 구동 장치(150), 센싱부(160), 위치 데이터 생성 장치(170), AI 장치(180) 및 출력부(190)을 포함할 수 있다. 오브젝트 검출 장치(110), 통신 장치(120), 운전 조작 장치(130), 메인 ECU(140), 차량 구동 장치(150), 센싱부(160) 및 위치 데이터 생성 장치(170)는 각각 전기적 신호를 생성하고, 상호 간에 전기적 신호를 교환하는 전자 장치로 구현될 수 있다.
사용자 인터페이스 장치(100)는, 차량과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치는, 사용자 입력을 수신하고, 사용자에게 차량에서 생성된 정보를 제공할 수 있다. 차량은, 사용자 인터페이스 장치를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다. 사용자 인터페이스 장치는, 입력 장치, 출력 장치 및 사용자 모니터링 장치를 포함할 수 있다.
오브젝트 검출 장치(110)는, 차량 외부의 오브젝트에 대한 정보를 생성할 수 있다. 오브젝트에 대한 정보는, 오브젝트의 존재 유무에 대한 정보, 오브젝트의 위치 정보, 차량과 오브젝트와의 거리 정보 및 차량과 오브젝트와의 상대 속도 정보 중 적어도 어느 하나를 포함할 수 있다. 오브젝트 검출 장치는, 차량 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치는, 차량 외부의 오브젝트를 검출할 수 있는 적어도 하나의 센서를 포함할 수 있다. 오브젝트 검출 장치는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다.
카메라는 영상을 이용하여 차량 외부의 오브젝트에 대한 정보를 생성할 수 있다. 카메라는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.
카메라는, 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라는, 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보 또는 오브젝트와의 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 획득된 영상에서, 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다.
카메라는, 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 카메라는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 카메라는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 카메라는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
레이다는 전파를 이용하여 차량 외부의 오브젝트에 대한 정보를 생성할 수 있다. 레이다는, 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 레이다는 전파 발사 원리상 펄스 레이다(Pulse Radar) 방식 또는 연속파 레이다(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이다는 연속파 레이다 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이다는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 레이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
라이다는, 레이저 광을 이용하여, 차량 외부의 오브젝트에 대한 정보를 생성할 수 있다. 라이다는, 광 송신부, 광 수신부 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 라이다는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다는, 구동식 또는 비구동식으로 구현될 수 있다. 구동식으로 구현되는 경우, 라이다는, 모터에 의해 회전되며, 차량 주변의 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다는, 광 스티어링에 의해, 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 차량은 복수의 비구동식 라이다를 포함할 수 있다. 라이다는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 라이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
통신 장치(120)는, 차량 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치는, 인프라(예를 들면, 서버, 방송국), 타 차량, 단말기 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
예를 들어, 통신 장치는 C-V2X(Cellular V2X) 기술을 기반으로 외부 디바이스와 신호를 교환할 수 있다. 예를 들어, C-V2X 기술은 LTE 기반의 사이드링크 통신 및/또는 NR 기반의 사이드링크 통신을 포함할 수 있다.
예를 들어, 통신 장치는 IEEE 802.11p PHY/MAC 계층 기술과 IEEE 1609 Network/Transport 계층 기술 기반의 DSRC(Dedicated Short Range Communications) 기술 또는 WAVE(Wireless Access in Vehicular Environment) 표준을 기반으로 외부 디바이스와 신호를 교환할 수 있다. DSRC (또는 WAVE 표준) 기술은 차량 탑재 장치 간 혹은 노변 장치와 차량 탑재 장치 간의 단거리 전용 통신을 통해 ITS(Intelligent Transport System) 서비스를 제공하기 위해 마련된 통신 규격이다. DSRC 기술은 5.9GHz 대역의 주파수를 사용할 수 있고, 3Mbps~27Mbps의 데이터 전송 속도를 가지는 통신 방식일 수 있다. IEEE 802.11p 기술은 IEEE 1609 기술과 결합되어 DSRC 기술 (혹은 WAVE 표준)을 지원할 수 있다.
본 발명의 통신 장치는 C-V2X 기술 또는 DSRC 기술 중 어느 하나만을 이용하여 외부 디바이스와 신호를 교환할 수 있다. 또는, 본 발명의 통신 장치는 C-V2X 기술 및 DSRC 기술을 하이브리드하여 외부 디바이스와 신호를 교환할 수 있다.
운전 조작 장치(130)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량은, 운전 조작 장치(130)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(130)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.
메인 ECU(140)는, 차량 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다. 상기 메인 ECU는 제어부, 프로세서 등으로 표현될 수 있다.
상기 제어부는 어플리케이션 프로세서(Application Processor:AP), 프로세서, 제어 모듈, 컨트롤러(controller), 마이크로 컨트롤러(micro controller), 마이크로프로세서(microprocessor)등으로 호칭 될 수 있으며, 상기 프로세서는 하드웨어(hardware), 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. 상기 제어부는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다.
상기 메인 ECU는 상기 오브젝트 검출 장치에 의해 획득된 이미지 데이터로부터 스켈레톤화 관련 딥러닝 알고리즘을 적용하여 추출된 신체 구조 정보에 기초하여 차량의 특정 도어에 대응하는 탑승석 관련 실내 장치를 조절하도록 제어한다.
또한, 상기 메인 ECU는 후술할 센싱부에 의해 특정 도어의 열림이 감지된 경우, 상기 추출된 신체 구조 정보에 기초하여 상기 실내 장치를 조절하도록 제어한다.
또한, 상기 메인 ECU는 상기 차량 탑승자가 유아 또는 어린이인 경우, 상기 에어백 또는 상기 안전벨트를 조절하도록 제어한다.
차량 구동 장치(150)는, 차량 내 각종 차량 구동 장치를 전기적으로 제어하는 장치이다. 차량 구동 장치(150)는, 파워 트레인 구동 제어 장치, 샤시 구동 제어 장치, 도어/윈도우 구동 제어 장치, 안전 장치 구동 제어 장치, 램프 구동 제어 장치 및 공조 구동 제어 장치를 포함할 수 있다. 파워 트레인 구동 제어 장치는, 동력원 구동 제어 장치 및 변속기 구동 제어 장치를 포함할 수 있다. 샤시 구동 제어 장치는, 조향 구동 제어 장치, 브레이크 구동 제어 장치 및 서스펜션 구동 제어 장치를 포함할 수 있다. 한편, 안전 장치 구동 제어 장치는, 안전 벨트 제어를 위한 안전 벨트 구동 제어 장치를 포함할 수 있다.
차량 구동 장치(150)는, 적어도 하나의 전자적 제어 장치(예를 들면, 제어 ECU(Electronic Control Unit))를 포함한다.
센싱부(160) 또는 센싱 장치는, 차량의 상태를 센싱할 수 있다. 센싱부(160)는, IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial measurement unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.
센싱부(160)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 차량 상태 데이터는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다. 센싱부(160)는, 차량 자세 데이터, 차량 모션 데이터, 차량 요(yaw) 데이터, 차량 롤(roll) 데이터, 차량 피치(pitch) 데이터, 차량 충돌 데이터, 차량 방향 데이터, 차량 각도 데이터, 차량 속도 데이터, 차량 가속도 데이터, 차량 기울기 데이터, 차량 전진/후진 데이터, 차량의 중량 데이터, 배터리 데이터, 연료 데이터, 타이어 공기압 데이터, 차량 내부 온도 데이터, 차량 내부 습도 데이터, 스티어링 휠 회전 각도 데이터, 차량 외부 조도 데이터, 가속 페달에 가해지는 압력 데이터, 브레이크 페달에 가해지는 압력 데이터, 진동 데이터 등을 생성할 수 있다.
또한, 상기 센싱부는 차량의 특정 도어(door)의 개폐 여부를 감지할 수 있다.
위치 데이터 생성 장치(170)는, 차량의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(170)는, 센싱부(160)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(110)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다. 위치 데이터 생성 장치는, GNSS(Global Navigation Satellite System)로 명명될 수 있다.
차량은, 내부 통신 시스템을 포함할 수 있다. 차량에 포함되는 복수의 전자 장치는 내부 통신 시스템을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.
또한, 도 1에 도시된 블록도 이외 상기 차량은 도 2의 AI 장치 블록도를 추가로 포함하여 본 명세서에서 제안하는 방법을 수행할 수 있다. 즉, 본 명세서에서 제안하는 차량은 후술할 AI 프로세서, 메모리 등을 포함하는 AI 장치나 각 구성 요소를 개별적으로 포함할 수 있다.
AI 장치 블록도
도 2는 본 발명의 일 실시예에 따른 AI 장치의 블록도이다.
상기 AI 장치(20)는 AI 프로세싱을 수행할 수 있는 AI 모듈을 포함하는 전자 기기 또는 상기 AI 모듈을 포함하는 서버 등을 포함할 수 있다. 또한, 상기 AI 장치는 전자기기의 적어도 일부의 구성으로 포함되어 AI 프로세싱 중 적어도 일부를 함께 수행하도록 구비될 수도 있다.
상기 AI 장치는 AI 프로세서(21), 메모리(25) 및/또는 통신부(27)를 포함할 수 있다.
상기 AI 장치는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 서버, 데스크탑 PC, 노트북 PC, 태블릿 PC 등과 같은 다양한 전자 장치로 구현될 수 있다.
AI 프로세서는 메모리에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서는 차량 관련 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 차량 관련 데이터를 인식하기 위한 신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 갖는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.
한편, 전술한 바와 같은 기능을 수행하는 프로세서는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU)일 수 있다.
메모리는 AI 장치의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리는 비 휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SDD) 등으로 구현할 수 있다. 메모리는 AI 프로세서에 의해 액세스되며, AI 프로세서에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리는 본 발명의 일 실시예에 따른 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥 러닝 모델(26))을 저장할 수 있다.
한편, AI 프로세서(21)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(22)를 포함할 수 있다. 데이터 학습부(22)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(22)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다.
데이터 학습부(22)는 적어도 하나의 하드웨어 칩 형태로 제작되어 AI 장치(20)에 탑재될 수 있다. 예를 들어, 데이터 학습부(22)는 인공지능(AI)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 AI 장치(20)에 탑재될 수도 있다. 또한, 데이터 학습부(22)는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 애플리케이션에 의해 제공될 수 있다.
데이터 학습부(22)는 학습 데이터 획득부(23) 및 모델 학습부(24)를 포함할 수 있다.
학습 데이터 획득부(23)는 데이터를 분류하고 인식하기 위한 신경망 모델에 필요한 학습 데이터를 획득할 수 있다. 예를 들어, 학습 데이터 획득부(23)는 학습 데이터로서, 신경망 모델에 입력하기 위한 차량 데이터 및/또는 샘플 데이터를 획득할 수 있다.
모델 학습부(24)는 상기 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류할지에 관한 판단 기준을 가지도록 학습할 수 있다. 이 때 모델 학습부(24)는 학습 데이터 중 적어도 일부를 판단 기준으로 이용하는 지도 학습(supervised learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또는 모델 학습부(24)는 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 학습에 따른 상황 판단의 결과가 올바른지에 대한 피드백을 이용하여 강화 학습(reinforcement learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다.
신경망 모델이 학습되면, 모델 학습부(24)는 학습된 신경망 모델을 메모리에 저장할 수 있다. 모델 학습부(24)는 학습된 신경망 모델을 AI 장치(20)와 유선 또는 무선 네트워크로 연결된 서버의 메모리에 저장할 수도 있다.
데이터 학습부(22)는 인식 모델의 분석 결과를 향상시키거나, 인식 모델의 생성에 필요한 리소스 또는 시간을 절약하기 위해 학습 데이터 전처리부(미도시) 및 학습 데이터 선택부(미도시)를 더 포함할 수도 있다.
학습 데이터 전처리부는 획득된 데이터가 상황 판단을 위한 학습에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어, 학습 데이터 전처리부는, 모델 학습부(24)가 이미지 인식을 위한 학습을 위하여 획득된 학습 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
또한, 학습 데이터 선택부는, 학습 데이터 획득부(23)에서 획득된 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부(24)에 제공될 수 있다. 예를 들어, 학습 데이터 선택부는, 차량의 카메라를 통해 획득한 영상 중 특정 영역을 검출함으로써, 특정 영역에 포함된 객체에 대한 데이터만을 학습 데이터로 선택할 수 있다.
또한, 데이터 학습부(22)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(미도시)를 더 포함할 수도 있다.
모델 평가부는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(22)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 인식 모델을 평가하기 위한 기 정의된 데이터일 수 있다. 일 예로, 모델 평가부는 평가 데이터에 대한 학습된 인식 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정되 임계치를 초과하는 경우, 소정 기준을 만족하지 못한 것으로 평가할 수 있다.
통신부(27)는 AI 프로세서(21)에 의한 AI 프로세싱 결과를 외부 전자 기기로 전송할 수 있다.
여기서 외부 전자 기기는 자율 주행 차량으로 정의될 수 있다. 또한, 상기 AI 장치(20)는 상기 자율 주행 모듈 차량과 통신하는 다른 차량 또는 5G 네트워크로 정의될 수 있다. 한편, 상기 AI 장치(20)는 차량 내에 구비된 자율주행 모듈에 기능적으로 임베딩되어 구현될 수도 있다. 또한, 상기 5G 네트워크는 자율 주행 관련 제어를 수행하는 서버 또는 모듈을 포함할 수 있다. 또한, AI 장치(20)는 홈 서버를 통해 구현될 수도 있다.
한편, 도 2에 도시된 AI 장치(20)는 AI 프로세서(21)와 메모리(25), 통신부(27) 등으로 기능적으로 구분하여 설명하였지만, 전술한 구성요소들이 하나의 모듈로 통합되어 AI 모듈로 호칭될 수도 있음을 밝혀둔다.
DNN(Deep Neural Network) 모델
도 3은 본 발명이 적용될 수 있는 DNN 모델의 예시이다.
심층 신경망(Deep Neural Network, DNN)은 입력층(input layer)과 출력층(output layer) 사이에 여러 개의 은닉층(hidden layer)들로 이루어진 인공신경망(Artificial Neural Network, ANN)이다. 심층 신경망은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다.
예를 들어, 사물 식별 모델을 위한 심층 신경망 구조에서는 각 객체가 이미지 기본 요소들의 계층적 구성으로 표현될 수 있다. 이때, 추가 계층들은 점진적으로 모여진 하위 계층들의 특징들을 규합시킬 수 있다. 심층 신경망의 이러한 특징은, 비슷하게 수행된 인공신경망에 비해 더 적은 수의 유닛(unit, node)들 만으로도 복잡한 데이터를 모델링할 수 있게 해준다.
은닉층의 개수가 많아질수록 인공신경망이 '깊어졌다(deep)'고 부르며, 이렇게 충분히 깊어진 인공신경망을 러닝 모델로 사용하는 머신러닝 패러다임을 바로 딥러닝(Deep Learning)이라고 한다. 그리고, 이러한 딥러닝을 위해 사용하는 충분히 깊은 인공신경망이 심층 신경망(DNN: Deep neural network)이라고 통칭된다.
본 발명에서 DNN의 입력층에 POI 데이터 생성 모델을 학습시키기 위해 요구되는 데이터들이 입력될 수 있고, 이들은 은닉층들을 거치면서, 사용자가 사용할 수 있는 의미있는 데이터가 출력층을 통해 생성될 수 있다.
본 발명의 명세서 상에서는 이러한 딥러닝 방식을 위해 사용되는 인공신경망을 DNN으로 통칭하고 있으나, 이와 유사한 방식으로 의미있는 데이터를 출력할 수 있다면, 다른 방식의 딥러닝 방식이 적용될 수 있음은 물론이다.
운전석을 포함한 차량 실내 장치의 스마트 조절 방법
도 4는 본 명세서에서 제안하는 차량의 실내 장치를 조절하기 위한 방법의 일례를 나타낸 순서도이다.
먼저, 차량은 상기 차량의 외부에 구비된 오브젝트 검출 장치를 이용하여 상기 차량으로부터 일정 반경 이내의 차량 탑승자에 대한 이미지 데이터를 획득한다(S410).
상기 오브젝트 검출 장치는 1개의 스테레오 카메라 또는 하나의 세트로 구성된 2대의 카메라를 의미할 수 있다. 상기 오브젝트 검출 장치가 2대의 카메라인 경우, 상기 2대의 카메라는 차량의 양 사이드에 부착되는 사이드 카메라일 수 있다.
또는, 상기 오브젝트 검출 장치는 1개의 초음파센서와 1개의 카메라로 구성될 수 있다.
여기서, 차량 탑승자는 차량의 운전석, 또는 차량의 보조석, 또는 차량의 뒷좌석으로 탑승하는 사람을 의미할 수 있다.
상기 이미지 데이터는 상기 차량과 상기 차량 탑승자 사이의 거리 정보를 포함할 수 있다.
다음으로, 상기 차량은 상기 오브젝트 검출 장치에 기초하여 획득된 이미지 데이터에서 스켈레톤(skeleton)화 관련 딥러닝 등과 같은 AI(Artificial Intelligence) 알고리즘을 사용하여 상기 차량 탑승자의 신체 구조와 관련된 신체 구조 정보를 추출한다(S420).
상기 차량 탑승자의 신체 구조 정보를 추출하기 위한 AI 알고리즘은 차량마다 서로 다른 AI 알고리즘이 사용될 수 있다.
사용자가 공유 차량 서비스를 이용할 때, 상기 차량은 신체 구조 정보 추출에 사용되는 AI 알고리즘을 통해 상기 공유 차량 서비스를 이용하는 사용자 별로 과거에 차량을 이용한 히스토리 데이터를 수집할 수 있다. 따라서, 상기 차량은 해당 차량을 이용하는 사용자의 히스토리 데이터에 기초하여 앞서 살핀 이미지 데이터를 다시 획득하지 않고도 사용자가 탑승할 좌석의 시트의 위치, 등받이 등을 조절할 수 있게 된다.
또한, 사용자가 고급 택시 서비스를 이용하는 경우, 일반적으로 차량 탑승자는 차량의 뒷자석에 탑승하는 경우가 높은 결과를 이용하여 사용자가 탑승할 좌석이 왼쪽인지 또는 오른쪽인지에 대한 감지만을 통해 바로 감지된 위치의 뒷좌석 시트의 위치, 등받이, 뒷자석에 구비되는 디스플레이 위치의 각도 등을 자동으로 조절할 수 있다.
상기 신체 구조 정보는 차량 탑승자의 신체 구조 중에서 차량에 탑승할 때 조절이 필요한 부분과 관련된 신체의 주요 부위의 위치에 대한 위치 정보, 상기 주요 부위의 크기에 대한 크기 정보 또는 상기 신체 구조 중에서 특이 사항이 있는 특이 사항 정보 중 적어도 하나를 포함할 수 있다.
상기 특이 사항 정보의 일례로는, 차량 탑승자의 임신 여부, 특정 신체 부위의 장애 여부 등일 수 있다.
상기 신체의 주요 부위의 일례로는, 눈, 팔꿈치, 무릎, 키, 허리, 각 관절 등일 수 있다.
다음으로, 상기 차량은 상기 추출된 신체 구조 정보에 기초하여 미리 정해진 일정 규칙에 기초하여 (1) 차량 탑승자에 최적화되도록 차량 탑승자가 탑승할 탑승석(예: 운전석, 조수석, 뒷자석)을 설정하거나 또는 (2) 상기 차량 탑승자에 최적화되도록 차량 탑승자가 탑승할 탑승 공간을 설정한다(S430).
여기서, 상기 차량 탑승자에 최적화되도록 탑승석을 설정하는 것의 일례로는, 상기 차량 탑승자에 맞도록 핸들의 위치 조절, 시트의 위치 조절, 사이드 및 백미러의 위치 조절, 등받이 조절 등일 수 있다.
또한, 상기 차량 탑승자에 최적화되도록 상기 탑승 공간을 설정하는 일례로는, 상기 차량 탑승자에 맞도록 탑승석 시트의 위치 조절, 디스플레이 장치의 위치 조절, 안마 의자의 조절 등일 수 있다.
다음으로, 오브젝트 검출 장치를 통해 차량 탑승자를 스캔하여 이미지 데이터를 획득하는 방법에 대해 보다 구체적으로 살펴본다.
먼저, 차량은 상기 차량의 외부에 설치된 오브젝트 검출 장치(예: 1개의 스테레오 카메라 또는 같은 방향을 향하는 2대의 카메라)를 사용하여 차량과 차량 탑승자와의 거리에 대한 거리 정보, 차량 탑승자의 신체 크기에 대한 신체 크기 정보 및 차량 탑승자의 전체적인 이미지를 나타내는 이미지 정보를 포함하는 이미지 데이터를 획득한다.
보다 구체적으로, 상기 오브젝트 검출 장치는 (1) 같은 방향(또는 같은 지점)을 향하는 2대의 카메라(예: 양 사이드에 구비된 카메라), (2) 1대의 스테레오 카메라 또는 (3) 후방감지센서(초음파, 레이더, 라이다 등) 및 후방 카메라 등일 수 있다.
이후, 상기 차량은 상기 획득된 이미지 데이터를 입력으로 사람의 이미지를 스켈레톤화해주는 딥러닝 알고리즘을 이용하여 탑승석의 시트, 휠, 핸들, 백미러, 사이드미러, 디스플레이 장치, 뒷좌석의 안마 의자와 같은 각종 편의 조절 장치, 에어백 및 안전벨트와 같은 각종 안전장치 등 차량 탑승자에 따라 최적화된 셋팅을 위해 요구되는 신체 구조 정보를 추출한다 (도 5 참고). 도 5는 스켈레톤화해주는 딥러닝 알고리즘을 통해 사람의 신체 구조를 스켈레톤화한 일례를 나타내며, 신체 구조의 각 위치 및 각 크기에 대한 정보를 나타내고 있다.
상기 신체 구조 정보는 신체 구조의 위치에 대한 정보 즉, 눈, 팔꿈치, 무릎, 허리, 팔, 다리, 상체, 목 등의 위치 정보를 포함할 수 있다. 또한, 상기 차량은 상기 획득된 차량과 차량 탑승자와의 거리 정보를 사용하여 차량 탑승자 신체의 크기에 대한 크기 정보를 추출할 수 있다. 또한, 상기 차량은 차량 탑승자의 신체 구조의 특이사항에 대한 특이 정보 즉, 차량 탑승자의 임신 여부, 차량 탑승자의 장애 여부 등에 장애 정보를 추출할 수 있다.
이후, 상기 차량은 상기 추출된 신체 구조와 관련된 정보에 기초하여 상기 차량 탑승자가 탑승하는 좌석, 관련된 실내 공간 또는 실내 공간에 설치된 편의 장치 등을 최적화하도록 설정할 수 있다.
다음으로, 차량 탑승자가 탑승하는 차량의 위치 즉, 차량 탑승자가 운전석, 조수석 또는 뒷좌석 중 어느 탑승석으로 탑승하는지를 구분하는 방법에 대해 구체적으로 살펴보기로 한다.
후술할 단계는 오브젝트 검출 장치에 의해 신체 구조 정보가 획득되어 차량 탑승자에 대한 이미지 스캔이 끝났음을 알리는 신호가 출력된 이후에 수행될 수 있다.
상기 스캔이 끝났음을 알리는 신호는 시각적 신호, 청각적 신호, 촉각적 신호 또는 후각적 신호일 수 있으며, 청각적 신호의 일례로는, '삐삐'와 같은 소리일 수 있으며, 시각적 신호의 일례로는, '라이트' 일 수 있다.
또한, 차량 탑승자가 어느 위치의 차량 도어를 열고 탑승했는지를 구분하기 위해, 차량은 각 도어에 센싱부 특히, 진동 센서를 구비하고 있어, 각 도 어에서 발생되는 '노크' 등과 같은 소리를 감지할 수 있다.
다음의 방법들(방법 1 내지 방법 3)을 통해, 차량은 차량 탑승자가 어느 쪽의 도어를 이용하여 탑승하는지를 구분할 수 있다.
방법 1
방법 1의 경우, 차량은 특정 도어에서 차량 탑승자에 의해 노크하는 소리를 감지하거나, 또는 특정 도어의 문이 열리는 것을 감지하는 경우, 상기 차량은 차량 탑승자가 어느 쪽의 탑승석을 통해 탑승을 하는지 알 수 있다. 이후, 상기 차량은 오브젝트 검출 장치를 통해 차량 탑승자에 대한 이미지 데이터를 획득하고, 상기 이미지 데이터로부터 신체 구조에 대한 신체 구조 정보를 추출한다. 이후, 상기 차량은 상기 신체 구조 정보에 기초하여 차량 탑승자의 탑승 예정인 좌석을 조절한다.
즉, 방법 1은 차량 탑승자가 차량에 탑승하기 전에 미리 탑승하는 좌석이 어딘지 알 수 있다는 장점은 있으나, 차량 탑승자의 신체 구조 정보를 추가로 획득하기 위해 차량 탑승자가 차량 밖에서 일정 시간 기다려야 하는 불편함이 있을 수 있다.
방법 2
방법 2는 방법 1과 달리, 차량은 오브젝트 검출 장치를 사용하여 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 먼저 획득한다. 그리고, 상기 차량은 상기 차량 탑승자에 대한 스캔이 끝남음을 알리는 신호를 감지 또는 수신한 이후, 상기 차량의 특정 도어에서 센싱부를 통해 도어를 노크하는 것을 감지하거나 또는 상기 차량의 특정 도어가 열렸음을 감지한 경우, 상기 차량은 상기 신체 구조 정보에 기초하여 상기 감지된 도어에 해당하는 좌석을 조절하거나 또는, 실내 공간 또는 실내 공간에 구비되는 편의 장치를 자동으로 조절한다.
즉, 방법 2는 방법 1과 달리 차량 탑승자가 차량 탑승 전 일정 시간 밖에서 기다려야하는 불편함이 없다.
방법 3
방법 3의 경우, 공유 자동차 서비스의 경우, 차량 탑승자는 스마트폰을 이용하여 차량의 문을 열고/닫는 것에 착안하여, 특정 좌석, 또는 실내 공간의 편의 장치를 스마트폰을 통해 자동으로 조절하기 위해, 차량 탑승자는 상기 차량과 연결된 스마트폰을 통해 탑승석을 미리 지정할 수 있다. 이 경우, 차량은 차량 탑승자의 신체 구조 정보를 획득한 이후, 바로 상기 스마트폰에 의해 지정된 탑승석을 상기 획득된 신체 구조 정보에 기초하여 조절한다.
방법 4
방법 4는 차량 탑승자의 신체 구조를 스캔할 수 있는 카메라와 같은 오브젝트 검출 장치가 각 도어 별로 구비되어 있거나 또는 도어 별로 구분할 수 있는 경우 즉, 상기 오브젝트 검출 장치가 하나의 개별 제품으로 탑승석 별로 하나씩 매칭되어 있는 경우, 방법 2와 같이 센싱부 즉, 진동 센서를 이용하지 않고도, 차량 탑승자가 어느 도어로 탑승하는지를 알 수 있어 차량 탑승자의 탑승석을 조절하는 방법에 관한 것이다.
마지막으로, 차량이 오브젝트 검출 장치를 통해 차량 탑승자의 이미지를 스캔한 후, 탑승석을 자동으로 조절하기 위해 이미지 데이터에서 어떤 정보를 활용하는지에 대해 보다 구체적으로 살펴보기로 한다.
차량은 오브젝트 검출 장치를 사용하여 차량 탑승자의 이미지, 차량과 차량 탑승자의 거리에 대한 거리 정보 또는 신체 구조의 특이 사항에 대한 특이 정보 중 적어도 하나를 포함하는 이미지 데이터를 획득한다.
그리고, 상기 차량은 상기 획득된 이미지 데이터를 스켈레톤화하는 딥러닝 알고리즘을 이용하여 차량 탑승자의 신체 구조 정보를 추출한다.
상기 신체 구조 정보는 신체 구조 중에서 탑승석의 조절과 관련된 주요 부위 즉, 눈, 팔꿈치, 무릎, 허리, 팔, 다리, 상체, 목 등의 위치 정보 등일 수 있다.
그리고, 상기 차량은 상기 차량과 차량 탑승자 간의 거리 정보를 사용하여 신체 구조의 크기에 대한 크기 정보 및 상기 차량 탑승자의 임신 여부, 장애 여부 등과 같은 특이 사항에 대한 특이 정보를 추출한다.
다음으로, 고급 차량 서비스와 같이 차량 탑승자가 일반적으로 차량의 뒷자석을 이용하는 경우, 차량의 뒷좌석을 포함하는 실내 공간 또는 실내 공간의 편의 장치를 제어하는 방법에 대해 구체적으로 살펴본다.
방법 1
방법 1은 차량 탑승자의 편안함을 고려한 방법으로, 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 획득하여 상기 차량 탑승자에 맞도록 탑승석 시트의 위치 또는 탑승석 앞에 구비되는 디스플레이 장치 위치의 각도를 조절하는 방법이다.
방법 2
방법 2는 차량 탑승자의 안전을 고려한 방법으로, 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 획득하여 상기 차량 탑승자에 맞도록 탑승석의 안전 벨트 및 에어백의 위치를 조절하는 방법이다. 특히, 차량 탑승자가 유아 또는 어린이인 경우, 상기 차량은 차량 탑승자를 위한 안전 벨트의 시작점을 보통의 경우 즉, 차량 탑승자가 어른일 때보다 아래에 있도록 제어할 수 있다.
또한, 상기 차량 탑승자가 유아 또는 어린이인 경우, (차량 충돌 시) 에어백으로 인해 2차 충격이 발생될 수 있기 때문에, 상기 차량은 차량 탑승자가 유아 또는 어린이임을 감지한 경우, 상기 에어백이 동작되지 않도록 하거나 또는 상기 차량 탑승자인 유아 또는 어린이의 피해가 최소화되도록 에어백의 동작을 제어할 수 있다.
위의 방법 1 및 방법 2 외에도, (1) 차량 탑승자의 편안함을 고려하여, 각종 인포테인먼트(정보와 오락을 전달하는 앞좌석의 뒷면에 달린 테블릿)를 위한 디스플레이 위치의 각도를 조절하거나 또는 (2) 차량 탑승자의 편안함을 고려하여, 차량의 뒷자석에 설치되는 안마 기능을 갖는 안마 장치를 조절할 수 있다.
도 6은 본 명세서에서 제안하는 차량의 실내 장치를 조절하기 위한 방법의 일례를 나타낸 순서도이다.
먼저, 차량은 상기 차량의 외부에 설치된 오브젝트 검출 장치를 통해 상기 차량과 소정 거리 내에 위치한 차량 탑승자의 이미지 데이터를 획득한다(S610).
상기 오브젝트 검출 장치는 1개의 스테레오 카메라 또는 2개의 카메라를 포함하여 구성될 수 있다.
또는, 상기 오브젝트 검출 장치는 1개의 초음파센서와 1개의 카메라로 구성될 수 있다.
상기 이미지 데이터는 상기 차량과 상기 차량 탑승자 사이의 거리를 나타내는 거리 정보를 포함할 수 있다.
다음으로, 상기 차량은 스켈레톤(skeleton)화 관련 딥러닝(deep learning) 알고리즘을 이용하여 상기 이미지 데이터로부터 상기 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 추출한다(S620).
여기서, 상기 신체 구조 정보는 상기 차량 탑승자의 신체 구조 중에서 상기 실내 장치의 조절과 관련된 신체 부위 각각의 위치에 대한 신체 부위 위치 정보, 상기 신체 부위 각각의 크기에 대한 신체 부위 크기 정보 또는 상기 차량 탑승자의 신체 구조 중에서 특이 사항을 가지는 신체 부위의 특이 사항 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 실내 장치의 조절과 관련된 각 신체 부위는 눈, 팔꿈치, 무릎, 허리, 팔, 다리, 상체, 목 등일 수 있다.
여기서, 상기 특이 사항 정보는 상기 차량 탑승자의 임신 여부 또는 장애 여부 등일 수 있다.
여기서, 각 신체 부위의 크기는 상기 이미지 데이터에 포함되는 거리 정보에 기초하여 산출될 수 있다.
다음으로, 상기 차량의 특정 도어(door)가 열림을 감지한 경우, 상기 차량은 상기 추출된 신체 구조 정보에 기초하여 상기 특정 도어에 대응하는 탑승석 관련 실내 장치를 조절한다(S630).
상기 실내 장치는 상기 특정 도어에 대응하는 탑승석의 시트, 운전대, 백미러, 사이드미러, 상기 차량 뒷자석에 배치되는 디스플레이 장치, 안마 장치, 에어백 또는 안전벨트 중 적어도 하나를 포함할 수 있다.
여기서, 상기 에어백 또는 상기 안전벨트는 상기 차량 탑승자가 유아 또는 어린이인 경우 조절될 수 있다.
보다 구체적으로, 상기 차량의 센싱 장치에 의해 상기 특정 도어의 열림이 감지된 경우, 상기 차량은 상기 추출된 신체 구조 정보에 기초하여 상기 실내 장치를 조절하도록 제어할 수 있다.
추가적으로, 상기 차량은 상기 이미지 데이터의 획득이 끝났음을 알리는 알림 신호를 시각적, 청각적, 후각적 또는 촉각적 형태로 출력할 수 있다. 여기서, 도 1에 도시된 바와 같이 상기 알림 신호를 출력하기 위해 상기 차량은 출력부를 더 포함할 수 있다.
즉, 출력부는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부, 음향 출력 모듈, 알람부 및 햅틱 모듈 등이 포함될 수 있다.
디스플레이부는 상기 차량에서 처리되는 정보를 표시(출력)한다. 디스플레이부는 액정 디스플레이(LCD: liquid crystal display), 박막 트랜지스터 액정 디스플레이(TFT LCD: thin film transistor-liquid crystal display), 유기 발광 다이오드(OLED: organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부의 후방 구조 또한 광 투과형 구조로 구성될 수 있다.
이상에서 설명된 실시 예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성하는 것도 가능하다. 본 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 발명에 따른 실시 예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 통상의 기술자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
10: 차량 100: 사용자 인터페이스 장치
110: 오브젝트 검출 장치 120: 통신 장치
130: 운전 조작 장치 140: 메인 ECU
150: 차량 구동 장치 160: 센싱부
170: 위치 데이터 생성 장치 180: AI 장치
190: 출력부

Claims (10)

  1. 실내 장치를 조절하기 위한 차량에 있어서,
    상기 차량의 외부에 설치되며, 상기 차량과 소정 거리 내에 위치한 차량에 탑승할 차량 탑승자의 이미지 데이터를 획득하기 위한 오브젝트 검출 장치,
    상기 오브젝트 검출 장치는 상기 차량의 양 사이드에 각각 부착되고, 동일한 방향을 향하는 2개의 카메라들로 구성되며,
    상기 이미지 데이터는 상기 차량과 상기 차량 탑승자 사이의 거리를 나타내는 거리 정보를 포함하며;
    스켈레톤(skeleton)화 관련 딥러닝(deep learning) 알고리즘을 이용하여 상기 이미지 데이터로부터 상기 차량의 편의 조절 장치 및 안전 장치를 상기 차량 탑승자에 맞도록 설정하기 위해 상기 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 추출하는 AI 장치,
    상기 편의 조절 장치는 차량의 시트, 핸들, 사이드미러, 백미러, 안마 장치 또는 디스플레이 장치 중 적어도 하나를 포함하며,
    상기 안전 장치는 에어백 및 안전벨트를 포함하며,
    상기 신체 구조 정보는 상기 차량 탑승자의 신체 구조 중에서 상기 실내 장치의 조절과 관련된 신체 부위 각각의 위치에 대한 신체 부위 위치 정보 및 상기 신체 부위 각각의 크기에 대한 신체 부위 크기 정보를 포함하며;
    상기 차량의 특정 도어(door)의 개폐 여부를 감지하는 센싱 장치; 및
    상기 특정 도어의 열림이 감지된 경우, 상기 추출된 신체 구조 정보에 기초하여 상기 특정 도어 쪽의 탑승석과 연관된 실내 장치를 조절하는 제어 장치를 포함하는 것을 특징으로 하는 차량.
  2. 삭제
  3. 제1 항에 있어서,
    상기 신체 부위 각각의 크기는 상기 이미지 데이터에 포함되는 거리 정보에 기초하여 산출되는 것을 특징으로 하는 차량.
  4. 삭제
  5. 제1 항에 있어서,
    상기 실내 장치의 조절과 관련된 각 신체 부위는 눈, 팔꿈치, 무릎, 허리, 팔, 다리, 상체 또는 목인 것을 특징으로 하는 차량.
  6. 제1 항에 있어서,
    출력부를 더 포함하고,
    상기 제어 장치는 상기 이미지 데이터의 획득이 끝났음을 알리는 알림 신호를 시각적, 청각적, 후각적 또는 촉각적 형태로 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 차량.
  7. 삭제
  8. 삭제
  9. 제1 항에 있어서, 상기 제어 장치는,
    상기 차량 탑승자가 유아 또는 어린이인 경우, 상기 에어백 및 상기 안전벨트를 조절하는 것을 특징으로 하는 차량.
  10. 차량의 실내 장치를 조절하기 위한 방법에 있어서,
    상기 차량의 외부에 설치된 오브젝트 검출 장치를 통해 상기 차량과 소정 거리 내에 위치한 차량에 탑승할 차량 탑승자의 이미지 데이터를 획득하는 단계,
    상기 오브젝트 검출 장치는 상기 차량의 양 사이드에 각각 부착되고, 동일한 방향을 향하는 2개의 카메라들로 구성되며,
    상기 이미지 데이터는 상기 차량과 상기 차량 탑승자 사이의 거리를 나타내는 거리 정보를 포함하며;
    스켈레톤(skeleton)화 관련 딥러닝(deep learning) 알고리즘을 이용하여 상기 이미지 데이터로부터 상기 차량의 편의 조절 장치 및 안전 장치를 상기 차량 탑승자에 맞도록 설정하기 위해 상기 차량 탑승자의 신체 구조에 대한 신체 구조 정보를 추출하는 단계,
    상기 편의 조절 장치는 차량의 시트, 핸들, 사이드미러, 백미러, 안마 장치 또는 디스플레이 장치 중 적어도 하나를 포함하며,
    상기 안전 장치는 에어백 및 안전벨트를 포함하며,
    상기 신체 구조 정보는 상기 차량 탑승자의 신체 구조 중에서 상기 실내 장치의 조절과 관련된 신체 부위 각각의 위치에 대한 신체 부위 위치 정보 및 상기 신체 부위 각각의 크기에 대한 신체 부위 크기 정보를 포함하며; 및
    상기 차량의 특정 도어(door)가 열림을 감지한 경우, 상기 추출된 신체 구조 정보에 기초하여 상기 특정 도어 쪽의 탑승석과 연관된 실내 장치를 조절하는 단계를 포함하는 것을 특징으로 하는 방법.
KR1020200176052A 2020-12-16 2020-12-16 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치 KR102232646B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200176052A KR102232646B1 (ko) 2020-12-16 2020-12-16 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200176052A KR102232646B1 (ko) 2020-12-16 2020-12-16 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치

Publications (1)

Publication Number Publication Date
KR102232646B1 true KR102232646B1 (ko) 2021-03-30

Family

ID=75264883

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200176052A KR102232646B1 (ko) 2020-12-16 2020-12-16 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치

Country Status (1)

Country Link
KR (1) KR102232646B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038428A1 (ko) * 2021-09-09 2023-03-16 엘지전자 주식회사 디스플레이 장치, 이를 구비한 차량 및 그 차량의 제어방법
KR102625590B1 (ko) * 2023-01-31 2024-01-16 주식회사 에스엠알오토모티브모듈코리아 차량 공유 플랫폼의 사용자에게 최적화된 운전 환경을 설정하는 방법 및 이를 수행하는 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190075988A (ko) * 2016-10-26 2019-07-01 오캠 테크놀로지스 리미티드 이미지를 분석하고 피드백을 제공하는 웨어러블 기기 및 방법
KR20190090367A (ko) * 2019-07-11 2019-08-01 엘지전자 주식회사 차량 탑승자 상태 감지방법 및 차량 탑승자 상태 감지장치
KR20190095908A (ko) * 2018-11-21 2019-08-16 엘지전자 주식회사 탑승자 모니터링 방법 및 이를 위한 장치
KR102083385B1 (ko) * 2018-08-28 2020-03-02 여의(주) 영상 추출 데이터의 동작 인지에 기초하는 위험 상황 판단 방법
JP2020123352A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. 人の状態認識を基盤として身体部位の長さ及び顔情報を使用して乗客の身長及び体重を予測する方法及び装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190075988A (ko) * 2016-10-26 2019-07-01 오캠 테크놀로지스 리미티드 이미지를 분석하고 피드백을 제공하는 웨어러블 기기 및 방법
KR102083385B1 (ko) * 2018-08-28 2020-03-02 여의(주) 영상 추출 데이터의 동작 인지에 기초하는 위험 상황 판단 방법
KR20190095908A (ko) * 2018-11-21 2019-08-16 엘지전자 주식회사 탑승자 모니터링 방법 및 이를 위한 장치
JP2020123352A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. 人の状態認識を基盤として身体部位の長さ及び顔情報を使用して乗客の身長及び体重を予測する方法及び装置
KR20190090367A (ko) * 2019-07-11 2019-08-01 엘지전자 주식회사 차량 탑승자 상태 감지방법 및 차량 탑승자 상태 감지장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038428A1 (ko) * 2021-09-09 2023-03-16 엘지전자 주식회사 디스플레이 장치, 이를 구비한 차량 및 그 차량의 제어방법
KR102625590B1 (ko) * 2023-01-31 2024-01-16 주식회사 에스엠알오토모티브모듈코리아 차량 공유 플랫폼의 사용자에게 최적화된 운전 환경을 설정하는 방법 및 이를 수행하는 전자 장치

Similar Documents

Publication Publication Date Title
US20230023870A1 (en) Neural network applications in resource constrained environments
WO2020010822A1 (en) Adaptive driver monitoring for advanced driver-assistance systems
JP6922739B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6773040B2 (ja) 情報処理システム、および情報処理システムの情報処理方法、情報処理装置、並びにプログラム
US11599786B2 (en) Neural network applications in resource constrained environments
US10576994B1 (en) Autonomous system operator cognitive state detection and alerting
KR102267331B1 (ko) 자율 주행 차량과 이를 이용한 보행자 안내 시스템 및 방법
US20210124962A1 (en) Artificial intelligence apparatus and method for determining inattention of driver
KR20190106845A (ko) 자율 주행 차량의 탑승자 인식 및 승하차 지원 장치 및 방법
JP2018105774A (ja) 自動運転システム
US11237241B2 (en) Microphone array for sound source detection and location
KR102232646B1 (ko) 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치
US11449065B2 (en) System and method for controlling an autonomous carriage based on user intentions
US11790669B2 (en) Systems and methods for performing operations in a vehicle using gaze detection
KR101850857B1 (ko) 디스플레이 장치 및 이를 포함하는 차량
US20230322173A1 (en) Method for automatically controlling vehicle interior devices including driver`s seat and apparatus therefor
CN112654548B (zh) 一种自适应优化自动驾驶系统的方法及装置
WO2020203240A1 (ja) 情報処理装置および情報処理方法
KR102568283B1 (ko) 자율주행 차량의 보행자 커뮤니케이션 시스템
US20240161513A1 (en) Electronic Device and method for Vehicle which Enhances Parking Related Function Based on Artificial Intelligence
US20240075960A1 (en) Device and method for notifying vehicle arrival to respond to transportation vulnerable
KR102192146B1 (ko) 차량 제어장치 및 차량 제어방법
KR20230033154A (ko) 자율주행 차량의 보행자 광고 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant