KR20190050227A - 운전자 자세 제어 장치 및 방법 - Google Patents

운전자 자세 제어 장치 및 방법 Download PDF

Info

Publication number
KR20190050227A
KR20190050227A KR1020170145550A KR20170145550A KR20190050227A KR 20190050227 A KR20190050227 A KR 20190050227A KR 1020170145550 A KR1020170145550 A KR 1020170145550A KR 20170145550 A KR20170145550 A KR 20170145550A KR 20190050227 A KR20190050227 A KR 20190050227A
Authority
KR
South Korea
Prior art keywords
driver
controller
seat
camera
face
Prior art date
Application number
KR1020170145550A
Other languages
English (en)
Inventor
김주혁
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170145550A priority Critical patent/KR20190050227A/ko
Publication of KR20190050227A publication Critical patent/KR20190050227A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/16Steering columns
    • B62D1/18Steering columns yieldable or adjustable, e.g. tiltable
    • G06K9/00832
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 운전자 자세 제어 장치 및 방법에 관한 것으로, 운전자 자세 제어 장치는 입체 영상을 표시하는 디스플레이, 상기 디스플레이를 응시하는 운전자의 영상을 획득하는 카메라, 입체 클러스터의 설정 메뉴로 진입하면 상기 카메라를 통해 획득한 영상을 이용하여 상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하는지를 확인하고 확인된 아이박스의 위치에 근거하여 시트의 위치를 제어하는 제어기, 및 상기 제어기의 제어에 따라 상기 시트의 위치를 조정하는 시트 제어기를 포함한다.

Description

운전자 자세 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING POSTURE OF DRIVER}
본 발명은 입체 클러스터에서 운전자에게 최적의 입체 UX(User Experience)를 제공하기 위해 스티어링 휠 및 시트의 위치를 자동으로 제어하는 운전자 자세 제어 장치 및 방법에 관한 것이다.
3D(three dimension) 안경을 착용하지 않아도 입체 영상을 볼 수 있는 무안경 3D 기술이 주목을 받고 있다. 무안경 3D 디스플레이 중 대표적인 것이 패럴랙스 배리어(parallax barrier) 방식이다. 패럴랙스 배리어 방식은 화면 앞에 무수한 구멍이 뚫린 차단막을 배치하는 방식이다. 차단막의 각 구멍은 뒤에 있는 화소가 엇갈리게 보이도록 배치되어 있어 안경을 쓰지 않고도 양쪽 눈에 각각 다른 영상이 도달하게 되므로 입체감을 느낄 수 있다.
이러한 무안경 3D 기술을 적용한 입체 클러스터가 차량에 적용되고 있다. 입체 클러스터의 3D 디스플레이는 입체감의 최적 시인 거리가 있으며 이는 하드웨어의 고정 수치로 완제품 상에서 변경할 수 없다. 입체 시인 오차 범위는 최적 시인 거리 기준으로 약 ±100mm 이다. 따라서, 운전자의 눈과 3D 디스플레이 간의 거리가 입체 시인 오차 범위를 벗어나면 디스플레이의 배리어가 정확히 좌안과 우안을 가르지 못하고, 좌안 영상을 두 눈이 같이 보거나 좌안과 우안 영상을 반대로 보게 되어 이중상으로 보이거나 상이 틀어져 보이는 크로스토크(crosstalk)가 발생하게 한다.
입체 클러스터는 시야각이 좁아 사용자(운전자)의 시선이 조금만 움직여도 시야각을 벗어나게 된다. 이러한 입체 클러스터의 시야각 문제를 해결하기 위해 종래에는 카메라를 이용하여 운전자의 시선 또는 얼굴을 인식하여 해당 운전자의 시선 또는 얼굴에 초점을 맞춰 운전자의 시선 또는 얼굴의 움직임을 추적하고, 추적한 운전자의 시선 또는 얼굴의 움직임에 따라 3D 패널의 배리어를 제어한다.
그러나, 카메라를 통한 사용자의 시선 또는 얼굴을 인식하는 경우, 얼굴 인식이 가장 잘되는 범위가 존재하는데 해당 범위를 벗어나면 오인식으로 운전자에게 최적의 입체감을 제공할 수 없다.
[문헌 1] KR 101745190 B1 [문헌 2] KR 1020130054032 A [문헌 3] JP 2017521970 A [문헌 4] JP 5197816 B2 [문헌 5] US 20150178985 A1
본 발명은 입체 클러스터에서 운전자에게 최적의 입체 UX(User Experience)를 제공하기 위해 카메라의 화각을 고려하여 스티어링 휠 및 시트의 위치를 자동으로 조정하는 운전자 자세 제어 장치 및 방법을 제공하고자 한다.
또한, 본 발명은 운전자에게 최적의 입체감을 제공하기 위해 운전자의 신체 특성에 맞추어 스티어링 휠 및 시트의 위치를 제어하는 운전자 자세 제어 장치 및 방법을 제공하고자 한다.
상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 운전자 자세 제어 장치는 입체 영상을 표시하는 디스플레이, 상기 디스플레이를 응시하는 운전자의 영상을 획득하는 카메라, 입체 클러스터의 설정 메뉴로 진입하면 상기 카메라를 통해 획득한 영상을 이용하여 상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하는지를 확인하고 확인된 아이박스의 위치에 근거하여 시트의 위치를 제어하는 제어기, 및 상기 제어기의 제어에 따라 상기 시트의 위치를 조정하는 시트 제어기를 포함하는 것을 특징으로 한다.
상기 운전자 자세 제어 장치는, 상기 제어기의 제어에 따라 스티어링 휠의 위치를 조정하는 스티어링 휠 제어기를 더 포함하는 것을 특징으로 한다.
상기 제어기는, 상기 설정 메뉴로 진입하면, 기저장된 설정 정보에 근거하여 상기 스티어링 휠 및 상기 시트의 위치를 조정하는 것을 특징으로 한다.
상기 제어기는, 상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하면 시선 인식 알고리즘 및 얼굴 인식 알고리즘 중 어느 하나를 이용하여 상기 카메라와 상기 아이박스 간의 거리를 파악하고, 상기 아이박스가 상기 카메라로부터 입체 최적 시인 거리만큼 이격되도록 시트의 앞뒤 위치를 조정하는 것을 특징으로 한다.
상기 제어기는, 상기 카메라의 인식 영역 내에서 상기 아이박스가 인식되지 않으면 상기 카메라를 통해 운전자 얼굴을 인식하고 인식된 운전자 얼굴에 따라 스티어링 휠의 위치를 제어하는 것을 특징으로 한다.
상기 제어기는, 상기 인식된 운전자 얼굴이 얼굴의 상단부로 확인되면 상기 스티어링 휠을 아래 방향으로 이동시키는 것을 특징으로 한다.
상기 제어기는, 상기 인식된 운전자 얼굴이 얼굴의 하단부로 확인되면 상기 스티어링 휠을 위 방향으로 이동시키는 것을 특징으로 한다.
상기 제어기는, 상기 카메라의 인식 영역 내 상기 아이박스가 위치하면, 운전자의 신체정보를 입력받고, 상기 신체정보에 근거하여 스티어링 휠 및 시트의 위치를 제어하는 것을 특징으로 한다.
상기 제어기는, 상기 신체정보가 기준 범위 내이면, 상기 신체정보에 근거하여 시트 위치를 조정하는 것을 특징으로 한다.
상기 제어기는, 상기 신체정보가 상기 기준 범위를 벗어나면, 입체 최적 시인 거리를 기준으로 시트 위치를 조정하는 것을 특징으로 한다.
상기 제어기는, 상기 시트 위치를 조정한 후 상기 운전자에 의해 시트의 높낮이가 조정되면 조정된 시트의 높낮이에 근거하여 상기 카메라의 인식 영역 내 상기 아이박스가 위치하도록 스티어링 휠의 위치를 조정하는 것을 특징으로 한다.
한편, 본 발명의 일 실시예에 따른 운전자 자세 제어 방법은 입체 클러스터의 설정 메뉴로 진입하는 단계, 상기 설정 메뉴로 진입 후 상기 입체 클러스터의 화면을 응시하는 운전자의 아이박스가 카메라의 인식 영역 내 위치하는지를 확인하는 단계, 및 상기 아이박스의 위치를 확인한 결과에 따라 시트의 위치를 조정하는 단계를 포함하는 것을 특징으로 한다.
상기 설정 메뉴로 진입하는 단계 이후, 기저장된 설정 정보에 근거하여 스티어링 휠 및 상기 시트의 위치를 조정하는 단계를 더 포함하는 것을 특징으로 한다.
상기 시트의 위치를 조정하는 단계는, 상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하면 시선 인식 알고리즘 및 얼굴 인식 알고리즘 중 어느 하나를 이용하여 상기 카메라와 상기 아이박스 간의 거리를 파악하고, 상기 아이박스가 상기 카메라로부터 입체 최적 시인 거리만큼 이격되도록 시트의 앞뒤 위치를 조정하는 것을 특징으로 한다.
상기 아이박스가 상기 인식 영역 내 위치하는지를 확인하는 단계에서, 상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하지 않는 경우, 상기 카메라에 의해 인식된 운전자 얼굴에 따라 스티어링 휠의 위치를 조정하는 단계를 더 포함하는 것을 특징으로 한다.
상기 스티어링 휠의 위치를 조정하는 단계는, 상기 카메라에 의해 인식된 운전자 얼굴이 얼굴의 상단부인지를 확인하는 단계, 및 상기 인식된 운전자 얼굴이 상기 얼굴의 상단부이면 상기 스티어링 휠을 아래 방향으로 이동시키는 단계를 포함하는 것을 특징으로 한다.
상기 스티어링 휠의 위치를 조정하는 단계는, 상기 인식된 운전자 얼굴이 상기 얼굴의 상단부가 아니면, 상기 인식된 운전자 얼굴이 얼굴의 하단부인지를 확인하는 단계, 및 상기 인식된 운전자 얼굴이 상기 얼굴의 하단부이면, 상기 스티어링 휠을 위 방향으로 이동시키는 단계를 포함하는 것을 특징으로 한다.
상기 시트 위치를 조정하는 단계는, 상기 운전자의 신체정보를 입력받는 단계, 및 상기 운전자의 신체정보가 기준 범위 내이면, 상기 운전자의 신체정보에 근거하여 시트의 위치를 조정하는 단계를 포함하는 것을 특징으로 한다.
상기 시트 위치를 조정하는 단계는, 상기 운전자의 신체정보가 상기 기준 범위를 벗어나면, 입체 최적 시인 거리를 기준으로 시트의 위치를 조정하는 단계를 더 포함하는 것을 특징으로 한다.
상기 운전자 자세 제어 방법은 상기 시트의 위치를 조정한 후 상기 운전자에 의해 시트의 높낮이가 조정되면 조정된 시트의 높낮이에 근거하여 상기 카메라의 인식 영역 내 상기 아이박스가 위치하도록 스티어링 휠의 위치를 조정하는 단계를 더 포함하는 것을 특징으로 한다.
본 발명은 카메라의 화각을 고려하여 스티어링 휠 및 시트의 위치를 제어하므로 운전자에게 최적의 입체 UX를 제공할 수 있다.
또한, 본 발명은 운전자의 신체 특성을 고려하여 스티어링 휠 및 시트의 위치를 제어하므로 운전자에게 최적의 입체감을 제공할 수 있다.
또한, 본 발명은 운전석에 착석한 운전자의 시야각을 고려하여 입체 영상의 결상 위치를 제어하고 그 결상 위치에 따라 시트 위치를 조정하므로, 운전자에게 입체 클러스터의 입체 영상에 대한 최적의 시인성을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 운전자 자세 제어 장치를 도시한 블록구성도.
도 2 및 도 3은 본 발명과 관련된 최적 시인 거리 및 운전자의 최적 인식 영역을 설명하기 위한 도면.
도 4는 본 발명의 일 실시예에 따른 운전자 자세 제어 방법을 도시한 흐름도.
도 5는 본 발명과 관련된 메뉴 선택 과정을 설명하기 위한 도면.
도 6은 본 발명과 관련된 카메라 최적 화각 설정을 설명하기 위한 도면.
도 7은 본 발명과 관련된 메뉴 설정 완료를 알리는 방법을 도시한 예시도.
도 8은 도 4에 도시된 운전자 자세 제어 방법에 따라 스티어링 휠 및 시트 조정을 설명하기 위한 예시도.
도 9는 본 발명의 다른 실시예에 따른 운전자 자세 제어 방법을 도시한 흐름도.
도 10은 본 발명과 관련된 운전자의 신체정보 입력을 도시한 예시도.
도 11 및 도 12는 본 발명과 관련된 운전자 신체정보에 따른 시트 위치 조정을 도시한 예시도.
도 13은 본 발명과 관련된 지시 메시지 출력 화면을 도시한 예시도.
도 14는 본 발명과 관련된 설정 완료 메시지 출력 화면을 도시한 예시도.
도 15는 도 9에 도시된 운전자 자세 제어 방법에 따른 스티어링 휠 및 시트의 위치 조정을 설명하기 위한 도면.
도 16은 본 발명과 관련된 입체 영상의 결상 위치 제어 방법을 도시한 흐름도.
도 17 및 도 18은 본 발명에 따른 입체 영상의 결상 위치 제어를 설명하기 위한 도면.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명은 입체 클러스터에서 운전자에게 최적의 입체 사용자 경험(User Experience, UX)를 제공하기 위해 스티어링 휠(steering wheel) 및 시트(seat)의 위치를 자동으로 조정하는 기술에 관한 것이다. 특히, 본 발명은 운전자의 시선 또는 얼굴 인식 카메라를 활용하여 최적의 입체감 시인영역 좌표를 확인하고 그 확인된 최적의 입체감 시인영역 좌표에 근거하여 스티어링 휠 및 시트의 위치를 자동으로 설정한다. 또한, 본 발명은 운전자의 신체 특성에 맞추어 운전을 편하게 할 수 있는 위치에서 최적 또는 최적에 근접한 입체감을 느끼도록 스티어링 휠 및 시트의 위치를 자동으로 설정한다.
도 1은 본 발명의 일 실시예에 따른 운전자 자세 제어 장치를 도시한 블록구성도를 도시하고, 도 2 및 도 3은 본 발명과 관련된 최적 시인 거리 및 운전자의 최적 인식 영역을 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 운전자 자세 제어 장치는 입체 클러스터(100), 스티어링 휠 제어기(200) 및 시트 제어기(300)를 포함한다.
입체 클러스터(100)는 카메라(110), 디스플레이(120), 그래픽 처리부(130), 통신모듈(140), 메모리(150) 및 제어기(160)를 포함한다.
카메라(110)는 차량 내 사용자(운전자)를 향하도록 설치되어 사용자의 얼굴 영상 또는 눈 영상을 획득한다. 카메라(110)를 통해 획득한 영상은 사용자의 시선 또는 얼굴을 인식하는데 사용된다. 카메라(110)는 적외선(Infra-Red, IR) 카메라, 스테레오 카메라 및 TOF(Time Of Flight) 카메라 중 적어도 하나 이상으로 구현될 수 있다.
카메라(110)는 CCD(charge coupled device) 영상센서(image sensor), CMOS(complementary metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.
디스플레이(120)는 타코 게이지(엔진회전계), 속도 게이지, 연료 게이지 및 냉각수 온도 등과 같은 각종 정보 및 운전자 자세 제어 장치의 동작에 따른 상태 및 결과 등을 표시한다. 이러한 디스플레이(120)는 표시 패널과 배리어 패널을 포함한다.
표시 패널은 3D 영상 또는 2D 영상을 표시한다. 여기서, 3D 영상은 좌안 영상과 우안 영상을 포함한다. 즉, 표시 패널은 좌안 영상과 우안 영상을 교번으로 배치하여 표시한다. 예를 들어, 표시 패널은 홀수(1, 3, 5, …) 번째 픽셀에 좌안 영상을 표시하고, 짝수(2, 4, 6, …) 번째 픽셀에 우안 영상을 표시한다.
표시 패널은 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED) 등과 같은 패널 중 어느 하나로 구현된다.
배리어 패널은 표시 패널의 전면에 오버레이(overlay) 되도록 배치되어 복수의 배리어 픽셀들로 구성된다. 예를 들어, 표시 패널의 해상도가 1920×720인 경우, 배리어 픽셀 개수는 표시 패널의 가로 해상도 1920의 절반인 960개 이다.
그래픽 처리부(130)는 디지털 신호를 영상 신호로 변환하여 디스플레이(120)로 전송한다. 그래픽 처리부(130)는 시스템 온 칩(System on Chip, SoC)로 구현될 수 있다.
그래픽 처리부(130)는 제어기(160)의 제어에 따라 디지털 영상 데이터를 아날로그 영상 신호로 변환하여 표시 패널로 출력한다. 또한, 그래픽 처리부(130)는 배리어 패널의 배리어 픽셀을 개별적으로 제어한다. 즉, 그래픽 처리부(130)는 배리어 픽셀을 온(on) 시켜 배리어(barrier)를 형성하고, 배리어 픽셀을 오프(off) 시켜 배리어를 해제한다. 여기서, 배리어는 양안에서 서로 다른 영상을 볼 수 있도록 한쪽 정보를 가려주는 차단막 역할을 한다.
그래픽 처리부(130)는 디스플레이(120)에 클러스터 GUI(Graphic User Interface)를 표시할 수 있다. 클러스터 GUI(예: 스포츠 모드 및 SCC 설정 차량 표시 등)는 운전자가 임의로 선택할 수 있다. 클러스터 GUI는 최적 입체 UX 설정이 완료된 후에도 운전자에 의해 자유롭게 변경될 수 있다.
통신모듈(140)은 차량 네트워크를 통해 차량 내 장착된 전자제어장치(electronic control unit, ECU)들 및 각종 센서들과의 데이터 통신을 수행한다. 제어기(160)는 통신모듈(140)을 통해 차량정보(차량속도, 연료잔량, 엔진 회전속도, 방향지시등 온/오프 등)를 수집한다.
차량 네트워크로는 CAN(Controller Area Network), MOST(Media Oriented Systems Transport) 네트워크, LIN(Local Interconnect Network) 또는 플렉스레이(Flexray) 중 어느 하나가 사용될 수 있다.
메모리(150)는 제어기(160)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 임시 저장할 수도 있다. 메모리(150)는 입체감 최적 시인 거리 설정값 및 시트와 스티어링 휠의 위치 정보를 저장할 수 있다.
메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory) 자기 메모리, 자기 디스크 및 광디스크 중 하나 이상의 타입의 저장매체를 포함할 수 있다.
제어기(160)는 차량 내 탑재된 전자제어장치(ECU)들 및 각종 센서들과의 통신을 통해 차량정보(예: 연료량 및 트렁크 온/오프 등) 및 주행정보(예: 차속 및 엔진 회전속도 등) 등의 각종 정보를 디스플레이(120)에 출력한다.
제어기(160)는 사용자 인터페이스(User Interface, UI)(미도시)를 통해 사용자 입력을 입력받는다. 사용자 인터페이스(미도시)는 버튼, 키, 키패드, 터치패드, 터치버튼 및 터치스크린 등의 입력수단 중 적어도 하나 이상으로 구현될 수 있다. 사용자는 UI(미도시)를 통해 입체 클러스터(100)의 설정을 위한 설정 메뉴 중 어느 하나의 메뉴 항목을 선택할 수 있다. 여기서, 설정 메뉴는 입체감 온(ON)/오프(OFF), 입체감 레벨 조정, 최적 입체 UX 자동 설정 및 운전자 맞춤형 입체 UX 설정을 포함할 수 있다.
#최적 입체 UX 자동 설정
제어기(160)는 설정 메뉴 중 '최적 입체 UX 자동 설정'이 선택되면, 로직에 따른 거리만큼 시트를 이동시킨다. 예컨대, 제어기(160)는 메모리(150)에 저장된 스티어링 휠의 위치 설정 정보 및/또는 시트의 위치 설정 정보(눕혀진 각도 등)에 근거하여 시트의 앞뒤 위치를 제외한 스티어링 휠의 상하좌우 및 전후 각도(tilt)와 시트의 높낮이 및 등받이 각도 등을 조정한다.
제어기(160)는 카메라(110)의 화각이 카메라 최적 화각인지를 확인한다. 이때, 제어기(160)는 운전자가 입체 클러스터(100)의 디스플레이 화면을 응시하도록 '화면을 자연스럽게 쳐다보세요'와 같은 메시지를 출력할 수 있다. 제어기(160)는 카메라(110)의 인식 영역(Field Of View, Z) 내 아이박스(eye box, E)가 위치하는지를 확인한다. 도 2를 참조하면, 카메라(110)의 인식 영역(Z)은 카메라(110)의 화각을 의미하고, 아이박스(E)는 운전자가 입체 영상을 시각적으로 인식할 수 있는 범위(운전자 시야각)로, 입체감 시인 영역을 의미한다.
디스플레이(120)의 배리어 제어를 위해서는 카메라(110)가 운전자의 머리 움직임을 감지하여 머리 위치(head position) 데이터를 획득할 수 있어야 한다. 운전자와 디스플레이(120) 간의 거리는 평균 750mm이고, 운전자의 좌석 조정에 따라 ±100mm가 변경될 수 있다. 주행 중 운전자의 머리 위치는 좌우로 최대 약 180mm 정도 움직이는 것으로 가정할 경우, 이를 검출하기 위해 카메라 사양과 시선 인식 알고리즘 또는 얼굴 인식 알고리즘 요구사항은 다음과 같다.
a. 카메라 FOV(Field of view): 수평 기준 ±20°이상
b. 알고리즘 FOV: 수평 기준 ±14°이상
c. 시인 거리: 750mm(target) ±100mm
카메라(110)의 화각 내에 운전자의 이마 중심부터 턱 아래 10mm까지가 들어와야 한다. 운전자의 머리 상하(수직 방향) 움직임은 디스플레이(120)의 배리어 제어에 영향을 주는 요소가 아니므로, 카메라 인식만 고려하면 된다. 단, 카메라 FOV가 수직 기준 ±15°이상(±195mm)이어야 한다.
제어기(160)는 카메라 인식 영역(Z) 내 아이박스(E)가 위치하지 않으면 스티어링 휠의 위치를 조정하여 카메라 최적 화각(카메라 인식 영역(Z) 내 아이박스(E) 위치)을 유지하게 한다. 다시 말해서, 제어기(160)는 운전자의 전체 얼굴(이마 중심부터 턱 아래 10mm까지)이 카메라(100)의 화각 내 들어오도록 스티어링 휠의 위치를 제어한다. 예컨대, 제어기(160)는 도 3에서와 같이 카메라(110)를 통해 인식한 운전자 얼굴이 얼굴의 상단부이면 스티어링 휠을 아래 방향으로 내리도록 스티어링 휠 제어기(200)에 지시한다. 한편, 제어기(160)는 카메라(110)를 통해 인식한 운전자 얼굴이 얼굴의 하단부이면 스티어링 휠을 위 방향으로 올리도록 스티어링 휠 제어기(200)를 제어한다. 이때, 얼굴 인식은 제어기(160) 또는 그래픽 처리기(130)에 이루어질 수 있다.
제어기(160)는 아이박스(E)가 입체감 최적 시인 거리에 위치할 수 있도록 시트의 위치를 제어한다. 제어기(160)는 시선 인식 알고리즘 또는 얼굴 인식 알고리즘을 이용하여 시인 거리(운전자 얼굴과 디스플레이 간의 거리)를 추정한다. 제어기(160)는 그 추정된 시인 거리에 근거하여 운전자 얼굴과 디스플레이(120) 간의 거리가 입체감 최적 시인 거리 만큼 이격되도록 시트를 전방 또는 후방(차량 기준)으로 이동시킨다.
입체감 최적 시인 거리는 개발자가 키, 목 길이 및 얼굴 크기 등과 같은 휴먼 팩터(human factor) 평균에 따라 설정한 입체 영상이 가장 잘 보이는 위치로, 고정값(예: 750mm)이다. 즉, 제어기(160)는 카메라(110)과 운전자의 눈(얼굴) 간의 거리(시인 거리, D)가 750mm가 되도록 시트 제어기(300)를 제어하여 시트를 앞뒤로 이동시킨다. 시인 거리(D)는 디스플레이(120)의 화면과 운전자의 얼굴 중점이 수직을 이루는 상태에서 운전자의 미간(얼굴 중점)과 디스플레이(120)의 화면 중심 간의 거리를 의미하기도 한다.
제어기(160)는 '최적 입체 UX 자동 설정'이 완료되면 이를 알리는 메시지 팝업을 일정 시간(예: 2초) 동안 디스플레이(120)에 출력한 후 사라지게 한다.
#운전자 맞춤형 입체 UX 자동 설정
제어기(160)는 입체 클러스터(100)의 설정 메뉴 중 '운전자 맞춤형 입체 UX 설정'이 선택되면, 카메라(100)의 화각이 최적 화각인지를 확인한다. 즉, 제어기(160)는 운전자의 전체 얼굴(이마 중심부터 턱 아래 10mm까지)이 카메라 화각 내 들어오는지를 확인한다.
제어기(160)는 카메라(110)의 인식 영역(Z) 내에 운전자의 아이박스(E)가 인식되지 않으면, 카메라(110)를 통해 인식된 운전자의 얼굴이 얼굴 상단부인지 얼굴 하단부인지를 판단한다. 제어기(160)는 인식된 운전자의 얼굴을 얼굴 상단부로 인식하면 스티어링 휠을 아래 방향으로 이동시키며 카메라(110)의 최적 화각이 되면 멈춘다. 한편, 제어기(160)는 인식된 운전자의 얼굴을 얼굴 하단부로 인식하면 카메라(110)의 최적 화각이 될 때까지 스티어링 휠을 위 방향으로 이동시킨다.
제어기(160)는 운전자의 신체정보(예: 신장)를 입력받는다. 제어기(160)는 입력받은 운전자의 신체정보에 근거하여 시트의 위치를 제어한다. 제어기(160)는 운전자의 신체정보가 기준 범위(145cm<신장<195cm) 이내인지를 확인한다. 제어기(160)는 운전자의 신체정보가 기준 범위 이내이면, 시선 또는 얼굴 인식 알고리즘을 이용하여 카메라(110)와 운전자의 아이박스(E) 간의 거리(시인 거리 D)를 파악한다. 제어기(160)는 시인 거리(D)가 입체감 최적 시인 거리(예: 750mm)가 되도록 시트의 앞뒤 위치를 제어한다.
한편, 제어기(160)는 운전자의 신체정보가 기준 범위를 벗어나면, 미리 설정된 정보에 따라 시트의 위치를 제어한다. 예를 들어, 제어기(160)는 운전자의 신장이 145cm 이하이면, 입체감 최적 시인 거리 기준으로 시트의 위치를 앞으로 100mm 이동시키고, 운전자의 신장이 195cm 이상이면, 입체감 최적 시인 거리 기준으로 시트의 위치를 뒤로 100mm 이동시킨다. 이와 같이, 제어기(160)는 운전자의 신체정보가 입체감 최적 시인 오차 범위(입체감 최적 시인 거리 기준으로 약 ±100mm) 내에서 수용할 수 없는 경우 입체감 최적 시인 거리에 최대한 근접하도록 시트 위치를 조정한다.
제어기(160)는 시트 위치를 제어한 후 운전자의 시트 높낮이 조정을 지시하는 메시지를 출력한다. 제어기(160)는 일정 시간 대기 후 운전자의 시트 높낮이 조정이 없으면 다음 단계를 수행한다.
제어기(160)는 시트의 높낮이 조정 후 카메라 최적 화각이 유지되는지를 확인한다. 제어기(160)는 시트의 높낮이 보정으로 카메라의 화각이 최적 화각을 벗어나면 스티어링 휠을 조정하여 카메라 최적 화각을 유지하게 한다.
제어기(160)는 메뉴 설정이 완료되면 이를 알리는 알림을 출력한다. 이때, 제어기(160)는 알림 메시지를 일정 시간 디스플레이 화면에 표시한 후 사라지게 한다. 또한, 제어기(160)는 알림 메시지를 음성신호로 출력할 수도 있다.
스티어링 휠 제어기(200)는 제어기(160)의 제어에 따라 스티어링 휠의 위치를 미세 조정한다. 즉, 스티어링 휠 제어기(200)는 제어기(160)의 제어에 따라 모터를 구동하여 스티어링 휠의 상하좌우 및/또는 전후 각도(tilt)을 조절한다.
시트 제어기(300)는 제어기(160)의 제어에 따라 시트의 높낮이, 앞뒤 위치 및 등받이 각도 등을 조정한다. 시트 제어기(300)는 제어기(160)의 제어에 따라 모터를 제어하여 시트의 위치를 조정할 수 있다.
스티어링 휠 제어기(200) 및 시트 제어기(300)를 운전자세 메모리 시스템(Integrated Memory System, IMS)이라 통칭한다.
도 4는 본 발명의 일 실시예에 따른 운전자 자세 제어 방법을 도시한 흐름도이고, 도 5는 본 발명과 관련된 메뉴 선택 과정을 설명하기 위한 도면이며, 도 6은 본 발명과 관련된 카메라 최적 화각 설정을 설명하기 위한 도면이고, 도 7은 본 발명과 관련된 메뉴 설정 완료를 알리는 방법을 도시한 예시도이며, 도 8은 도 4에 도시된 운전자 자세 제어 방법에 따라 스티어링 휠 및 시트 조정을 설명하기 위한 예시도이다.
도 4에 도시된 바와 같이, 제어기(160)는 사용자 입력에 따라 입체 클러스터(100)의 설정 메뉴를 선택한다(S110). 예를 들어, 제어기(160)는 도 5에 도시된 바와 같은 설정 메뉴 화면을 디스플레이(120)에 출력하고, 사용자의 조작에 따라 설정 메뉴 중 '최적 입체 UX 자동 설정'을 선택한다.
제어기(160)는 카메라(110)의 화각이 최적 화각을 유지하도록 스티어링 휠의 위치를 제어하며 시트 위치를 제어한다(S120). 즉, 제어기(160)는 메모리(150)에 저장된 스티어링 휠의 위치 설정 정보에 근거하여 스티어링 휠의 위치를 조정한다. 그리고, 제어기(160)는 메모리(150)에 저장된 시트의 위치 설정 정보(기설정된 시트 위치값)에 따라 시트의 위치를 조정할 수 있다. 이때, 제어기(160)는 도 6과 같이 운전자가 카메라(110)가 위치하는 방향을 바라보도록 '화면을 자연스럽게 쳐다보세요'와 같은 메시지를 디스플레이(120)에 표시한다. 제어기(160)는 메시지를 표시할 때 카메라(110)를 통해 획득한 영상을 함께 출력할 수도 있다.
제어기(160)는 스티어링 휠 및 시트의 위치를 조정한 후 카메라(110)의 시인 영역(Z) 내 운전자의 아이박스(E)가 인식되는지를 확인한다(S130).
제어기(160)는 카메라 인식 영역(Z) 내 아이박스(eye box)가 인식되면 카메라 인식 영역(카메라 최적 화각) 내 아이박스가 위치하도록 시트 위치를 조정한다(S140). 제어기(160)는 시선 인식 알고리즘 또는 얼굴 인식 알고리즘을 이용하여 카메라(110)과 아이박스(E) 간의 거리를 파악하여 시트의 앞뒤 위치를 보정한다.
한편, 제어기(160)는 카메라 인식 영역(Z) 내 아이박스가 인식되지 않으면, 카메라(110)에 의해 인식된 운전자 얼굴이 얼굴의 상단부인지를 확인한다(S150). 다시 말해서, 제어기(160)는 카메라 뷰 영역에 운전자의 얼굴 상단부가 포함되는지를 확인한다.
제어기(160)는 인식된 운전자 얼굴이 얼굴의 상단부로 인식하면 스티어링 휠을 아래 방향으로 이동시킨다(S160).
S150에서 인식된 운전자 얼굴이 얼굴의 상단부가 아니면, 제어기(160)는 인식된 운전자 얼굴이 얼굴의 하단부인지를 확인한다(S170).
제어기(160)는 인식된 운전자 얼굴이 얼굴의 하단부이면, 스티어링 휠을 위 방향으로 이동시킨다(S180).
이후, 제어기(160)는 카메라 최적 화각 내 아이박스(E)가 위치하도록 시트 위치를 제어한다(S140). 그리고, 제어기(160)는 메뉴 설정이 완료되면, 도 7에 도시된 바와 같이 이를 알리는 메시지 팝업을 디스플레이(120)에 출력한다. 제어기(160)는 메시지 팝업을 일정 시간(예: 2초) 동안 출력한 후 사라지게 한다. 또한, 제어기(160)는 메시지 팝업을 출력할 때 카메라(110)를 통해 획득한 영상 또는 특정 이미지(예: 아이콘 또는 아바타 등)를 함께 표시할 수 있다. 설정 완료를 알리는 메시지 팝업의 구성은 사용자에 의해 선택될 수 있다. 따라서, 제어기(160)는 사용자 설정에 따라 메시지 팝업만 출력하거나 또는 메시지 팝업과 카메라(110)에 의해 촬영된 영상을 출력하거나 메시지 팝업과 함께 특정 이미지를 출력할 수 있다.
본 실시예는 도 8에 도시된 바와 같이 카메라 (110)의 인식 범위(Field of View, FOV) 내 아이박스(E)가 위치하도록 스티어링 휠 및 시트의 위치를 조정하므로, 운전자에게 최적의 입체감을 제공할 수 있다.
도 9는 본 발명의 다른 실시예에 따른 운전자 자세 제어 방법을 도시한 흐름도이고, 도 10은 본 발명과 관련된 운전자의 신체정보 입력을 도시한 예시도이며, 도 11 및 도 12는 본 발명과 관련된 운전자 신체정보에 따른 시트 위치 조정을 도시한 예시도이고, 도 13은 본 발명과 관련된 지시 메시지 출력 화면을 도시한 예시도이며, 도 14는 본 발명과 관련된 설정 완료 메시지 출력 화면을 도시한 예시도이고, 도 15는 도 9에 도시된 운전자 자세 제어 방법에 따른 스티어링 휠 및 시트의 위치 조정을 설명하기 위한 도면이다.
제어기(160)는 사용자 입력에 따라 설정 메뉴 항목 중 어느 하나의 메뉴 항목을 선택한다(S210). 예를 들어, 제어기(160)는 사용자 입력에 따라 설정 메뉴 중 '운전자 맞춤형 입체 UX 설정'을 선택한다.
제어기(160)는 카메라 최적 화각이 유지되도록 스티어링 휠의 위치를 조정한다(S220). 제어기(160)는 메모리(150)에 저장된 스티어링 휠의 위치 설정 정보에 근거하여 스티어링 휠의 위치를 제어한다.
제어기(160)는 카메라(110)의 인식 영역에 운전자의 아이박스가 인식되는지를 확인한다(S230).
제어기(160)는 카메라(110)의 인식 영역에 운전자의 아이박스가 인식되면, 운전자의 신체정보를 입력받는다(S240). 여기서, 신체정보는 신장(키) 정보일 수 있다. 예를 들어, 도 10에 도시된 바와 같이, 제어기(160)는 신체정보 입력화면을 디스플레이(120)에 표시하고, 신체정보 입력화면 상의 숫자 버튼이 선택되면 숫자 버튼 GUI(Graphic User Interface)를 표시한다. 운전자는 숫자 버튼 GUI를 조작하여 자신의 신장정보 175.5cm를 입력할 수 있다. 이때, 운전자는 스티어링 휠의 버튼 또는 스크롤 스위치의 조작을 통해 신체정보를 입력할 수도 있다. 제어기(160)는 운전자가 신체정보 입력 후 입력 버튼을 선택하면 입력된 신체정보를 입력받는다.
제어기(160)는 운전자의 신체 정보가 기준 범위 내인지를 확인한다(S250).
제어기(160)는 운전자의 신체 정보가 기준 범위 내이면, 신체 정보에 근거하여 시트 위치를 조정한다(S260). 예를 들어, 기준 범위가 145cm 초과 195cm 미만인 경우, 입력된 신체정보가 175.5cm이면 제어기(160)는 입력된 신체정보에 근거하여 시트 위치를 제어한다.
제어기(160)는 S260에서 시트 위치를 조정한 후 운전자가 시트의 높낮이를 수동으로 조정할 수 있도록 도 13과 같이 '시트의 높낮이를 알맞게 조정하세요'를 메시지 팝업으로 출력한다. 제어기(160)는 운전자에 의해 시트의 높낮이가 조정되거나 조정되지 않거나 S270을 수행한다.
제어기(160)는 제어된 시트 위치에 근거하여 스티어링 휠의 위치를 조정한다(S270). 제어기(160)는 카메라(110)의 인식 영역(Z) 내 아이박스(E)가 위치하도록 스티어링 휠의 위치를 제어한다. 이때, 제어기(160)는 시트의 높낮이 조정이 있으면 조정된 시트의 높낮이를 고려하여 스티어링 휠의 위치를 조정할 수도 있다.
S250에서 제어기(160)는 운전자의 신체정보가 기준 범위를 벗어나면, 최적 시인 거리 기준으로 시트 위치를 조정한다(S280). 예를 들어, 신장의 기준 범위가 145cm 초과 195cm 미만인 경우, 제어기(160)는 운전자의 신장이 145cm 이하이면 도 11에 도시된 바와 같이 시트를 입체감 최적 시인 거리 기준 전방으로 100mm 이동시킨다. 한편, 제어기(160)는 운전자의 신장이 195cm 이상이면 도 12에 도시된 바와 같이 시트를 최적 시인 거리 기준 후방으로 100mm 이동시킨다.
S230에서 카메라(110)의 인식 영역(Z) 내 아이박스(E)가 인식되지 않으면, 카메라(110)에 의해 인식된 운전자 얼굴이 얼굴의 상단부인지를 확인한다(S290). 제어기(160)는 인식된 운전자 얼굴이 얼굴의 상단부이면 스티어링 휠을 하방으로 이동시킨다(S300).
제어기(160)는 카메라(110)에 의해 인식된 운전자 얼굴이 얼굴의 하단부이면(S310), 스티어링 휠을 상방으로 이동시킨다(S320).
이후, 제어기(160)는 '운전자 맞춤형 입체 UX 설정'이 완료되면 이를 알리는 메시지 팝업을 도 14와 같이 출력한다.
본 실시예에 따르면, 제어기(160)는 운전자의 신장에 따라 운전자의 아이박스 높이가 변경되므로 운전자가 운전석에 착석한 후 운전자의 신체 정보를 고려하여 스티어링 휠 및 시트의 위치를 최적화하므로, 운전자에게 최적화된 입체 UX를 제공할 수 있다.
도 16은 본 발명과 관련된 입체 영상의 결상 위치 제어 방법을 도시한 흐름도이고, 도 17 및 도 18은 본 발명에 따른 입체 영상의 결상 위치 제어를 설명하기 위한 도면이다.
제어기(160)는 사용자의 UI 조작에 따라 입체 클러스터(100)의 설정 메뉴를 선택한다(S410). 예컨대, 제어기(160)는 사용자 입력에 따라 '운전자 맞춤형 입체 UX 설정'을 선택한다.
제어기(160)는 카메라 화각 범위에 근거하여 스티어링 휠의 표준 위치로 스티어링 휠의 위치를 조정한다(S420).
제어기(160)는 카메라(110)의 인식 영역 내에서 운전자의 아이박스가 인식되는지를 확인한다(S430).
제어기(160)는 카메라(110)의 인식 영역 내에서 아이박스가 인식되면 입체 클러스터(100)의 입체 영상 위치 조정이 필요한지를 판단한다(S440).
제어기(160)는 입체 영상 위치 조정이 필요하면, 아이박스의 위치를 기준으로 최적의 입체 영상 결상 위치를 확인한다(S450).
제어기(160)는 최적의 입체 영상 결상 위치가 확인되면, 확인된 최적의 입체 영상 결상 위치에 따라 디스플레이(120)의 배리어를 제어한다(S460).
제어기(160)는 입체감 최적화가 완료되었는지를 확인한다(S470). 제어기(160)는 입체감 최적화가 완료되지 않은 경우 S450으로 돌아가 최적의 입체 영상 결상 위치를 확인한다.
제어기(160)는 입체감 최적화가 완료되면 입체 영상 결상 위치의 이동을 완료한다(S480).
본 실시예는 스티어링 휠 및 시트의 위치 조정이 완료된 후 도 17에 도시된 바와 같이 운전자의 아이박스(E)의 위치(높이 및 거리)에 근거하여 입체 영상의 결상 위치를 제어한다. 도 18에 도시된 바와 같이, 아이박스의 위치가 E0에서 E1으로 변경되면 입체 영상의 결상 위치를 I0에서 I1으로 이동시키고, 아이박스(E)의 위치가 E0에서 E2로 변경되면 입체 영상의 결상 위치를 I0에서 I2로 이동시킨다. 따라서, 제어기(160)는 운전자에게 최적의 입체감을 제공할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 입체 클러스터
110: 카메라
120: 디스플레이
130: 그래픽 처리기
140: 통신모듈
150: 메모리
160: 제어기
200: 스티어링 휠 제어기
300: 시트 제어기

Claims (20)

  1. 입체 영상을 표시하는 디스플레이,
    상기 디스플레이를 응시하는 운전자의 영상을 획득하는 카메라,
    입체 클러스터의 설정 메뉴로 진입하면 상기 카메라를 통해 획득한 영상을 이용하여 상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하는지를 확인하고 확인된 아이박스의 위치에 근거하여 시트의 위치를 제어하는 제어기, 및
    상기 제어기의 제어에 따라 상기 시트의 위치를 조정하는 시트 제어기를 포함하는 것을 특징으로 하는 운전자 자세 제어 장치.
  2. 제1항에 있어서,
    상기 운전자 자세 제어 장치는,
    상기 제어기의 제어에 따라 스티어링 휠의 위치를 조정하는 스티어링 휠 제어기를 더 포함하는 것을 특징으로 하는 운전자 자세 제어 장치.
  3. 제2항에 있어서,
    상기 제어기는,
    상기 설정 메뉴로 진입하면, 기저장된 설정 정보에 근거하여 상기 스티어링 휠 및 상기 시트의 위치를 조정하는 것을 특징으로 하는 운전자 자세 제어 장치.
  4. 제1항에 있어서,
    상기 제어기는,
    상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하면 시선 인식 알고리즘 및 얼굴 인식 알고리즘 중 어느 하나를 이용하여 상기 카메라와 상기 아이박스 간의 거리를 파악하고, 상기 아이박스가 상기 카메라로부터 입체 최적 시인 거리만큼 이격되도록 시트의 앞뒤 위치를 조정하는 것을 특징으로 하는 운전자 자세 제어 장치.
  5. 제1항에 있어서,
    상기 제어기는,
    상기 카메라의 인식 영역 내에서 상기 아이박스가 인식되지 않으면 상기 카메라를 통해 운전자 얼굴을 인식하고 인식된 운전자 얼굴에 따라 스티어링 휠의 위치를 제어하는 것을 특징으로 하는 운전자 자세 제어 장치.
  6. 제5항에 있어서,
    상기 제어기는,
    상기 인식된 운전자 얼굴이 얼굴의 상단부로 확인되면 상기 스티어링 휠을 아래 방향으로 이동시키는 것을 특징으로 하는 운전자 자세 제어 장치.
  7. 제5항에 있어서,
    상기 제어기는,
    상기 인식된 운전자 얼굴이 얼굴의 하단부로 확인되면 상기 스티어링 휠을 위 방향으로 이동시키는 것을 특징으로 하는 운전자 자세 제어 장치.
  8. 제1항에 있어서,
    상기 제어기는,
    상기 카메라의 인식 영역 내 상기 아이박스가 위치하면, 운전자의 신체정보를 입력받고, 상기 신체정보에 근거하여 스티어링 휠 및 시트의 위치를 제어하는 것을 특징으로 하는 운전자 자세 제어 장치.
  9. 제8항에 있어서,
    상기 제어기는,
    상기 신체정보가 기준 범위 내이면, 상기 신체정보에 근거하여 시트 위치를 조정하는 것을 특징으로 하는 운전자 자세 제어 장치.
  10. 제9항에 있어서,
    상기 제어기는,
    상기 신체정보가 상기 기준 범위를 벗어나면, 입체 최적 시인 거리를 기준으로 시트 위치를 조정하는 것을 특징으로 하는 운전자 자세 제어 장치.
  11. 제9항 또는 제10항에 있어서,
    상기 제어기는,
    상기 시트 위치를 조정한 후 상기 운전자에 의해 시트의 높낮이가 조정되면 조정된 시트의 높낮이에 근거하여 상기 카메라의 인식 영역 내 상기 아이박스가 위치하도록 스티어링 휠의 위치를 조정하는 것을 특징으로 하는 운전자 자세 제어 장치.
  12. 입체 클러스터의 설정 메뉴로 진입하는 단계,
    상기 설정 메뉴로 진입 후 상기 입체 클러스터의 화면을 응시하는 운전자의 아이박스가 카메라의 인식 영역 내 위치하는지를 확인하는 단계, 및
    상기 아이박스의 위치를 확인한 결과에 따라 시트의 위치를 조정하는 단계를 포함하는 것을 특징으로 하는 운전자 자세 제어 방법.
  13. 제12항에 있어서,
    상기 설정 메뉴로 진입하는 단계 이후,
    기저장된 설정 정보에 근거하여 스티어링 휠 및 상기 시트의 위치를 조정하는 단계를 더 포함하는 것을 특징으로 하는 운전자 자세 제어 방법.
  14. 제12항에 있어서,
    상기 시트의 위치를 조정하는 단계는,
    상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하면 시선 인식 알고리즘 및 얼굴 인식 알고리즘 중 어느 하나를 이용하여 상기 카메라와 상기 아이박스 간의 거리를 파악하고, 상기 아이박스가 상기 카메라로부터 입체 최적 시인 거리만큼 이격되도록 시트의 앞뒤 위치를 조정하는 것을 특징으로 하는 운전자 자세 제어 방법.
  15. 제12항에 있어서,
    상기 아이박스가 상기 인식 영역 내 위치하는지를 확인하는 단계에서,
    상기 카메라의 인식 영역 내 상기 운전자의 아이박스가 위치하지 않는 경우, 상기 카메라에 의해 인식된 운전자 얼굴에 따라 스티어링 휠의 위치를 조정하는 단계를 더 포함하는 것을 특징으로 하는 운전자 자세 제어 방법.
  16. 제15항에 있어서,
    상기 스티어링 휠의 위치를 조정하는 단계는,
    상기 카메라에 의해 인식된 운전자 얼굴이 얼굴의 상단부인지를 확인하는 단계, 및
    상기 인식된 운전자 얼굴이 상기 얼굴의 상단부이면 상기 스티어링 휠을 아래 방향으로 이동시키는 단계를 포함하는 것을 특징으로 하는 운전자 자세 제어 방법.
  17. 제16항에 있어서,
    상기 스티어링 휠의 위치를 조정하는 단계는,
    상기 인식된 운전자 얼굴이 상기 얼굴의 상단부가 아니면, 상기 인식된 운전자 얼굴이 얼굴의 하단부인지를 확인하는 단계, 및
    상기 인식된 운전자 얼굴이 상기 얼굴의 하단부이면, 상기 스티어링 휠을 위 방향으로 이동시키는 단계를 포함하는 것을 특징으로 하는 운전자 자세 제어 방법.
  18. 제12항에 있어서,
    상기 시트 위치를 조정하는 단계는,
    상기 운전자의 신체정보를 입력받는 단계, 및
    상기 운전자의 신체정보가 기준 범위 내이면, 상기 운전자의 신체정보에 근거하여 시트의 위치를 조정하는 단계를 포함하는 것을 특징으로 하는 운전자 자세 제어 방법.
  19. 제18항에 있어서,
    상기 시트 위치를 조정하는 단계는,
    상기 운전자의 신체정보가 상기 기준 범위를 벗어나면, 입체 최적 시인 거리를 기준으로 시트의 위치를 조정하는 단계를 더 포함하는 것을 특징으로 하는 운전자 자세 제어 방법.
  20. 제18항 또는 제19항에 있어서,
    상기 시트의 위치를 조정한 후 상기 운전자에 의해 시트의 높낮이가 조정되면 조정된 시트의 높낮이에 근거하여 상기 카메라의 인식 영역 내 상기 아이박스가 위치하도록 스티어링 휠의 위치를 조정하는 단계를 더 포함하는 것을 특징으로 하는 운전자 자세 제어 방법.
KR1020170145550A 2017-11-02 2017-11-02 운전자 자세 제어 장치 및 방법 KR20190050227A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170145550A KR20190050227A (ko) 2017-11-02 2017-11-02 운전자 자세 제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170145550A KR20190050227A (ko) 2017-11-02 2017-11-02 운전자 자세 제어 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20190050227A true KR20190050227A (ko) 2019-05-10

Family

ID=66580733

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170145550A KR20190050227A (ko) 2017-11-02 2017-11-02 운전자 자세 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20190050227A (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019004692B3 (de) * 2019-07-03 2020-11-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
KR102263872B1 (ko) 2020-04-29 2021-06-11 주식회사 옐로나이프 디자인 표시요소 분포를 이용한 클러스터 ui 디자인 추천 장치 및 방법
KR102288091B1 (ko) 2020-04-23 2021-08-10 주식회사 옐로나이프 운전자의 시점을 기초로한 클러스터 디자인 요소의 시인성 개선 장치 및 방법
KR20210136503A (ko) 2020-05-08 2021-11-17 주식회사 옐로나이프 다양한 클러스터 화면 형태에 적용 가능한 클러스터 디자인 관리 장치 및 방법
CN114248666A (zh) * 2021-11-26 2022-03-29 武汉路特斯汽车有限公司 基于人脸识别的座椅调整方法、装置、介质及设备
CN115384363A (zh) * 2022-09-23 2022-11-25 上海展酷信息科技有限公司 基于体态识别的汽车座椅智能调节系统
KR20230172635A (ko) 2022-06-15 2023-12-26 주식회사 옐로나이프 주행 데이터를 기반으로 한 운전자의 운전 특징 추정 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5197816B2 (ja) 2011-08-31 2013-05-15 株式会社東芝 電子機器、電子機器の制御方法
KR20130054032A (ko) 2011-11-16 2013-05-24 현대자동차주식회사 차량용 3d 디스플레이 시스템
US20150178985A1 (en) 2013-12-23 2015-06-25 Harman International Industries, Incorporated Virtual three-dimensional instrument cluster with three-dimensional navigation system
KR101745190B1 (ko) 2015-12-03 2017-06-08 현대자동차주식회사 입체감 설정 시스템 및 방법
JP2017521970A (ja) 2014-04-30 2017-08-03 ビステオン グローバル テクノロジーズ インコーポレイテッド 車両内の立体ディスプレイの位置合わせを較正するシステム及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5197816B2 (ja) 2011-08-31 2013-05-15 株式会社東芝 電子機器、電子機器の制御方法
KR20130054032A (ko) 2011-11-16 2013-05-24 현대자동차주식회사 차량용 3d 디스플레이 시스템
US20150178985A1 (en) 2013-12-23 2015-06-25 Harman International Industries, Incorporated Virtual three-dimensional instrument cluster with three-dimensional navigation system
JP2017521970A (ja) 2014-04-30 2017-08-03 ビステオン グローバル テクノロジーズ インコーポレイテッド 車両内の立体ディスプレイの位置合わせを較正するシステム及び方法
KR101745190B1 (ko) 2015-12-03 2017-06-08 현대자동차주식회사 입체감 설정 시스템 및 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019004692B3 (de) * 2019-07-03 2020-11-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
US11881054B2 (en) 2019-07-03 2024-01-23 Mercedes-Benz Group AG Device and method for determining image data of the eyes, eye positions and/or a viewing direction of a vehicle user in a vehicle
KR102288091B1 (ko) 2020-04-23 2021-08-10 주식회사 옐로나이프 운전자의 시점을 기초로한 클러스터 디자인 요소의 시인성 개선 장치 및 방법
US11341939B2 (en) 2020-04-23 2022-05-24 Yellowknife Inc. Method and apparatus for improving visibility of cluster design elements based on driver's view
KR102263872B1 (ko) 2020-04-29 2021-06-11 주식회사 옐로나이프 디자인 표시요소 분포를 이용한 클러스터 ui 디자인 추천 장치 및 방법
US11338682B2 (en) 2020-04-29 2022-05-24 Yellowknife Inc. Method and apparatus for recommending cluster UI design using distribution of design elements
KR20210136503A (ko) 2020-05-08 2021-11-17 주식회사 옐로나이프 다양한 클러스터 화면 형태에 적용 가능한 클러스터 디자인 관리 장치 및 방법
KR20220039693A (ko) 2020-05-08 2022-03-29 주식회사 옐로나이프 다양한 클러스터 화면 형태에 적용 가능한 클러스터 디자인 관리 장치 및 방법
CN114248666A (zh) * 2021-11-26 2022-03-29 武汉路特斯汽车有限公司 基于人脸识别的座椅调整方法、装置、介质及设备
KR20230172635A (ko) 2022-06-15 2023-12-26 주식회사 옐로나이프 주행 데이터를 기반으로 한 운전자의 운전 특징 추정 방법 및 장치
CN115384363A (zh) * 2022-09-23 2022-11-25 上海展酷信息科技有限公司 基于体态识别的汽车座椅智能调节系统

Similar Documents

Publication Publication Date Title
KR20190050227A (ko) 운전자 자세 제어 장치 및 방법
US11503251B2 (en) Vehicular vision system with split display
US10137836B2 (en) Vehicle vision system
US9756319B2 (en) Virtual see-through instrument cluster with live video
CN101236454B (zh) 操作装置
CN107408026B (zh) 信息处理设备、信息处理方法和计算机程序
EP3186109B1 (en) Panoramic windshield viewer system
KR102117376B1 (ko) 정보 처리 장치
US11410634B2 (en) Information processing apparatus, information processing method, display system, and mobile object
EP2752730B1 (en) Vehicle display arrangement and vehicle comprising a vehicle display arrangement
WO2018047400A1 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
WO2011001642A1 (ja) 車載用映像表示装置
US9715752B2 (en) Information processing apparatus, information processing method, and program for displaying information on multiple display layers
JP6723820B2 (ja) 画像生成装置、画像表示システムおよび画像表示方法
WO2018100377A1 (en) Multi-dimensional display
JP6585662B2 (ja) 車両ルーフ搭載システム
JP2015061212A (ja) 画像生成装置、画像表示システム及び画像生成方法
US20140192033A1 (en) 3d image apparatus and method for displaying images
WO2016079470A1 (en) Mixed reality information and entertainment system and method
JP2018121287A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
US11987182B2 (en) Image processing apparatus, image processing method, and image processing system
JP2018144554A (ja) 車両用ヘッドアップディスプレイ装置
US20180232866A1 (en) Vehicle display comprising projection system
US11383656B2 (en) Image processing apparatus, image processing method, and image processing system
US20170171535A1 (en) Three-dimensional display apparatus and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application