KR20130119144A - 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치 - Google Patents

투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치 Download PDF

Info

Publication number
KR20130119144A
KR20130119144A KR1020120042079A KR20120042079A KR20130119144A KR 20130119144 A KR20130119144 A KR 20130119144A KR 1020120042079 A KR1020120042079 A KR 1020120042079A KR 20120042079 A KR20120042079 A KR 20120042079A KR 20130119144 A KR20130119144 A KR 20130119144A
Authority
KR
South Korea
Prior art keywords
driver
pupil
vehicle
distance
image
Prior art date
Application number
KR1020120042079A
Other languages
English (en)
Other versions
KR101361643B1 (ko
Inventor
한정
Original Assignee
엠텍비젼 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엠텍비젼 주식회사 filed Critical 엠텍비젼 주식회사
Priority to KR1020120042079A priority Critical patent/KR101361643B1/ko
Publication of KR20130119144A publication Critical patent/KR20130119144A/ko
Application granted granted Critical
Publication of KR101361643B1 publication Critical patent/KR101361643B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/087Interaction between the driver and the control system where the control system corrects or modifies a request from the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)

Abstract

차량 전면에 설치된 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치가 개시된다. 차량의 전면에 설치된 투명 디스플레이 패널에 가상의 객체를 표시하는 장치로서, 상기 차량의 운전석을 촬상한 운전석 이미지를 생성하는 이미지 센서, 상기 차량이 현재 위치하고 있는 차량 위치 정보 및 이동 방향을 획득하는 차량 위치 획득부 및 상기 운전석 이미지로부터 운전자의 얼굴 및 눈동자를 인식하며, 눈동자 위치 및 상기 눈동자와 상기 투명 디스플레이 패널 사이의 거리에 따라 해상도 및 표시 위치를 결정하고, 상기 차량 위치 정보 및 상기 이동 방향에 상응하여 저장부에서 선별된 시설물 객체에 대하여 이미지 처리를 수행한 객체 이미지를 상기 투명 디스플레이 패널로 전송하여 표시되도록 하는 신호 처리부를 포함하는 객체 표시 장치에 의하면, 운전자의 위치에 따라 차량 전면에 설치된 투명 디스플레이 패널을 통해 표시되는 도로 및 건물의 가상 이미지를 변화시켜 실제 도로 및 건물과의 일치율을 향상시킬 수 있는 효과가 있다.

Description

투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치{Method and device for displaying object using transparent display panel}
본 발명은 차량 전면에 설치된 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치에 관한 것이다.
차량 내에서 운전자의 편의를 위하여 제공되는 여러 정보 서비스들이 최근 증가하고 있다. 예를 들어, 차량의 위치 정보를 확인할 수 있는 GPS 서비스, 운전자가 가고자 하는 목적지까지의 경로 안내, 교통상황 안내 등을 제공하는 내비게이션(Navigation) 서비스, 차량 내에서 방송 시청을 가능하게 하는 DMB 서비스 등이 있다.
이러한 정보 서비스들에 대해서는 운전자가 이를 용이하게 인지하도록 하기 위한 디스플레이 수단이 요구된다. 차량용 디스플레이 수단으로는 차량의 대시보드나 센터페시아 등에 직접 삽입되거나 외장형 단말기에 구비되는 평판 디스플레이 패널, 예를 들면 LCD 등이 주로 사용되고 있다.
한편, 차량의 전면에 구비되는 유리창은 운전 시 외부로부터 운전자를 보호하는 동시에 운전자가 시야를 확보할 수 있도록 하는 기능을 제공한다. 이러한 차량의 전면 유리창은 차지하는 공간이 상당히 크기 때문에 각종 장치들을 차량의 전면 유리창에 일체형으로 구비시키기 위한 노력이 최근 활발히 진행되고 있다.
또한, 영상 기술 및 투명 전자 소자 개발 기술이 발달하면서, 후방의 객체가 보이는 한편 디스플레이가 가능한 투명 디스플레이 패널이 최근 활발하게 연구되고 있다. 이러한 투명 디스플레이 패널로 자발광을 이용하는 유기 발광 패널이나 플라즈마 패널이 널리 사용되고 있으며, 한국공개특허 10-2010-0053312호에는 자발광 투명 평판 디스플레이 소자 및 그를 이용한 차량용 디스플레이 장치에 관한 기술이 개시되어 있다.
이처럼 차량의 전면 유리창에 투명 디스플레이를 장착하는 기술이 개발되고 있는 시점에서 이를 이용한 다양한 애플리케이션이 개발되어 운전자에게 전술한 것과 같은 다양한 정보 서비스들을 제공할 필요성이 대두되고 있으나, 차량의 전면 유리창을 지나 실제하는 객체들과 투명 디스플레이 패널을 통해 제공하게 되는 이미지 또는/및 정보들을 정확히 매칭시키지는 못하고 있는 실정이다.
한국공개특허 10-2010-0053312호
본 발명은 운전자의 위치 및/또는 각도에 따라 차량 전면에 설치된 투명 디스플레이 패널을 통해 표시되는 도로 및 건물의 가상 이미지를 변화시켜 실제 도로 및 건물과의 일치율을 향상시킬 수 있는 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치를 제공하기 위한 것이다.
또한, 본 발명은 차량 전면에 설치된 투명 디스플레이 패널을 통해 제공되는 도로 및 건물의 가상 이미지가 실제 도로 및 건물과 일대일로 또는 거의 유사하게 매칭되어 용이하게 정확한 위치 파악이 가능한 내비게이션, 증강현실과 같은 다양한 차량 내 정보 서비스를 제공할 수 있는 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치를 제공하기 위한 것이다.
본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.
본 발명의 일 측면에 따르면, 차량의 전면에 설치된 투명 디스플레이 패널에 가상의 객체를 표시하는 장치로서, 상기 차량의 운전석을 촬상한 운전석 이미지를 생성하는 이미지 센서; 상기 차량이 현재 위치하고 있는 차량 위치 정보 및 이동 방향을 획득하는 차량 위치 획득부; 및 상기 운전석 이미지로부터 운전자의 얼굴 및 눈동자를 인식하며, 눈동자 위치 및 상기 눈동자와 상기 투명 디스플레이 패널 사이의 거리에 따라 해상도 및 표시 위치를 결정하고, 상기 차량 위치 정보 및 상기 이동 방향에 상응하여 저장부에서 선별된 시설물 객체에 대하여 이미지 처리를 수행한 객체 이미지를 상기 투명 디스플레이 패널로 전송하여 표시되도록 하는 신호 처리부를 포함하는 객체 표시 장치가 제공된다.
상기 신호 처리부는, 상기 운전석 이미지로부터 상기 운전자의 얼굴을 인식하고, 상기 얼굴 내의 눈동자를 검출하여 상기 눈동자 위치를 계산하는 얼굴 인식부; 상기 얼굴 인식부에서 검출한 상기 운전자의 눈동자와 상기 차량의 투명 디스플레이 패널 사이의 거리인 눈동자-유리창 거리를 산출하는 거리 산출부; 상기 차량 위치 정보 및 상기 이동 방향에 따라 상기 투명 디스플레이 패널에 표시될 시설물 객체를 결정하고, 상기 눈동자 위치 및 상기 눈동자-유리창 거리에 따라 해상도 및 위치를 결정하며, 상기 해상도 및 상기 위치에 따라 상기 시설물 객체에 상응하는 상기 객체 이미지를 생성하는 객체 이미지 생성부를 포함할 수 있다.
상기 운전자의 운전자 정보가 상기 저장부에 등록되어 있는 경우, 상기 거리 산출부는 상기 운전석 이미지를 분석한 결과 획득한 양측 눈동자 사이의 거리 정보를 이용하여 상기 눈동자-유리창 거리를 산출할 수 있다.
상기 이미지 센서에 근접하거나 일체화되어 설치되며, 상기 운전자의 눈동자를 감지하고, 상기 눈동자까지의 거리를 측정하는 거리측정 센서를 더 포함할 수 있다. 상기 거리 산출부는 상기 거리측정 센서에서 측정한 거리 및 상기 눈동자의 수직 방향 위치를 이용하여 상기 눈동자-유리창 거리를 산출할 수 있다.
상기 객체 이미지는 상기 차량 위치 정보 및 상기 이동 방향에 따라 상기 차량의 전방에 위치할 것으로 예상되는 시설물 객체의 윤곽선과 상기 운전자의 눈동자를 잇는 직선이 상기 투명 디스플레이 패널과 만나는 점들의 집합으로 이루어질 수 있다.
상기 객체 이미지 생성부는 상기 운전자가 선택한 목적지에 상응하는 경로 정보에 따라 선택된 도로 및 상기 목적지에 상응하는 건물만을 상기 시설물 객체로 선택하여 상기 객체 이미지로 생성할 수 있다.
상기 이미지 센서는 고정 배율을 가지고 있어 동일한 해상도 및 크기의 영역이 촬상되도록 할 수 있다.
상기 투명 디스플레이 패널은 상기 차량의 전면 유리창의 일부 또는 전체에 중첩적으로 부착 설치되거나 상기 차량의 전면 유리창의 일부 또는 전체를 대체하도록 설치될 수 있다.
한편 본 발명의 다른 측면에 따르면, 차량의 전면에 설치된 투명 디스플레이 패널에 가상의 객체를 표시하는 방법 및 이를 수행하기 위한 프로그램이 기록된 기록매체가 제공된다.
일 실시예에 따른 객체 표시 방법은, (a) 이미지 센서에서 상기 차량의 운전석을 촬상한 운전석 이미지를 생성하는 단계; (b) 차량 위치 획득부에서 상기 차량이 현재 위치하고 있는 차량 위치 정보 및 이동 방향을 획득하는 단계; 및 (c) 신호 처리부에서 상기 운전석 이미지로부터 운전자의 얼굴 및 눈동자를 인식하며, 눈동자 위치 및 상기 눈동자와 상기 투명 디스플레이 패널 사이의 거리에 따라 해상도 및 표시 위치를 결정하고, 상기 차량 위치 정보 및 상기 이동 방향에 상응하여 저장부에서 선별된 시설물 객체에 대하여 이미지 처리를 수행한 객체 이미지를 상기 투명 디스플레이 패널로 전송하는 단계를 포함할 수 있다.
상기 단계 (c)는, (c1) 상기 운전석 이미지로부터 상기 운전자의 얼굴을 인식하고, 상기 얼굴 내의 눈동자를 검출하여 상기 눈동자 위치를 계산하는 단계; (c2) 상기 얼굴 인식부에서 검출한 상기 운전자의 눈동자와 상기 투명 디스플레이 패널 사이의 거리인 눈동자-유리창 거리를 산출하는 단계; (c3) 상기 차량 위치 정보 및 상기 이동 방향에 따라 상기 투명 디스플레이 패널에 표시될 시설물 객체를 결정하는 단계; (c4) 상기 눈동자 위치 및 상기 눈동자-유리창 거리에 따라 해상도 및 위치를 결정하는 단계; (c5) 상기 해상도 및 상기 위치에 따라 상기 단계 (c3)에서 결정된 시설물 객체에 상응하는 상기 객체 이미지를 생성하는 단계를 포함할 수 있다.
상기 운전자의 운전자 정보가 상기 저장부에 등록되어 있는 경우, 상기 단계 (c2)에서 상기 운전석 이미지를 분석한 결과 획득한 양측 눈동자 사이의 거리 정보를 이용하여 상기 눈동자-유리창 거리를 산출할 수 있다.
상기 단계 (c2) 이전에, 상기 이미지 센서에 근접하여 설치된 거리측정 센서에서 상기 운전자의 눈동자를 감지하고, 상기 눈동자까지의 거리를 측정하는 단계를 더 포함할 수 있다. 상기 단계 (c2)에서 상기 거리측정 센서에서 측정한 거리 및 상기 눈동자의 수직 방향 위치를 이용하여 상기 눈동자-유리창 거리를 산출할 수 있다.
상기 객체 이미지는 상기 차량 위치 정보 및 상기 이동 방향에 따라 상기 차량의 전방에 위치할 것으로 예상되는 시설물 객체의 윤곽선과 상기 운전자의 눈동자를 잇는 직선이 전면 유리창의 상기 투명 디스플레이 패널과 만나는 점들의 집합으로 이루어질 수 있다.
상기 단계 (c3)는 상기 운전자가 선택한 목적지에 상응하는 경로 정보에 따라 선택된 도로 및 상기 목적지에 상응하는 건물만을 상기 시설물 객체로 선택할 수 있다.
상기 단계 (a)는 상기 이미지 센서가 고정 배율을 가지고 있어 동일한 해상도 및 크기의 영역이 촬상되도록 할 수 있다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
본 발명의 실시예에 따르면, 운전자의 위치 및/또는 각도에 따라 차량 전면에 설치된 투명 디스플레이 패널을 통해 표시되는 도로 및 건물의 가상 이미지를 변화시켜 실제 도로 및 건물과의 일치율을 향상시킬 수 있는 효과가 있다.
또한, 차량 전면에 설치된 투명 디스플레이 패널을 통해 제공되는 도로 및 건물의 가상 이미지가 실제 도로 및 건물과 일대일로 또는 거의 유사하게 매칭되어 용이하게 정확한 위치 파악이 가능한 내비게이션, 증강현실과 같은 다양한 차량 내 정보 서비스를 제공할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 투명 디스플레이 패널을 이용한 객체 표시 장치의 구성을 개략적으로 나타낸 도면,
도 2는 본 발명의 일 실시예에 따른 신호 처리부의 구성을 개략적으로 나타낸 도면,
도 3은 눈동자와 전면 유리창 사이의 거리를 측정하는 제1 방법을 설명하기 위한 도면,
도 4는 눈동자와 전면 유리창 사이의 거리를 측정하는 제2 방법을 설명하기 위한 도면,
도 5 내지 도 7은 본 발명의 일 실시예에 따른 객체 이미지 생성부에서 동일 위치에 있는 차량에서 운전자의 상태에 따라 다양하게 구현되는 객체 이미지의 실시예들을 나타낸 도면,
도 8 내지 10은 본 발명의 일 실시예에 따른 객체 표시 장치에서 운전자의 다양한 위치에 따라 전면 유리창에 표시되는 객체 이미지 및 실제 화면을 나타낸 도면,
도 11은 본 발명의 일 실시예에 따른 투명 디스플레이 패널을 이용한 객체 표시 방법의 순서도.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 명세서에 기재된 "…부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 투명 디스플레이 패널을 이용한 객체 표시 장치의 구성을 개략적으로 나타낸 도면이고, 도 2는 본 발명의 일 실시예에 따른 신호 처리부의 구성을 개략적으로 나타낸 도면이며, 도 3은 눈동자와 전면 유리창 사이의 거리를 측정하는 제1 방법을 설명하기 위한 도면이고, 도 4는 눈동자와 전면 유리창 사이의 거리를 측정하는 제2 방법을 설명하기 위한 도면이다.
본 발명의 일 실시예에 따른 객체 표시 장치는 실제 시설물(예를 들어, 도로, 건물 등)에 대응되는 가상의 시설물 객체가 운전자의 눈동자 위치, 전면 유리창과의 거리 등의 운전자 파라미터에 따라 운전자의 시선에서는 실제 시설물과 실질적으로 일대일로 일치하게 차량의 전면 유리창에 설치된 투명 디스플레이 패널에 표시되도록 하는 것을 특징으로 한다. 가상 시설물 객체 이외에 이와 관련된 여러 정보들(예를 들어, 경로 안내 정보, 목적지 표시, 주변 도로 및/또는 건물명, 주변 도로 또는/및 건물에 대한 안내 정보 등)이 추가적으로 투명 디스플레이 패널에 표시될 수도 있다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 객체 표시 장치(100)는 이미지 센서(110), 차량 위치 획득부(130), 신호 처리부(140), 투명 디스플레이 패널(150)을 포함한다. 실시예에 따라 거리측정 센서(120)를 더 포함할 수도 있다.
이미지 센서(110)는 차량의 운전석을 촬상한 운전석 이미지를 생성한다. 이미지 센서(110)는 예를 들어 차량의 전면 유리창 중 운전석 측의 세로 중심선 부분의 상부 혹은 하부에 설치된다. 특히, 이미지 센서(110)는 운전석 이미지 내에 차량의 운전석에 착석한 운전자의 얼굴이 포함될 수 있도록 차량 내부의 촬영이 가능한 방향으로 설치될 수 있으며, 이미지 센서(110)예를 들어 CCD 혹은 CMOS 타입의 카메라일 수 있다.
차량 위치 획득부(130)는 차량의 현재 위치에 관한 차량 위치 정보를 생성한다. 차량 위치 획득부(130)는 GPS 수신기를 포함하고 있어, GPS 위성으로부터 GPS 수신기까지의 거리를 이용하여 차량의 현재 위치를 정확히 계산할 수 있다. 차량 위치 정보는 차량이 현재 위치하고 있는 위도 및 경도값을 포함하고 있을 수 있다.
또한, 차량 위치 획득부(130)는 차량의 이동 방향에 대한 정보도 함께 생성한다. 시간 경과에 따른 차량 위치의 변화 추세로부터 차량의 이동 방향을 예측할 수 있다. 차량의 이동 방향은 현재 차량 위치에서 운전자가 전면 유리창을 통해 동서남북 중 어느 방향을 바라보고 있는지를 판단하기 위한 파라미터가 된다.
또한, 차량 위치 획득부(130)는 차량 사양 정보를 이용하여 차량의 전면 유리창에 대한 보다 정확한 위치값을 획득할 수도 있다. 차량 사양 정보는 GPS 수신기의 설치 위치, 전면 유리창의 설치 위치, GPS 수신기로부터 전면 유리창까지의 거리 등 중 하나 이상을 포함한다. GPS 수신기로부터 전면 유리창까지의 거리는 GPS 수신기의 설치 위치 및 전면 유리창의 설치 위치로부터 계산될 수도 있다.
투명 디스플레이 패널(150)은 차량의 전면에 설치되며, 투명한 특성으로 인해 운전자가 차량의 전면 유리창을 통해 전방을 주시할 때 전방 배경을 그대로 투과시켜 운전자의 시야를 방해하지 않으면서도 차량의 전면 유리창에 신호 처리부(140)로부터 전송된 시설물 객체 이미지가 표시되도록 한다. 또한, 표시되고 있는 시설물 객체 이미지에 상응하는 시설물 객체에 관한 정보가 함께 표시될 수도 있다. 투명 디스플레이 패널(150)은 예를 들어 차량 전면 유리창의 일부 또는 전체에 중첩적으로 부착 설치되거나, 차량 전면 유리창의 일부 또는 전체를 대체하도록 설치될 수 있다. 이러한 투명 디스플레이 패널(150)의 구현 기술은 당업자에게 자명한 바 상세한 설명은 생략한다.
신호 처리부(140)는 이미지 센서(110) 및 차량 위치 획득부(130)로부터 운전석 이미지 및 차량 위치 정보를 수신한다. 이들 정보를 소정의 알고리즘에 따라 데이터 처리하여 현재 운전자 위치 및 차량 위치에 상응하여 투명 디스플레이 패널(150)에서 표시될 시설물 객체 이미지를 생성하고, 투명 디스플레이 패널(150)로 출력한다.
도 2를 참조하면, 신호 처리부(140)는 얼굴 인식부(142), 거리 산출부(144), 객체 이미지 생성부(146), 저장부(148)를 포함한다.
저장부(148)에는 실제 시설물에 대응되는 가상 시설물 객체에 대한 객체 정보, 임의의 출발지로부터 임의의 목적지까지의 경로 정보 등 중 하나 이상이 저장되어 있다. 객체 정보에는 가상 시설물 객체가 실제 시설물과 동일하게 3차원 모델링된 시설물 객체 데이터, 가상 시설물 객체에 매칭되는 실제 시설물에 대한 시설물 정보 등이 포함될 수 있으며, 시설물 정보로는 예를 들어, 시설물의 명칭, 주소, 면적, 용적률, 층수, 용도, 건폐율, 부동산 시세 등이 포함될 수 있다.
또한, 저장부(148)에는 등록된 운전자를 식별하기 위한 운전자 식별정보(예를 들어, 이름, 아이디, 전화번호, 주민등록번호 등), 얼굴 윤곽선, 기준 위치에서의 눈동자 거리(두 눈동자 사이의 거리) 등 중 하나 이상을 포함하는 운전자 정보가 등록 운전자 별로 저장되어 있을 수 있다. 여기서, 기준 위치는 운전자가 착석한 상태에서 눈동자와 전면 유리창 사이의 거리가 미리 지정된 기준 거리에 해당하는 경우의 눈동자 위치를 의미한다.
얼굴 인식부(142)는 이미지 센서(110)에서 생성된 운전석 이미지에 대하여 소정의 이미지 해석 기법(예를 들어, 에지 검출(edge detection) 방법 등)에 따라 이미지 해석을 수행하고, 그 결과 운전석에 운전자가 착석하고 있는지 그리고 운전자의 얼굴이 인식되는지 판단한다. 이미지에서 얼굴을 인식하는 방법은 다양한 얼굴 인식 알고리즘을 통해 수행될 수 있으며, 이는 당업자에게 자명한 바 상세한 설명은 생략한다.
또한, 얼굴 인식부(142)는 운전자의 얼굴이 인식되는 경우 얼굴 영역 내에서 운전자의 눈동자를 검출하고 그 위치(즉, 눈동자 위치)를 계산한다. 운전자의 눈동자가 실제 차량의 전면 유리를 통해 전방을 주시하게 되는 바, 차량이 동일 위치(위도 및 경도)에 있더라도 눈동자의 위치에 따라 운전자에게 보이는 전방 배경이 다르게 된다. 따라서, 이를 반영하여 객체 이미지를 생성하기 위해서는 운전자의 눈동자 위치가 중요한 파라미터가 된다.
거리 산출부(144)는 얼굴 인식부(142)에서 감지한 운전자의 눈동자와 차량의 전면 유리창, 즉 투명 디스플레이 패널 사이의 거리(이하 '눈동자-유리창 거리'라 함)를 산출한다.
눈동자-유리창 거리는 저장부(148)에 등록되어 있는 운전자인 경우 현재 운전석 이미지에서 산출되는 눈동자 거리로부터 계산할 수 있다.
도 3을 참조하면, 눈동자-유리창 거리를 측정하는 일 실시예가 도시되어 있다. 이는 운전자 정보가 저장부(148)에 미리 등록되어 있는 경우로서, 이 경우 저장부(148)에는 운전자의 눈동자가 전면 유리창으로부터 기준 거리에 있는 경우 해당 운전자의 눈동자 거리가 저장되어 있을 것이다.
도 3의 (a)의 운전석 이미지(1a)에서는, 운전자(10)가 기준 위치에 착석한 상태로, 눈동자-유리창 거리가 110cm이며, 이 경우 눈동자 거리가 d1(예를 들어, 24픽셀)이다. 동일한 운전자(10)가 전면 유리창으로부터 상대적으로 멀리 떨어져 있는 경우에 대한 다른 운전석 이미지(1b)를 분석한 결과 도 3의 (b)에 도시된 것과 같이 그 눈동자 거리가 d2(예를 들어, 16픽셀)인 경우 눈동자-유리창 거리의 계산이 가능하며, 여기에서는 눈동자-유리창 거리가 140cm인 것으로 계산할 수 있다.
즉, 눈동자 거리의 픽셀 개수를 카운트함으로써 기준 위치에 대하여 운전자의 눈동자 위치의 변위량을 확인하고, 이로부터 눈동자-유리창 거리의 계산이 가능하게 된다.
저장부(148)에 등록된 운전자인지 여부는 별도의 입력부(미도시)를 통해 운전자로부터 운전자를 식별할 수 있는 식별자를 입력받거나 운전석 이미지를 분석한 결과 인식된 얼굴의 윤곽선이 저장부(148)에 등록되어 있는 등록 운전자의 얼굴 윤곽선 중 하나에 상응하는지를 판단함으로써 확인 가능하다. 여기서, 상응한다는 것은 그 형상이 동일하거나 비례하는 것을 포함한다.
저장부(148)에 등록되어 있지 않은 불특정 다수의 운전자에 대해서는 별도의 거리측정 센서(120)에서 측정된 센서와 눈동자 사이의 거리를 이용하여 눈동자-유리창 거리를 계산할 수도 있다.
현재 운전석에 착석한 운전자에 대한 정보가 저장부(148)에 저장되어 있는 경우에는 거리측정 센서(120)가 생략될 수 있으며, 저장부(148)에 저장되어 있지 않은 운전자 혹은 불특정 다수에 대한 눈동자-유리창 거리 산출 시에는 거리측정 센서(120)가 필요하게 된다. 물론, 저장부(148)에 등록된 운전자일지라도 이미지 해석 기법에 의해 산출된 거리 정보의 정확성 판단을 위해 거리 측정 센서(120)가 추가적으로 이용될 수도 있다.
거리측정 센서(120)는 운전자의 눈동자를 감지하고, 센서와 눈동자 사이의 거리를 측정한다. 여기서, 거리측정 센서(120)는 이미지 센서(110)에 근접하거나 일체화되어 설치되며, 측정된 거리는 이미지 센서(110)와 눈동자 사이의 거리로 유추할 수 있다.
예를 들어, 거리측정 센서(120)는 적외선 센서로써, 얼굴 인식부(142)에서 얼굴 영역 내의 눈동자를 검출하여 눈동자 위치를 파악하면, 적외선을 이용한 거리 측정을 통해 센서와 눈동자 사이의 거리를 측정할 수 있다. 여기서, 적외선을 이용한 거리 측정은 당업자에게 자명한 바 상세한 설명은 생략한다.
거리측정 센서(120)를 이용한 눈동자-유리창 거리 측정 방법은 다음과 같다.
도 4를 참조하면, 운전석 이미지(1c) 내에 운전자(10)의 얼굴이 인식된 경우, 예를 들어 이미지 센서(110)와 근접 설치되거나 일체화된 거리측정 센서(120)에서 측정한 거리는 이미지 센서(110)와 눈동자 사이의 거리(k1)가 되며, 전술한 것과 같이 얼굴 인식부(142)에서의 분석 결과인 눈동자의 수직 위치 정보를 이용하여 이미지 센서(110)로부터 전면 유리창에서 눈동자의 위치에 대응되는 지점(P)까지의 거리(k2)를 계산할 수 있다. 이미지 센서(110)가 고정 설치되어 있으며, 동일한 영역에 대하여 동일한 해상도의 운전석 이미지를 촬상하게 되는 바, 운전석 이미지 내의 눈동자의 수직 위치 정보로부터 실험적, 통계적으로 계산될 수 있을 것이다.
피타고라스 정리를 이용하면, k1과 k2로부터 눈동자-유리창 거리 d3를 하기 수학식 1과 같이 계산할 수 있다.
Figure pat00001
다시 도 2를 참조하면, 객체 이미지 생성부(146)는 얼굴 인식부(142)에서 계산된 눈동자 위치와 거리 산출부(144)에서 계산된 눈동자-유리창 거리를 이용하여 표시하고자 하는 가상 시설물 객체에 대한 객체 이미지의 해상도(resolution) 및 위치를 확정한다. 이에 대해서는 추후 관련 도면을 참조하여 설명하기로 한다.
여기서, 객체 이미지는 실제 시설물이 3차원 모델링된 시설물 객체 데이터로부터 계산되는 전면 유리창에 설치된 투명 디스플레이 패널 상에서 표시될 가상 시설물 객체의 이미지로서, 운전자의 눈동자 위치, 눈동자-유리창 거리 등의 파라미터에 따라 동일한 가상 시설물 객체라도 다양한 객체 이미지로 표현된다.
이러한 객체 이미지는 투명 디스플레이 패널(150)에 표시되어 실제 시설물과 중첩되어 운전자의 시야에 보이게 되는 바, 운전자의 혼동을 줄이기 위해 간략화되거나 반투명하게 표시되는 이미지일 수 있다.
객체 이미지 생성부(146)는 차량 위치 획득부(130)로부터 수신한 차량 위치 정보 및 차량 이동 방향 정보에 따라 투명 디스플레이 패널(150)에 표시될 가상 시설물 객체를 결정한다.
가상 시설물 객체가 결정되면, 객체 이미지 생성부(146)는 눈동자 위치 및 눈동자-유리창 거리에 따라 정해진 객체 이미지의 해상도 및 위치에 따라 데이터 처리를 수행하여 투명 디스플레이 패널(150)에서 표시될 객체 이미지를 생성한다.
생성된 객체 이미지는 투명 디스플레이 패널(150)로 전송되며, 투명 디스플레이 패널(150)에서는 이를 표시하여 운전자가 확인 가능하도록 한다.
객체 이미지 생성부(146)는 생성된 객체 이미지에 상응하는 시설물 정보를 추가적으로 전송하여 투명 디스플레이 패널(150)에서 표시되도록 할 수도 있다.
또한, 객체 이미지 생성부(146)는 경로 정보에 따라 선택된 도로 및 목적지에 해당하는 건물만을 가상 시설물 객체로 선택하여 투명 디스플레이 패널(150) 상에 표시되도록 할 수도 있다. 이로 인해 운전자가 소정의 목적지로 운전하는 중에 전방 시야를 방해하지 않고서 목적지까지의 경로에 해당하는 도로 및 최종 목적지만을 표시할 수 있게 되며, 종래 내비게이션 단말 상에서 지도 상의 경로를 표시해주는 것과는 달리 실재하는 도로 상에 경로 표시가 가능하게 되어 정확한 경로 안내가 가능한 장점이 있다.
이하 객체 이미지의 생성 방법에 대하여 상세히 설명하기로 한다.
눈동자 위치 및 눈동자-유리창 거리로부터 추정되는 운전자의 가상 시설물 객체에 대한 시선이 차량의 전면 유리창과 만나는 점들의 집합이 객체 이미지가 된다. 이러한 객체 이미지의 크기는 눈동자-유리창 거리 및 눈동자와 시설물 객체의 예상 위치 사이의 거리 비에 따라 결정될 수 있다. 이에 대해서는 도 5 내지 도 7을 참조하여 설명하기로 한다.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 객체 이미지 생성부에서 동일 위치에 있는 차량에서 운전자의 상태에 따라 다양하게 구현되는 객체 이미지의 실시예들을 나타낸 도면이다.
도 5 내지 도 7을 참조하면, 차량이 동일한 위치(동일한 위도 및 경도)에 있을 때에 동일한 시설물 객체(20)에 대하여 운전자의 눈동자 위치, 눈동자-유리창 거리, 운전자 등록 여부 등에 따라 다양하게 구현되는 객체 이미지가 예시되어 있다.
도 5에서 제1 운전자(10a)의 눈동자 위치는 (10, 9)이고, 눈동자-유리창 거리가 5일 때, 차량 위치 및 이동 방향에 근거하여 차량의 전방에 위치할 것으로 예상되는 시설물 객체(20)의 윤곽선과 제1 운전자(10a)의 눈동자를 잇는 직선이 차량의 전면 유리창에 설치된 투명 디스플레이 패널(150)과 만나는 점들의 집합이 제1 객체 이미지(30a)가 됨을 알 수 있다.
도 6에서는 도 5에 도시된 운전자와 동일한 운전자, 즉 제1 운전자(10a)가 차량 내에서 그 위치만이 변동한 경우를 나타낸 운전석 이미지(1e)가 예시되어 있다. 도 5에 도시된 경우에 비해 제1 운전자(10a)의 눈동자 위치가 (5, 5)로 상대적으로 상측에 위치하고, 눈동자-유리창 거리가 12로 상대적으로 멀어졌을 때, 차량 위치에 근거한 예상 위치에 있는 시설물 객체(20)의 각 꼭지점과 제1 운전자(10a)의 눈동자를 잇는 직선이 차량의 전면 유리창에 설치된 투명 디스플레이 패널(150)과 만나는 점들의 집합이 제2 객체 이미지(30b)가 됨을 알 수 있다.
제2 객체 이미지(30b)의 경우 제1 객체 이미지(30a)와 비교할 때 전면 유리창, 즉 투명 디스플레이 패널(150)에서 표시되는 위치 및 크기가 변화했음을 알 수 있다.
제2 객체 이미지(30b)가 제1 객체 이미지(30a)에 비해 실제 크기가 크지만, 제1 운전자(10a) 입장에서는 전면 유리창과의 거리가 멀어져서 제2 객체 이미지(30b)가 상대적으로 작게 보여질 수 있다. 또한, 제2 객체 이미지(30b)가 제1 객체 이미지(30a)에 비해 실제 전면 유리창의 상측에 표시되지만, 제1 운전자(10a) 입장에서는 제2 객체 이미지(30b)가 상대적으로 하측에 위치하는 것으로 보여질 수 있다.
여기서, 제1 운전자(10a)는 저장부(148)에 등록된 운전자인 바, 도 5 및 도 6에서는 운전석 이미지 내에서 제1 운전자(10a)의 눈동자 거리로부터 눈동자의 전면 유리창 사이의 거리를 계산해낼 수 있을 것이다.
도 7에서는 도 5 및 도 6에 도시된 제1 운전자(10a)와는 얼굴 윤곽선이 상이한 제2 운전자(10b)가 운전석에 착석한 경우의 운전석 이미지(1f)가 도시되어 있다. 이 경우에는 전술한 것과 같이 이미지 센서(110) 근처에 설치된 거리측정 센서(120)를 이용하여 제2 운전자(10b)의 눈동자와 센서 사이의 거리를 측정하고, 이를 통해 눈동자-유리창 거리를 계산하게 된다.
제2 운전자(10b)의 눈동자 위치는 (14, 12)이고, 눈동자-유리창 거리가 2이며, 이 경우 제3 객체 이미지(30c)는 제1 객체 이미지(30a)와 비교할 때 실제 그 크기가 작고 하측에 표시되는 것을 알 수 있다. 하지만, 제2 운전자(10b) 입장에서는 제3 객체 이미지(30c)가 눈동자에 비해 상측에 위치하며, 그 크기가 상대적으로 큰 것으로 인지하게 될 것이다.
이에 대해 상세히 설명하면, 눈동자 위치가 상부에 위치하면 객체 이미지는 상대적으로 하단부 측이 보이도록 하고, 눈동자 위치가 하부에 위치하면 객체 이미지는 상대적으로 상단부 측이 보이도록 할 수 있다. 또한, 눈동자-유리창 거리가 가까우면 객체 이미지가 상대적으로 커 보이고 눈동자-유리창 거리가 멀면 객체 이미지가 상대적으로 작아 보이게 할 수 있다.
도 8 내지 10은 본 발명의 일 실시예에 따른 객체 표시 장치에서 운전자의 다양한 위치에 따라 전면 유리창에 표시되는 객체 이미지 및 실제 화면을 나타낸 도면이다. 여기서, 차량은 동일한 위치(즉, 동일한 위도 및 경도)에 있는 것으로 가정한다.
운전자가 전방을 주시할 때 본 발명의 일 실시예에 따른 객체 표시 장치가 내비게이션 기능을 수행하여, 실제 도로 및 건물을 3차원으로 유사하게 표시해준다면 운전자는 용이하게 목적지에 도달할 수 있을 것이다. 운전자의 위치가 변화했을 때 실제 전면 유리창을 투과해 보이는 도로 및 건물(실제 화면)과 전면 유리창에 표시되는 도로 및 건물에 대한 객체 이미지를 서로 매칭시켜 운전자가 정확한 위치를 파악할 수 있도록 하고 있다.
예를 들어, 초보운전자라면 핸들을 아주 가깝게 쥐고 운전할 것이고 자연스럽게 차량의 전면 유리창과 가깝게 위치하게 되며 유리창에 투과되는 주변 도로 및 건물은 줌 인(Zoom in)되어 커 보일 것이다. 이 경우 객체 표시 장치(100)에서 보여주는 객체 이미지도 확대하여 실제 도로 및 건물과 매칭되도록 할 수 있다. 도 8에 예시된 운전석 이미지(1g)의 경우, 운전자가 전면 유리창의 상단부에 가까이 있어 운전자의 눈동자 위치는 (8, 3)이고 눈동자-유리창 거리가 2일 때, 실제 전면 유리창을 투과해 보이는 도로 및 건물에 대해 객체 이미지가 매칭되도록 하는 뷰(view)가 생성됨을 확인할 수 있다.
다른 경우로 능숙한 운전자라면 핸들과의 거리가 초보 운전자보다 멀게 위치하게 될 것이고 자동차가 같은 위치(동일 위도와 경도와 방향)에 있을 때 유리창에 투과되는 주변 도로 및 건물은 상대적으로 줌 아웃(Zoom out)되어 작게 보일 것이다. 이 경우 객체 표시 장치(100)에서 보여주는 객체 이미지도 상대적으로 축소하여 실제 도로 및 건물과 매칭되도록 할 수 있다. 도 9에 예시된 운전석 이미지(1h)의 경우, 운전자가 전면 유리창의 상단부에 멀리 있어 운전자의 눈동자 위치는 (2, 3)이고 눈동자-유리창 거리가 8일 때, 객체 이미지가 상대적으로 작아 보이게 하여 보다 넓은 시야가 확보되도록 함으로써 실제 전면 유리창을 투과해 보이는 도로 및 건물과 매칭되도록 하는 뷰가 생성됨을 확인할 수 있다.
운전자가 차량의 전면 유리창에 가까이 있는 경우, 정면을 바라보았을 때의 시야는 멀리 있는 경우에 비해 상대적으로 좁을 것이다. 다만, 눈동자를 상하좌우로 위치 변경한다면 눈의 위치 변경 없이도 전면 유리창 전체에 표시되는 이미지도 시야에 들어올 수 있을 것이다.
이 경우 전면 유리창 전체가 시야에 들어올 수 없는 경우라면 운전자의 눈동자 위치 및 눈동자-유리창 거리를 파악하여, 객체 표시 장치(100)는 전면 유리창에서 표시되는 화면의 크기를 조절할 수 있을 것이다.
또 다른 경우로 운전석을 낮게 하여 운행하는 운전자라면 위의 경우들에서의 핸들과의 거리가 같더라도 자동차가 같은 위치에 있을 때 유리창에 투과되는 주변 도로 및 건물은 앞서 설명한 경우들에 대비해 보이지 않던 상단부가 보이게 되고 하단부가 보이지 않게 되므로, 객체 표시 장치(100)에서 보여주는 객체 이미지도 그에 맞게 실제 도로 및 건물과 매칭되도록 할 수 있다. 도 10에 예시된 운전석 이미지(1i)의 경우, 운전자가 전면 유리창의 하단부에 멀리 있어 운전자의 눈동자 위치는 (2, 8)이고 눈동자-유리창 거리가 8일 때, 도 9와 비교하면 시설물 객체의 하측보다 상측이 더 많이 보여지도록 하여 실제 전면 유리창을 투과해 보이는 도로 및 건물과 매칭되도록 하는 뷰가 생성됨을 확인할 수 있다.
도 11은 본 발명의 일 실시예에 따른 투명 디스플레이 패널을 이용한 객체 표시 방법의 순서도이다.
도 11을 참조하면, 단계 S200에서 이미지 센서(110)는 차량의 운전석을 촬상한 운전석 이미지를 생성한다. 이미지 센서(110)는 고정 배율을 가지고 있어 항상 동일한 해상도 및 크기의 영역만이 촬상되도록 함으로써, 추후 이미지 분석만으로도 운전자의 위치 변화를 감지할 수 있도록 한다.
단계 S210에서 신호 처리부(140)는 이미지 센서(110)로부터 운전석 이미지를 수신받고, 운전석 이미지에 운전사의 얼굴 인식이 가능한지 판단한다.
운전자의 얼굴 인식이 불가능한 경우 일정 시간이 경과한 후 단계 S200으로 되돌아가 운전석 이미지 촬상을 재개한다. 이는 에코 드라이브를 위한 것으로서, 얼굴 인식이 되지 않을 경우 어떠한 정보도 디스플레이 되지 않도록 하여 차량의 배터리 소모를 절감하는 효과가 있다.
운전자의 얼굴 인식이 가능한 경우, 단계 S220에서 신호 처리부(140)는 얼굴 영역 중 운전자의 눈동자를 검출하고, 눈동자 위치를 계산한다. 눈동자 위치는 운전석 이미지 내에서의 상대 좌표로 계산할 수 있을 것이다.
단계 S230에서 신호 처리부(140)는 눈동자-유리창 거리를 계산한다. 눈동자-유리창 거리는 얼굴 인식된 운전자가 저장부(148)에 기 저장된 등록 운전자인지 혹은 저장되지 않은 미등록 운전자인지 여부에 따라 다른 방법으로 계산될 수 있다.
등록 운전자인 경우에는 도 3을 참조하여 설명한 것과 같이 눈동자 거리의 측정 및 기 저장된 기준 위치에서의 눈동자 거리와의 비교를 통해 눈동자-유리창 거리를 계산할 수 있다.
미등록 운전자인 경우에는 도 4를 참조하여 설명한 것과 같이 별도의 거리측정 센서(120)를 이용하여 눈동자와 센서 사이의 거리를 측정하고, 상기 수학식 1에 따라 눈동자의 수직 위치 및 눈동자와 센서 사이의 거리로부터 눈동자-유리창 거리를 계산할 수 있다.
단계 S240에서 차량 위치 획득부(130)는 차량의 현재 위치에 대한 차량 위치 정보를 획득한다. 이 때 차량의 이동 방향에 대한 이동 방향 정보도 함께 획득할 수 있다.
단계 S250에서 신호 처리부(140)는 단계 S240에서 차량 위치 획득부(130)가 획득한 차량 위치 정보 및 이동 방향 정보를 이용하여 투명 디스플레이 패널(150)에 표시될 가상 시설물 객체를 결정하고, 단계 S220에서 검출된 눈동자 위치 및 단계 S230에서 계산된 눈동자-유리창 거리에 따라 가상 시설물 객체가 투명 디스플레이 패널(150) 상에서 표시될 해상도 및 위치를 결정하여 객체 이미지를 생성한다. 객체 이미지의 생성에 대해서는 앞서 도 5 내지 도 10을 참조하여 설명한 바 있다.
단계 S260에서 신호 처리부(140)는 생성된 객체 이미지를 투명 디스플레이 패널(150)로 전송하여 표시되도록 한다. 이 때 생성된 객체 이미지에 대한 시설물 정보가 함께 전송되어 객체 이미지와 함께 표시될 수도 있다.
또는 객체 이미지 생성부(146)는 경로 정보에 따라 선택된 도로 및 목적지에 해당하는 건물만을 가상 시설물 객체로 선택하여 투명 디스플레이 패널(150) 상에 표시되도록 할 수도 있다.
상술한 객체 표시 방법은 디지털 처리 장치에 내장되거나 설치된 프로그램 등에 의해 시계열적 순서에 따른 자동화된 절차로 수행될 수도 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 디지털 처리 장치가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 디지털 처리 장치에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. 상기 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.
상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 객체 표시 장치
110: 이미지 센서
120: 거리측정 센서
130: 차량 위치 획득부
140: 신호 처리부
150: 투명 디스플레이 패널
142: 얼굴 인식부
144: 거리 산출부
146: 객체 이미지 생성부
148: 저장부

Claims (19)

  1. 차량의 전면에 설치된 투명 디스플레이 패널에 가상의 객체를 표시하는 장치로서,
    상기 차량의 운전석을 촬상한 운전석 이미지를 생성하는 이미지 센서;
    상기 차량이 현재 위치하고 있는 차량 위치 정보 및 이동 방향을 획득하는 차량 위치 획득부; 및
    상기 운전석 이미지로부터 운전자의 얼굴 및 눈동자를 인식하며, 눈동자 위치 및 상기 눈동자와 상기 투명 디스플레이 패널 사이의 거리에 따라 해상도 및 표시 위치를 결정하고, 상기 차량 위치 정보 및 상기 이동 방향에 상응하여 저장부에서 선별된 시설물 객체에 대하여 이미지 처리를 수행한 객체 이미지를 상기 투명 디스플레이 패널로 전송하여 표시되도록 하는 신호 처리부를 포함하는 객체 표시 장치.
  2. 제1항에 있어서,
    상기 신호 처리부는,
    상기 운전석 이미지로부터 상기 운전자의 얼굴을 인식하고, 상기 얼굴 내의 눈동자를 검출하여 상기 눈동자 위치를 계산하는 얼굴 인식부;
    상기 얼굴 인식부에서 검출한 상기 운전자의 눈동자와 상기 차량의 투명 디스플레이 패널 사이의 거리인 눈동자-유리창 거리를 산출하는 거리 산출부;
    상기 차량 위치 정보 및 상기 이동 방향에 따라 상기 투명 디스플레이 패널에 표시될 시설물 객체를 결정하고, 상기 눈동자 위치 및 상기 눈동자-유리창 거리에 따라 해상도 및 위치를 결정하며, 상기 해상도 및 상기 위치에 따라 상기 시설물 객체에 상응하는 상기 객체 이미지를 생성하는 객체 이미지 생성부를 포함하는 것을 특징으로 하는 객체 표시 장치.
  3. 제2항에 있어서,
    상기 운전자의 운전자 정보가 상기 저장부에 등록되어 있는 경우,
    상기 거리 산출부는 상기 운전석 이미지를 분석한 결과 획득한 양측 눈동자 사이의 거리 정보를 이용하여 상기 눈동자-유리창 거리를 산출하는 것을 특징으로 하는 객체 표시 장치.
  4. 제2항에 있어서,
    상기 이미지 센서에 근접하거나 일체화되어 설치되며, 상기 운전자의 눈동자를 감지하고, 상기 눈동자까지의 거리를 측정하는 거리측정 센서를 더 포함하는 것을 특징으로 하는 객체 표시 장치.
  5. 제4항에 있어서,
    상기 거리 산출부는 상기 거리측정 센서에서 측정한 거리 및 상기 눈동자의 수직 방향 위치를 이용하여 상기 눈동자-유리창 거리를 산출하는 것을 특징으로 하는 객체 표시 장치.
  6. 제2항에 있어서,
    상기 객체 이미지는 상기 차량 위치 정보 및 상기 이동 방향에 따라 상기 차량의 전방에 위치할 것으로 예상되는 시설물 객체의 윤곽선과 상기 운전자의 눈동자를 잇는 직선이 상기 투명 디스플레이 패널과 만나는 점들의 집합으로 이루어진 것을 특징으로 하는 객체 표시 장치.
  7. 제2항에 있어서,
    상기 객체 이미지 생성부는 상기 운전자가 선택한 목적지에 상응하는 경로 정보에 따라 선택된 도로 및 상기 목적지에 상응하는 건물만을 상기 시설물 객체로 선택하여 상기 객체 이미지로 생성하는 것을 특징으로 하는 객체 표시 장치.
  8. 제1항에 있어서,
    상기 이미지 센서는 고정 배율을 가지고 있어 동일한 해상도 및 크기의 영역이 촬상되도록 하는 것을 특징으로 하는 객체 표시 장치.
  9. 제1항에 있어서,
    상기 투명 디스플레이 패널은 상기 차량의 전면 유리창의 일부 또는 전체에 중첩적으로 부착 설치되거나 상기 차량의 전면 유리창의 일부 또는 전체를 대체하도록 설치된 것을 특징으로 하는 객체 표시 장치.
  10. 차량의 전면에 설치된 투명 디스플레이 패널에 가상의 객체를 표시하는 방법으로서,
    (a) 이미지 센서에서 상기 차량의 운전석을 촬상한 운전석 이미지를 생성하는 단계;
    (b) 차량 위치 획득부에서 상기 차량이 현재 위치하고 있는 차량 위치 정보 및 이동 방향을 획득하는 단계; 및
    (c) 신호 처리부에서 상기 운전석 이미지로부터 운전자의 얼굴 및 눈동자를 인식하며, 눈동자 위치 및 상기 눈동자와 상기 투명 디스플레이 패널 사이의 거리에 따라 해상도 및 표시 위치를 결정하고, 상기 차량 위치 정보 및 상기 이동 방향에 상응하여 저장부에서 선별된 시설물 객체에 대하여 이미지 처리를 수행한 객체 이미지를 상기 투명 디스플레이 패널로 전송하는 단계를 포함하는 객체 표시 방법.
  11. 제9항에 있어서,
    상기 단계 (c)는,
    (c1) 상기 운전석 이미지로부터 상기 운전자의 얼굴을 인식하고, 상기 얼굴 내의 눈동자를 검출하여 상기 눈동자 위치를 계산하는 단계;
    (c2) 상기 얼굴 인식부에서 검출한 상기 운전자의 눈동자와 상기 투명 디스플레이 패널 사이의 거리인 눈동자-유리창 거리를 산출하는 단계;
    (c3) 상기 차량 위치 정보 및 상기 이동 방향에 따라 상기 투명 디스플레이 패널에 표시될 시설물 객체를 결정하는 단계;
    (c4) 상기 눈동자 위치 및 상기 눈동자-유리창 거리에 따라 해상도 및 위치를 결정하는 단계;
    (c5) 상기 해상도 및 상기 위치에 따라 상기 단계 (c3)에서 결정된 시설물 객체에 상응하는 상기 객체 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 객체 표시 방법.
  12. 제11항에 있어서,
    상기 운전자의 운전자 정보가 상기 저장부에 등록되어 있는 경우,
    상기 단계 (c2)에서 상기 운전석 이미지를 분석한 결과 획득한 양측 눈동자 사이의 거리 정보를 이용하여 상기 눈동자-유리창 거리를 산출하는 것을 특징으로 하는 객체 표시 방법.
  13. 제11항에 있어서,
    상기 단계 (c2) 이전에, 상기 이미지 센서에 근접하여 설치된 거리측정 센서에서 상기 운전자의 눈동자를 감지하고, 상기 눈동자까지의 거리를 측정하는 단계를 더 포함하는 것을 특징으로 하는 객체 표시 방법.
  14. 제13항에 있어서,
    상기 단계 (c2)에서 상기 거리측정 센서에서 측정한 거리 및 상기 눈동자의 수직 방향 위치를 이용하여 상기 눈동자-유리창 거리를 산출하는 것을 특징으로 하는 객체 표시 방법.
  15. 제11항에 있어서,
    상기 객체 이미지는 상기 차량 위치 정보 및 상기 이동 방향에 따라 상기 차량의 전방에 위치할 것으로 예상되는 시설물 객체의 윤곽선과 상기 운전자의 눈동자를 잇는 직선이 상기 투명 디스플레이 패널과 만나는 점들의 집합으로 이루어진 것을 특징으로 하는 객체 표시 방법.
  16. 제11항에 있어서,
    상기 단계 (c3)는 상기 운전자가 선택한 목적지에 상응하는 경로 정보에 따라 선택된 도로 및 상기 목적지에 상응하는 건물만을 상기 시설물 객체로 선택하는 것을 특징으로 하는 객체 표시 방법.
  17. 제10항에 있어서,
    상기 단계 (a)는 상기 이미지 센서가 고정 배율을 가지고 있어 동일한 해상도 및 크기의 영역이 촬상되도록 하는 것을 특징으로 하는 객체 표시 방법.
  18. 제10에 있어서,
    상기 투명 디스플레이 패널은 상기 차량의 전면 유리창의 일부 또는 전체에 중첩적으로 부착 설치되거나 상기 차량의 전면 유리창의 일부 또는 전체를 대체하도록 설치된 것을 특징으로 하는 객체 표시 방법.
  19. 제10항 내지 제18항 중 어느 한 항에 기재된 객체 표시 방법을 수행하기 위하여 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.
KR1020120042079A 2012-04-23 2012-04-23 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치 KR101361643B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120042079A KR101361643B1 (ko) 2012-04-23 2012-04-23 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120042079A KR101361643B1 (ko) 2012-04-23 2012-04-23 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20130119144A true KR20130119144A (ko) 2013-10-31
KR101361643B1 KR101361643B1 (ko) 2014-02-13

Family

ID=49637095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120042079A KR101361643B1 (ko) 2012-04-23 2012-04-23 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101361643B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180013162A (ko) * 2016-07-28 2018-02-07 엘지전자 주식회사 차량용 어라운드 뷰 제공 장치 및 차량
US11230169B2 (en) 2019-07-04 2022-01-25 Hyundai Mobis Co., Ltd. System and method for controlling window transparency of vehicle according to recognition of driver's gaze
CN114103637A (zh) * 2021-11-15 2022-03-01 佛吉亚歌乐电子(丰城)有限公司 一种显示装置、显示方法、车辆及存储介质
WO2024043424A1 (ko) * 2022-08-23 2024-02-29 김필재 감지된 객체를 이용한 컨텐츠 제공 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102375240B1 (ko) 2015-05-29 2022-03-16 한국단자공업 주식회사 차량용 투명 디스플레이 장치

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005067369A (ja) 2003-08-22 2005-03-17 Nissan Motor Co Ltd 車両用表示装置
JP4771047B2 (ja) 2005-03-22 2011-09-14 株式会社デンソー 車両用情報表示システム
JP2010076524A (ja) 2008-09-25 2010-04-08 Mazda Motor Corp 車両用運転支援装置
KR101072395B1 (ko) 2011-07-21 2011-10-11 한국해양연구원 천정 이동형 투명 디스플레이를 이용한 선박용 증강현실 시스템 및 그 구현 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180013162A (ko) * 2016-07-28 2018-02-07 엘지전자 주식회사 차량용 어라운드 뷰 제공 장치 및 차량
US11230169B2 (en) 2019-07-04 2022-01-25 Hyundai Mobis Co., Ltd. System and method for controlling window transparency of vehicle according to recognition of driver's gaze
CN114103637A (zh) * 2021-11-15 2022-03-01 佛吉亚歌乐电子(丰城)有限公司 一种显示装置、显示方法、车辆及存储介质
CN114103637B (zh) * 2021-11-15 2023-11-03 佛吉亚歌乐电子(丰城)有限公司 一种显示装置、显示方法、车辆及存储介质
WO2024043424A1 (ko) * 2022-08-23 2024-02-29 김필재 감지된 객체를 이용한 컨텐츠 제공 장치

Also Published As

Publication number Publication date
KR101361643B1 (ko) 2014-02-13

Similar Documents

Publication Publication Date Title
JP6763448B2 (ja) 視覚強化ナビゲーション
JP6700623B2 (ja) 走行支援装置及びコンピュータプログラム
US10029700B2 (en) Infotainment system with head-up display for symbol projection
US8352180B2 (en) Device with camera-info
US8423292B2 (en) Navigation device with camera-info
KR101361643B1 (ko) 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치
US11656090B2 (en) Method and system for generating navigation data for a geographical location
MX2007015265A (es) Metodo para determinar informacion de trafico, y un dispositivo dispuesto para realizar el metodo.
KR102531888B1 (ko) 자동차에서 디스플레이 장치를 작동하기 위한 방법
CN109849788B (zh) 信息提供方法、装置及系统
KR20110114114A (ko) 실사형 3차원 네비게이션 구현방법
US20200318989A1 (en) Route guidance apparatus and method
US20230025209A1 (en) Method for displaying a surroundings model of a vehicle, computer program, electronic control unit and vehicle
JP2016091192A (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
CN112484743A (zh) 车载hud融合实景导航显示方法及其系统
US20190337455A1 (en) Mobile Body Surroundings Display Method and Mobile Body Surroundings Display Apparatus
CN113924461A (zh) 用于目标引导至目标人员的方法、目标人员的电子设备和接送者的电子设备以及机动车
JP2021014262A (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2024055137A (ja) 車外環境検出システムおよび車両
KR20150070504A (ko) 장애물 투시 영상 제공 방법 및 이를 적용한 자동차의 주행 안내 시스템
KR20080033359A (ko) 교통 정보를 결정하기 위한 방법, 및 상기 방법을수행하도록 구성된 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180129

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200128

Year of fee payment: 7