KR20180070198A - 차량 및 차량의 제어방법 - Google Patents

차량 및 차량의 제어방법 Download PDF

Info

Publication number
KR20180070198A
KR20180070198A KR1020160172618A KR20160172618A KR20180070198A KR 20180070198 A KR20180070198 A KR 20180070198A KR 1020160172618 A KR1020160172618 A KR 1020160172618A KR 20160172618 A KR20160172618 A KR 20160172618A KR 20180070198 A KR20180070198 A KR 20180070198A
Authority
KR
South Korea
Prior art keywords
image
mark
character
vehicle
navigation data
Prior art date
Application number
KR1020160172618A
Other languages
English (en)
Inventor
김용
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160172618A priority Critical patent/KR20180070198A/ko
Priority to US15/585,272 priority patent/US10670419B2/en
Priority to CN201710423026.0A priority patent/CN108202747B/zh
Publication of KR20180070198A publication Critical patent/KR20180070198A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3661Guidance output on an external device, e.g. car radio
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3688Systems comprising multiple parts or multiple output devices (not client-server), e.g. detachable faceplates, key fobs or multiple output screens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1473Recognising objects as potential recognition candidates based on visual cues, e.g. shapes
    • B60K2350/1004
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • B60W2550/402
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

개시된 발명의 일 측면은 TBT와 같은 안내 표시를 클러스터와 같은 차량 내 인터페이스와 연동하여 표시함으로써, 운전자의 주위 분산을 억제하고, 폰 커넥티비티의 활용성을 증가시켜 안정성과 편의성을 보장하는 차량 및 차량의 제어방법을 제공한다.
개시된 일 실시예에 따른 차량은 외부로부터 내비게이션 데이터를 전달받는 통신부; 상기 내비게이션 데이터를 출력하는 차량 인터페이스부; 및 상기 내비게이션 데이터를 기초로 마크 및 문자 중 적어도 하나를 인식하고, 상기 차량 인터페이스부를 제어하여 상기 마크 및 문자 중 적어도 하나를 출력하는 제어부;를 포함한다.

Description

차량 및 차량의 제어방법{VEHICLE AND CONTROLLING METHOD OF VEHICLE}
개시된 발명은 경로 안내 표시를 추출하는 차량 및 차량의 제어방법에 관한 것이다.
내비게이션 장치는 GPS(Global Positioning System)로부터 수신한 정보를 이용하여 차량의 현재 위치를 지도상에 표시하고, 입력된 목적지에까지의 경로를 안내한다.
경로 안내를 위해서 내비게이션 장치는 도로 및 주변 환경에 대한 영상을 표시한다. 특히 도로상을 주행하는 차량에 적용되는 차량용 내비게이션 장치는 현재의 주행 도로 및 위치와 도로의 주행 경로와 함께 방향전환정보를 실시간으로 알려주는 턴바이턴(Turn By Turn, TBT) 안내 등과 같은 안내 표시를 시각적 또는 청각적으로 제공하고 있다.
한편, 차량용 내비게이션은 급격하게 변화하는 주변 환경에 대한 정보를 실시간으로 업데이트하지 못 한다. 이에 따라 최근의 차량은 사용자 단말과 커넥티비티(Connectivity) 기술을 통해 업데이트되는 정보를 제공받는다.
여러 IT업체 또는 국제 단체, 예를 들어 애플(Apple)의 CarPlay, 구글(Google)의 Android Auto, 바이두(Baidu)의 CarLife 및 CCC(Car Connectivity Consortium)의 미러링크(MirrorLink)는 이러한 커넥티비티 기술을 선보이고 있다.
커넥티비티 기술에서 사용자 단말은 차량에 제공하는 영상을 스트리밍(Streaming)으로 전송하며, TBT 와 같은 안내 표시를 별도로 전송하지 않는다. 이에 따라 종래 차량은 내비게이션 장치만이 사용자 단말이 제공하는 영상 또는 안내 표시를 출력할 뿐, 클러스터(Cluster) 또는 HUD(Head-Up Display)가 같은 다른 구성에서 표시를 출력하지 않는다.
또한, 차량에서 사용되는 네트워크, 예를 들어 CAN(Controller Area Network) 등은 좁은 대역폭(Bandwidth) 때문에 사용자 단말이 제공하는 안내 표시를 직접적으로 제공받을 수 없었다.
개시된 발명의 일 측면은 TBT와 같은 안내 표시를 클러스터와 같은 차량 내 인터페이스와 연동하여 표시함으로써, 운전자의 주위 분산을 억제하고, 폰 커넥티비티의 활용성을 증가시켜 안정성과 편의성을 보장하는 차량 및 차량의 제어방법을 제공한다.
개시된 일 실시예에 따른 차량은 외부로부터 내비게이션 데이터를 전달받는 통신부; 상기 내비게이션 데이터를 출력하는 차량 인터페이스부; 및 상기 내비게이션 데이터를 기초로 마크 및 문자 중 적어도 하나를 인식하고, 상기 차량 인터페이스부를 제어하여 상기 마크 및 문자 중 적어도 하나를 출력하는 제어부;를 포함한다.
상기 제어부는, 상기 내비게이션 데이터에서 디코딩(decoding) 또는 렌더링(Rendering)되는 영상을 캡쳐하고, 상기 캡쳐된 영상을 기초로 상기 마크 및 상기 문자 중 적어도 하나를 인식할 수 있다.
상기 제어부는, 상기 영상을 프레임 버퍼에 저장하고, 상기 프레임 버퍼에 저장된 상기 영상을 캡쳐할 수 있다.
상기 차량 인터페이스부는, 클러스터, HUD(Head-Up Display) 및 AVN(Audio Video Navigation) 중 적어도 하나를 포함하고, 상기 제어부는, 상기 클러스터 및 상기 HUD 중 적어도 하나로 상기 인식된 마크 및 문자 중 적어도 하나를 출력할 수 있다.
상기 제어부는, 상기 영상을 상기 AVN을 통해 출력할 수 있다.
상기 제어부는, 상기 캡쳐된 영상에서 인식 영역을 추출하고, 상기 인식 영역에 기초하여 상기 문자 및 상기 마크 중 적어도 하나를 인식할 수 있다.
상기 통신부는, 상기 인식 영역의 영역 정보를 수신하고, 상기 제어부는, 상기 영역 정보의 업데이트 여부에 기초하여 상기 인식 영역을 변경할 수 있다.
상기 마크는, 삼각 모양 및 꼬리 모양을 포함하고, 상기 제어부는, 상기 삼각 모양과 상기 꼬리 모양이 동일 색상인지 여부에 기초하여 상기 마크를 인식할 수 있다.
상기 제어부는, 상기 삼각 모양의 회전 각도에 기초하여 지시 문구를 생성할 수 있다.
상기 제어부는, 상기 문자를 기초로 TBT(Turn By Turn) 정보를 포함하는 안내 표시를 인식할 수 있다.
상기 제어부는, 상기 안내 표시에 포함된 거리 단위의 위치에 기초하여 잔여 거리를 인식할 수 있다.
상기 AVN을 통해 출력되는 영상을 촬영하는 카메라;를 더 포함하고, 상기 제어부는, 상기 카메라가 전달하는 상기 영상을 기초로 상기 마크 및 상기 문자 중 적어도 하나를 인식할 수 있다.
상기 카메라는, 사용자 단말이 표시하는 상기 영상을 촬영할 수 있다.
다른 실시예에 따른 차량의 제어방법은, 외부로부터 내비게이션 데이터를 전달받고; 차량 인터페이스부가 상기 내비게이션 데이터를 출력하고; 상기 내비게이션 데이터를 기초로 마크 및 문자 중 적어도 하나를 인식하고; 상기 인식된 마크 및 문자 중 적어도 하나를 출력하도록 상기 차량 인터페이스부를 제어하는 것;을 포함한다.
상기 인식하는 것은, 상기 내비게이션 데이터에서 디코딩(decoding) 또는 렌더링(Rendering)되는 영상을 캡쳐하고, 상기 캡쳐된 영상을 기초로 상기 마크 및 상기 문자 중 적어도 하나를 인식하는 것;을 포함 할 수 있다..
상기 출력하는 것은, 상기 차량 인터페이스가 상기 영상을 출력하는 것;을 포함 할 수 있다.
상기 차량 인터페이스부는, 클러스터, HUD(Head-Up Display) 및 AVN(Audio Video Navigation) 중 적어도 하나를 포함 할 수 있다.
상기 제어하는 것은, 상기 클러스터 및 상기 UHD 중 적어도 하나가 상기 인식된 마크 및 문자 중 적어도 하나를 출력하도록 제어하는 것;을 포함 할 수 있다.
상기 인식하는 것은, 상기 영상을 프레임 버퍼에 저장하고, 상기 프레임 버퍼에 저장된 상기 영상을 캡쳐하고, 상기 캡쳐된 영상을 기초로 상기 마크 및 상기 문자 중 적어도 하나를 인식하는 것;을 포함 할 수 있다.
상기 AVN에 출력되는 영상을 촬영하는 것;을 더 포함하고, 상기 인식하는 것은, 상기 촬영되는 영상에 기초하여 상기 문자 및 상기 마크 중 적어도 하나를 인식하는 것;을 포함할 수 있다.
개시된 차량 및 차량의 제어방법은 TBT와 같은 안내 표시를 클러스터와 같은 차량 내 다른 시스템과 연동하여 표시함으로써, 운전자의 주위 분산을 억제하고, 폰 커넥티비티의 활용성을 증가시켜 안정성과 편의성을 보장한다.
도 1은 일 실시예에 따른 차량의 외관도이다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 3은 일 실시예에 따른 차량에 있어서, 차량 인터페이스부가 디스플레이 장치인 경우의 실시예에 관한 제어 블록도이다.
도 4는 일 실시예에 따른 차량 인터페이스부의 외관을 나타낸 외관도이다.
도 5는 일 실시예에 따른 차량에 있어서 HUD 모듈의 구성을 나타낸 구성도이다.
도 6는 일 실시예에 따라 AVN 디스플레이에 내비게이션 화면이 표시되는 예시를 도시한 도면이다.
도 7은 클러스터 디스플레이에 내비게이션 화면이 표시되는 예시를 나타낸 도면이다.
도 8은 HUD에 안내 표시가 출력되는 예시를 나타낸 도면이다.
도 9는 다른 실시예에 따른 차량의 제어 블록도이다.
도 10은 일 실시예에 따른 차량의 제어방법을 설명하기 위한 순서도이다.
도 11은 일 실시예에 따라 마크 또는 문자의 인식률을 높이기 위한 방법을 설명하기 위한 도면이다.
도 12는 다른 실시예에 따라 마크 또는 문자의 인식률을 높이기 위한 방법을 설명하기 위한 순서도이다.
도 13은 마크 또는 문자의 인식률을 높이기 위한 또 다른 실시예를 설명하기 위한 도면이다.
도 14는 도 13에서 지시 문구가 인식되지 않은 경우 마크를 통해 지시 문구를 생성하는 방법을 설명하기 위한 순서도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 개시된 차량 및 차량의 제어방법의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 일 실시예에 따른 차량의 외관도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량(1)은 차량(1)의 외관을 형성하는 본체(2), 차량(1)을 이동시키는 차륜(3, 4), 차륜(3, 4)을 회전시키는 구동 장치(60), 차량(1) 내부를 외부로부터 차폐시키는 도어(6, 7), 차량(1) 내부의 운전자에게 차량(1) 전방의 시야를 제공하는 전면 유리(10), 운전자에게 차량(1) 후방의 시야를 제공하는 사이드 미러(13, 14)를 포함한다.
차륜(3, 4)은 차량의 전방에 마련되는 전륜(3), 차량의 후방에 마련되는 후륜(4)을 포함하며, 구동 장치(60)는 본체(2)가 전방 또는 후방으로 이동하도록 전륜(3) 또는 후륜(4)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 채용할 수 있다.
도어(6, 7)는 본체(2)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(1)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(1)의 내부를 외부로부터 차폐시킨다.
윈드 스크린(10)은 본체(2)의 전방 상측에 마련되어 차량(1) 내부의 운전자가 차량(1) 전방의 시각 정보를 획득할 수 있도록 한다. 또한, 사이드 미러(13, 14)는 본체(2)의 좌측에 마련되는 좌측 사이드 미러(13) 및 우측에 마련되는 우측 사이드 미러(14)를 포함하며, 차량(1) 내부의 운전자가 차량(1) 측면 및 후방의 시각 정보를 획득할 수 있도록 한다.
이외에도 차량(1)은 설명하지 않은 다른 구성을 포함할 수 있으며, 제한은 없다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 2를 참조하면, 일 예에 따른 차량(1)은 사용자 단말(200)로부터 데이터를 수신하는 통신부(90), 사용자의 조작에 의해 출력이 제어되는 차량 인터페이스부(110), 사용자 단말(200)이 전달하는 영상 데이터에서 TBT(Turn By Turn)와 같은 안내 표시를 추출하는 영상 분석부(120), 영상 데이터 및 제어 동작에 필요한 데이터 등을 저장하는 저장부(130) 및 전술한 각 구성을 총괄하여 제어하는 제어부(100)를 포함한다.
통신부(90)는 차량(1)의 외부 기기, 예를 들어 사용자 단말(200)가 전달하는 데이터를 전달받는 전자 제어 유닛(Electronic Control Unit, ECU) 및 인터페이스를 포함하는 하드웨어적 또는 소프트웨어적 장치를 의미한다.
구체적으로 통신부(90)는 근거리 통신, 무선 통신 및 유선 통신을 수행하여 차량(1)의 외부와 연결되고, 제어부(100)가 처리하는 각종 데이터 및 제어 명령을 차량(1)의 각 구성 및 전자 제어 유닛으로 전달할 수 있다.
구체적으로 통신부(90)는 근거리 통신 모듈을 포함할 수 있으며 블루투스(Bluetooth), 적외선 통신, RFID(Radio Frequency Identification) 통신, WLAN(Wireless Local Access Network) 통신, NFC 통신, 직비(Zigbee) 통신 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신을 수행할 수 있다.
일 예로, 통신부(90)는 사용자 단말(200)이 전달하는 음악 데이터 또는 내비게이션 데이터를 블루투스를 통해 수신하고, 제어부(100)로 전달할 수 있다. 여기서 음악 데이터는 소리를 출력에 필요한 음원이 포함된 정보를 의미하고, 내비게이션 데이터는 차량(1)의 주행 경로, 안내 표시, 주변 영상 데이터를 포함하는 정보를 의미한다.
통신부(90)는 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
일 예로, 통신부(90)는 GPS를 통해 차량(1)의 외부에서 전달하는 위치 정보를 수신하고, 제어부(100)로 전달할 수 있다.
통신부(90)는 USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신을 통해서 차량(1)의 외부와 유선 연결이 가능한다.
일 예로, 사용자 단말(200)은 차량(1) 내부에 설치된 USB 포트(91, 도 4 참조)를 통해 유선으로 통신부(90)와 연결될 수 있으며, 통신부(90)는 사용자 단말(200)이 제공하는 내비게이션 데이터를 제어부(100)로 전달할 수 있다.
통신부(90)는 차량(1) 내 각종 구성을 차량용 유선 네트워크를 통해 제어부(100)와 연결할 수 있다. 이러한 유선 네트워크는 CAN(Controller Area Network), LIN(Local Interconnection Network), 플렉스레이(FlexRay), 이더넷(Ethernet) 등과 같은 차량의 내부 통신 프로토콜을 이용하여 데이터 및 제어 명령을 주고 받을 수 있다.
이러한 차량용 유선 네트워크는 좁은 대역폭(Bandwidth)를 가지는 것이 일반적이다. 따라서 통신부(90)가 사용자 단말(200)로부터 수신하는 대용량의 데이터는 별도의 라인에 의해서 연결된 AVN(Audio Video Navigation, 113) 등에 제한적으로 전달될 수 있다.
일 예로, 종래 차량(1)에서 사용자 단말(200)이 전달하는 내비게이션 데이터 중 안내 표시는 AVN(113)의 디스플레이에만 표시되고, 클러스터(111) 및 HUD 모듈(Head-Up Display, 112)의 디스플레이에 출력되지 않는다.
개시된 차량(1)은 차량 용 유선 네트워크의 제한을 극복하고, 후술하는 동작을 통해 전달되는 내비게이션 데이터 중 안내 표시를 추출하고, 클러스터(111)와 같은 다른 구성에서 안내 표시를 출력할 수 있다.
차량 인터페이스부(110)는 사용자의 조작에 의해 출력이 제어되는 장치 다시 말해, 사용자의 조작에 따라 그 출력이 달라질 수 있는 모든 장치를 포함할 수 있는 것으로 하는바, 예를 들어 시각적 또는 청각적 컨텐츠를 출력할 수 있는 장치 또는 차량 내부의 조명이나 온도 등의 환경을 제어할 수 있는 장치를 의미할 수 있다.
사용자는 운전자 및 동승자를 포함하며, 운전자가 차량의 시동을 켜 차량 인터페이스부(110)에 전원을 공급할 수 있는 상태가 되면, 사용자가 차량 인터페이스부(110)를 온(on) 시키거나 차량 인터페이스부(110)가 자동으로 온 될 수 있다.
차량 인터페이스부(110)가 온 되면, 사용자는 차량 인터페이스부(110)를 조작하여 원하는 결과가 출력되도록 할 수 있다. 예를 들어, 차량 인터페이스부(110)가 디스플레이 장치인 경우에는 차량 인터페이스부(110)를 조작하여 원하는 영상이 나오도록 할 수 있고, 차량 인터페이스부(110)가 조명 장치인 경우에는 차량 내부의 조명의 색 또는 밝기를 원하는 색 또는 밝기로 조절할 수 있다. 또는, 차량 인터페이스부(110)가 온도 제어 장치인 경우에는 차량 내부의 온도를 원하는 온도로 조절할 수 있다.
차량 인터페이스부(110)에 관한 구체적인 실시예는 도 3을 통해서 후술한다.
영상 분석부(120)는 영상 데이터에서 문자 또는 마크를 추출하는 장치 또는 모듈을 의미한다.
구체적으로 영상 분석부(120)는 사용자 단말(200)이 제공하는 스트리밍 영상에서 광학마크인식(Optical Mark Recognition, OMR) 또는 광학문자인식(Optical Character Recognition, OCR) 기술을 이용하여 안내 표시를 추출할 수 있다.
광학마크인식(OMR)이란, 일반적으로 문서에 빛을 비춰 표시된 위치를 인식하여 마크 등과 같은 데이터를 얻는 기술을 의미한다. 개시된 영상 분석부(120)는 내비게이션 데이터에 포함된 영상을 캡쳐(Capture)한 이미지에서 마크 주위의 픽셀(Pixel)값의 차이에 기초하여 마크를 인식한다.
광학문자인식(OCR)은 문자가 포함된 영상을 이미지 스캐너로 받아들여 기계적으로 읽을 수 있는 문자로 변환하는 기술을 의미한다. 개시된 영상 분석부(120)는 내비게이션 데이터에 포함된 영상을 캡쳐한 이미지에서 문자를 인식한다.
한편, 영상 분석부(120)는 설명의 편의를 위해 제어부(100)와 구분한 것으로, 영상 분석부(120)는 제어부(100)와 단일 칩(Chip)으로 마련되어 제어부(100)가 영상 분석부(120)의 역할을 수행할 수도 있다.
저장부(130)는 제어부(100)가 처리하는 각종 데이터를 저장하거나, 제어부(100)의 동작에 필요한 알고리즘을 저장하는 장치를 의미한다.
개시된 저장부(130)는 통신부(90)가 전달하는 내비게이션 데이터를 임시적으로 저장하거나, 제어부(100)가 처리한 영상을 일시적으로 기억하는 프레임 버퍼(Frame Buffer)의 역할을 수행할 수도 있다.
일 예로, 제어부(100)는 통신부(90)가 전달하는 내비게이션 데이터를 디코딩(Decoding)한다. AVN(111)의 디스플레이로 출력하기 전 디코딩된 영상을 프레임 버퍼에 저장한다.
한편, 저장부(130)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체를 모두 포함할 수 있으며, 제어부(100)와 함께 단일 칩으로 마련될 수도 있으며, 제한은 없다.
제어부(100)는 전술한 구성 뿐만 아니라 차량(1)의 각종 전자 제어 장치를 총괄적으로 제어하는 프로세서(Processor), 즉 헤드 유닛(Head Unit)을 의미한다.
일 예에 따른 제어부(100)는 사용자 단말(200)이 전달하는 내비게이션 데이터에서 안내 표시를 추출하고, 클러스터(111) 또는 HUD 모듈(112)이 안내 표시를 출력하도록 제어한다.
구체적으로 제어부(100)는 저장부(130)에 포함된 캡쳐된 영상을 기초로 영상 분석부(120)가 문자 인식 또는 마크 인식을 수행하도록 제어할 수 있다. 또한, 제어부(100)는 인식된 문자 또는 마크를 클러스터(111) 또는 HUD 모듈(112) 중 적어도 하나로 전송한다. 이와 관련된 자세한 설명은 이하의 도면을 통해서 후술한다.
한편, 도 2에서 도시된 구성 중 통신부(90), 영상 분석부(120), 저장부(130) 및 제어부(100)는 설명의 편의를 위해 구분한 것으로 단일 칩(Chip)으로 구현될 수 있으며, 제한은 없다.
도 3은 일 실시예에 따른 차량에 있어서, 차량 인터페이스부가 디스플레이 장치인 경우의 실시예에 관한 제어 블록도이다.
도 3을 참조하면, 차량 인터페이스부(110)는 클러스터(111), HUD(Head Up Display) 모듈(112) 및 AVN(Audio Video Navigation 113)을 포함할 수 있다.
클러스터(111)는 사용자의 조작에 따라 차량의 주행 정보 및 인식된 안내 표시를 출력하는 클러스터 디스플레이(111b), 클러스터(111)가 수행하는 기능을 전반적으로 제어하고 클러스터 디스플레이(111b)에 표시될 영상을 생성하는 클러스터 제어부(111a) 및 사용자로부터 클러스터(111)에 관한 제어 명령을 입력받는 클러스터 입력부(111c)를 포함한다.
HUD 모듈(112)은 사용자의 조작에 따라 차량의 속도 정보, 인식된 안내 표시 등을 표시하는 HUD(112b), HUD 모듈(113)이 수행하는 기능을 전반적으로 제어하고 HUD(112b)에 표시될 영상을 생성하는 HUD 제어부(112a) 및 사용자로부터 HUD 모듈(112)에 관한 제어 명령을 입력받는 HUD 입력부(112c)를 포함한다.
AVN(113)은 사용자의 조작에 따라 오디오 기능, 비디오 기능 및 내비게이션 기능을 수행할 수 있는 장치로서, 동시에 둘 이상의 기능을 수행하는 것도 가능하다. 예를 들어, 오디오를 온 시켜 CD 또는 USB에 기록된 음악을 재생시킴과 동시에 내비게이션 기능을 수행하도록 할 수 있고, 비디오를 온 시켜 DMB 영상을 표시함과 동시에 내비게이션 기능을 수행하도록 할 수도 있다.
AVN(113)은 오디오 기능과 관련된 화면, 비디오 기능과 관련된 화면 또는 내비게이션 기능과 관련된 화면을 표시하는 AVN 디스플레이(113b), AVN(113)이 수행하는 기능을 전반적으로 제어하고 AVN 디스플레이(113b)에 표시될 영상을 생성하는 AVN 제어부(113a) 및 사용자로부터 AVN(113)에 관한 제어 명령을 입력받는 AVN 입력부(113c)를 포함한다.
아울러, 도면에 도시되지는 않았으나, AVN(113)은 오디오 기능, 비디오 기능 및 내비게이션 기능을 수행함에 있어 음향도 출력하므로 음향 출력부를 더 포함할 수 있다.
한편, 클러스터 제어부(111a) 및 HUD 제어부(112a)는 제어부(100)가 전달받은 안내 표시를 디스플레이(111b, 111c)를 통해 출력한다. 이를 통해서 사용자, 특히 운전자는 고개를 돌려 AVN 디스플레이(113b)를 응시하지 않아도, AVN(111)이 출력하는 안내 표시를 확인할 수 있다. 즉, 개시된 차량(1)은 운전자의 주위 분산을 억제하고, 안정성 및 편의성을 증대시킨다.
도 4는 일 실시예에 따른 차량 인터페이스부의 외관을 나타낸 외관도이고, 도 5는 일 실시예에 따른 차량에 있어서 HUD 모듈의 구성을 나타낸 구성도이다.
도 4를 참조하면 AVN 디스플레이(113b)는 사용자 특히, 운전자가 운전 중에 표시된 영상을 보거나 조작할 수 있도록 차량 앞쪽 대시보드(dashboard, 30)의 센터페시아(center fascia, 31)에 마련될 수 있다. 센터페시아(31)는 운전석(21)과 조수석(22) 사이에 컨트롤 패널 보드가 위치하는 대시보드(30)의 중앙 영역을 의미한다.
AVN 디스플레이(113b)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diode), CRT(Cathode Ray Tube) 등으로 구현될 수 있다.
AVN 입력부(113c)는 도 4에 도시된 바와 같이 AVN 디스플레이(113b)와 인접한 영역에 하드 키(hard key) 형태로 마련될 수도 있고, AVN 디스플레이(113b)가 터치 스크린 형태로 구현되는 경우에는 AVN 디스플레이(113b)의 일 영역에 소프트키(soft key) 형태로 마련되는 것도 가능하다.
클러스터(111)는 운전자가 운전 중에 계기판을 확인할 수 있도록 대시보드(30)의 영역 중 스티어링 휠(32)과 대면하는 영역에 마련되며, 클러스터 디스플레이(111b) 역시 LCD(Liquid Crystal Display), LED(Light Emitting Diode), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diode), CRT(Cathode Ray Tube) 등으로 구현되는 될 수 있다.
클러스터(111)는 클러스터 디스플레이(111b) 뿐만 아니라 차량의 속도를 나타내는 속도 게이지(111d), 차량의 RPM을 나타내는 RPM 게이지(111e) 및 차량의 연료량을 나타내는 연료 게이지(111f)를 더 포함할 수 있는바, 클러스터 디스플레이(111b)는 도 4에 도시된 바와 같이 속도 게이지(111d)와 RPM 게이지(111e) 사이에 위치할 수 있다. 다만, 이는 일 예시에 불과하고 본 발명의 실시예는 클러스터 디스플레이(111b)의 위치에 제한을 두지 않는다.
클러스터 입력부(111c)는 스티어링 휠(32)의 일 영역에 하드 키 형태로 마련되어 운전자가 스티어링 휠(32)을 잡은 상태에서 조작할 수 있도록 하는 것이 가능하다. 또는, 스티어링 휠(32)의 뒤쪽에 레버 형태로 마련되어 사용자가 레버를 전방으로 밀거나, 후방으로 당기거나, 위로 올리거나, 아래로 올리는 등의 조작을 통해 클러스터(111)를 제어할 수 있도록 하는 것도 가능하다.
HUD 모듈(112)은 사용자에게 제공하는 시각적 정보가 차량의 전면 유리(10)에 나타나도록 하는 장치이다. 전면 유리(10)는 윈드쉴드 글라스(windshield glass) 라고도 한다. HUD 모듈(112)에서 출력하는 영상은 도 5에 도시된 바와 같이 전면 유리(10)의 디스플레이 영역(11)을 통해 표시되는바, 이하 도 5을 함께 참조하여 HUD 모듈(112)의 구성 및 동작을 구체적으로 설명한다.
도 5를 참조하면, HUD(112b)는 차량(1)의 앞쪽에 마련되며 HUD(112b)의 전방에는 반사판(112d)이 마련될 수 있다. HUD(112b)가 전방으로 영상을 출력하면, 출력된 영상은 반사판(112d)에 의해 반사되어 전면 유리(10)에 투사된다. 이 때, 전면 유리(10)는 컴바이너(combiner)의 역할을 한다.
투사된 영상은 전면 유리(10)에 의해 반사되어 운전자(20)의 시선에 전달되는바, 운전자(20)는 도 4에 도시된 바와 같이 전면 유리(10)의 디스플레이 영역(11)을 통해 영상을 보게 되지만 운전자(20)의 시선에 전달된 영상은 실제로는 전면 유리(10)의 외부에 형성된 허상(11a)이다.
도 5에 도시된 HUD 모듈(112)의 구성은 본 발명의 일 실시예에 불과하며, HUD 모듈(112)의 구조에 따라 반사판(112d)을 복수 개 구비하거나, 반사판(112d)을 구비하지 않거나 또는 추가적으로 회절 소자를 구비하는 것도 가능하다.
다시 도 4를 참조하면, HUD 입력부(112c)도 클러스터 입력부(111c)와 마찬가지로 스티어링 휠(32)의 일 영역에 하드 키 형태로 마련되어 운전자가 스티어링 휠(32)을 잡은 상태에서 조작할 수 있도록 하는 것이 가능하다. 또는, 스티어링 휠(32)의 뒤쪽에 레버 형태로 마련되어 사용자가 레버를 전방으로 밀거나, 후방으로 당기거나, 위로 올리거나, 아래로 올리는 등의 조작을 통해 클러스터(111)를 제어할 수 있도록 하는 것도 가능하다.
도 4의 실시예에서는 클러스터 입력부(111c), HUD 입력부(112c) 및 AVN 입력부(113c)가 따로 마련되는 것으로 설명하였으나, 클러스터 입력부(111c)가 HUD 입력부(112c) 또는 AVN 입력부(113c)의 기능을 함께 수행하거나, HUD 입력부(112c)가 클러스터 입력부(111c) 또는 AVN 입력부(113c)의 기능을 함께 수행하거나, AVN 입력부(113c)가 클러스터 입력부(111c) 또는 HUD 입력부(112c)의 기능을 함께 수행할 수 있도록 하는 것도 가능하다.
한편, 도 4에 도시된 차량(1)의 내부는 사용자 단말(200)이 USB 포트(91)를 통해 제어부(100)와 연결된 상태를 일 예로 한다.
구체적으로 사용자 단말(200)은 USB 포트(91)를 통해 사용자 단말(200)이 스트리밍(Streaming)으로 전달하는 내비게이션 데이터를 통신부(90)로 전달한다. 통신부(90)는 제어부(100)로 내비게이션 데이터를 전달하고, 제어부(100)는 영상 처리를 거쳐 AVN 디스플레이(113b)에 내비게이션 화면을 표시할 수 있다.
도 6는 일 실시예에 따라 AVN 디스플레이에 내비게이션 화면이 표시되는 예시를 도시한 도면이다.
사용자 단말(200)이 통신부(90)를 통해 내비게이션 데이터를 전달하는 경우, 도 6에 도시된 바와 같이 AVN 디스플레이(113b)에는 내비게이션 화면이 표시된다. 도 6의 하단의 도면은 내비게이션 화면을 확대한 것이다.
도 6의 상단에서 도시한 바와 같이, AVN 디스플레이(113b)는 사용자 단말(200)이 제공하는 내비게이션 데이터를 영상으로 출력하고 있다.
한편, 사용자가 내비게이션 기능을 포함하는 둘 이상의 기능을 선택한 경우라도 AVN 제어부(113a)는 AVN 디스플레이(113b)에 내비게이션 화면이 표시되도록 선택할 수 있다. 예를 들어, 사용자 단말(200)로부터 전달되는 내비게이션 데이터를 출력하면서, 동시에 오디오 기능을 선택하여 음악을 감상할 수 있다. 이 경우 사용자는 내비게이션 입력부(111c)를 통해서 둘 이상의 기능을 각각 제어할 수 있다.
도 6의 하단을 참조하면, 내비게이션 디스플레이(113b)에 표시된 일 예에 따른 내비게이션 데이터는 목적지까지의 경로 상 위치하는 일정 영역의 주변 환경을 간략하게 도형화한 영상 데이터(300) 및 영상 데이터(300)에 포함되고 경로 상에 사용자가 인지할 필요가 있는 안내 표시(400)를 포함한다.
구체적으로 영상 데이터(300)는 차량(1)의 현재 위치(310), 목적지까지의 경로(320), 및 내비게이션 데이터(300)는 경로 상에 위치하는 여러 주변 정보를 간략한 모형이나 아이콘(Icon)을 포함할 수 있다.
안내 표시(400)는 경로 상 사용자가 인지할 필요가 있는 정보, 예를 들어 제한 속도의 초과 여부를 감시하는 감시 카메라에 관한 정보 및 영상(300)과 같이 경로 상 스티어링 휠(32) 조작이 필요한 상황 정보 등을 포함할 수 있다.
안내 표시(400)는 구체적으로 좌회전을 유도하는 화살표 모양의 마크(410), 현재 위치(310)에서 좌회전까지 남은 거리를 알려주는 잔여 거리(420), 거리 단위(430) 및 23번 거리(23rd ST)에서 회전(turn)이 필요하다는 지시 문구(440)를 포함한다.
안내 표시(400) 중 차량(1)의 회전을 유도하는 화살표 모양의 마크(410), 잔여 거리(420), 거리 단위(430) 및 23번 거리(23rd ST)에서 회전(turn)이 필요하다는 지시 문구(440)은 TBT(Turn By Turn) 정보의 일 예이다. 즉, TBT 정보는 경로 상 운전자가 인지할 필요가 있는 차량(1)의 회전 유도 정보를 의미한다.
또한, 안내 표시(400)는 TBT 정보 이외에도 목적지까지 도착 예정 시간(Estimated Time of Arrival, ETA), 도착 예정 소요시간 및 남은 거리를 포함할 수 있다. 도 6의 안내 표시(400)에서 도착 예정 시간은 9시 51분이고, 도착 예정 소요시간은 10분이며, 남은 거리는 1.7 mile이다.
차량(1)은 앞서 언급한 영상 데이터(300) 및 안내 표시(400)를 포함하는 내비게이션 데이터를 사용자 단말(200)로 전달받아 AVN(113)을 통해 출력할 수 있다. 그러나 사용자가 운전 중 AVN 디스플레이(113b)를 주시하기 위해서 고개를 돌려야 하는 불편이 있었다. 이런 불편을 최소화하기 위해서 개시된 차량(1)은 안내 표시(400)를 클러스터 디스플레이(111b) 또는 HUD 디스플레이(111c)에 출력하여 운전자의 주의 분산을 억제한다.
한편, 도6은 일 예에 불과하며, 다양한 변형례를 포함할 수 있다.
도 7은 클러스터 디스플레이에 내비게이션 화면이 표시되는 예시를 나타낸 도면이고, 도 8은 HUD에 안내 표시가 출력되는 예시를 나타낸 도면이다.
제어부(100)는 사용자 단말(200)이 전달하는 내비게이션 데이터를 수신하여 AVN(113)으로 전달하기 전에 내비게이션 데이터를 캡쳐할 수 있다. 제어부(100)는 캡쳐한 영상 데이터(300)를 영상 분석부(120)로 전달하고, 영상 분석부(120)는 영상 데이터(300)에서 안내 표시(400)를 인식한다.
일 예로 영상 분석부(120)가 인식하는 안내 표시는 마크(410), 잔여 거리(420), 거리 단위(430) 및 지시 문구(440)을 포함할 수 있다.
사용자가 클러스터 입력부(111a)를 조작하여 안내 표시(400)를 출력하도록 선택한 경우, 제어부(100)는 도 7에서 도시한 바와 같이, 클러스터 디스플레이(111b)에 인식된 안내 표시(400)가 출력되도록 제어한다.
사용자가 HUD 입력부(112c)를 조작하여 안내 표시(400)를 출력하도록 선택한 경우, 제어부(100)는 도 8에서 도시한 바와 같이, HUD(112b)에 인식된 안내 표시(400)가 출력되도록 제어한다. 도 5에서 설명한 바와 같이, HUD(112b)에 표시되는 영상은 전면 유리(10)의 디스플레이 영역(31)을 통해 사용자에게 보여지므로, 디스플레이 영역(11)을 통해 보여지는 영상이 곧 HUD(112b)에 표시되는 영상이 된다.
한편, 클러스터 디스플레이(111b), HUD(112b) 및 AVN 디스플레이(111c)가 표시하는 화면이 도 6b내지 도 8에 도시된 예시에 한정되는 것은 아니다. 상기 예시들 외에도 내비게이션 데이터가 포함하는 다양한 문자 또는 마크를 표시할 수 있으나, 이하 상술하는 실시예는 설명의 편의를 위해서 클러스터 클러스터 디스플레이(111b), HUD(112b) 및 AVN 디스플레이(111c)가 도 6b내지 도 8에 도시된 화면을 표시하는 것으로 가정하고 설명한다.
도 9는 다른 실시예에 따른 차량의 제어 블록도이다.
도 9를 참조하면, 다른 예에 따른 차량(1)은 사용자 단말(200)이 표시하는 내비게이션 데이터를 촬영하는 카메라(140), 사용자의 조작에 의해 출력이 제어되는 차량 인터페이스부(110), 사용자 단말(200)이 전달하는 영상 데이터에서 TBT(Turn By Turn)와 같은 안내 표시를 추출하는 영상 분석부(120), 영상 데이터 및 제어 동작에 필요한 데이터 등을 저장하는 저장부(130), 및 전술한 각 구성을 총괄하여 제어하는 제어부(100)를 포함한다. 도 2와 중복되는 구성에 대한 설명은 생략한다.
개시된 다른 실시예에 따른 차량(1)은 본체(2)의 내부를 촬영하는 카메라(140)를 포함할 수 있다. 구체적으로 카메라(140)는 사용자 단말(200) 또는 AVN(111)이 출력하는 내비게이션 데이터를 촬영할 수 있다. 카메라(140)는 촬영한 이미지를 제어부(100)로 전달한다.
제어부(100)는 전달한 영상을 영상 분석부(120)로 전달하고, 영상 분석부(120)는 전달받은 영상에서 TBT 정보와 같은 마크 또는 문자를 인식한다. 영상 분석부(120)는 인식한 마크 또는 문자를 제어부(100)로 전달한다.
도 7 및 도 8에서 도시된 바와 같이, 제어부(100)는 인식된 마크 또는 문자를 클러스터 디스플레이(111b) 또는 HUD(112b)를 표시하도록 제어한다. 이를 통해서 운전자는 내비게이션 디스플레이(113b)를 보지 않고도, TBT와 같은 안내 표시를 제공받을 수 있다.
한편, 카메라(140)는 CCD 카메라(Charge-Coupled Device camera) 또는 CMOS 센서(Complementary Metal-Oxide Semiconductor sensor)를 포함할 수 있으며, 카메라(140)의 위치 또한, 사용자 단말(200) 또는 AVN(111)이 출력하는 내비게이션 데이터를 촬영할 수 있는 위치이면 충분하고, 제한은 없다.
도 10은 일 실시예에 따른 차량의 제어방법을 설명하기 위한 순서도이다.
도 10을 참조하면, 개시된 차량(1)은 외부로부터 내비게이션 데이터를 수신한다(500).
일 예로, 차량(1)은 사용자 단말(200)로부터 내비게이션 데이터를 수신할 수 있다. 하지만 개시된 차량(1)이 반드시 폰 커넥티비티 기술에만 적용되는 것은 아니고, 외부 서버 등 다양한 매체로부터 네트워크를 통해 내비게이션 데이터를 수신할 수도 있다.
개시된 차량(1)은 수신한 내비게이션 데이터를 디코딩(Decoding)한다(510).
일 예로, 사용자 단말(200)은 영상을 부호화한 정보를 차량(1)으로 전달한다. 따라서 차량(1)은 내비게이션 데이터를 부호화되기 전으로 되돌리는 처리, 즉 디코딩을 수행한다. 일 예로 디코딩은 제어부(100)가 수행할 수 있다.
차량(1)은 디코딩한 데이터를 렌더링(Rendering)한다(520).
렌더링은 사용자 단말(200)이 전달하는 정보를 AVN(113)에 출력하기 위해 처리하는 과정으로, 평면인 그림에 형태, 위치, 조명 등 외부의 정보에 따라 다르게 나타나는 그림자, 색상, 농도 등을 포함하는 3차원 화상을 만들어내는 작업을 의미한다.
렌더링 작업을 거친 영상은 AVN(113)으로 전달되어, AVN 디스플레이(113b)에 출력된다.
한편, 렌더링 작업을 거친 출력 영상은 AVN(113)으로 전달되기 전, 프레임 버퍼(Frame Buffer)에 저장된다(530).
프레임 버퍼는 제어부(100)가 영상 정보를 일시적으로 저장하는 기억 장치를 의미하고, 저장부(130)와 함께 마련되거나, 제어부(100)와 하나의 칩(Chip)으로 마련될 수도 있다.
제어부(100)는 프레임 버퍼에 저장된 출력 영상을 캡쳐(Capture)한다(540).
개시된 차량(1)은 AVN(113)에 내비게이션 데이터를 출력하기 전, 프레임 버퍼에 임시로 저장된 출력 영상을 캡쳐하고, 문자 또는 마크를 인식한다.
구체적으로 영상 분석부(120)는 캡쳐된 출력 영상을 전달받아, 이를 기초로 마크 또는 문자를 인식한다(550).
마크를 인식하는 방법은 도 2에서 설명한 광학마크인식(OCR)을 통해서 실행될 수 있고, 문자를 인식하는 방법은 도 2에서 설명한 광학문자인식(OMR)을 통해서 실행될 수 있다. 문자 또는 마크를 인식하는 구체적인 방법은 이하의 도면을 통해서 자세히 후술한다.
한편, 캡쳐된 영상을 기초로 마크 또는 문자를 인식하는 영상 분석부(120)는 반드시 제어부(100)와 분리되어 마련될 필요가 없고, 제어부(100)와 단일 칩으로 형성될 수도 있다.
제어부(100)는 인식된 문자 또는 마크를 차량 인터페이스부(110)로 전달한다(560).
제어부(100)와 차량 인터페이스부(110)는 차량 내 네트워크를 통해 연결될 수 있다. 차량 내 네트워크는 CAN(Controller Area Network) 또는 LIN(Local Interconnection Network)과 같은 유선 네트워크를 가지는 것이 일반적이다. 이러한 차량(1) 내 네트워크는 좁은 대역폭(Bandwidth)를 가지고 있으므로, 차량 인터페이스부(110) 중 클러스터(111) 또는 HUD(112)와 같은 구성으로 내비게이션 데이터와 같은 대용량의 정보를 전달하는 것이 어렵다.
따라서 개시된 차량(1)은 캡쳐된 출력 영상에서 마크 또는 문자를 인식하여 적당한 용량의 TBT 정보를 전달함으로써, 다양한 차량 인터페이스부(110)가 내비게이션 데이터를 출력할 수 있도록 한다.
전달받은 차량 인터페이스부(110)는 인식된 문자 또는 마크를 출력한다(570).
문자 또는 마크를 출력하는 차량 인터페이스부(110)는 다양할 수 있다. 즉, 차량 인터페이스부(110)가 반드시 클러스터(111) 및 HUD(112)에만 한정되는 것은 아니고, 디스플레이 장치를 포함한 여러 차량(1)의 구성을 포함한다.
도 11은 일 실시예에 따라 마크 또는 문자의 인식률을 높이기 위한 방법을 설명하기 위한 도면이다.
도 11을 참조하면, 일 예에 따라 AVN(113)에 출력되기 위한 디코딩 또는 렌더링을 거친 영상(300)은 문자 및 마크를 포함하는 안내 표시(400)를 포함할 수 있다.
제어부(100)는 프레임 버퍼에 저장된 영상(300)에서 문자 또는 마크를 인식하기 위한 인식 영역(401)을 정의할 수 있다. 즉, 제어부(100)는 영상(300) 중에서 인식 영역(401)에서만 문자 또는 마크 인식을 수행할 수 있다.
이를 통해서 개시된 차량(1)은 영상(300) 중 안내 표시(400)이외의 영역 또는 안내 표시(400) 중 TBT이외의 영역을 인식 대상에서 제외함으로써, 유사 패턴의 인식 노이즈를 줄이고, 문자 또는 마크의 인식률을 향상시킬 수 있다.
한편, 도 11에서 도시된 인식 영역(401)은 다양할 수 있으며, 제어부(100)은 인식 영역(401)이 해당하는 위치, 예를 들어 영상(300)의 왼편 상단에 인식 영역(401)이 표시된다는 영역 정보를 미리 알 수 있다.
즉, 제어부(100)는 영역 정보를 기초로 캡쳐된 영상에서 문자 인식을 수행할 영역만을 따로 영상 분석부(120)로 전달하고, 영상 분석부(120)의 문자 또는 마크 인식률을 향상시킬 수 있다.
도 12는 다른 실시예에 따라 마크 또는 문자의 인식률을 높이기 위한 방법을 설명하기 위한 순서도이다.
도 12를 참조하면, 제어부(100)가 외부로부터 영역 정보를 수신할 수 있다(600).
영역 정보는 도 11에서 설명한 것과 같이, 출력 영상(300) 중 TBT 와 같은 문자 또는 마크가 표시되는 위치 등을 포함한다. 사용자 단말(200)이 전달하는 내비게이션 데이터는 데이터를 제공하는 앱(APP)의 지침에 따라 변경될 수 있다.
차량(1)은 변경될 수 있는 내비게이션 데이터에서 TBT와 같은 문자 또는 마크의 인식률을 향상시키기 위해서 사용자 단말(200) 등으로부터 영역 정보가 변경되는지 여부를 확인할 수 있다(610).
만약 영역 정보가 변경되지 않은 경우, 제어부(100)는 미리 저장된 영역 정보를 기초로 인식 영역(401)을 추출하고, 인식 영역(401)에 문자 또는 마크를 인식하여 차량 인터페이스부(110)로 전달한다.
만약 영역 정보가 변경된 경우, 제어부(100)는 캡쳐된 영상에서 분리할 인식 영역(401)에 관한 영역 정보를 업데이트(Update)한다(620).
업데이트된 영역 정보는 저장부(130)를 통해 저장되며, 이후의 문자 또는 마크 인식에 사용될 수 있다.
제어부(100)는 변경된 영역 정보에 기초하여 인식 영역(401)을 분리하고, 인식 영역에 기초하여 문자 또는 마크를 인식한다(630).
이를 통해서 개시된 차량(1)은 TBT와 같이 출력하고자 하는 문자 또는 마크가 표시된 영역만을 기초로 인식을 수행함으로써, 유사 패턴이나 다른 문자에 의해 발생할 수 있는 오인식을 줄일 수 있다.
도 13은 마크 또는 문자의 인식률을 높이기 위한 또 다른 실시예를 설명하기 위한 도면이고, 도 14는 도 13에서 지시 문구가 인식되지 않은 경우 마크를 통해 지시 문구를 생성하는 방법을 설명하기 위한 순서도이다. 중복되는 설명을 피하기 위해 이하 함께 설명한다.
도 13을 참조하면, 영상 분석부(120)는 인식 영역(401)에 포함되는 마크 및 문자를 각각 인식한다.
먼저, 영상 분석부(120)는 화살표 모양의 마크(410)를 추출하여 회전 여부를 판단할 수 있다.
영상 분석부(120)는 화살표 모양의 마크(410)에서 삼각 모양(411)의 패턴을 인식한다. 이후, 삼각 모양(411)의 하단에서 동일한 간격 또는 일정한 넓이를 가지는 I 형의 꼬리 모양(412)의 패턴을 인식한다. 만약 삼각 모양(411)과 꼬리 모양(412)가 동일 색상으로 연결되면, 영상 인식부(120)는 마크로 인식할 수 있다.
영상 분석부(120)는 광학문자인식 중 안내 문구 중 회전(Turn)이 포함되는 문구를 인식할 수 있다. 즉, 영상 분석부(120)는 안내 표시에 포함된 모든 문자를 인식하여 차량 인터페이스부(110)로 전달하는 것이 아니라, 회전 등 미리 저장된 문자를 포함하는 안내 문구만을 추출하여 제어부(100)로 전달할 수 있다.
영상 분석부(120)는 인식 영역(401)에서 인식된 숫자에서 잔여 거리 (420)를 인식할 수 있다.
일 예로. 영상 분석부 (120)는 인식 영역(401)에서 포함된 모든 숫자, 즉 0.3 및 23을 모두 인식할 수 있다. 이 경우 영상 분석부(120)는 여러 숫자 중 단위와 가장 가까운 위치에 인식되는 숫자를 잔여 거리(420)로 인식한다.
구체적으로 도 13에서 0.3의 좌표는 x 축 70, y축 105이고, 23의 좌표는 x축 150, y축 29이다. 영상 분석부(120)가 거리 단위(430), 즉 mi의 좌표를 x축 45, y축 85으로 인식하면, 영상 분석부(120)는 거리 단위(430)에서 가장 가까운 위치에 마련된 숫자, 즉 3을 잔여 거리(420)로 인식한다.
한편, 도 13은 문자 또는 마크의 인식률을 향상시키기 위한 일 예에 불과하며, 다양한 변형례를 포함할 수 있다.
도 14를 참조하면, 먼저 영상 분석부(120)는 화살표의 삼각 모양(411) 및 꼬리 모양(412)을 인식한다(700).
영상 분석부(120)는 도 13에서 설명한 바와 같이, 삼각 모양(411)과 꼬리 모양(412)이 동일 색상으로 연결되었는지 여부를 판단한다(710).
만약 삼각 모양(411)과 꼬리 모양(412)이 동일 색상으로 연결되어 있다면, 영상 분석부(120)는 화살표 모양의 마크(410)를 출력하고자 하는 마크로 인식한다(720).
마크를 인식하는 방법은 반드시 동일 색상을 기준으로 판단할 필요는 없으며, 다양한 변형례가 있을 수 있다.
한편, 영상 분석부(120)는 동일 색상으로 연결되어 있지 않다면, 지시 문구를 인식한다(730).
영상 분석부(120)가 지시 문구(400)를 인식하면, 제어부(100)로 인식된 지시 문구(400)를 전달하고, 제어부(100)는 차량 인터페이스부(110)를 제어하여 인식된 지시 문구를 출력한다(760).
지시 문구마저 인식되지 않은 경우, 제어부(100)는 삼각 모양(411)의 회전도를 인식한다(740).
회전도는 삼각 모양(411)의 꼭지점이 출력되는 영상을 기준으로 회전하는 각도를 의미한다.
제어부(100)는 삼각 모양(411)의 회전 각도에 기초하여 지시 문구(440)를 생성한다(750). 즉, 제어부(100)는 삼각 모양의 회전 각도에 기초하여 TBT 정보를 생성한다.
예를 들어, 제어부(100)는 삼각 모양(411)이 AVN에 표시되는 출력 형태를 기준으로 45도 내지 175도 회전되어 있으면, 우회전으로 판단한다. 삼각 모양(411)이 AVN에 표시되는 출력 형태를 기준으로 180도 내지 220도 회전되어 있으면, 유턴(U-turn)으로 판단한다. 삼각 모양(411)이 AVN에 표시되는 출력 형태를 기준으로 225도 내지 315도 회전되어 있으면, 좌회전으로 판단한다.
한편, 전술한 각도 범위는 미리 설정되어 있으며, 변경이 가능하다.
정리하면, 제어부(100)는 마크 및 문자가 모두 인식되면, 차량 인터페이스부(110)를 제어하여 마크 및 문자를 모두 출력한다. 그러나 마크 또는 문자 중 하나가 인식되면, 제어부(100)는 마크 및 문자 중 하나를 출력할 수도 있다. 특히, 제어부(100)가 안내 표시(400)에서 삼각 모양(411)만을 인식하고 마크 및 문자를 모두 인식하지 못한 경우, 삼각 모양(411)의 회전 각도에 기초하여 지시 문구(440)를 생성하고, 지시 문구를 출력할 수 있다.
1: 차량, 2: 본체,
90: 통신부, 100: 제어부,
110: 차량 인터페이스부, 120: 영상 분석부
130: 저장부, 140: 카메라,

Claims (20)

  1. 외부로부터 내비게이션 데이터를 전달받는 통신부;
    상기 내비게이션 데이터를 출력하는 차량 인터페이스부; 및
    상기 내비게이션 데이터를 기초로 마크 및 문자 중 적어도 하나를 인식하고, 상기 차량 인터페이스부를 제어하여 상기 마크 및 문자 중 적어도 하나를 출력하는 제어부;를 포함하는 차량.
  2. 제 1항에 있어서,
    상기 제어부는,
    상기 내비게이션 데이터에서 디코딩(decoding) 또는 렌더링(Rendering)되는 영상을 캡쳐하고, 상기 캡쳐된 영상을 기초로 상기 마크 및 상기 문자 중 적어도 하나를 인식하는 차량.
  3. 제 1항에 있어서,
    상기 제어부는,
    상기 영상을 프레임 버퍼에 저장하고, 상기 프레임 버퍼에 저장된 상기 영상을 캡쳐하는 차량.
  4. 제 1항에 있어서,
    상기 차량 인터페이스부는,
    클러스터, HUD(Head-Up Display) 및 AVN(Audio Video Navigation) 중 적어도 하나를 포함하고,
    상기 제어부는,
    상기 클러스터 및 상기 HUD 중 적어도 하나로 상기 인식된 마크 및 문자 중 적어도 하나를 출력하는 차량.
  5. 제 4항에 있어서,
    상기 제어부는,
    상기 영상을 상기 AVN을 통해 출력하는 차량.
  6. 제 2항에 있어서,
    상기 제어부는,
    상기 캡쳐된 영상에서 인식 영역을 추출하고, 상기 인식 영역에 기초하여 상기 문자 및 상기 마크 중 적어도 하나를 인식하는 차량.
  7. 제 6항에 있어서,
    상기 통신부는,
    상기 인식 영역의 영역 정보를 수신하고,
    상기 제어부는,
    상기 영역 정보의 업데이트 여부에 기초하여 상기 인식 영역을 변경하는 차량.
  8. 제 1항에 있어서,
    상기 마크는,
    삼각 모양 및 꼬리 모양을 포함하고,
    상기 제어부는,
    상기 삼각 모양과 상기 꼬리 모양이 동일 색상인지 여부에 기초하여 상기 마크를 인식하는 차량.
  9. 제 8항에 있어서,
    상기 제어부는,
    상기 삼각 모양의 회전 각도에 기초하여 지시 문구를 생성하는 차량.
  10. 제 1항에 있어서,
    상기 제어부는,
    상기 문자를 기초로 TBT(Turn By Turn) 정보를 포함하는 안내 표시를 인식하는 차량.
  11. 제 10항에 있어서,
    상기 제어부는,
    상기 안내 표시에 포함된 거리 단위의 위치에 기초하여 잔여 거리를 인식하는 차량.
  12. 제 5항에 있어서,
    상기 AVN을 통해 출력되는 영상을 촬영하는 카메라;를 더 포함하고,
    상기 제어부는,
    상기 카메라가 전달하는 상기 영상을 기초로 상기 마크 및 상기 문자 중 적어도 하나를 인식하는 차량.
  13. 제 13항에 있어서,
    상기 카메라는,
    사용자 단말이 표시하는 상기 영상을 촬영하는 차량.
  14. 외부로부터 내비게이션 데이터를 전달받고;
    차량 인터페이스부가 상기 내비게이션 데이터를 출력하고;
    상기 내비게이션 데이터를 기초로 마크 및 문자 중 적어도 하나를 인식하고;
    상기 인식된 마크 및 문자 중 적어도 하나를 출력하도록 상기 차량 인터페이스부를 제어하는 것;을 포함하는 차량의 제어방법.
  15. 제 14항에 있어서,
    상기 인식하는 것은,
    상기 내비게이션 데이터에서 디코딩(decoding) 또는 렌더링(Rendering)되는 영상을 캡쳐하고, 상기 캡쳐된 영상을 기초로 상기 마크 및 상기 문자 중 적어도 하나를 인식하는 것;을 포함하는 차량의 제어방법.
  16. 제 15항에 있어서,
    상기 출력하는 것은,
    상기 차량 인터페이스가 상기 영상을 출력하는 것;을 포함하는 차량의 제어방법.
  17. 제 14항에 있어서,
    상기 차량 인터페이스부는,
    클러스터, HUD(Head-Up Display) 및 AVN(Audio Video Navigation) 중 적어도 하나를 포함하는 차량의 제어방법.
  18. 제 17항에 있어서,
    상기 제어하는 것은,
    상기 클러스터 및 상기 UHD 중 적어도 하나가 상기 인식된 마크 및 문자 중 적어도 하나를 출력하도록 제어하는 것;을 포함하는 차량의 제어방법.
  19. 제 14항에 있어서,
    상기 인식하는 것은,
    상기 영상을 프레임 버퍼에 저장하고, 상기 프레임 버퍼에 저장된 상기 영상을 캡쳐하고, 상기 캡쳐된 영상을 기초로 상기 마크 및 상기 문자 중 적어도 하나를 인식하는 것;을 포함하는 차량의 제어방법.
  20. 제 17항에 있어서,
    상기 AVN에 출력되는 영상을 촬영하는 것;을 더 포함하고,
    상기 인식하는 것은,
    상기 촬영되는 영상에 기초하여 상기 문자 및 상기 마크 중 적어도 하나를 인식하는 것;을 포함하는 차량의 제어방법.
KR1020160172618A 2016-12-16 2016-12-16 차량 및 차량의 제어방법 KR20180070198A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160172618A KR20180070198A (ko) 2016-12-16 2016-12-16 차량 및 차량의 제어방법
US15/585,272 US10670419B2 (en) 2016-12-16 2017-05-03 Vehicle and method for controlling the same
CN201710423026.0A CN108202747B (zh) 2016-12-16 2017-06-07 车辆及控制该车辆的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160172618A KR20180070198A (ko) 2016-12-16 2016-12-16 차량 및 차량의 제어방법

Publications (1)

Publication Number Publication Date
KR20180070198A true KR20180070198A (ko) 2018-06-26

Family

ID=62561477

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160172618A KR20180070198A (ko) 2016-12-16 2016-12-16 차량 및 차량의 제어방법

Country Status (3)

Country Link
US (1) US10670419B2 (ko)
KR (1) KR20180070198A (ko)
CN (1) CN108202747B (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180031849A1 (en) * 2016-07-29 2018-02-01 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Augmented reality head-up display road correction
KR102634348B1 (ko) * 2018-08-23 2024-02-07 현대자동차주식회사 차량 디스플레이 제어 장치, 그를 포함한 시스템 및 그 방법

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070146235A1 (en) * 2002-03-01 2007-06-28 James Nolan Navigation system utilizing portable and adjustable heads up display
US8195386B2 (en) * 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
JP2006162442A (ja) * 2004-12-07 2006-06-22 Matsushita Electric Ind Co Ltd ナビゲーション装置及びナビゲーション方法
JP4935145B2 (ja) * 2006-03-29 2012-05-23 株式会社デンソー カーナビゲーション装置
JP4797858B2 (ja) * 2006-07-21 2011-10-19 株式会社デンソー 車載用ナビゲーション装置
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
US20080215240A1 (en) * 2006-12-18 2008-09-04 Damian Howard Integrating User Interfaces
TW200834040A (en) * 2007-02-02 2008-08-16 Mitac Int Corp Dioramic navigation apparatus
EP2229576B1 (en) * 2007-12-05 2016-04-13 Visteon Global Technologies, Inc. Vehicle user interface systems and methods
US8370755B2 (en) * 2007-12-27 2013-02-05 Core Wireless Licensing S.A.R.L. User interface controlled by environmental cues
JP5093125B2 (ja) * 2009-01-13 2012-12-05 株式会社デンソー ヘッドアップディスプレイの表示方法
KR20110056003A (ko) * 2009-11-20 2011-05-26 삼성전자주식회사 휴대 단말기의 길 안내 방법 및 장치
CN103493464B (zh) * 2011-04-15 2016-05-11 歌乐株式会社 信息终端、车载信息系统、车载装置
JP5841235B2 (ja) * 2012-03-21 2016-01-13 本田技研工業株式会社 ナビゲーションシステム
DE102012012269B3 (de) * 2012-06-20 2013-05-29 Audi Ag Informationseinrichtung
US11008017B2 (en) * 2012-12-21 2021-05-18 Harman Becker Automotive Systems Gmbh System for a vehicle and communication method
CN104755881B (zh) * 2012-12-27 2018-04-27 哈曼国际工业有限公司 车辆导航
EP3650814B1 (en) * 2013-06-13 2023-04-19 Mobileye Vision Technologies Ltd. Vision augmented navigation
KR101528518B1 (ko) * 2013-11-08 2015-06-12 현대자동차주식회사 차량 및 그 제어방법
WO2015125022A2 (en) * 2014-02-20 2015-08-27 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
US20170174129A1 (en) * 2014-03-06 2017-06-22 Sensedriver Technologies, Llc Vehicular visual information system and method
WO2015136874A1 (ja) * 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 表示制御装置、表示装置、表示制御プログラム、表示制御方法、及び記録媒体
US9239244B1 (en) * 2014-09-15 2016-01-19 E-Lead Electronics Co., Ltd. Device capable of showing both navigation and safe driving warning information
US10131276B2 (en) * 2014-09-30 2018-11-20 Subaru Corporation Vehicle sightline guidance apparatus
KR101623856B1 (ko) * 2014-10-17 2016-05-24 현대자동차주식회사 에이브이엔 장치, 차량, 및 에이브이엔 장치의 제어방법
KR20160049721A (ko) * 2014-10-28 2016-05-10 현대자동차주식회사 자동차의 디스플레이 시스템 및 그 제어 방법
KR101614735B1 (ko) * 2014-12-08 2016-04-22 현대자동차주식회사 Avn 단말, 이를 포함하는 차량, 및 차량의 제어방법
KR101750876B1 (ko) * 2015-05-28 2017-06-26 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
US9676386B2 (en) * 2015-06-03 2017-06-13 Ford Global Technologies, Llc System and method for controlling vehicle components based on camera-obtained image information

Also Published As

Publication number Publication date
CN108202747B (zh) 2022-05-17
US20180172470A1 (en) 2018-06-21
CN108202747A (zh) 2018-06-26
US10670419B2 (en) 2020-06-02

Similar Documents

Publication Publication Date Title
US20200012103A1 (en) Display device and moving body having display device
EP2960095B1 (en) Head-up display apparatus for vehicle
CN111169382B (zh) 驾驶辅助装置、驾驶辅助系统、驾驶辅助方法以及程序
CN111433067A (zh) 平视显示装置及其显示控制方法
US20150175068A1 (en) Systems and methods for augmented reality in a head-up display
JP2017056844A (ja) 電子装置、画像表示方法および画像表示プログラム
US20170015260A1 (en) Apparatus And Method For Exchanging And Displaying Data Between Electronic Eyewear, Vehicles And Other Devices
CN110803100B (zh) 车辆用显示系统以及车辆
KR20140145332A (ko) 차량용 hmd 시스템 및 그 작동 방법
US11828947B2 (en) Vehicle and control method thereof
KR20180070198A (ko) 차량 및 차량의 제어방법
KR101605773B1 (ko) 단말 장치, 그를 가지는 차량 및 단말 장치의 제어 방법
JP2015210580A (ja) 表示システム及びウェアラブル機器
US11068054B2 (en) Vehicle and control method thereof
WO2019064638A1 (ja) 虚像表示装置
JP6485310B2 (ja) 情報提供システム、情報提供方法及びコンピュータプログラム
KR20140132958A (ko) 증강 현실을 이용하여 헤드업 디스플레이 향상 방법 및 시스템
CN110385990B (zh) 车辆抬头显示器装置及其控制方法
US11926213B2 (en) Vehicle display with for-hire interface
KR101781689B1 (ko) 가상 영상 생성장치, 헤드 마운티드 디스플레이 및 차량
JP5287827B2 (ja) 表示制御装置及び車載表示システム
JP5756741B2 (ja) 車両用画像表示装置
US20200116998A1 (en) Embedded head-up display device
WO2023248687A1 (ja) 虚像表示装置
WO2022176267A1 (ja) 表示制御装置および表示制御方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal