KR20210077039A - 차량 및 그 제어 방법 - Google Patents

차량 및 그 제어 방법 Download PDF

Info

Publication number
KR20210077039A
KR20210077039A KR1020190167567A KR20190167567A KR20210077039A KR 20210077039 A KR20210077039 A KR 20210077039A KR 1020190167567 A KR1020190167567 A KR 1020190167567A KR 20190167567 A KR20190167567 A KR 20190167567A KR 20210077039 A KR20210077039 A KR 20210077039A
Authority
KR
South Korea
Prior art keywords
information
image
vehicle
image information
location information
Prior art date
Application number
KR1020190167567A
Other languages
English (en)
Inventor
문종하
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020190167567A priority Critical patent/KR20210077039A/ko
Publication of KR20210077039A publication Critical patent/KR20210077039A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/303Speed sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 차량은 외부의 영역들 중 화각에 대응하는 제1영역에 대한 제1영상 정보를 획득하고, 통신부를 통해 제2영상 정보가 수신되면 수신된 제2영상 정보들 중 제1영역을 제외한 제2영역에 대한 제2영상 정보를 획득하고, 획득된 제2영상 정보와 제1영상 정보를 합성하고, 합성된 영상 정보에 대응하는 뷰 영상을 표시한다.

Description

차량 및 그 제어 방법 {Vehicle having the same and method for controlling the vehicle}
본 발명은 외부의 영상을 획득하기 위한 차량 및 그 제어 방법에 관한 것이다.
차량은 기본적인 주행 기능 외에도 라디오 기능, 오디오 기능, 비디오 기능, 길 안내 기능(내비게이션 기능), 공조 기능, 시트 열선 기능, 외부 영상 획득 기능(블랙박스 기능), 외부의 사용자용 단말기와의 통신 기능 등 사용자 편의를 위한 부가적인 기능을 더 수행한다.
이러한 차량은 오디오 기능, 비디오 기능, 길 안내 기능(내비게이션 기능)을 수행하기 위한 단말기를 포함할 수 있고, 외부 영상 획득 기능을 통해 획득된 외부의 영상을 단말기를 통해 표시할 수 있다.
여기서 외부 영상 획득 기능은, 주차 중 후방의 영상을 획득하는 기능과, 주행 중 차량 전방의 영상을 획득하는 기능을 포함할 수 있다. 즉 차량은 주차 중 후방의 영상을 획득하고 획득된 영상을 표시함으로써 주차 보조 기능을 수행하고, 주행 중 전방의 영상을 획득하고 획득된 영상을 저장함으로써 사고 발생 시 사고의 원인 분석에 이용할 수 있도록 한다. 또한, 차량이 자율 주행 기능을 가진 차량일 때, 차량은 획득된 전방의 영상을 자율 주행을 위한 정보로 이용할 수 있다.
일 측면은 외부 디바이스로부터 전송된 영상의 신뢰도를 확인하고 확인된 신뢰도에 기초하여 외부 디바이스로부터 전송된 영상을 표시하는 차량 및 그 제어 방법을 제공한다.
다른 측면은 외부 디바이스로부터 영상 데이터 수신이 불가능하다고 판단되면 맵 정보 및 내비게이션 정보 중 적어도 하나를 차량에서 획득된 영상과 함께 표시하는 단말기, 그를 가지는 차량 및 그 제어 방법을 제공한다.
일 측면에 따른 차량은 외부의 영역들 중 화각에 대응하는 제1영역에 대한 제1영상 정보를 획득하는 적어도 하나의 카메라; 외부 디바이스와 통신을 수행하는 통신부; 통신부를 통해 제2영상 정보가 수신되면 수신된 영상 정보들 중 제1영역을 제외한 제2영역에 대한 제2영상 정보를 획득하고 획득된 제2영상 정보와 제1영상 정보를 합성하는 제어부; 및 합성된 영상 정보에 대응하는 뷰 영상을 표시하는 표시부를 포함한다.
외부 디바이스는 서버를 포함하고, 제어부는 제1영상 정보를 서버에 전송하도록 제어한다.
일 측면에 따른 차량의 통신부는 현재 위치 정보를 수신하고, 제어부는 현재 위치 정보를 서버에 전송하도록 제어한다.
외부 디바이스는 타 차량과 통신을 수행하고 타 차량에서 전송된 영상 정보를 통신부에 전송하는 서버를 포함하고, 제어부는 서버로부터 수신된 제2영상 정보에 매칭된 위치 정보를 확인하고, 확인된 위치 정보와 현재 위치 정보에 기초하여 제2영상 정보를 획득한다.
일 측면에 따른 차량의 제어부는, 제1영상 정보에 기초하여 주변의 타 차량의 식별 정보를 인식하고, 수신된 제2영상 정보 중 인식된 식별 정보를 가지는 타 차량에서 전송한 제2영상 정보를 획득한다.
일 측면에 따른 차량의 통신부는 현재 위치 정보를 수신하고, 제어부는 현재 위치 정보에 기초하여 미리 정해진 반경 내에서 주행하는 타 차량의 영상을 획득하고 수신된 영상 정보에서 타 차량의 식별 정보를 가지는 제2영상 정보를 획득한다.
일 측면에 따른 차량은 맵 정보를 저장하는 저장부를 더 포함하고, 제어부는 현재 위치 정보와 제2영상 정보에 매칭된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 판단된 영역의 위치 정보를 가지는 맵 정보에 기초하여 뷰 영상을 생성한다.
일 측면에 따른 차량은 주행 속도를 검출하는 검출부를 더 포함하고, 제어부는 검출된 주행 속도에 기초하여 현재 위치 정보를 보정한다.
일 측면에 따른 차량의 제어부는, 현재 위치 정보와 제2영상 정보에 매칭된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 판단된 영역의 위치 정보를 가지는 내비게이션 정보에 기초하여 뷰 영상을 생성한다.
일 측면에 따른 차량의 제어부는, 수신된 제2영상 정보에 매칭된 위치 정보를 확인하고 확인된 위치 정보에 기초하여 수신된 제2영상 정보에 대한 신뢰도를 판단하고 판단된 신뢰도가 기준 신뢰도 이상이면 합성을 위한 제2영상 정보로 이용한다.
일 측면에 따른 차량의 제어부는, 판단된 신뢰도가 기준 신뢰도 미만인 제2영상 정보를 와이어 프레임 타입의 영상으로 변경하고 변경된 영상을 이용하여 뷰 영상을 생성한다.
다른 측면에 따른 차량은, 외부 디바이스와 통신을 수행하고 현재 위치 정보를 수신하는 통신부; 통신부를 통해 영상 정보와, 영상 정보와 매칭된 위치 정보가 수신되면 수신된 위치 정보와 현재 위치 정보에 기초하여 현재 위치와 인접한 위치 정보를 가지는 영상 정보를 획득하고 획득된 영상 정보에 기초하여 현재 위치를 중심으로 어라운드 뷰 영상을 생성하는 제어부; 및 생성된 어라운드 뷰를 표시하는 표시부를 포함한다.
다른 측면에 따른 차량의 제어부는, 수신된 위치 정보에 기초하여 수신된 영상 정보에 대한 신뢰도를 판단하고 판단된 신뢰도가 기준 신뢰도 이상이면 어라운드 뷰 영상을 생성하기 위한 영상 정보로 이용한다.
다른 측면에 따른 차량은 맵 정보를 저장하는 저장부를 더 포함하고, 제어부는 현재 위치 정보와 영상 정보에 매칭된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 판단된 영역의 위치 정보를 가지는 맵 정보에 기초하여 어라운드 뷰 영상을 생성한다.
다른 측면에 따른 차량은 주행 속도를 검출하는 검출부를 더 포함하고, 제어부는 검출된 주행 속도에 기초하여 현재 위치 정보를 보정한다.
다른 측면에 따른 차량의 제어부는, 현재 위치 정보와 수신된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 판단된 영역의 위치 정보를 가지는 내비게이션 정보에 기초하여 어라운드 뷰 영상을 생성한다.
또 다른 측면에 따른 차량의 제어 방법은, 외부의 영역들 중 화각에 대응하는 제1영역에 대한 제1영상 정보를 획득하고, 통신부를 통해 제2영상 정보가 수신되면 수신된 제2영상 정보들 중 제1영역을 제외한 제2영역에 대한 제2영상 정보를 획득하고, 획득된 제2영상 정보와 제1영상 정보를 합성하고, 합성된 영상 정보에 대응하는 뷰 영상을 표시한다.
제2영상 정보를 획득하는 것은, 제1영상 정보에 기초하여 주변의 타 차량의 식별 정보를 인식하고, 수신된 제2영상 정보 중 인식된 식별 정보를 가지는 제2영상 정보를 획득하는 것을 포함한다.
또 다른 측면에 따른 차량의 제어 방법은, 차량의 현재 위치 정보와 제2영상 정보에 매칭된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 판단된 영역의 위치 정보를 가지는 맵 정보 및 내비게이션 정보 중 적어도 하나에 기초하여 뷰 영상을 생성하는 것을 더 포함한다.
제2영상 정보를 획득하는 것은, 수신된 제2영상 정보에 매칭된 위치 정보를 확인하고, 확인된 위치 정보에 기초하여 수신된 제2영상 정보에 대한 신뢰도를 판단하고, 판단된 신뢰도가 기준 신뢰도 이상이면 합성을 위한 제2영상 정보로 획득하는 것을 포함한다.
또 다른 측면에 따른 차량의 제어 방법은, 차량의 주행 속도를 검출하고, 검출된 주행 속도에 기초하여 현재 위치 정보를 보정하는 것을 더 포함한다.
본 발명은 차량의 주행 정보 및 물체의 정보를 탑 뷰 영상으로 표시함으로써 사용자가 차량의 주변 상황을 용이하게 인식하도록 수 있다.
본 발명은 차량에 마련된 영상 획득부의 화각을 벗어나는 영역의 물체의 정보를 타 차량으로부터 제공받아 표시함으로써, 사용자에게 차량의 주변 상황에 대한 정보를 최대한으로 제공할 수 있다. 이에 따라 본 발명은 차량의 전방의 상황이나 측방의 상황들을 미리 인식할 수 있어 사고를 방지할 수 있다.
본 발명은 주변의 타 차량이 정보를 제공하지 않거나, 주변에 타 차량이 없을 때에도, 서버나 맵 정보에 기초하여 주변 상황에 대한 정보를 표시함으로써 사용자에게 큰 편의를 제공할 수 있다. 나아가, 주변의 상황 정보를 자율 주행에서도 용이하게 이용할 수 있어 안정적으로 자율 주행을 수행할 수 있다.
본 발명은 차량의 상품성을 향상시킬 수 있고, 나아가 사용자의 만족도를 높일 수 있으며 사용자의 편리성, 신뢰성을 향상시킬 수 있고 제품의 경쟁력을 확보할 수 있다.
도 1은 실시 예에 따른 차량의 제어 구성도이다.
도 2는 도 1에 도시된 차량의 영상 획득부 및 제어부의 상세 구성도이다.
도 3은 도 2에 도시된 영상 생성부의 상세 구성도이다.
도 4는 실시 예에 따른 차량의 제어 순서도이다.
도 5 내지 도 10은 실시 예에 따른 차량의 영상 획득 및 탑 뷰 영상의 표시 예시도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 장치'라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부, 장치'가 하나의 구성요소로 구현되거나, 하나의 '부, 장치'가 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를"포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시 예들에 대해 설명한다.
도 1은 실시 예에 따른 차량의 제어 구성도이고, 도 2는 도 1에 도시된 차량의 영상 획득부 및 제어부의 상세 구성도이고, 도 3은 도 2에 도시된 영상 생성부의 상세 구성도이다.
도 1에 도시된 바와 같이, 차량(1)은 단말기(110), 검출부(120), 영상획득부(130), 제어부(140), 저장부(141), 통신부(150) 및 사운드 출력부(160)를 포함한다.
단말기(110)는 대시 보드 상에 매립식 또는 거치식으로 설치될 수 있다.
단말기(110)는 오디오 기능, 비디오 기능, 내비게이션 기능, 방송 기능(DMB 기능), 라디오 기능, 컨텐츠 재생 기능, 인터넷 검색 기능 중 사용자에 의해 선택된 적어도 하나의 기능에 대한 영상을 표시한다.
단말기(110)는 사용자 입력을 수신하고 사용자가 인식하기 쉽도록 각종 정보를 표시하는 사용자 인터페이스의 기능을 수행할 수 있다. 이러한 단말기는 표시부를 포함할 수 있고, 입력부를 더 포함할 수도 있다.
이러한 단말기(110)는 표시부(112)로 디스플레이 패널을 포함할 수 있고, 입력부(111)로 터치 패널을 더 포함할 수 있다. 즉 단말기(110)는 디스플레이 패널에 터치 패널이 일체화된 터치 스크린으로 구현될 수 있다.
단말기(110)의 입력부(111)는 차량에서 수행 가능한 각종 기능의 동작 명령을 입력받는다.
입력부(111)는 영상 정보의 전송 명령 및 탑뷰 영상의 표시 명령 중 적어도 하나를 입력받는 것도 가능하다.
입력부(111)는 내비게이션 모드의 온 명령 및 오프 명령을 입력받고, 목적지의 정보를 입력받는 것도 가능하다.
입력부(111)는 표시부(112)에 표시된 커서의 이동 명령 및 선택 명령 등을 입력하기 위한 조그 다이얼(미도시) 또는 터치 패드(미도시)로 마련되는 것도 가능하다. 여기서 조그 다이얼 또는 터치 패드는 센터페시아 등에 마련될 수 있다.
표시부(112)는 차량에서 수행 가능한 각종 기능의 정보, 차량에서 수행 중인 각종 기능의 정보를 표시하며, 사용자 입력에 대응하는 정보를 표시할 수 있다.
표시부(112)는 사용자 입력에 대응하여 탑뷰 영상을 표시할 수 있다. 표시부(112)는 탑뷰 영상을 표시할 때 차량의 주행 정보를 함께 표시할 수 있다.
표시부(112)는 기본 모드에서의 탑뷰 영상을 표시할 수 있고, 확장 모드에서의 탑뷰 영상을 표시할 수 있다. 아울러 표시부(112)는 탑뷰 영상을 확장 모드로만 표시하는 것도 가능하다.
여기서 기본 모드는 차량에서 획득된 영상만을 합성하여 탑뷰 영상으로 표시하는 모드이고, 확장 모드는 차량에서 획득된 영상과 다른 디바이스로부터 전송된 영상을 합성하여 탑뷰 영상으로 표시하는 모드이다.
표시부(112)는 확장 모드일 때 차량에서 획득된 영상과 맵 정보 및 내비게이션 정보를 표시하는 것도 가능하다.
표시부(112)는 내비게이션 모드가 수행되면 차량의 현재 위치부터 일정 범위 내의 지도 영상을 표시하고, 목적지 정보가 입력되면 현재 위치부터 목적지까지의 경로 정보가 매칭된 지도 정보를 표시하고, 길 안내 정보를 표시한다.
표시부(112)는 다른 디바이스로부터 전송된 영상 제공 요청 정보를 표시하는 것도 가능하다. 여기서 다른 디바이스는, 다른 차량 및 서버 중 적어도 하나를 포함할 수 있다.
본 실시 예의 단말기는 차량에 매립 또는 설치되는 차량용 단말기를 예를 들어 설명하였지만, 차량과 통신하고 사용자가 휴대 가능하며 이동 통신이 가능한 사용자용 단말기일 수 있다.
사용자용 단말기는 네트워크를 통해 차량에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다.
여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.
검출부(120)는 차량의 주행 정보를 검출한다.
검출부(120)는 차량의 주행 속도를 검출하는 속도 검출부를 더 포함할 수 있다.
속도 검출부는 차량의 복수 개의 휠에 각각 마련된 복수 개의 휠 속도 센서를 포함할 수 있고, 차량의 가속도를 검출하는 가속도 센서를 포함할 수 있다.
검출부(120)는 차량 주변의 물체를 검출하는 것도 가능하다.
이러한 검출부(120)는 차량 주변의 물체와의 거리를 검출하는 거리 검출부를 포함할 수 있다. 거리 검출부는 차량의 외장의 전후좌우에 각각 마련될 수 있다.
영상 획득부(130)는 차량 주변의 도로 영상을 실시간으로 획득한다.
영상 획득부(130)는 차량의 전후좌우 방향의 영상, 즉 서로 다른 방향의 영상을 획득하는 복수 개의 카메라를 포함할 수 있다. 복수 개의 카메라는 시야각이 서로 다를 수 있고 미리 설정된 각도의 화각을 가질 수 있다.
카메라는 CCD 또는 CMOS 이미지 센서를 포함할 수 있고, KINECT(RGB-D 센서), TOF(Structured Light Sensor), 스테레오 카메라(Stereo Camera) 등과 같은 3차원 공간 인식 센서를 포함할 수도 있다.
이러한 영상 획득부(130)는 회전 가능한 적어도 하나의 카메라를 포함할 수도 있다.
영상 획득부(130)는 블랙박스에 마련된 카메라를 포함할 수 있고, 자율 주행을 위한 자율 주행 제어 장치의 카메라를 포함할 수도 있으며, 장애물 검출을 위한 카메라를 포함할 수도 있다.
영상 획득부(130)는 주변 모니터링 장치(SVM: Surround View Monitor, 또는 AVM)의 카메라를 포함할 수도 있고, 사각 지대 감지 장치(BSD: Blind Spot Detection)의 카메라 또는 후방 감지 장치의 카메라를 포함할 수 있다.
영상 획득부(130)의 각 카메라는 광각 카메라일 수 있다.
제어부(140)는 입력부(111)를 통해 내비게이션 모드의 온 명령이 수신되고 목적지 정보가 수신되면 현재 위치를 확인하고, 현재 위치 정보와 목적지 정보에 기초하여 현재 위치에서 목적지까지의 경로 정보를 생성하고, 지도 정보에 생성된 경로 정보를 매칭시키며 매칭된 지도 정보와 경로 정보의 출력을 제어하고 길 안내 정보의 출력을 제어한다.
제어부(140)는 경로 정보 생성 시 복수 개의 경로 정보를 생성 및 출력할 수 있고, 복수 개의 경로 정보 중 사용자에 의해 선택된 어느 하나의 경로 정보를 저장하고 저장된 경로 정보에 기초하여 내비게이션 기능을 수행할 수 있다.
제어부(140)는 표시부(112)에 표시되는 영상에 대응하는 소리를 출력하도록 사운드 출력부(160)의 동작을 제어하는 것도 가능하다.
제어부(140)는 차량의 주행 속도를 실시간으로 확인하고 확인된 주행 속도와 현재 위치에 대한 정보를 내비게이션 정보로 표시하도록 표시부(112)를 제어할 수 있다.
제어부(140)는 주차 중 변속 레버의 위치가 후진 주행 단( R)이면 후방의 영상이 표시되도록 표시부(112)를 제어하는 것도 가능하다.
제어부(140)는 입력부에 입력된 사용자 입력에 대응하여 기본 모드로 탑뷰 영상을 표시하도록 표시부를 제어하는 것도 가능하고, 입력부에 입력된 사용자 입력에 대응하여 확장 모드로 탑뷰 영상을 표시하도록 표시부를 제어하는 것도 가능하다.
제어부(140)는 입력부를 통해 기본 모드의 선택 신호가 수신되면 복수 개의 카메라에서 획득된 영상을 합성하여 사용자가 보기 편한 탑뷰 영상을 생성하고 생성된 탑뷰 영상이 표시되도록 표시부(112)를 제어하는 것도 가능하다. 여기서 합성되는 영상은, 촬영 시야가 서로 다른 복수 개의 카메라에서 동일한 시점에 획득된 영상들일 수 있다.
제어부(140)는 입력부를 통해 확장 모드의 선택 신호가 수신되면 복수 개의 카메라에서 획득된 영상과 다른 디바이스에서 전송된 영상을 합성하여 탑뷰 영상을 생성하고 생성된 탑뷰 영상이 표시부에 표시되도록 하는 것도 가능하다.
아울러, 탑뷰 영상의 표시는 확장 모드로 디폴트되어 있을 수 있다. 이에 따라 제어부(140)는 입력부를 통해 탑뷰 영상의 표시 명령이 수신되면 복수 개의 카메라에서 획득된 영상과 다른 디바이스에서 전송된 영상을 합성하여 탑뷰 영상을 생성하고 생성된 탑뷰 영상을 표시하도록 하는 것도 가능하다.
제어부(140)는 입력부를 통해 탑뷰 영상의 표시 명령이 수신되면 다른 디바이스에서 전송된 영상, 맵정보 및 내비게이션 정보 중 적어도 하나와 복수 개의 카메라에서 획득된 영상을 합성하여 탑뷰 영상을 생성하고 생성된 탑뷰 영상을 표시하도록 하는 것도 가능하다.
탑뷰 영상의 생성을 위해 합성되는 영상은, 촬영 시야가 서로 다른 복수 개의 카메라에서 동일한 시점에 획득된 영상과, 동일한 시점에 다른 차량에서 전송된 영상들을 포함할 수 있다.
탑뷰 영상의 생성을 위해 합성되는 영상은, 촬영 시야가 서로 다른 복수 개의 카메라에서 동일한 시점에 획득된 영상과, 자 차량의 현재 위치와 인접한 위치에서 주행하고 있는 타 차량에서 전송된 영상을 포함할 수 있다.
제어부(140)는 탑뷰 영상의 표시를 제어할 때, 자 차량의 심볼 영상을 기준으로 전후좌우 영역에 주변의 상황 정보 및 물체의 정보와 대응하는 영상을 매칭시켜 표시할 수 있다.
여기서 물체의 정보와 대응하는 영상은, 물체의 종류에 대응하는 물체의 심볼 영상을 포함할 수 있고, 물체의 심볼 영상 주변에 물체의 부가 정보를 지시하는 태그 영상을 더 포함할 수 있다. 부가 정보는 물체의 속도 정보, 위치 정보, 번호 정보 중 적어도 하나를 포함할 수 있다.
제어부(140)는 탑뷰 영상을 생성할 때, 입력된 시간 정보를 갖는 물체의 정보와 주행 정보를 획득하며 획득된 각 방향의 영상, 물체의 정보 및 주행 정보가 반영된 탑뷰 영상을 생성하는 것도 가능하다.
제어부(140)는 다른 디바이스의 영상 정보의 제공 요청에 대응하여 적어도 하나의 카메라에 의해 획득된 영상 정보를 서버에 전송하는 것도 가능하고, 적어도 하나의 카메라에 의해 획득된 영상 정보의 전송 시에 차량의 주행 정보와 차량의 위치 정보를 함께 전송하는 것도 가능하고, 차량의 식별 정보를 함께 전송하는 것도 가능하다.
제어부(140)는 주변에 다른 차량이 존재하지 않거나, 주변에 존재하는 타 차량이 영상 정보의 제공을 거절하면 맵 정보 및 내비게이션 정보 중 적어도 하나와 복수 개의 카메라에서 획득된 영상에 기초하여 탑 뷰 영상을 생성하는 것도 가능하다.
제어부(140)는 영상 정보의 제공을 거절하는 타차량의 위치 정보에 기초하여 타 차량이 위치하는 영역을 확인하고 확인된 영역에 대응하는 맵 정보 및 내비게이션 정보 중 적어도 하나를 확인할 수 있다.
제어부(140)는 차량의 현재 위치 정보를 확인하고 확인된 현재 위치 정보를 서버에 전송하도록 한다. 아울러 제어부(140)는 현재 위치 정보를 주변의 타 차량에 전송하도록 하는 것도 가능하다.
제어부(140)는 목적지 정보와 경로 정보를 서버에 전송하도록 하는 것도 가능하다.
차량의 주변의 차량은, 차량의 현재 위치를 기준으로 일정 반경 내에 위치하는 차량일 수 있다.
제어부(140)는 속도 검출부에서 검출된 속도 정보에 기초하여 위치 수신부에서 수신된 현재 위치 정보를 보정하고 보정된 현재 위치 정보를 전송하도록 하는 것도 가능하다.
제어부(140)는 휠 속도 센서, 가속도 센서, 스피드 센서 및 자이로 센서에서 감지된 정보들에 기초하여 위치 수신부에서 수신된 현재 위치 정보를 보정하고 보정된 현재 위치 정보를 전송하도록 하는 것도 가능하다.
제어부(140)는 통신부에 의해 수신된 영상 정보, 위치 정보 및 시간 정보와 영상 획득부에 의해 획득된 영상 정보, 위치 정보 및 시간 정보에 기초하여 합성 영상을 생성하고, 차량의 현재 위치를 중심으로 360도의 영역 중 누락된 영역을 판단하고 누락된 영역이 존재하면 맵 정보와 내비게이션 정보 중 적어도 하나에 기초하여 누락된 영역에 대한 정보를 획득하고 획득된 정보를 이용하여 탑 뷰 영상을 생성한다.
맵정보는, 저장부에 저장된 정보일 수도 있고, 웹일 통해 수신한 온라인 맵 정보나 위성 맵일 수도 있으며, 서버로부터 수신할 수도 있다.
수신된 영상 정보는, 영상 정보를 제공한 타 차량의 위치 정보, 제공된 영상 정보를 획득한 카메라의 식별 정보 및 촬영 방향 정보(예, 전, 후, 좌, 우)를 포함할 수 있다.
제어부(140)는 서버나 타 차량으로부터 영상 정보의 제공 요청 정보가 수신되면 입력부에 사용자 입력에 대응하여 거절 정보 또는 승낙 정보를 전송하도록 하는 것도 가능하다.
제어부(140)는 표시부의 해상도 및 색감 정보에 기초하여 수신된 영상 정보들을 변경하는 것도 가능하다.
제어부(140)는 복수 개의 카메라에서 획득된 영상의 저장을 제어하는 것도 가능하다. 예를 들어, 제어부(140)는 차량의 전방의 영상, 차량의 후방의 영상, 차량의 좌측 방향의 영상 및 차량의 우측 방향의 영상을 획득하고, 획득된 전방 영상, 차량의 후방 영상, 차량의 좌측 방향의 영상 및 차량의 우측 방향의 영상을 위치 정보 및 시간 정보와 매칭시켜 저장부에 저장하도록 할 수 있다.
제어부(140)는 차량 내 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
저장부(141)는 복수 개의 카메라의 식별 정보와, 식별 정보에 대응하는 위치 정보를 저장한다.
저장부(141)는 맵 정보를 저장하고, 차량의 식별 정보를 저장한다.
저장부(141)는 제어부(140)의 제어 명령에 대응하여 영상 획득부(130)의 복수 개의 카메라에서 획득된 영상을 저장한다.
저장부(141)에 저장되는 영상은, 동영상일 수 있고, 스냅 샷 영상일 수도 있다.
저장부(141)는 영상이 획득된 시간의 시간 정보, 위치 정보 중 적어도 하나를 매칭시켜 저장한다.
저장부(141)는 제어부(140)의 처리 또는 제어를 위한 프로그램 등, 차량(1) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
저장부(141)는 제어부(140)와 관련하여 전술한 프로세서와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다.
저장부(141)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
통신부(150)는 제어부(140)의 제어 명령에 대응하여 저장부에 저장된 영상 또는 영상 획득부에 획득된 영상을 외부의 다른 디바이스로 전송한다.
여기서 외부의 다른 디바이스는, 서버(3)일 수 있다. 서버(3)는 차량 제조사의 텔레매틱스 서버, 차량 서비스 센터의 서버, 클라우드 서버 및 웹하드 서버일 수 있다.
외부의 디바이스는, 다른 차량(2)일 수 있다.
통신부(150)는 차량 내부의 각종 전자 장치들 사이의 통신과, 외부 디바이스와의 통신과, 사용자용 단말기와의 통신 및 저장 매체와의 통신을 수행한다.
통신부(150)는 제어부(140)와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.
유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.
유선 통신 모듈은 LIN(Local Interconnect Network)를 더 포함할 수 있다.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
통신부(150)는 차량의 현재 위치 정보를 획득하기 위한 정보를 수신하는 위치 수신부를 더 포함한다.
위치 수신부는 GPS(Global Positioning System) 신호 수신부와, GPS 신호 수신부에서 획득한 GPS 신호를 신호 처리하는 신호 처리부를 포함한다.
여기서 GPS(Global Positioning System) 신호 수신부는 복수의 GPS 위성의 신호를 수신하는 안테나를 포함한다. 이 안테나는 차량의 외장에 마련될 수 있다.
위치 수신부의 신호 처리부는 복수의GPS위성의 위치 신호에 대응하는 거리 및 시간 정보를 이용하여 현재의 위치를 획득하는 소프트웨어와, 획득된 차량의 위치 정보를 출력하는 출력부를 포함한다.
위치 수신부는 현재의 위치에 대한 위치 정보를 제어부(140)에 전송한다.
또한 사운드 출력부(160)는 수행 중인 기능에 대응하는 오디오 데이터를 사운드로 출력한다. 여기서 수행 중인 기능은 라디오 기능, 컨텐츠 재생 및 음악 재생에 대응하는 오디오 기능, 내비게이션 기능일 수 있다.
이러한 사운드 출력부(160)는 스피커를 포함할 수 있다.
스피커는 증폭된 저주파의 음성 신호를 오리지널의 음파로 변환시키고 공기에 소밀파를 발생시켜 음파를 복사함으로써 오디오 데이터들을 사용자가 들을 수 있는 사운드로 출력한다.
4개의 카메라를 가지는 영상 획득부가 마련된 차량의 제어 구성을 도 2를 참조하여 설명한다.
도 2에 도시된 바와 같이, 차량의 영상 획득부(130)는 차량의 전방 방향의 영상을 획득하는 제1카메라(131), 차량의 후방 방향의 영상을 획득하는 제2카메라(132), 차량의 좌측 방향의 영상을 획득하는 제3카메라(133), 차량의 우측 방향의 영상을 획득하는 제4카메라(134)를 포함할 수 있다.
이러한 제1카메라(131)는 차량의 전면의 프런트 윈도우 글래스에 마련되되 차량 내부의 창문에 마련되어 차량의 외부를 향하도록 마련될 수도 있고, 차량 내부의 룸미러에 마련되되 차량의 외부를 향하도록 마련될 수도 있으며, 번호판, 그릴, 엠블럼, 프런트 패널 또는 루프 패널의 마련되되 외부로 노출되도록 마련될 수도 있다.
제2카메라(132)는 차량의 후면의 리어 윈도우 글래스에 마련되되 차량 내부의 창문에 마련되어 차량의 외부를 향하도록 마련될 수도 있고, 테일 게이트에 마련될 수도 있으며, 번호판, 루프 패널, 리어 패널 또는 엠블럼에 마련되되 외부로 노출되도록 마련될 수도 있다.
제3 카메라(133)는 좌측 사이드 미러, 좌측 도어 또는 좌측 펜더(Fender)에 마련될 수 있다.
제4 카메라(134)는 우측 사이드 미러, 우측 도어 또는 우측 펜더에 마련될 수 있다. 아울러 제4 카메라는 리어 패널 주변, 엠블럼 주변 또는 번호판 주변에 마련될 수도 있다.
이러한 영상 획득부(130)는 차량 주변의 물체에 대한 형상 정보를 전기적인 영상 신호로 변환하는 것으로, 자 차량의 현재 위치에서 자 차량 외부의 환경, 특히 차량이 주행하는 도로 및 그 주변의 자 차량의 전방, 후방, 좌우의 측방의 물체의 형상 정보에 대응하는 영상 신호를 제어부(140)로 전송한다.
제어부(140)는 전방 영상 처리부(a1), 후방 영상 처리부(a2), 제1사이드 영상 처리부(a3), 제2사이드 영상 처리부(a4), 영상 수집부(a5), 정보 수집부(a6) 및 영상 생성부(a7)를 포함할 수 있다.
전방 영상 처리부(a1)는 영상 획득부의 제1카메라(131)에서 획득된 영상이 수신되면 수신된 영상에 대한 영상 처리를 수행하되 제1카메라의 화각에 대응하는 전방 영상에 대한 영상 처리를 수행한다.
후방 영상 처리부(a2)는 영상 획득부의 제2카메라(132)에서 획득된 영상이 수신되면 수신된 영상에 대한 영상 처리를 수행하되 제2카메라의 화각에 대응하는 후방 영상에 대한 영상 처리를 수행한다.
제1사이드 영상 처리부(a3)는 영상 획득부의 제3카메라(133)에서 획득된 영상이 수신되면 수신된 영상에 대한 영상 처리를 수행하되 제3카메라의 화각에 대응하는 제1사이드 영상에 대한 영상 처리를 수행한다.
제2사이드 영상 처리부(a4)는 영상 획득부의 제4카메라(134)에서 획득된 영상이 수신되면 수신된 영상에 대한 영상 처리를 수행하되 제4카메라의 화각에 대응하는 제2사이드 영상에 대한 영상 처리를 수행한다.
여기서 제1사이드는 차량의 좌측 방향일 수 있고, 제2사이드는 차량의 우측 방향일 수 있다.
각 영상 처리부는 표시부의 해상도에 기초하여 각 카메라에서 획득된 영상을 업스케일링 하거나 다운 스케일링 할 수 있다.
각 영상 처리부는 표시부의 색 정보에 기초하여 각 카메라에서 획득된 영상의 색을 조정할 수 있다.
영상 수집부(a5)는 서버(3)나 다른 차량(2)로부터 영상 정보를 수신한다. 여기서 서버(3)에서 전송된 영상 정보는, 서버(3)와 통신하는 다른 차량(2)에서 전송된 영상 정보일 수 있다.
아울러 서버(3)에서 전송된 영상 정보는, 차량의 현재 위치 정보를 기반으로 차량과 인접한 위치에서 주행하는 다른 차량(2)에서 전송된 영상 정보일 수 있다.
영상 수집부(a5)는 영상 정보를 수신할 때, 영상을 획득한 다른 차량의 위치 정보와 시간 정보도 함께 수신할 수 있다.
영상 수집부(a5)는 수신된 영상 정보에 매칭된 위치 정보도 수신할 수 있다. 예를 들어, 수신된 영상 정보에 매치된 위치 정보는, 다른 차량의 위치 정보를 기준으로 다른 차량의 좌측 방향의 영상인지, 우측 방향의 영상 정보인지, 전방의 영상 정보인지 또는 후방의 영상 정보인지에 대한 영상의 위치 정보일 수 있다.
아울러 수신된 영상 정보에 대응하는 위치 정보는, 다른 차량의 위치 정보와 카메라의 배치 위치, 카메라의 화각에 따라 결정된 GPS 좌표 정보일 수 있다.
정보 수집부(a6)는 현재 위치 정보에 대응하는 맵 정보를 수집한다. 즉 정보 수집부(a6)는 저장부에 저장된 맵 정보와, 위치 수신부에 수신된 위치 정보에 기초하여 현재 위치에 대응하는 맵 정보를 수집할 수 있다.
정보 수집부(a6)는 현재 위치 정보와 경로 정보에 대응하는 내비게이션 정보를 수집한다.
영상 생성부(a7)는 전방 영상 처리부(a1), 후방 영상 처리부(a2), 제1사이드 영상 처리부(a3), 제2사이드 영상 처리부(a4)에서 각각 영상 처리된 영상을 합성하여 탑 뷰 영상을 생성한다.
영상 생성부(a7)는 영상 처리된 영상을 합성할 때 각 영상을 획득한 카메라의 배치 정보에 기초하여 각 영상에 대응하는 영역의 위치 정보를 확인하고 확인된 위치 정보에 기초하여 차량의 위치를 기준으로 전후좌우 방향에 각각의 영상을 배치함으로써 탑뷰 영상을 생성할 수 있다.
영상 생성부(a7)는 영상 처리된 각 영상을 합성할 때 각 영상에 대응하는 영역의 위치 정보를 확인하고 확인된 위치 정보에 기초하여 차량의 위치를 기준으로 전후좌우 방향에 각각의 영상을 배치함으로써 탑뷰 영상을 생성하는 것도 가능하다.
영상 생성부(a7)는 차량에 마련된 복수 개의 카메라의 식별 정보와 복수 개의 카메라를 통해 영상을 획득하였을 때의 시간 정보 및 위치 정보(좌표 포함)를 획득하는 제1획득부(71)와, 타 차량(2)에 마련된 복수 개의 카메라의 식별 정보와 복수 개의 카메라를 통해 영상을 획득하였을 때의 시간 정보 및 타 차량의 위치 정보(좌표 포함)를 획득하는 제2획득부(72)를 포함한다.
영상 생성부(a7)는 저장부에 저장된 맵 정보와 위치 수신부에 수신된 현재 위치 정보에 기초하여 현재 위치에서의 맵 정보를 획득하는 제3획득부(73)와, 목적지 정보와 경로 정보에 기초하여 현재 위치에서의 내비게이션 정보를 획득하는 제4획득부(74)를 포함할 수 있다.
영상 생성부(a7)는 외부 디바이스에서 전송된 영상 정보에 매칭된 위치 정보와 시간 정보에 기초하여 영상 정보의 출력을 딜레이시킨 후 딜레이된 영상과 복수 개의 카메라에 의해 획득된 영상을 합성하여 탑 뷰 영상을 생성할 수 있다.
영상 생성부(a7)는 표시부의 화면 사이즈와 해상도 및 색 정보를 획득하고 획득된 표시부의 화면 사이즈와 해상도 및 색 정보에 기초하여 복수 개의 카메라에 의해 획득된 영상 정보 및 외부 디바이스에서 전송된 영상 정보의 해상도와 색 정보를 조정하기 위한 파라미터를 저장하는 파라미터부를 더 포함할 수 있다.
영상 생성부(a7)는 파라미터부의 파라미터 정보에 기초하여 외부 디바이스에서 전송된 영상에 대한 후처리를 수행할 수 있다.
영상 생성부(a7)는 외부 디바이스에서 전송된 영상에 대한 전처리를 수행할 수 있다. 예를 들어, 영상 생성부(a7)는 표시부의 해상도에 기초하여 외부 디바이스에서 전송된 영상을 업스케일링 하거나 다운 스케일링 할 수 있다. 영상 생성부(a7)는 표시부의 색 정보에 기초하여 외부 디바이스에서 전송된 영상의 색을 조정할 수 있다.
영상 생성부(a7)는 영상 수집부에 수집된 영상 정보에 매칭된 위치 정보와 시간 정보를 확인하고 각 영상 처리부의 영상 정보에 매칭된 위치 정보를 확인하며, 차량의 위치를 중심으로 360도 영역의 위치 정보를 확인하며, 각 영상 처리부의 영상 정보에 매칭된 위치 정보에 기초하여 360도의 영역에 영상 처리된 영상을 각각 배치시키고, 영상 처리된 영상이 배치되지 않은 나머지 영역의 위치 정보를 확인하고 영상 수집부의 영상 정보 중 확인된 위치 정보를 가지는 영상 수집부의 영상 정보를 확인하며 확인된 영상 정보를 나머지 영역에 배치함으로써 탑뷰 영상을 생성하는 것도 가능하다.
영상 생성부(a7)는 차량의 위치 정보와 현재 시간 정보, 외부 디바이스에서 전송된 영상 정보에 매칭된 위치 정보와 시간 정보에 기초하여 외부 디바이스에서 전송된 영상 정보에 대한 신뢰도를 판단하는 신뢰도 판단부(75)를 포함할 수 있다.
신뢰도 판단부는 복수 개의 카메라에 의해 획득된 영상에서 타 차량의 식별 정보를 확인하고 확인된 타 차량의 식별 정보와 서버에서 전송된 타 차량의 식별 정보에 기초하여 영상을 전송한 타 차량에 대한 신뢰도를 판단하는 것도 가능하다.
여기서 타 차량의 식별 정보는 타 차량의 번호, 차종, 브랜드 및 색상 중 적어도 하나를 포함할 수 있다.
영상 생성부(a7)는 판단된 신뢰도가 기준 신뢰도 이상인 영상 정보를 확인하고 확인된 영상 정보에 기초하여 탑뷰 영상을 생성할 수 있다.
영상 생성부(a7)는 동일 위치 정보를 가지는 영상 정보가 복수 개이면 복수 개의 영상들 중 신뢰도가 가장 높은 영상을 이용하여 탑뷰 영상을 생성할 수 있다.
영상 생성부(a7)는 차량의 위치를 중심으로 360도의 영역 중 영상이 배치되지 않은 영역이 존재하는지 판단하고 판단된 영역의 위치 정보를 확인하고 확인된 위치 정보를 가진 맵정보 또는 내비게이션 정보를 확인하며 확인된 맵정보 또는 내비게이션 정보를 영상이 배치되지 않은 영역에 표시함으로써 탑뷰 영상을 생성하는 것도 가능하다.
영상 생성부(a7)는 차량의 위치를 중심으로 360도의 영역 중 영상 제공의 거절에 의해 영상이 배치되지 않은 영역을 확인하고, 확인된 영역의 위치 정보를 확인하며, 확인된 위치 정보를 가진 맵정보 또는 내비게이션 정보를 확인하며 확인된 맵정보 또는 내비게이션 정보를 영상이 배치되지 않은 영역에 표시함으로써 탑뷰 영상을 생성하는 것도 가능하다.
영상 생성부(a7)는 탑뷰 영상을 생성할 때 영상의 신뢰도에 대응하여 서로 다른 방식으로 영상이 표시되도록 탑뷰 영상을 생성할 수 있다.
영상 생성부(a7)는 탑뷰 영상을 생성할 때 영상의 신뢰도가 기준 신뢰도 이상이면 영상 처리된 영상을 합성하고 영상의 신뢰도가 기준 신뢰도 미만이면 영상 처리된 영상을 와이어 프레임 방식으로 변경한 후 변경된 영상을 합성할 수 있다.
영상 생성부(a7)는 맵정보나 내비게이션 정보를 이용하여 탑뷰 영상을 생성할 때 맵 정보나 내비게이션 정보를 그래픽 영상으로 변경한 후 변경된 영상을 합성할 수 있다.
차량(1)은 서버에 영상 정보의 제공을 요청한 경우, 서버에 현재 위치 정보와 복수 개의 카메라에서 획득된 영상 정보를 서버에 전송하는 것도 가능하다. 이로 인해 서버에서 차량(1) 주변에서 주행하는 타 차량을 인식하도록 할 수 있다.
타 차량(2)은 서버(3)와 통신을 수행하고 서버(3)의 요청에 대응하여 주행 중 획득된 영상 정보, 타 차량에 마련된 카메라의 배치 정보, 타 차량의 위치 정보 및 영상 획득에 대한 시간 정보를 서버에 제공한다.
타 차량(2)은 차량(1)과 통신을 수행하고 차량(1)의 요청에 대응하여 주행 중 획득된 영상 정보, 타 차량에 마련된 카메라의 배치 정보, 타 차량의 위치 정보 및 영상 획득에 대한 시간 정보를 차량(1)에 제공하는 것도 가능하다.
서버(3)는 차량(1) 및 타 차량(2)과 통신을 수행하고, 차량(1)의 위치 정보에 기초하여 차량(1)의 주변에서 주행하는 타 차량(2)에게 영상 정보의 제공을 요청하고 타 차량(2)으로부터 수신된 영상 정보를 차량(1)에 전송한다.
서버(3)는 타 차량(2)의 요청에 대응하여 차량(1)에 영상 정보의 제공을 요청하고, 차량(1)으로부터 수신된 영상 정보를 타 차량(2)에 제공할 수 있다.
도 1 내지 도 3에 도시된 차량의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 4는 실시 예에 따른 차량의 제어 순서도로, 탑뷰 영상을 생성 및 표시하는 구성의 예를 도 5 내지 도 10을 참조하여 설명한다.
차량은 입력부를 통해 탑뷰 모드가 선택되었다고 판단(171)되면 적어도 하나 또는 그 이상의 카메라를 이용하여 차량의 주변의 영역에 대한 제1영상을 획득한다.
도 5에 도시된 바와 같이, 차량(1)은 전후좌우에 각각 마련된 복수 개의 카메라를 이용하여 차량의 위치를 중심으로 전방 영역(F)에 대한 전방 영상, 후방 영역(R )에 대한 후방 영상, 제1사이드 영역(S1)에 대한 제1사이드 영상 및 제2사이드 영역(S2)에 대한 제2사이드 영상을 획득할 수 있다. 즉 차량의 마련된 복수 개의 카메라 중 적어도 하나의 카메라로부터 영상을 획득할 수 있다.
차량은 획득된 영상에 대한 제1영상 정보를 확인(172)한다. 제1영상 정보를 확인하는 것은, 차량의 현재 위치 정보와 시간 정보를 확인하는 것을 포함할 수 있다.
아울러 차량(1)은 각 카메라의 화각에 대응하는 영역에 대한 영상 정보를 획득할 수 있다.
차량은 영상 정보의 제공을 서버에 요청한다. 이때 차량은 현재 위치 정보를 확인하고 확인된 현재 위치 정보를 서버에 전송한다. 아울러 차량은 목적지 정보 및 경로 정보를 함께 서버에 전송하는 것도 가능하고, 복수 개의 카메라에 의해 획득된 영상 정보를 서버에 전송하는 것도 가능하다. 이를 통해 서버에서 차량(1)의 주변에서 주행하고 있는 타 차량(2a, 2b, 2c)를 인식하도록 할 수 있다.
아울러 차량은 획득된 영상 내에서 물체를 인식하고 인식된 물체에 대한 정보를 서버에 전송하는 것도 가능하다.
도 6에 도시된 바와 같이, 차량은 탑뷰 모드 중 기본 모드가 선택되었을 때 복수 개의 카메라에서 획득된 영상을 합성하여 탑뷰 영상을 생성하고 생성된 탑뷰 영상을 표시부에 표시하되 표시부(112)의 4개의 영역(즉 전후좌우 영역)에 각각의 카메라에서 획득된 영상을 영상을 표시한다.
도 7에 도시된 바와 같이, 차량은 탑뷰 모드 중 확장 모드가 선택되었을 때 복수 개의 카메라의 배치 위치와 화각에 기초하여 복수 개의 카메라에 의해서 획득되는 영상의 영역(F, R, S1, S2)을 판단하고, 판단된 영역의 위치 정보를 확인하고 판단된 영역을 제외한 영역(a1-a8)에 대한 위치 정보를 획득할 수 있다.
차량은 서버로부터 제2영상 정보가 수신(173)되면 수신된 제2영상 정보에 매칭된 위치 정보와 시간 정보를 확인하고 차량(1)의 현재 위치 정보, 제2 영상정보에 매칭된 위치 정보 및 시간 정보에 기초하여 수신된 제2영상 정보에 대한 신뢰도를 판단하고 판단된 신뢰도가 기준 신뢰도 이상인 제2영상 정보를 획득하고 획득된 제2영상 정보를 제1영상 정보와 합성(174)한다. 여기서 제2영상 정보는 주변의 타 차량(2)에서 획득하여 서버에 전송한 영상 정보일 수 있다.
차량은 수신된 제2영상 정보에 대한 전처리 및 후처리를 수행함으로써 표시부의 해상도 및 색감에 대응하는 영상을 표시하도록 할 수 있다.
차량은 서버(3)로부터 제2영상 정보를 수신할 때, 제2영상 정보를 획득한 타 차량의 식별 정보를 수신할 수 있다. 이때 차량은 복수 개의 카메라에 의해 획득된 영상에서 타 차량의 식별 정보를 인식하고 수신된 타 차량의 식별 정보와 인식된 타 차량의 정보들을 비교하여 수신된 제2영상 정보에 대한 신뢰도를 판단하고 판단된 신뢰도가 기준 신뢰도 이상인 제2영상 정보와 제1영상 정보를 합성할 수도 있다.
차량은 제2영상 정보의 신뢰도가 기준 신뢰도 미만이면 와이어 프레임 방식으로 제2영상이 표시되도록 할 수 있다.
차량은 제1영상 정보와 제2영상 정보를 합성한 후 합성된 제1영상 정보의 위치 정보와 제2영상 정보의 위치 정보에 기초하여 차량의 위치를 중심으로 360도 영역 중 영상이 배치되지 않은 영역(즉 나머지 영역)이 존재하는지 판단(175)하고 영상이 배치되지 않은 영역, 즉 나머지 영역이 존재한다고 판단되면 현재 위치 정보를 가지는 맵 정보 및 내비게이션 정보 중 적어도 하나를 확인(176)하고 확인된 적어도 하나의 정보를 제1영상정보, 제2영상 정보와 합성하여 탑뷰 영상을 생성하고 생성된 탑뷰 영상을 표시부를 통해 표시(177)한다.
차량은 탑뷰 영상이 아닌 어라운드 뷰 영상을 표시하는 것도 가능하다.
맵정보나 내비게이션 정보가 합성될 경우, 차량은 현재 위치 정보를 가지는 맵정보나 내비게이션 정보를 그래픽 영상으로 표시할 수 있다.
도 8에 도시된 바와 같이, 차량은 확장 모드가 선택되었을 때 복수 개의 카메라에서 획득된 영상을 표시부의 4개의 영역에 각각 표시하되 각 카메라의 화각에 대응하는 4개 영역(F, R, S1, S2)에 4개의 영상을 각각 표시하고, 나머지 영역(a1-a8)에 외부 디바이스에서 전송된 영상을 표시함으로써 탑뷰 영상을 표시할 수 있다.
이에 따라 차량은 외부 디바이스에서 전송된 정보를 표시함으로써 복수 개의 카메라에 의해 획득된 영상으로부터 알 수 없는 정보들도 알 수 있도록 할 수 있다.
예를 들어, 도 9에 도시된 바와 같이, 차량은 외부 디바이스에서 전송된 영상(a7)을 표시함으로써 사용자가 전방 우측에서 사고가 발생하였음을 미리 알도록 할 수 있다.
도 10에 도시된 바와 같이, 차량(1)은 타 차량(2c)의 우측 카메라에서 전송된 영상을 획득하고 획득된 영상을 표시함으로써 전방 우측에서 사람이 이동하고 있음을 알도록 할 수 있다.
차량에 카메라가 마련되어 있지 않은 경우, 차량의 위치를 중심으로 360도 영역을 모두 다른 디바이스에서 전송된 영상 정보를 합성하여 탑뷰 영상을 표시하는 것도 가능하다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
1: 차량 2: 타 차량
3: 서버

Claims (21)

  1. 외부의 영역들 중 화각에 대응하는 제1영역에 대한 제1영상 정보를 획득하는 적어도 하나의 카메라;
    외부 디바이스와 통신을 수행하는 통신부;
    상기 통신부를 통해 제2영상 정보가 수신되면 상기 제1영역에 기초하여 상기 수신된 제2영상 정보와 상기 제1영상 정보를 합성하는 제어부; 및
    상기 합성된 영상 정보에 대응하는 뷰 영상을 표시하는 표시부를 포함하는 차량.
  2. 제1항에 있어서,
    상기 외부 디바이스는, 서버를 포함하고,
    상기 제어부는, 상기 제1영상 정보를 상기 서버에 전송하도록 제어하는 차량.
  3. 제2항에 있어서,
    상기 통신부는, 현재 위치 정보를 수신하고,
    상기 제어부는, 상기 현재 위치 정보를 상기 서버에 전송하도록 제어하는 차량.
  4. 제1항에 있어서,
    상기 외부 디바이스는, 타 차량과 통신을 수행하고 상기 타 차량에서 전송된 영상 정보를 상기 통신부에 전송하는 서버를 포함하고,
    상기 제어부는, 상기 서버로부터 수신된 제2영상 정보에 매칭된 위치 정보를 확인하고, 상기 확인된 위치 정보와 현재 위치 정보에 기초하여 제2영역을 가지는 제2영상 정보를 획득하는 차량.
  5. 제1항에 있어서, 상기 제어부는,
    상기 제1영상 정보에 기초하여 주변의 타 차량의 식별 정보를 인식하고, 상기 수신된 제2영상 정보 중 상기 인식된 식별 정보를 가지는 타 차량에서 전송한 제2영상 정보를 획득하는 차량.
  6. 제1항에 있어서,
    상기 통신부는, 현재 위치 정보를 수신하고,
    상기 제어부는, 상기 현재 위치 정보에 기초하여 미리 정해진 반경 내에서 주행하는 타 차량의 영상을 획득하고 상기 수신된 영상 정보에서 상기 타 차량의 식별 정보를 가지는 제2영상 정보를 획득하는 차량.
  7. 제6항에 있어서,
    맵 정보를 저장하는 저장부를 더 포함하고,
    상기 제어부는, 상기 현재 위치 정보와 상기 제2영상 정보에 매칭된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 상기 판단된 영역의 위치 정보를 가지는 맵 정보에 기초하여 뷰 영상을 생성하는 차량.
  8. 제6항에 있어서,
    주행 속도를 검출하는 검출부를 더 포함하고,
    상기 제어부는, 상기 검출된 주행 속도에 기초하여 상기 현재 위치 정보를 보정하는 차량.
  9. 제6항에 있어서,
    상기 제어부는, 상기 현재 위치 정보와 상기 제2영상 정보에 매칭된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 상기 판단된 영역의 위치 정보를 가지는 내비게이션 정보에 기초하여 뷰 영상을 생성하는 차량.
  10. 제1항에 있어서, 상기 제어부는,
    상기 수신된 제2영상 정보에 매칭된 위치 정보를 확인하고 상기 확인된 위치 정보에 기초하여 수신된 제2영상 정보에 대한 신뢰도를 판단하고 상기 판단된 신뢰도가 기준 신뢰도 이상이면 합성을 위한 제2영상 정보로 이용하는 차량.
  11. 제10항에 있어서, 상기 제어부는,
    상기 판단된 신뢰도가 기준 신뢰도 미만인 제2영상 정보를 와이어 프레임 타입의 영상으로 변경하고 상기 변경된 영상을 이용하여 뷰 영상을 생성하는 차량.
  12. 외부 디바이스와 통신을 수행하고 현재 위치 정보를 수신하는 통신부; 및
    상기 통신부를 통해 영상 정보와, 상기 영상 정보와 매칭된 위치 정보가 수신되면 상기 수신된 위치 정보와 상기 현재 위치 정보에 기초하여 현재 위치와 인접한 위치 정보를 가지는 영상 정보를 획득하고 상기 획득된 영상 정보에 기초하여 상기 현재 위치를 중심으로 어라운드 뷰 영상을 생성하는 제어부; 및
    상기 생성된 어라운드 뷰를 표시하는 표시부를 포함하는 차량.
  13. 제12항에 있어서, 상기 제어부는,
    상기 수신된 위치 정보에 기초하여 수신된 영상 정보에 대한 신뢰도를 판단하고 상기 판단된 신뢰도가 기준 신뢰도 이상이면 어라운드 뷰 영상을 생성하기 위한 영상 정보로 이용하는 차량.
  14. 제12항에 있어서,
    맵 정보를 저장하는 저장부를 더 포함하고,
    상기 제어부는, 상기 현재 위치 정보와 상기 영상 정보에 매칭된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 상기 판단된 영역의 위치 정보를 가지는 맵 정보에 기초하여 어라운드 뷰 영상을 생성하는 차량.
  15. 제12항에 있어서,
    주행 속도를 검출하는 검출부를 더 포함하고,
    상기 제어부는, 상기 검출된 주행 속도에 기초하여 상기 현재 위치 정보를 보정하는 차량.
  16. 제12항에 있어서, 상기 제어부는,
    상기 현재 위치 정보와 상기 수신된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고, 상기 판단된 영역의 위치 정보를 가지는 내비게이션 정보에 기초하여 어라운드 뷰 영상을 생성하는 차량.
  17. 외부의 영역들 중 화각에 대응하는 제1영역에 대한 제1영상 정보를 획득하고,
    통신부를 통해 제2영상 정보가 수신되면 상기 제1영역에 기초하여 상기 수신된 제2영상 정보와 상기 제1영상 정보를 합성하고,
    상기 합성된 영상 정보에 대응하는 뷰 영상을 표시하는 차량의 제어 방법.
  18. 제17항에 있어서, 상기 제2영상 정보를 획득하는 것은,
    상기 제1영상 정보에 기초하여 주변의 타 차량의 식별 정보를 인식하고,
    상기 수신된 제2영상 정보 중 상기 인식된 식별 정보를 가지는 제2영상 정보를 획득하는 것을 포함하는 차량의 제어 방법.
  19. 제 17항에 있어서,
    차량의 현재 위치 정보와 상기 제2영상 정보에 매칭된 위치 정보에 기초하여 주변 영역들 중 영상이 존재하지 않는 영역을 판단하고,
    상기 판단된 영역의 위치 정보를 가지는 맵 정보 및 내비게이션 정보 중 적어도 하나에 기초하여 뷰 영상을 생성하는 것을 더 포함하는 차량의 제어 방법.
  20. 제 17 항에 있어서, 상기 제2영상 정보를 획득하는 것은,
    상기 수신된 제2영상 정보에 매칭된 위치 정보를 확인하고,
    상기 확인된 위치 정보에 기초하여 수신된 제2영상 정보에 대한 신뢰도를 판단하고,
    상기 판단된 신뢰도가 기준 신뢰도 이상이면 합성을 위한 제2영상 정보로 획득하는 것을 포함하는 차량의 제어 방법.
  21. 제 17 항에 있어서,
    차량의 주행 속도를 검출하고,
    상기 검출된 주행 속도에 기초하여 상기 현재 위치 정보를 보정하는 것을 더 포함하는 차량의 제어방법.
KR1020190167567A 2019-12-16 2019-12-16 차량 및 그 제어 방법 KR20210077039A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190167567A KR20210077039A (ko) 2019-12-16 2019-12-16 차량 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190167567A KR20210077039A (ko) 2019-12-16 2019-12-16 차량 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20210077039A true KR20210077039A (ko) 2021-06-25

Family

ID=76628991

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190167567A KR20210077039A (ko) 2019-12-16 2019-12-16 차량 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20210077039A (ko)

Similar Documents

Publication Publication Date Title
CN111257866B (zh) 车载摄像头和车载雷达联动的目标检测方法、装置及系统
CN109937568B (zh) 图像处理装置和图像处理方法
US20230048230A1 (en) Method for displaying lane information and apparatus for executing the method
KR102255432B1 (ko) 전자 장치 및 그의 제어 방법
US20180217255A1 (en) Radar for vehicle and vehicle provided therewith
JP6701532B2 (ja) 画像処理装置および画像処理方法
JP5991648B2 (ja) 車両用表示制御装置
US10937319B2 (en) Information provision system, server, and mobile terminal
KR20160114486A (ko) 이동단말기 및 이동 단말기의 제어방법
JP2019109707A (ja) 表示制御装置、表示制御方法および車両
JP6145563B2 (ja) 情報表示装置
US20220196427A1 (en) Mobile Device and Vehicle
JP2024052899A (ja) 通信装置及び通信方法
US11050981B2 (en) Vehicle and method of controlling the same
KR102164702B1 (ko) 자동 주차 장치 및 자동 주차 방법
KR20210077039A (ko) 차량 및 그 제어 방법
KR20160065721A (ko) 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR102600203B1 (ko) 영상 처리 장치, 그를 가지는 차량 및 그 제어 방법
JP5104589B2 (ja) 案内表示装置、案内表示方法、及び、プログラム
KR20220160279A (ko) 모바일 장치 및 차량
KR20160048351A (ko) 내비게이션 장치, 블랙 박스 및 그들의 제어 방법
KR102443843B1 (ko) 차량 및 그 제어 방법
KR102299501B1 (ko) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
KR20140074557A (ko) 내비게이션 디스플레이 장치
CN112241662B (zh) 一种检测可行驶区域的方法及装置

Legal Events

Date Code Title Description
A201 Request for examination