KR20240064957A - 차량, 차량과 통신을 수행하는 모바일 장치 - Google Patents

차량, 차량과 통신을 수행하는 모바일 장치 Download PDF

Info

Publication number
KR20240064957A
KR20240064957A KR1020220145358A KR20220145358A KR20240064957A KR 20240064957 A KR20240064957 A KR 20240064957A KR 1020220145358 A KR1020220145358 A KR 1020220145358A KR 20220145358 A KR20220145358 A KR 20220145358A KR 20240064957 A KR20240064957 A KR 20240064957A
Authority
KR
South Korea
Prior art keywords
vehicle
information
mobile device
processor
current location
Prior art date
Application number
KR1020220145358A
Other languages
English (en)
Inventor
박세영
Original Assignee
현대자동차주식회사
기아 주식회사
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to DE102023116190.3A priority Critical patent/DE102023116190A1/de
Priority to US18/338,959 priority patent/US20240153415A1/en
Publication of KR20240064957A publication Critical patent/KR20240064957A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/46Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for giving flashing caution signals during drive, other than signalling change of direction, e.g. flashing the headlights or hazard lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/543Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating other states or conditions of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle

Abstract

본 발명은 자율 주행을 수행하고 승객의 승차를 안내하는 차량, 차량과 통신을 수행하는 모바일 장치에 관한 것이다.
본 발명의 차량은, 차체의 외장에 마련된 표시부; 차량의 현재 위치 정보를 수신하고, 모바일 장치와 통신을 수행하는 통신부; 및 모바일 장치로부터 전송된 호출 정보 및 모바일 장치의 현재 위치 정보가 수신되면 모바일 장치의 현재 위치 정보 및 차량의 현재 위치 정보에 기초하여 모바일 장치의 위치까지 자율 주행을 제어하고 모바일 장치와의 거리가 제1기준 거리 이하이면 마킹 정보를 표시하도록 표시부를 제어하고 마킹 정보를 모바일 장치에 전송하도록 하는 프로세서를 포함한다.

Description

차량, 차량과 통신을 수행하는 모바일 장치 {Vehicle, and mobile device communicate with the vehicle}
본 발명은 자율 주행을 수행하고 승객의 승차를 안내하는 차량, 차량과 통신을 수행하는 모바일 장치에 관한 것이다.
버스(Bus)나 택시는 도시생활에 없어서는 안 될 소중한 교통수단이다.
특히, 버스 정보 시스템(BIS: Bus Information System), 또는 버스 중앙 차로제 시행 등 가로변에 있던 버스 정류장이 도로 한 가운데로 옮겨지고 있는 상황에서 부득이하게 버스와 사람 사이에 크고 작은 안전사고가 자주 발생하고 있다. 또한, 일정 영역 내에 여러 개의 버스 정류장이 존재하여 일부 사람들이 타고자 하는 버스가 정차하는 버스 정류장을 찾아 다녀야 하는 불편함이 있다.
현재, 미리 설정된 경로 정보에 기초하여 자율적으로 주행을 제어하는 기술들을 버스나 택시에 적용하기 위한 기술들이 개발되고 있는 상태이다. 이 경우, 버스 정류장에 다수의 버스들이 정차하거나 택시 정류장에 다수의 택시들이 정차하였을 때 각각의 사람들에게 승차 가능한 차량에 대한 정보를 제공하기 위한 기술들이 요구되고 있다.
일 측면은 승차 위치 정보 및 승차할 차량의 식별 정보 등의 승차 안내 정보를 출력하는 차량과, 차량과 통신을 수행하는 모바일 장치를 제공한다.
다른 측면은 증강 현실을 통해 승차 위치 정보 및 승차할 차량의 식별 정보 등의 승차 안내 정보를 출력하는 모바일 장치를 제공한다.
일 측면에 따른 차량은, 차체의 외장에 마련된 표시부; 차량의 현재 위치 정보를 수신하고, 모바일 장치와 통신을 수행하는 통신부; 및 모바일 장치로부터 전송된 호출 정보 및 모바일 장치의 현재 위치 정보가 수신되면 모바일 장치의 현재 위치 정보 및 차량의 현재 위치 정보에 기초하여 모바일 장치의 위치까지 자율 주행을 제어하고 모바일 장치와의 거리가 제1기준 거리 이하이면 마킹 정보를 표시하도록 표시부를 제어하고 마킹 정보를 모바일 장치에 전송하도록 하는 프로세서를 포함한다.
일 측면에 따른 차량은, 비상등을 더 포함한다. 일 측면에 따른 차량의 프로세서는 모바일 장치의 현재 위치 정보 및 차량의 현재 위치 정보에 기초하여 모바일 장치와의 거리가 일정 거리 이내인지를 판단하고, 모바일 장치와의 거리가 일정 거리 이내이면 비상등의 점등을 제어한다.
일 측면에 따른 차량은, 스피커를 더 포함한다. 일 측면에 따른 차량의 프로세서는, 모바일 장치와의 거리가 일정 거리 이내이면 알림음을 출력하도록 스피커를 제어한다.
일 측면에 따른 차량의 마킹 정보는, 텍스트 정보, 색상 정보, QR코드 정보 중 적어도 하나를 포함한다.
일 측면에 따른 차량의 통신부는 인프라와 통신을 수행한다.
일 측면에 따른 차량의 프로세서는, 인프라로부터 마킹 정보가 수신되면 수신된 마킹 정보를 표시하도록 표시부를 제어한다.
일 측면에 따른 차량은, 복수 개의 카메라들을 더 포함한다. 일 측면에 따른 차량의 프로세서는, 복수개의 카메라에 의해 획득된 영상 정보 중 적어도 하나에 기초하여 뷰 영상을 생성하고, 차량의 현재 위치 정보와 인프라의 위치 정보에 기초하여 인프라와의 거리 정보를 획득하고 획득한 거리 정보에 기초하여 인프라와의 거리가 제2기준 거리 이하이면 생성한 뷰 영상을 모바일 장치에 전송하도록 한다.
일 측면에 따른 차량은, 복수 개의 카메라들을 더 포함한다. 일 측면에 따른 차량의 프로세서는 복수개의 카메라에 의해 획득된 영상 정보 중 적어도 하나에 기초하여 뷰 영상을 생성하고, 차량의 현재 위치 정보와 인프라의 위치 정보에 기초하여 인프라와의 거리 정보를 획득하고 획득한 거리 정보와 차량의 주행 속도 정보에 기초하여 인프라에 도착하는 도착 시간을 예측하고 예측한 도착 시간이 미리 설정된 시간이면 생성한 뷰 영상을 모바일 장치에 전송하도록 한다.
일 측면에 따른 차량은, 복수 개의 카메라를 더 포함한다. 일 측면에 따른 차량의 프로세서는 복수개의 카메라에 의해 획득된 영상 정보 중 적어도 하나에 기초하여 뷰 영상을 생성하고 생성한 뷰 영상을 모바일 장치에 전송하도록 한다.
일 측면에 따른 차량의 프로세서는, 차량의 현재 위치 정보가 매칭된 지도 정보를 모바일 장치에 전송하도록 한다.
일 측면에 따른 차량의 프로세서는, 차량의 현재 위치 정보가 매칭된 지도 정보 및 뷰 영상을 동시에 모바일 장치에 전송하도록 한다.
일 측면에 따른 차량의 프로세서는, 차량의 현재 위치 정보가 매칭된 지도 정보 및 뷰 영상에 기초하여 차량 주변의 객체를 인식하고 인식한 객체에 대한 정보와 모바일 장치와의 거리 정보를 모바일 장치에 전송하도록 한다.
일 측면에 따른 차량은, 적어도 하나의 카메라를 포함한다.
일 측면에 따른 차량의 프로세서는, 적어도 하나의 카메라에 의해 획득된 영상 정보에 기초하여 인프라 주변의 식별자를 인식하고 인식한 식별자를 모바일 장치에 전송하도록 한다.
다른 측면에 따른 모바일 장치는, 모바일 장치의 현재 위치 정보를 수신하고, 차량과 통신을 수행하는 통신부; 사용자 입력으로 차량을 호출하기 위한 호출 정보를 수신하는 입력부; 표시부; 및 차량으로부터 응답 정보가 수신되면 모바일 장치의 현재 위치 정보를 차량에 전송하고, 차량으로부터 마킹 정보가 수신되면 수신된 마킹 정보를 표시하도록 표시부를 제어한다.
다른 측면에 따른 모바일 장치의 통신부는, 인프라와 통신을 수행한다. 다른 측면에 따른 모바일 장치의 프로세서는, 인프라로부터 차량의 마킹 정보가 수신되면 수신된 마킹 정보를 표시하도록 표시부를 제어한다.
다른 측면에 따른 모바일 장치의 프로세서는, 차량으로부터 뷰 영상이 수신되면 수신된 뷰 영상을 표시하도록 표시부를 제어한다.
다른 측면에 따른 모바일 장치의 프로세서는, 차량으로부터 차량의 현재 위치 정보가 매칭된 지도 정보 및 뷰 영상이 수신되면 차량의 현재 위치 정보가 매칭된 지도 정보 및 뷰 영상을 동시에 표시하도록 표시부를 제어한다.
다른 측면에 따른 모바일 장치의 프로세서는, 차량의로부터 거리 정보가 수신되면 수신된 차량과의 거리 정보를 표시하도록 표시부를 제어하고, 차량으로부터 객체 정보가 수신되면 수신된 객체 정보를 표시하도록 표시부를 제어한다.
다른 측면에 따른 모바일 장치는 카메라를 더 포함한다. 다른 측면에 따른 모바일 장치의 프로세서는, 카메라에 의해 획득된 영상과 차량에서 전송된 뷰 영상에 기초하여 증강 현실 영상을 생성하고, 생성한 증강 현실 영상을 표시하도록 표시부를 제한다.
다른 측면에 따른 모바일 장치의 프로세서는, 입력부에 의해 수신된 사용자 입력에 대응하여 뷰 영상을 조정한다.
다른 측면에 따른 모바일 장치의 뷰 영상은, 주변 모니터링 뷰 영상과 360도 가변 뷰 영상 중 적어도 하나를 포함한다. 다른 측면에 따른 모바일 장치의 프로세서는, 입력부에 의해 수신된 사용자 입력에 대응하여 주변 모니터링 뷰 영상과 360도 가변 뷰 영상 중 적어도 하나를 표시하도록 표시부를 제어한다.
본 발명은 차량의 외부에 마련된 표시부를 통해 마킹 정보를 표시함으로써, 차량을 호출한 사용자가 호출에 응답한 차량을 용이하게 인식하도록 할 수 있다.
본 발명은 SVM 기능에 의해 생성된 영상을 사용자의 모바일 장치에 제공함으로써 사용자가 호출에 응답한 차량을 용이하게 인식하도록 할 수 있다.
본 발명은 증강 현실 기능을 통해 호출에 응답한 차량을 표시함으로써 사용자가 호출에 응답한 차량을 용이하게 인식하도록 할 수 있다.
본 발명은 차량 호출 서비스를 이용하는 사용자의 만족도를 높일 수 있다.
본 발명은 자율 주행 기능을 가진 차량의 품질 및 상품성을 향상시킬 수 있고 나아가 제품의 경쟁력을 확보할 수 있다.
도 1은 실시 예에 따른 차량의 통신 예시도이다.
도 2는 실시 예에 따른 차량과 통신을 수행하는 인프라의 표시판의 예시도이다.
도 3는 실시 예에 따른 차량의 외관 예시도이다.
도 4a, 도 4b 및 도 4c는 실시 예에 따른 차량의 표시부의 예시도이다.
도 5는 실시 예에 따른 차량의 제어 구성도이다.
도 6은 실시 예에 따른 차량이 정차하는 정류장의 식별자의 예시도이다.
도 7은 실시 예에 따른 차량과 통신을 수행하는 모바일 장치의 제어 구성도이다.
도 8은 도 7에 도시된 모바일 장치의 표시부를 통해 표시되는 뷰 영상의 예시도이다.
도 9는 도 7에 도시된 모바일 장치의 표시부를 통해 표시되는 뷰 영상과 지도 정보의 예시도이다.
도 10은 도 7에 도시된 모바일 장치의 표시부를 통해 표시되는 증강 현실 영상의 예시도이다.
도 11은 실시 예에 따른 차량의 제어 구성도이다.
이하, 첨부된 도면을 참조하여 본 발명에 대해 상세히 설명한다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 장치'라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부, 장치'가 하나의 구성요소로 구현되거나, 하나의 '부, 장치'가 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제 1, 제 2, 제3 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시 예들에 대해 설명한다.
도 1은 실시 예에 따른 차량의 통신 예시도로, 도 2를 참조하여 설명한다.
도 1은 차량(1), 서버(2), 모바일 장치(3) 및 인프라(4) 사이의 통신을 설명하기 위한 도면이다.
차량(1)은 안테나(1a)를 통하여 전자기파를 외부로 방사할 수 있다.
차량의 안테나(1a)는, 차량(1)에 마련된 제1프로세서(180, 도 5참조)에서 전달된 전기적 신호에 대응하는 전자기파를 방출할 수 있다. 즉 차량(1)은 모바일 장치(3), 서버(2) 및 인프라(4) 중 적어도 하나에 전자기파를 방출할 수 있다.
차량(1)은 안테나(1a)를 통해 인프라(4), 서버(2) 및 모바일 장치(3) 중 적어도 하나에서 방출된 전자기파를 수신하고, 수신한 전자기파를 전기적 신호로 변환한다.
차량(1)은 안테나(1a)를 통해 수신된 전자기파를 복조시켜 전기적 신호로 변환하고, 변환된 전기적 신호에 대응하는 제어 신호를 생성하고 생성된 제어 신호를 차량(1)의 제어에 이용한다.
차량(1)은 서버(2)와 통신을 수행한다. 아울러 차량(1)은 도로의 인프라(4)를 통해 서버(2)와 통신을 수행할 수 있다.
차량(1)은 모바일 장치(3)로부터 전송된 호출 정보에 대응하여 응답 정보 또는 거절 정보를 모바일 장치(3)에 전송할 수 있다.
차량(1)은 응답 정보를 모바일 장치(3)에 전송한 후, 차량(1)의 현재 위치 정보와 모바일 장치(3)의 현재 위치 정보에 기초하여 경로를 생성하고 생성한 경로에 기초하여 자율 주행을 제어한다.
차량(1)은 자율 주행 중 차량(1)의 현재 위치 정보와 모바일 장치(3)의 현재 위치 정보에 기초하여 차량(1)과 모바일 장치(3) 사이의 거리 정보를 획득하고 획득한 거리 정보에 기초하여 모바일 장치와의 거리가 기준 거리 이하라고 판단되면 복수 개의 카메라들에 의해 획득된 영상 정보에 기초하여 차량의 정차 위치 정보를 생성할 수 있고, 차량(1)의 정차 위치 정보를 모바일 장치(4)에 전송할 수 있다.
차량(1)의 정차 위치 정보는, 주변 모니터링 뷰 정보를 포함할 수 있고, 360도 가변 뷰 정보를 포함할 수 있다.
차량(1)은 차량의 외부면에 마련된 제1표시부(140, 도 4a, 도4b, 도4c 참조)를 통해 호출 정보를 전송한 모바일 장치(3)의 사용자를 유도하기 위한 마킹 정보를 표시한다.
여기서 마킹 정보는 모바일 장치의 식별 정보, 모바일 장치의 사용자 식별 정보, 차량의 외부에 마련된 제1표시부(140)의 컬러 정보, 숫자 정보, 인증 정보, 안내 문구 정보, 애니메이션 정보, QR 코드 정보 중 적어도 하나를 포함할 수 있다.
차량(1)은 모바일 장치(3)와의 거리가 기준 거리 이하라고 판단되면 차량의 도착 정보를 모바일 장치(3)에 전송할 수 있다.
차량(1)은 모바일 장치(3)와의 거리가 제1기준 거리 이하라고 판단되면 비상등(160)을 점등하거나, 제1스피커(150, 도 5참조)를 통해 사운드를 출력할 수 있다.
차량(1)은 모바일 장치(3)와의 통신을 통해 모바일 장치(3)에 차량의 정차 위치를 영상 또는 음성으로 안내하는 정차 위치 정보를 전송할 수 있다.
차량(1)은 모바일 장치(3)와의 통신을 통해 모바일 장치(3)의 현재 위치에서 차량의 정차 위치까지의 이동 경로 정보가 매칭된 지도 정보를 전송하는 것도 가능하다.
차량(1)은 서버(2) 또는 인프라(4)로부터 모바일 장치(3)의 현재 위치 정보들을 수신할 수 있다.
서버(2)는 모바일 장치(3)의 호출 정보를 차량들에 전송하고, 복수 대의 차량들 중 호출에 응답한 차량의 식별 정보를 모바일 장치(3)에 전송할 수 있다.
서버(2)는 모바일 장치(3)의 호출 정보가 수신되면 모바일 장치(3)의 현재 위치 정보, 목적지 정보 및 복수 대의 차량들의 현재 위치 정보에 기초하여 차량을 배정하고 모바일 장치(3)의 현재 위치 정보, 목적지 정보 및 모바일 장치(3)의 식별 정보를 배정한 차량에 전송하는 것도 가능하다.
서버(2)는 차량(1)을 관리하는 서비스 센터, 제조사, 정비 센터 등에 마련된 서버일 수 있다. 또한 서버(2)는 차량(1)과 연계된 서비스를 제공하는 애플리케이션(즉, 앱) 서버일 수 있고, 텔레메틱스 서버 또는 플랫폼 서버일 수 있다.
모바일 장치(3)는 인프라(4), 서버(2) 및 차량(1)과 통신을 수행할 수 있다.
모바일 장치(3)는 사용자 입력을 수신하고, 사용자의 요청에 대응하는 각종 정보를 표시할 수 있으며, 제2 위치 수신기를 통해 모바일 장치(3)의 현재 위치 정보를 획득할 수 있고, 획득한 모바일 장치(3)의 현재 위치 정보를 차량(1), 서버(2) 및 인프라(4) 중 적어도 하나에 전송할 수 있다.
모바일 장치(3)는 차량 호출을 위한 애플리케이션을 포함할 수 있다.
모바일 장치(3)의 애플리케이션은 주변의 차량(1), 서버(2) 및 인프라(4)와 통신을 수행하고 통신을 통해 각종 정보를 송수신하기 위한 응용 프로그램일 수 있다.
모바일 장치(3)는 애플리케이션의 실행에 대응하여 차량 호출 정보를 인프라(4) 및 서버(2) 중 적어도 하나에 전송할 수 있다.
모바일 장치(3)는 차량 호출 정보의 전송 시에 모바일 장치(3)의 현재 위치 정보와 목적지 정보를 함께 서버(2)에 전송할 수 있다.
모바일 장치(3)는 차량의 호출 정보의 전송 시에 모바일 장치(3)의 현재 위치 정보와 목적지 정보를 복수 대의 차량들(1)에 전송하는 것도 가능하다.
모바일 장치(3)는 호출에 응답한 차량(1)으로부터 차량의 정차 위치 정보를 수신하고 수신한 차량의 정차 위치 정보를 표시할 수 있다.
모바일 장치(3)는 차량의 정차 위치 정보를 표시할 때, 주변 모니터링 뷰(SVM: Surround View Monitor) 정보와 차량의 현재 위치 정보를 매칭시켜 표시할 수 있다.
모바일 장치(3)는 차량의 정차 위치 정보를 표시할 때, 호출에 응답한 차량의 주변 환경 정보와 차량에 표시되는 마킹 정보를 함께 표시할 수 있다.
모바일 장치(3)는 애플리케이션 실행 중 증강현실 모드를 통해 차량의 정차 위치 정보를 표시할 수 있다.
증강 현실 모드는 현실의 사물(예: 실제 환경)에 가상의 정보(예: 텍스트, 이미지 등)를 합성하여 출력하는 모드이다. 이러한 증강현실(AR, augmented reality) 모드는, 실제 환경이라는 객체 위에 가상의 관련 객체를 제공하여, 실제 환경만으로는 획득하기 어려운 부가 정보를 사용자에게 제공해 줄 수 있다.
모바일 장치(3)는 승차 가능한 버스의 식별 정보를 수신하는 것도 가능하다. 버스의 식별 정보는 버스의 운행 번호일 수 있다.
모바일 장치(3)는 승차 가능한 택시의 식별 정보를 수신하는 것도 가능하다.
모바일 장치(3)는 승차 가능한 차량의 제1표시부(140)에 표시된 마킹 정보를 수신하는 것도 가능하다.
모바일 장치(3)는 차량의 마킹 정보를 수신한 후 표시함으로써 모바일 장치의 사용자의 승차 유도를 효율적, 직관적으로 할 수 있다.
모바일 장치(3)는 네트워크를 통해 차량(1)에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다.여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.
인프라(4)는 차량(1)의 안테나(1a)에서 방출된 전자기파를 안테나(4a)를 통해 수신하고, 수신된 전자기파에 대응하는 전기적 신호를 이용하여 차량(1)에서 제공한 정보를 획득하거나 또는 제어 신호를 생성할 수 있다.
인프라(4)는 별도의 케이블을 통하여 외부의 서버(2)와 연결될 수 있다.
인프라(4)는 서버(2)로부터 전기적 신호가 수신되면 수신된 전기적 신호를 제어 신호나 정보로 변환하고 변환된 제어신호나 정보를 전자기파로 변환하며 변환된 전자기파를 안테나(4a)를 통해 방출하도록 할 수 있다. 이때 인프라(4)의 주변에 위치한 차량은 인프라(4)에서 방출된 전자기파를 수신할 수 있다.
인프라(4)는 모바일 장치(3)의 식별 정보, 모바일 장치(3)의 현재 위치 정보, 목적지 정보 및 호출 정보를 수신할 수 있다.
모바일 장치(3)의 현재 위치 정보는 보행자, 버스나 택시의 승객이 소유한 모바일 장치의 위치 정보로, 보행자나 승객의 위치 정보이기도 하다.
인프라(4)는 배정된 차량의 식별 정보, 차량의 마킹 정보를 모바일 장치(3)에 전송할 수 있다.
인프라(4)는 버스나 택시가 정차하는 정류장 및 그 주변에 설치될 수 있다.
인프라(4)는 도로 주변의 인도, 가로수나, 가로등에 설치될 수 있다.
인프라(4)는 정류장에 진입하는 복수 대의 차량에 서로 다른 마킹 정보를 배정하고, 각각의 차량에 배정된 마킹 정보를 전송할 수 있다.
도 2에 도시된 바와 같이, 인프라(4)가 정류장에 마련된 경우, 인프라(4)는 표시판(410)을 포함할 수 있다. 인프라(4)는 표시판(410)을 통해 정류장에 진입하는 각각의 차량에 배정된 마킹 정보를 표시할 수 있다.
이때 정류장에 진입하는 각각의 차량은 인프라(4)로부터 전송된 마킹 정보를 제1표시부(140)를 통해 표시할 수 있다. 여기서 정류장에 진입하는 차량은, 모바일 장치의 사용자가 호출한 차량일 수 있다.
모바일 장치(3)는 호출에 응답한 차량에 배정된 마킹 정보를 표시할 수 있다.
모바일 장치(3)는 호출에 응답한 차량의 식별 정보를 표시하는 것도 가능하다.
인프라(4)는 차량(1)의 현재 위치 정보를 수신하는 것도 가능하고 인프라(4)의 위치 정보를 차량(1)에 전송하는 것도 가능하다.
인프라(4)가 버스 정류장에 마련된 경우, 인프라(4)는 모바일 장치와의 통신 여부에 기초하여 버스 정류장에 승객 존재 여부를 판단하고, 버스 정류장에 승객이 있다고 판단되면 버스 정류장으로 진입하는 차량(1)을 확인하고 확인한 차량에 승객 존재 정보를 전송할 수 있다.
인프라(4)는 차량(1)으로부터 전송된 위치 정보와 인프라의 위치 정보에 기초하여 차량과의 거리 정보를 획득하고 획득한 거리 정보에 기초하여 승객 존재 정보를 전송할 수 있다.
도 3은 실시 예에 따른 차량의 외관 예시도로, 도 4a, 도 4b 및 도 4c를 참조하여 설명한다.
차량(1)은 내장과 외장을 갖는 차체(Body)와, 차체를 제외한 나머지 부분으로 주행에 필요한 기계 장치가 설치되는 차대(Chassis)를 포함한다.
도 3 에 도시된 바와 같이 차체의 외장(110)은 프론트 패널(111), 본네트(112), 루프 패널(113), 리어 패널(114), 트렁크(115), 전후좌우 도어(116), 전후좌우 도어(116)에 개폐 가능하게 마련된 윈도우 글래스(117)를 포함한다.
그리고 차체의 외장은 프론트 패널, 본네트, 루프 패널, 리어 패널, 트렁크, 전후좌우 도어의 윈도우 글래스 사이의 경계에 마련된 필러(118)와, 운전자에게 차량(1) 후방의 시야를 제공하는 사이드 미러(119)를 더 포함한다.
차량(1)은 전후좌우 방향의 장애물을 검출하는 장애물 검출부(120)와, 전후좌우 방향의 주변의 영상을 검출하는 하나 또는 둘 이상의 카메라(130)와, 전후좌우 차륜의 속도를 검출하는 복수 개의 휠 속도 센서들과, 차량의 가속도를 검출하는 가속도 센서와, 차량의 조향각을 검출하는 각속도 센서를 더 포함할 수 있다.
여기서 장애물 검출부(120)는 레이더(radar) 센서 또는 라이다(Light detection and Ranging, Lidar) 센서를 포함할 수 있다.
이러한 장애물 검출부(120)는 차량의 프론트 패널(111) 및 루프 패널(113) 중 적어도 하나의 패널에 마련될 수 있다.
장애물 검출부(120)는 프론트 패널(111)의 중앙에 하나가 마련되거나, 프론트 패널(111)의 좌측, 우측 및 중앙에 세 개가 마련될 수도 있다.
하나 또는 둘 이상의 카메라(130)는, CCD 또는 CMOS 이미지 센서를 포함할 수 있다.
카메라(130)는 전면의 윈드 쉴드 글래스에 마련되되 차량 내부의 윈드 쉴드 글래스에 마련될 수 있고, 차량 내부의 룸미러에 마련될 수도 있으며, 루프 패널(113)의 마련되되 외부로 노출되도록 마련될 수도 있다.
카메라(130)는 차량의 전방 방향의 영상을 획득하는 전방 카메라(130a)를 포함할 수 있다.
전방 카메라(130a)는 블랙박스에 마련된 카메라일 수 있고, 자율 주행을 위한 자율 주행 제어 장치의 카메라일 수도 있으며, 장애물 검출을 위한 카메라일 수도 있다.
카메라(130)는 전방 카메라(130a)와 다른 위치에 마련되고 차량의 전방 영상을 획득하는 제1카메라(131)와, 차량의 후방 방향의 영상을 획득하는 제2카메라(132), 차량의 좌측 방향의 영상을 획득하는 제3카메라(133), 차량의 우측 방향의 영상을 획득하는 제4카메라(134)를 포함할 수 있다.
제1카메라(131)는 차량의 번호판, 그릴, 엠블럼, 프런트 패널 또는 루프 패널의 마련되되 외부로 노출되도록 마련될 수도 있다.
제2카메라(132)는 후방 감지 장치의 카메라일 수 있다.
제2카메라(132)는 차량의 후면의 리어 윈드 쉴드 글래스에 마련되되 차량 내부의 리어 윈드 쉴드 클래스에 마련되어 차량의 외부를 향하도록 마련될 수도 있고, 테일 게이트에 마련될 수도 있으며, 후방 번호판, 루프 패널, 리어 패널 또는 후방 엠블럼에 마련되되 외부로 노출되도록 마련될 수도 있다.
제3 카메라(133)는 좌측 사이드 미러, 좌측 도어 또는 좌측 펜더(Fender)에 마련될 수 있다.
제4 카메라(134)는 우측 사이드 미러, 우측 도어 또는 우측 펜더에 마련될 수 있다. 아울러 제4 카메라는 리어 패널 주변, 엠블럼 주변 또는 번호판 주변에 마련될 수도 있다.
제1, 2, 3, 4 카메라는 주변 모니터링 장치(SVM: Surround View Monitor, 또는 AVM)의 카메라, 사각 지대 감지 장치(BSD: Blind Spot Detection)의 카메라일 수 있다.
전방 카메라 및 제1, 2, 3, 4 카메라는 차량 주변의 물체에 대한 형상 정보를 전기적인 영상 신호로 변환하는 것으로, 자 차량의 현재 위치에서 자 차량 외부의 환경, 특히 차량이 주행하는 도로 및 그 주변의 자 차량의 전방, 후방, 좌우의 측방의 물체의 형상 정보에 대응하는 영상 신호를 영상 처리 장치(미도시)로 전송한다.
도 4a, 도 4b 및 4c에 도시된 바와 같이, 차량은 차량의 외부면에 마련된 제1표시부(140)를 더 포함할 수 있다. 차량의 외부면은, 프런트 패널, 루프 패널, 리어패널 중 적어도 하나를 포함할 수 있다.
도 4a에 도시된 바와 같이, 차량은 제1표시부(140)를 통해 마킹 정보를 표시하되, 모바일 장치의 사용자를 유도하기 위한 마킹 정보로 텍스트를 표시할 수 있다.
도 4b에 도시된 바와 같이, 차량은 제1표시부(140)를 통해 마킹 정보를 표시하되, 모바일 장치의 사용자를 유도하기 위한 마킹 정보로 제1색상을 표시할 수 있다.
차량은 일정 시간 동안 제1표시부(140)의 전체면을 제1색상으로 표시할 수도 있고, 제1표시부(140)의 전체 면을 제1색상으로 표시하되 주기적으로 점멸 표시할 수도 있고, 제1표시부(140)의 일부 면에 제1색상의 이모티콘을 표시할 수도 있다.
도 4c에 도시된 바와 같이, 차량은 제1표시부(140)를 통해 모바일 장치의 식별 정보, 모바일 장치의 사용자의 식별 정보, 모바일 장치에 전송한 인증 번호 정보를 표시할 수 있고, 호출을 요청한 모바일 장치에서 인식 가능한 QR 코드 정보를 표시할 수 있다.
차량(1)은 차량의 외부로 노출되도록 마련되고 사운드를 출력하는 제1스피커(150, 도 5참조)를 더 포함할 수 있다.
차량은 비상 시에 점등되는 비상등(160)을 더 포함할 수 있다.
비상등(160)은 사용자 입력에 대응하여 점등되거나 소등될 수 있고, 비상 상황이라고 자동으로 판단되었을 때 점등될 수 있다.
비상등(160)은 다른 차량들과 식별되도록 자동으로 점등될 수 있다. 이 경우 비상등(160)이 점등됨에 따라 차량의 위치가 드러날 수 있다.
차체의 내장은 탑승자가 앉는 시트와, 대시 보드와, 대시 보드 상에 배치된 클러스터 등을 포함할 수 있다.
차량은 오디오 모드, 비디오 모드, 내비게이션 모드, 방송(DMB) 모드, 라디오 모드를 수행하고, 내비게이션 모드 시 지도 정도, 경로 정보, 길 안내 정보를 표시하는 차량용 단말기(미도시)를 더 포함할 수 있다.
차량용 단말기는 디스플레이 패널을 포함할 수 있고, 디스플레이 패널에 터치 패널이 일체화된 터치 스크린을 포함할 수도 있다. 단말기에 디스플레이 패널만이 마련된 경우, 헤드유닛의 입력부를 이용하여 단말기에 표시된 버튼을 선택받을 수 있다.
도 5는 실시 예에 따른 차량의 제어 구성도로, 도 6을 참조하여 설명한다.
차량(1)은, 장애물 검출부(120), 복수 개의 카메라(130), 표시부(140), 스피커(160), 제1통신부(170), 제1프로세서(180) 및 제1메모리(181)를 포함한다.
차량(1)의 구성부들과 모바일 장치(3)의 구성부들과의 차별화를 위해, 동일 이름을 가진 구성부 중 차량(1)에 마련된 구성부에 제1을 기재하도록 하고, 모바일 장치(3)에 마련된 구성부에 제2를 기재하도록 한다.
장애물 검출부(120)는 차량 주변의 장애물을 검출하고 검출한 장애물 정보를 제1프로세서(180)에 전송할 수 있다. 장애물 정보는 장애물의 위치 정보 및 장애물의 형상 정보를 포함할 수 있다.
장애물의 위치 정보는 장애물과의 거리 정보 및 장애물의 방향 정보를 포함할 수 있다.
장애물 검출부(120)는 하나 또는 둘 이상의 레이더 센서를 포함할 수 있다.
차량에 둘 이상의 레이더 센서가 마련된 경우, 둘 이상의 레이더 센서는 차량(1)의 전방을 향하는 감지 시야(field of sensing)를 가지는 전방 레이더 센서와, 차량의 전방의 좌측과 우측 및 차량의 후방의 좌측과 우측을 향하는 감지 시야를 가지는 복수 개의 코너 레이더 센서들을 포함할 수 있다.
전방 레이더 센서에 의해 획득된 레이더 데이터는, 차량(1) 전방에 위치하는 다른 차량 또는 보행자 또는 사이클리스트에 관한 위치 정보 및 속도 정도를 인식하는 데 이용될 수 있다.
복수 개의 코너 레이더 센서들에 의해 각각 획득된 레이더 데이터는, 차량(1)의 전방 좌우측, 후방 좌우측에 위치하는 다른 차량, 보행자 또는 사이클리스트에 관한 위치 정보 및 속도 정도를 인식하는데 이용될 수 있다.
장애물 검출부(120)는 하나 또는 둘 이상의 라이더 센서를 포함할 수 있다.
라이다(LiDAR: Light Detection And Ranging)센서는 레이저 레이다(Laser Radar) 원리를 이용한 비접촉식 거리 검출 센서이다.
라이다 센서는 레이저를 송신하는 송신부와, 센서 범위 내에 존재하는 장애물의 표면에 반사되어 돌아오는 레이저를 수신하는 수신부를 포함할 수 있다.
이러한, 라이다 센서는 레이더(RaDAR: Radio Detecting And Ranging) 센서에 비해 횡방향에 대한 감지 정확도가 높다.
장애물 검출부(120)는 하나 또는 둘 이상의 초음파 센서를 포함할 수 있다.
하나 또는 둘 이상의 초음파 센서는 근거리 범위 내에서 보행자 등의 장애물의 유무를 판별하는데 사용될 수 있다.
카메라(130)는 하나 또는 둘 이상일 수 있다.
하나 또는 둘 이상의 카메라(130)는 영상 처리를 위한 FHD(Full High Definition) 카메라일 수 있다.
하나 또는 둘 이상의 카메라는 CCD 또는 CMOS 이미지 센서를 포함할 수 있고, KINECT(RGB-D 센서), TOF(Structured Light Sensor), 스테레오 카메라(Stereo Camera) 등과 같은 3차원 공간 인식 센서를 포함할 수도 있다.
둘 이상의 카메라는 차량(1)의 차체의 서로 다른 위치에 마련될 수 있다.
하나 또는 둘 이상의 카메라(130)는, CCD 또는 CMOS 이미지 센서를 포함할 수 있다.
예를 들어, 둘 이상의 카메라는 전방 카메라(130a)와, 주변 모니터링을 위한 제1, 2, 3, 4 카메라들(131-134)을 포함할 수 있다.
전방 카메라(130a)는 전면의 윈드 쉴드 글래스에 마련되되 차량 내부의 윈드 쉴드 글래스에 마련될 수 있고, 차량 내부의 룸미러에 마련될 수도 있으며, 루프 패널(113)의 마련되되 외부로 노출되도록 마련될 수도 있다.
전방 카메라(130a)는 차량의 전방 방향의 영상을 획득할 수 있다.
전방 카메라(130a)는 차량(1) 전방에 위치하는 다른 차량, 보행자, 사이클리스트, 차선, 연석, 가드레일, 가로수 및 가로등 등 오브젝트의 형상 정보와, 적어도 하나의 오브젝트에 관한 위치 정보를 인식하기 위한 전방 영상을 획득할 수 있다.
전방 카메라(130a)는 블랙박스에 마련된 카메라일 수 있고, 자율 주행을 위한 자율 주행 제어 장치의 카메라일 수도 있으며, 장애물 검출을 위한 카메라일 수도 있다.
제1카메라(131)는 전방 카메라(130a)와 다른 위치에 마련되고, 차량의 번호판, 그릴, 엠블럼, 프런트 패널 또는 루프 패널의 마련되되 외부로 노출되도록 마련될 수도 있다.
제2카메라(132)는 후방 감지 장치의 카메라일 수 있다.
제2카메라(132)는 차량의 후면의 리어 윈드 쉴드 글래스에 마련되되 차량 내부의 리어 윈드 쉴드 클래스에 마련되어 차량의 외부를 향하도록 마련될 수도 있고, 테일 게이트에 마련될 수도 있으며, 후방 번호판, 루프 패널, 리어 패널 또는 후방 엠블럼에 마련되되 외부로 노출되도록 마련될 수도 있다.
제3 카메라(133)는 좌측 사이드 미러, 좌측 도어 또는 좌측 펜더(Fender)에 마련될 수 있다.
제4 카메라(134)는 우측 사이드 미러, 우측 도어 또는 우측 펜더에 마련될 수 있다. 아울러 제4 카메라는 리어 패널 주변, 엠블럼 주변 또는 번호판 주변에 마련될 수도 있다.
제1카메라(131)는 차량의 전방 영상을 획득하고, 제2카메라(132)는 차량의 후방 방향의 영상을 획득하며, 제3카메라(133)는 차량의 좌측 방향의 영상을 획득하고, 제4카메라(134)는 차량의 우측 방향의 영상을 획득한다.
제1, 2, 3, 4 카메라들(131-134)은 카메라가 향하는 시야에 따라, 전방 카메라, 우 측방 카메라, 좌 측방 카메라 및 후방 카메라로 구분될 수 있다.
제1, 2, 3, 4 카메라들(131-134)는 주변 모니터링 장치(SVM: Surround View Monitor)의 카메라, 어라운드 모니터링 장치(AVM)의 카메라, 또는 사각 지대 감지 장치(BSD: Blind Spot Detection)의 카메라일 수 있다.
전방 카메라(130a) 및 제1, 2, 3, 4 카메라들(131-134)는 차량 주변의 물체에 대한 형상 정보를 전기적인 영상 신호로 변환하는 것으로, 자 차량의 현재 위치에서 자 차량 외부의 환경, 특히 차량이 주행하는 도로 및 그 주변의 자 차량의 전방, 후방, 좌우의 측방의 물체의 형상 정보에 대응하는 영상 신호를 영상 처리 장치(미도시)로 전송한다.
영상 처리 장치(미도시)는 전방 카메라(130a) 및 제1, 2, 3, 4 카메라(131-134)에서 획득된 복수 개의 영상과 차량의 주변 정보를 합성하여 합성된 영상 정보를 저장하도록 할 수 있다. 여기서 차량의 주변 정보는 차량 주변의 물체의 정보 및 차량의 주행 정보를 포함할 수 있다.
차량이 버스나 택시인 경우, 제1표시부(140)는 마킹 정보를 표시할 수 있다.
차량이 개인 차량인 경우, 차량의 내부에 마련된 내부 표시부는 내비게이션 정보를 표시할 수 있다. 여기서 내비게이션 정보는 차량의 현재 위치 정보, 목적지 정보, 경로 정보 및 길 안내 정보가 매칭된 지도 정보를 포함할 수 있다.
제1표시부(140)는 음극선관(Cathode Ray Tube: CRT), 디지털 광원 처리(Digital Light Processing: DLP) 패널, 플라즈마 디스플레이 패널(Plasma Display Penal), 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 전기 발광(Electro Luminescence: EL) 패널, 전기영동 디스플레이(Electrophoretic Display: EPD) 패널, 전기변색 디스플레이(Electrochromic Display: ECD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등으로 마련될 수 있으나, 이에 한정되지는 않는다.
제1스피커(150)는 제1프로세서(180)의 제어 명령에 대응하여 사운드를 출력한다.
제1스피커(150)는 모바일 장치(3)를 소유한 사용자를 유도하기 위한 사운드를 출력할 수 있다.
제1스피커(150)는 내비게이션 정보를 음성을 포함한 사운드로 출력할 수 있다.
제1스피커(150)는 하나 또는 둘 이상일 수 있다.
제1스피커(150)는 차량 내부에 마련되어 차량 내부로 사운드를 출력할 수 있다.
제1스피커(150)는 차량 외부로 노출되게 마련되어 차량 외부로 사운드를 출력할 수 있다.
비상등(160)은 사용자 명령에 대응하여 점등되거나 소등될 수 있다.
비상등(160)은 차량이 비상 상태라고 판단되면 점등될 수 있다.
비상등(160)은 제1프로세서의 제어 명령에 대응하여 자동으로 점등 또는 소등될 수 있다. 예를 들어, 비상등(160)은 호출을 요청한 모바일 장치(3)와의 거리가 일정 거리 이하일 때 자동으로 점등될 수 있고, 모바일 장치(3)의 사용자가 승차하였다고 판단되면 자동으로 소등될 수 있다.
여기서 일정 거리는, 제1기준 거리보다 짧은 거리이다.
제1통신부(170)는 서버(2), 인프라(4) 및 모바일 장치(3) 중 적어도 하나와 통신을 수행한다.
제1통신부(170)는 인프라(4), 제2 단말기(3) 및 서버(2)에서 전송된 각종 정보를 제1프로세서(180)에 전송하고, 제1프로세서(180)의 제어 명령에 기초하여 각종 정보를 인프라(4), 모바일 장치(3) 및 서버(2) 중 적어도 하나에 전송한다.
제1통신부(170)는 제1프로세서(180)의 제어 명령에 기초하여 차량의 현재 위치 정보, 경로 정보 및 목적지 정보를 서버(2) 및 인프라(4)에 전송하는 것도 가능하다.
제1통신부(170)는 인프라(4)로부터 모바일 장치(3)의 위치 정보를 수신하는 것도 가능하다. 여기서 모바일 장치(3)의 위치 정보는 보행자 또는 승객의 위치 정보일 수 있다.
제1통신부(170)는 차량(1) 내부 구성 및 각종 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.
유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.
유선 통신 모듈은 LIN(Local Interconnect Network)를 더 포함할 수 있다.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
제1통신부(170)는 호출에 응답한 차량 주변 사용자 정밀 위치 판단을 위한 UWB 통신을 수행할 수 있다.
제1통신부(170)는 차량의 현재 위치에 대한 위치 정보를 수신하고 수신한 위치 정보를 출력하는 제1위치 수신기를 더 포함할 수 있다.
제1위치 수신기는 GPS(Global Positioning System) 수신기를 포함할 수 있다. 여기서 GPS(Global Positioning System) 수신기는 복수의 GPS 위성의 신호를 수신하는 안테나 모듈 및 신호처리부를 포함한다.
신호 처리부는 복수의 GPS위성의 위치 신호에 대응하는 거리 및 시간 정보를 이용하여 현재의 위치를 획득하는 소프트웨어와, 획득된 차량의 위치 정보를 송신하는 송신부를 포함한다.
제1프로세서(180)는 제1통신부를 통해 수신된 차량의 현재 위치 정보를 출발지의 위치 정보로 판단하고, 제1통신부에 수신된 모바일 장치의 현재 위치 정보와 출발지의 위치 정보에 기초하여 출발지부터 모바일 장치의 현재 위치까지의 경로를 탐색하고 탐색한 경로에 대한 경로 정보, 도로 정보 및 지도 정보에 기초하여 모바일 장치의 현재 위치까지 자율 주행을 제어한다.
제1프로세서(180)는 승객이 승차하였다고 판단되면 제1통신부(170)에 수신된 목적지 정보와 차량의 현재의 위치 정보에 기초하여 차량의 현재 위치부터 목적지까지의 경로를 탐색하고 탐색한 경로에 대한 경로 정보 및 도로 정보를 지도 정보에 매칭시키고, 경로 정보와 도로 정보가 매칭된 지도 정보를 내비게이션 정보를 생성하며 생성한 내비게이션 정보에 기초하여 자율 주행을 제어한다. 여기서 도로 정보는 길 안내 정보를 포함할 수 있다.
제1프로세서(180)는 내비게이션 정보를 출력하도록 차량 내부에 마련된 내부 표시부(미도시) 및 제1스피커(150)를 제어할 수 있다.
제1프로세서(180)는 내비게이션 정보에 기초하여 자율 주행 제어 시, 전방 카메라(130a)에 의해 획득된 영상 정보에 기초하여 차선을 인식하고 인식한 차선을 추종하도록 자율 주행을 제어할 수 있다.
제1프로세서(180)는 내비게이션 정보에 기초하여 자율 주행 제어 시, 전방 카메라(130a) 및 제1, 2, 3, 4 카메라들(131-134)에 의해 획득된 영상 정보와 장애물 검출부에 의해 검출된 장애물 정보에 기초하여 장애물을 인식하고 인식한 장애물을 회피하면서 자율 주행을 제어한다.
제1프로세서(180)는 장애물 인식 시, 장애물들의 위치 정보(방향) 및 유형 정보(예를 들어, 장애물이 다른 차량인지, 또는 보행자인지, 또는 사이클리스트인지, 또는 연석인지, 또는 가드레일인지, 또는 가로수인지, 또는 가로등인지 등)를 인식할 수 있다.
제1프로세서(180)는 장애물을 회피할 때, 조향, 가속 및 감속 중 적어도 하나를 제어할 수 있다.
제1프로세서(180)는 도로 정보에 포함된 제한 속도 정보 및 미리 설정된 목표 주행 속도 정보에 기초하여 가속 및 감속을 제어하면서 자율 주행을 제어할 수 있다.
구체적으로, 제1프로세서(180)는 전방 레이더의 전방 레이더 정보에 기초하여 차량(1)의 전방의 장애물들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.
제1프로세서(180)는 전방 영상 정보에 의하여 감지된 장애물들을 전방 레이더 정보에 의한 감지된 장애물에 매칭하고, 매칭 결과에 기초하여 차량(1)의 전방 장애물들의 유형 정보와 위치 정보와 속도 정보를 획득할 수 있다.
제1프로세서(180)는 전방 장애물들의 유형 정보와 위치 정보와 속도 정보에 기초하여 제동 신호와 조향 신호를 생성할 수 있다.
예를 들어, 제1프로세서(180)는 전방 장애물들의 위치 정보(상대 거리)와 속도 정보(상대 속도)에 기초하여 차량(1)과 전방 장애물 사이의 충돌까지의 시간(Time to Collision, TTC)를 산출하고, 충돌까지의 시간과 미리 정해진 기준 시간 사이의 비교 결과에 기초하여 운전자에게 충돌을 경고하거나 제동 신호를 제동 장치로 전송하거나, 조향 신호를 조향 장치에 전송할 수 있다.
제1프로세서(180)는 전방 장애물들의 속도 정보(즉 상대 속도)에 기초하여 충돌까지의 거리(Distance to Collision, DTC)를 산출하고, 충돌까지의 거리와 전방 장애물들까지의 거리 사이의 비교 결과에 기초하여 운전자에게 충돌을 경고하거나 제동 신호를 제동 장치에 전송할 수 있다.
제1프로세서(180)는 복수의 코너 레이더들의 코너 레이더 데이터에 기초하여 차량(1) 측방(전방 우측, 전방 좌측, 후방 우측, 후방 좌측)의 장애물들을 인식하고 인식된 장애물들의 위치 정보(거리 및 방향) 및 속도 정보(상대 속도)를 획득할 수 있다.
제1프로세서(180)는 제1통신부(170)에 수신된 복수의 GPS 위성 신호에 기초하여 차량의 현재 위치 정보를 획득하고 획득한 차량의 현재 위치 정보를 서버(2), 인프라(4) 또는 모바일 장치(3)에 전송할 수 있다.
차량이 버스일 경우, 제1프로세서(180)는 차량의 경로 정보 및 정차할 정류장의 위치 정보 및 정류장의 식별 정보를 서버(2), 인프라(4) 또는 모바일 장치(3)에 전송할 수 있다.
차량이 버스일 경우, 제1프로세서(180)는 차량의 경로 정보 및 정차할 정류장의 위치 정보 및 정류장의 식별 정보를 출력하도록 내부 표시부 및 제1스피커(150)를 제어할 수 있다.
제1프로세서(180)는 차량의 현재 위치 정보와 모바일 장치의 현재 위치 정보에 기초하여 차량과 모바일 장치 사이의 거리 정보를 획득하고 획득한 거리 정보에 기초하여 차량과 모바일 장치 사이의 거리가 제1기준 거리 이하인지를 판단하고 차량과 모바일 장치 사이의 거리가 제1기준 거리 이하라고 판단되면 도착 정보를 모바일 장치(3)에 전송할 수 있다.
제1프로세서(180)는 차량과 모바일 장치 사이의 거리가 제1기준 거리 이하라고 판단되면 마킹 정보를 표시하도록 제1표시부(140)를 제어할 수 있다.
제1프로세서(180)는 인프라(4)로부터 전송된 마킹 정보를 표시하도록 제1표시부(140)를 제어하는 것도 가능하다.
차량(1)이 버스이고 인프라(4)가 정류장에 마련된 경우, 제1프로세서(180)는 차량의 현재 위치 정보와 인프라의 위치 정보에 기초하여 차량과 인프라 사이의 거리 정보를 획득하고 획득한 거리 정보에 기초하여 차량과 인프라 사이의 거리가 제2기준 거리 이하인지를 판단한다.
도 6에 도시된 바와 같이, 제1프로세서(180)는 차량(1)과 인프라(4) 사이의 거리가 제2기준 거리 이하라고 판단되면 전방 카메라(130a)를 통해 정류장에 마련된 식별자에 대한 식별자 영상을 획득하고, 획득한 식별자 영상을 모바일 장치(3)에 전송할 수 있다.
정류장의 식별자는, 정류장의 바닥면에 마련될 수도 있고, 정류장의 안내판에 마련될 수도 있다.
예를 들어, 제1프로세서(180)는 식별자 영상을 통해 식별자 정보를 획득하고 획득한 식별자 정보가 ID3이라고 판단되면 ID3의 식별자 정보를 모바일 장치에 전송할 수 있다. 이를 통해 차량의 정차 위치를 모바일 장치의 사용자가 용이하게 인식하도록 할 수 있다.
제1프로세서(180)는 차량의 현재 위치 정보와 미리 설정된 영역 정보에 기초하여 미리 설정된 영역 내에 존재하는 타 차량의 마킹 정보를 확인하고 복수 개의 마킹 정보 중 확인한 타 차량의 마킹 정보와 상이한 마킹 정보를 차량의 마킹 정보로 획득하고, 획득한 차량의 마킹 정보를 표시하도록 제1표시부(140)를 제어하는 것도 가능하다.
제1프로세서(180)는 획득한 차량의 마킹 정보를 모바일 장치(3)에 전송한다.
제1프로세서(180)는 차량이 정류장에 정차하는 시점부터 시간을 카운트하고 카운트한 시간과 미리 설정된 시간을 비교하고 카운트한 시간이 미리 설정된 시간 이내이면 차량의 마킹 정보를 표시하도록 제1표시부(140)를 제어하고 카운트한 시간이 미리 설정된 시간을 경과하면 차량의 마킹 정보 표시를 종료하도록 제1표시부(140)를 제어하는 것도 가능하다.
제1프로세서(180)는 호출한 사용자가 승차하기 전이라고 판단되면, 제1, 2, 3, 4 카메라들을 통해 획득된 영상 정보에 기초하여 주변 모니터링 뷰 영상을 생성하고 생성한 주변 모니터링 뷰 영상을 인프라(4) 또는 모바일 장치(3)에 전송할 수 있다.
제1프로세서(180)는 호출한 사용자가 승차하기 전이라고 판단되면, 제1, 2, 3, 4 카메라들을 통해 획득된 영상 정보에 기초하여 360도 가변 뷰 영상을 생성하고 생성한 360도 가변 뷰 영상을 인프라(4) 또는 모바일 장치(3)에 전송할 수 있다.
제1프로세서(180)는 차량의 주변 모니터링 뷰 영상 및 360도 가변 뷰 영상을 모바일 장치(3)에 전송함으로써 모바일 장치의 사용자가 차량의 주변의 사물, 차량의 외관 및 차량의 상체 위치를 용이하게 인식하도록 할 수 있다.
제1프로세서(180)는 차량의 현재 위치 정보, 도로 정보, 지도 정보에 기초하여 차량의 현재 위치 정보 및 도로 정보가 매칭된 지도 정보를 생성하고 생성한 지도 정보를 모바일 장치(3)에 전송할 수 있다.
제1프로세서(180)는 지도 정보를 모바일 장치(3)에 전송할 때, 카메라에 의해 획득된 차량 주변의 영상을 함께 전송할 수 있고, 지도 정보에 주변 건물에 상호명 정보가 존재한다고 판단되면 상호명 정보를 함께 전송할 수 있다.
제1프로세서(180)는 차량의 현재 위치 정보와 모바일 장치의 현재 위치 정보에 기초하여 모바일 장치와의 상대적 거리 및 상대적 방향에 대한 정보를 획득하고 획득한 상대적 거리 및 상대적 방향에 기초하여 차량의 면들 중 모바일 장치의 사용자가 대면하는 면을 인식하고 인식한 면에 대응하는 뷰의 영상을 모바일 장치에 전송하는 것도 가능하다.
제1프로세서(180)는 모바일 장치의 현재 위치 정보와 차량의 현재 위치 정보에 기초하여 차량과의 상대 방향 정보를 획득하고 획득한 상대 방향 정보에 대응하는 카메라를 확인하고 확인한 카메라에 의해 획득된 뷰 영상을 초기 뷰 영상으로 모바일 장치(3)에 전송할 수 있다.
제1프로세서(180)는 차량의 현재 위치 정보와 정류장의 인프라의 위치 정보에 기초하여 차량과 정류장 사이의 거리 정보를 획득하고 획득한 거리 정보와 미리 설정된 거리 정보에 기초하여 마킹 정보 또는 뷰 영상 정보를 모바일 장치에 전송할 수 있다.
예를 들어, 제1프로세서(180)는 정류장의 진입 전, 정류장과의 거리가 500m가 되면 마킹 정보 또는 뷰 영상 정보를 모바일 장치에 전송할 수 있다.
제1프로세서(180)는 차량의 현재 위치 정보와 정류장의 인프라(4)의 위치 정보에 기초하여 차량과 정류장 사이의 거리 정보를 획득하고 획득한 거리 정보와 차량의 주행 속도 정보에 기초하여 정류장의 도착 시간을 예측하고 예측한 시간과 미리 설정된 시간에 기초하여 마킹 정보 또는 뷰 영상 정보를 모바일 장치에 전송할 수 있다.
여기서 차량의 주행 속도 정보는, 미리 설정된 주행 속도 정보일 수 있고, 복수 개의 휠속도 센서들 및 가속도 센서 중 적어도 하나에 의해 감지된 주행 속도 정보일 수 있다.
예를 들어, 제1프로세서(180)는 정류장의 진입 3분전에 마킹 정보 또는 뷰 영상 정보를 모바일 장치에 전송할 수 있다.
제1프로세서(180)는 주변 모니터링 뷰 영상 또는 360도 가변 뷰 영상 외에도, 하나의 카메라에서 획득된 뷰 영상 또는 둘 이상의 카메라에서 획득된 영상을 조합한 뷰 영상을 모바일 장치(4)에 전송하는 것도 가능하다.
제1프로세서(180)는 복수 개의 카메라에 의해 획득된 영상들을 영상 처리하고 영상 처리된 영상들 중 왜곡이 미리 설정된 왜곡 이하인 영상만을 모바일 장치(3)에 전송하는 것도 가능하다.
즉 제1프로세서(180)는 차량의 제1표시부(140)에 표시된 마킹 정보 및 차량의 뷰 영상을 모바일 장치에 전송할 수 있다. 이를 통해 모바일 장치의 사용자가 호출에 응답한 차량을 용이하게 인식하도록 할 수 있다.
제1프로세서(180)는 카메라(130)의 영상 데이터를 처리하는 이미지 시그널 프로세서 및/또는 레이더들의 레이더 데이터를 처리하는 디지털 시그널 프로세서 및/또는 제동 신호를 생성하는 마이크로 컨트롤 유닛(Micro Control Unit, MCU)를 포함할 수 있다.
제1프로세서(180)는 차량 내 구성부들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 제1메모리(181), 및 제1메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 제1프로세서(미도시)로 구현될 수 있다.
제1메모리(181)는 차량의 식별 정보를 저장한다.
제1메모리(181)는 경로 정보를 저장할 수 있고 미리 설정된 시간, 미리 설정된 거리, 제1, 2 기준 거리에 대한 정보를 저장할 수 있다.
제1메모리(181)는 지도 정보 및 도로 정보를 저장한다.
지도 정보에는 도로의 위치 정보, 도로 주변의 건물의 위치 정보 및 정류장의 위치 정보 및 정류장의 식별 정보 등이 포함되어 있을 수 있다. 도로 정보에는 교차로나, 좌회전, 우회전, 유턴이 가능한 도로 주변의 가로수의 위치 정보, 건물의 위치 정보, 공사 물품 등의 적재 정보, 현수막의 위치 정보 등이 포함되어 있을 수 있다.
제1메모리(181)는 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 제1프로세서(180)가 제동 신호 및/또는 경고 신호를 생성하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.
제1메모리(181)는 카메라(130)로부터 수신된 영상 데이터 및/또는 장애물 검출부의 레이더들로부터 수신된 레이더 데이터를 임시로 기억하고, 제1메모리(181)의 영상 데이터 및/또는 레이더 데이터의 처리 결과를 임시로 기억할 수 있다.
제1메모리(181)는 제1프로세서(180)와 관련하여 전술한 제1프로세서(180)와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다.
제1메모리(181)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래시 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
한편, 도 5에 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다.
도 5에 도시된 차량의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 7은 실시 예에 따른 차량과 통신을 수행하는 모바일 장치(3)의 제어 구성도로, 도 8 내지 도 10을 참조하여 설명한다.
모바일 장치는 사용자 인터페이스(310), 제2스피커(313), 카메라(320), 제2통신부(330), 제2프로세서(340) 및 제2메모리(341)를 포함한다.
사용자 인터페이스(310)는 사용자 입력을 수신하고, 모바일 장치에서 수행되는 각종 기능에 대한 정보를 표시한다.
사용자 인터페이스(310)는 제2입력부(311) 및 제2표시부(312)를 포함할 수 있다.
제2입력부(311)는 사용자 입력을 수신한다.
제2입력부(311)는 애플리케이션의 실행 명령을 수신할 수 있다.
제2입력부(311)는 호출 정보를 수신할 수 있고, 표시 요청 정보를 수신할 수 있다.
제2입력부(311)는 다양한 뷰 영상들 중 어느 하나의 뷰 영상의 선택 정보를 수신할 수 있다.
제2입력부(311)는 목적지 정보를 수신할 수 있다.
제2입력부(311)는 제2표시부에 표시된 복수 개의 정류장들 중 어느 하나의 정류장의 선택 신호를 수신하는 것도 가능하다.
제2입력부(311)는 모바일 장치(3)의 현재 위치 정보의 송신 명령을 수신할 수 있다.
제2표시부(312)는 모바일 장치(2)의 주변의 정류장들의 위치 정보를 표시할 수 있다. 이 때 모바일 장치의 현재 위치 정보와 정류장들의 위치 정보를 지도 정보에 매칭시켜 표시할 수 있다.
제2표시부(312)는 애플리케이션의 실행 영상을 표시할 수 있다.
제2표시부(312)는 호출에 응답한 차량의 식별 정보를 표시하고, 차량의 마킹 정보를 표시하며, 차량의 뷰 영상을 표시할 수 있다.
제2표시부(312)는 호출에 응답한 차량까지의 이동 경로를 영상으로 표시할 수 있다.
제2스피커(313)는 모바일 장치(2)의 주변의 정류장들의 위치 정보를 음성으로 출력할 수 있다.
제2스피커(313)는 호출에 응답한 차량의 식별 정보를 음성으로 출력하고, 차량의 마킹 정보를 음성으로 출력할 수 있다.
제2스피커(313)는 호출에 응답한 차량까지의 이동 경로를 음성으로 출력할 수 있다.
카메라(320)는 모바일 장치의 주변의 영상을 획득한다.
카메라(320)는 하나 또는 둘 이상일 수 있다.
카메라(320)는 CCD 또는 CMOS 이미지 센서를 포함할 수 있다.
제2통신부(330)는 외부 장치 및 모바일 장치의 내부의 구성부들간 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
제2통신부(330)의 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈의 예는, 제1통신부의 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈과 동일하여 설명을 생략한다.
제2통신부(330)는 모바일 장치의 현재 위치에 대한 위치 정보를 수신하고 수신한 위치 정보를 출력하는 제2위치 수신기를 더 포함할 수 있다.
제2위치 수신기는 GPS(Global Positioning System) 수신기를 포함할 수 있다. 여기서 GPS(Global Positioning System) 수신기는 복수의 GPS 위성의 신호를 수신하는 안테나 모듈 및 신호처리부를 포함한다.
신호 처리부는 복수의 GPS위성의 위치 신호에 대응하는 거리 및 시간 정보를 이용하여 현재의 위치를 획득하는 소프트웨어와, 획득된 차량의 위치 정보를 송신하는 송신부를 포함한다.
제2프로세서(340)는 차량(1) 또는 인프라(4)로부터 차량의 도착 정보가 수신되면 수신된 도착 정보를 출력하도록 제2표시부 및 제2스피커 중 적어도 하나를 제어할 수 있다.
예를 들어, 제2프로세서(340)는 제2표시부(312)를 통해 '차량이 도착하였습니다. 차량의 제1표시부에 XX를 표시 중인 차량에 승차하세요'의 안내 정보를 표시하도록 할 수 있다.
제2프로세서(340)는 사용자가 승차하기 전에 차량(1) 또는 인프라(4)에서 전송된 차량의 주변 모니터링 뷰 영상을 수신하고, 수신한 주변 모니터링 뷰 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 사용자가 승차하기 전에 차량(1) 또는 인프라(4)에서 전송된 360도 가변 뷰 영상을 수신하고, 수신한 360도 가변 뷰 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 360도 가변 뷰 영상 중 제1각도 방향의 영상을 표시한 상태에서 제2입력부(311)를 통해 사용자 입력이 수신되면 수신된 사용자 입력에 대응하여 표시된 360도 가변 뷰 영상 중 제2각도 방향의 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 사용자 입력에 대응하여 표시된 360도 가변 뷰 영상을 회전시켜 표시하도록 하거나, 크기를 확대 또는 축소시켜 표시하도록 할 수 있다.
도 8에 도시된 바와 같이, 제2프로세서(340)는 주변 모니터링 뷰 영상과, 360도 가변 뷰 영상을 동시에 표시하도록 제2표시부(312)를 제어하는 것도 가능하다.
제2프로세서(340)는 어느 하나의 카메라에 의해 획득된 뷰 영상의 제공을 요청하거나, 두 개 이상의 카메라에 의해 획득된 영상을 조합한 뷰 영상의 제공을 요청할 수 있다.
제2프로세서(340)는 차량으로부터 요청한 뷰 영상이 수신되면 수신된 뷰 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 차량으로부터 전송된 정류장의 식별자 정보를 출력하도록 제2표시부 및 제2스피커 중 적어도 하나를 제어할 수 있다.
예를 들어, 제2프로세서(340)는 'ID3번 위치에 호출한 차량이 정차하고 있으니, ID3번 위치에 정차한 차량에 탑승해 주세요'라는 안내 정보를 표시하도록 제2표시부를 제어할 수 있다.
제2프로세서(340)는 차량의 현재 위치 정보 및 도로 정보가 매칭된 지도 정보를 표시하도록 제2표시부(312)를 제어할 수 있다.
도 9에 도시된 바와 같이, 제2프로세서(340)는 지도 정보가 수신될 때 차량 주변의 영상 및 주변 건물의 상호명 정보가 함께 수신되면 수신된 차량 주변의 영상 및 주변 건물의 상호명 정보를 함께 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 모바일 장치의 현재 위치 정보와 차량의 현재 위치 정보에 기초하여 모바일 장치와 차량 간의 거리 정보를 획득하고 획득한 거리 정보를 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 뷰 영상을 표시할 때, 차량에서 전송한 초기 뷰 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 초기 뷰 영상을 표시한 후, 사용자 입력에 대응하는 뷰 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 증강 현실 모드에 기초하여 호출한 차량의 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 증강 현실 모드가 선택되면 카메라(320)의 활성화를 제어하고 카메라(320)에 의해 획득된 영상에서 수신된 마킹 정보를 표시한 차량을 인식하고 인식한 차량에 지시 마크를 표시한 증강 현실 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 증강 현실 영상에 UX, HMI를 이용하여 호출한 차량을 지시하도록 할 수 있다.
제2프로세서(340)는 음영, 애니메이션, 모바일 진동 등을 이용하여, 호출 차량을 지시하도록 할 수 있다.
도 10에 도시된 바와 같이, 제2프로세서(340)는 증강 현실 영상과 360도 가변 뷰 영상을 동시에 표시하도록 제2표시부를 제어할 수 있다.
제2프로세서(340)는 증강 현실 영상 내에 호출한 차량이 존재하지 않는다고 판단되면 증강 현실 영상을 분석하여 객체를 인식하고 지도 정보, 인식한 객체의 위치 정보 및 차량의 현재 위치 정보에 기초하여 차량이 위치하는 방향을 인식하고 인식한 방향으로 화살표 영상을 표시하도록 제2표시부(312)를 제어할 수 있다.
제2프로세서(340)는 360도 가변 뷰 영상과 카메라(320)의 영상을 비교하여 영상의 매칭률을 획득하고 획득한 영상의 매칭률에 기초하여 호출에 응답한 차량을 최종적으로 판단할 수 있다.
제2프로세서(340)는 모바일 장치의 현재 위치 정보와 차량의 위치 정보에 기초하여 모바일 장치와 차량 사이의 거리 정보를 획득하고 획득한 거리 정보와 미리 설정된 거리 정보에 기초하여 차량과의 거리가 일정 거리 이내인지를 판단하고 차량과의 거리가 일정 거리 이내라고 판단되면 진동을 발생시키거나, 알림을 출력하거나, 제2표시부의 색상 변경 중 적어도 하나를 제어할 수 있다.
제2프로세서(340)는 모바일 장치(3)에서 전송한 모바일 장치의 현재 위치 정보가 수신되면 인프라의 위치 정보와 모바일 장치의 현재 위치 정보에 기초하여 인프라(4)와 모바일 장치(3) 사이의 거리 정보를 획득한다.
제2프로세서(340)는 인프라(4)와 모바일 장치(3) 사이의 거리 정보에 기초하여 인프라(4)와 모바일 장치(3) 사이의 거리가 제1기준 거리 이하인지를 판단하고, 인프라(4)와 모바일 장치(3) 사이의 거리가 제1기준 거리 이하라고 판단되면 모바일 장치의 현재 위치 정보를 인프라(4)에 전송한다.
제2프로세서(340)는 모바일 장치(3) 내 구성부들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 제2메모리(341)를 포함하고, 제2메모리에 저장된 데이터를 이용하여 전술한 동작을 수행할 수 있다.
제2메모리(341)는 모바일 장치의 식별 정보를 저장한다.
제2메모리(341)는 애플리케이션을 저장할 수 있다.
제2메모리(341)는 차량 호출을 처리하기 위한 프로그램 및/또는 데이터와, 애플리케이션의 실행을 처리하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.
제2메모리(341)는 제2프로세서(340)와 관련하여 전술한 제2프로세서(340)와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다.
제2메모리(341)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래시 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
한편, 도 7에 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다.
도 7에 도시된 모바일 장치의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 11은 실시 예에 따른 차량의 제어 순서도이다.
차량(1)은 서버(2) 또는 인프라(4)를 통해 호출 정보가 수신되면(501), 차량의 현재 위치 정보, 모바일 장치의 현재 위치 정보 및 목적지 정보에 기초하여 응답 정보 또는 거부 정보를 전송할 수 있다.
호출에 응답한 경우(502), 차량(1)은 차량의 현재 위치 정보를 출발지의 위치 정보로 판단하고, 제1통신부(170)에 수신된 모바일 장치의 현재 위치 정보와 출발지의 위치 정보에 기초하여 출발지부터 모바일 장치의 현재 위치까지의 경로를 탐색하고 탐색한 경로에 대한 경로 정보, 도로 정보 및 지도 정보에 기초하여 모바일 장치의 현재 위치까지 자율 주행을 제어한다(503).
차량은 자율 주행 제어 중 차량의 현재 위치 정보와 모바일 장치의 현재 위치 정보에 기초하여 차량과 모바일 장치 사이의 거리 정보를 획득하고 획득한 거리 정보에 기초하여 차량과 모바일 장치 사이의 거리가 제1기준 거리 이하인지를 판단하며 차량과 모바일 장치 사이의 거리가 제1기준 거리 이하라고 판단되면 도착하였다고 판단하고(504), 도착 정보를 모바일 장치(3)에 전송할 수 있다(505).
차량은 제1표시부를 통해 마킹 정보의 표시 가능 여부를 판단한다(506). 호출 정보를 전송한 모바일 장치로부터 제1표시부의 마킹 정보 표시 정보가 수신되었는지, 마킹 정보 비표시 정보가 수신되었는지를 판단함으로써 마킹 정보의 표시 가능 여부를 판단할 수 있다.
차량은 제1표시부가 고장 상태인지, 정상 상태인지를 판단하고, 판단된 제1표시부의 상태에 대응하여 제1표시부의 마킹 정보의 표시 가능 여부를 판단할 수 있다.
제1표시부를 통한 마킹 정보의 표시가 가능하다고 판단되면, 차량은 제1표시부를 통해 모바일 장치의 사용자가 인식할 수 있는 마킹 정보를 표시하고 제1표시부에 표시된 마킹 정보를 모바일 장치에 전송할 수 있다(507). 이 경우, 모바일 장치는 차량의 마킹 정보를 수신하여 표시할 수 있다.
차량은 차량이 정류장에 정차하는 시점부터 시간을 카운트하고 카운트한 시간과 미리 설정된 시간을 비교하고 카운트한 시간이 미리 설정된 시간 이내이면 차량의 마킹 정보를 표시하도록 제1표시부(140)를 제어하고 카운트한 시간이 미리 설정된 시간을 경과하면 차량의 마킹 정보 표시를 종료하도록 제1표시부(140)를 제어하는 것도 가능하다.
제1표시부를 통한 마킹 정보의 표시가 불가능하다고 판단되면, 차량은 복수 개의 카메라들을 이용하여 차량 주변의 영상 정보를 획득하고, 획득한 차량 주변의 영상 정보를 이용하여 뷰 영상을 생성하고 생성한 뷰 영상을 모바일 장치에 전송할 수 있다(508).
좀 더 구체적으로, 차량은 도어의 개폐 정보, 도어의 잠금 해제 정보, 시동 정보, 탑승자 검출 정보 중 적어도 하나에 기초하여 호출한 사용자가 차량에 승차하기 전인지를 판단하고, 사용자가 차량에 승차하기 전이라고 판단되면, 제1, 2, 3, 4 카메라들을 통해 획득된 영상 정보에 기초하여 주변 모니터링 뷰 영상을 생성하고 생성한 주변 모니터링 뷰 영상을 인프라(4) 또는 모바일 장치(3)에 전송할 수 있다.
차량은 호출한 사용자가 승차하기 전이라고 판단되면, 제1, 2, 3, 4 카메라들을 통해 획득된 영상 정보에 기초하여 360도 가변 뷰 영상을 생성하고 생성한 360도 가변 뷰 영상을 인프라(4) 또는 모바일 장치(3)에 전송할 수 있다.
차량은 차량의 주변 모니터링 뷰 영상 및 360도 가변 뷰 영상을 모바일 장치(3)에 전송함으로써 모바일 장치의 사용자가 차량의 주변의 사물, 차량의 외관 및 차량의 상체 위치를 용이하게 인식하도록 할 수 있다.
이 경우, 모바일 장치는 주변 모니터링 뷰 영상 및 360도 가변 뷰 영상 중 적어도 하나를 표시할 수 있다. 모바일 장치는 사용자 입력에 대응하여 제2표시부에 표시되는 뷰 영상을 조정할 수 있고, 조장한 뷰 영상을 제2표시부에 표시할 수 있다.
차량은 차량의 현재 위치 정보, 도로 정보, 지도 정보에 기초하여 차량의 현재 위치 정보 및 도로 정보가 매칭된 지도 정보를 생성하고 생성한 지도 정보를 모바일 장치(3)에 전송할 수 있다.
이 경우 모바일 장치는 차량의 현재 위치 정보 및 도로 정보가 매칭된 지도 정보를 수신하고 수신한 지동 정보를 제2표시부를 통해 표시할 수 있다.
증강 현실 모드가 실행되는 경우, 모바일 장치는 카메라(320)를 통해 획득된 영상을 표시하되 증강 현실 영상으로 표시하고, 증강 현실 영상에서 호출한 차량의 영상을 인식하고, 증강 현실 영상에 호출한 차량의 영상이 존재하면 호출한 차량의 영상에 지시 마크를 표시할 수 있다.
모바일 장치는 증강 현실 영상에 호출한 차량의 영상이 존재하면 진동을 발생시키거나, 알림음을 출력하거나, 제2표시부의 색상을 변경할 수 있다.
모바일 장치는 증강 현실 영상에 호출한 차량의 영상이 존재하자 않으면 증강 현실 영상 내의 객체들을 인식하고 인식한 객체들의 위치 정보 및 식별 정보, 차량의 현재 위치 정보에 기초하여 차량이 정차된 위치를 인식하며 차량이 정차된 위치에 대응하는 방향으로 화살표를 표시할 수 있다.
차량은 지도 정보를 모바일 장치(3)에 전송할 때, 카메라에 의해 획득된 차량 주변의 영상을 함께 전송할 수 있고, 지도 정보에 주변 건물에 상호명 정보가 존재한다고 판단되면 상호명 정보를 함께 전송할 수 있고 모바일 장치와의 거리 정보를 함께 전송할 수 있다.
차량은 차량의 현재 위치 정보와 모바일 장치의 현재 위치 정보에 기초하여 모바일 장치와의 거리 정보를 주기적으로 획득하고 획득한 거리 정보와 일정 거리 정보에 기초하여 모바일 장치가 일정 거리 이내에 존재한다고 판단되면 모바일 장치가 근접하다고 판단하며, 비상등을 점등시키고, 알림음을 출력할 수 있다(510).
차량은 승객이 승차하였다고 판단되면(511), 제1통신부(170)에 수신된 목적지 정보와 차량의 현재의 위치 정보에 기초하여 차량의 현재 위치부터 목적지까지의 경로를 탐색하고 탐색한 경로에 대한 경로 정보 및 도로 정보를 지도 정보에 매칭시키고, 경로 정보와 도로 정보가 매칭된 지도 정보를 내비게이션 정보를 생성하며 생성한 내비게이션 정보에 기초하여 자율 주행을 제어한다(512).
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다.본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
1: 차량
2: 서버
3: 모바일 장치
4: 인프라

Claims (20)

  1. 차체의 외장에 마련된 표시부;
    차량의 현재 위치 정보를 수신하고, 모바일 장치와 통신을 수행하는 통신부; 및
    상기 모바일 장치로부터 전송된 호출 정보 및 상기 모바일 장치의 현재 위치 정보가 수신되면 상기 모바일 장치의 현재 위치 정보 및 상기 차량의 현재 위치 정보에 기초하여 상기 모바일 장치의 위치까지 자율 주행을 제어하고 상기 모바일 장치와의 거리가 제1기준 거리 이하이면 마킹 정보를 표시하도록 표시부를 제어하고 상기 마킹 정보를 상기 모바일 장치에 전송하도록 하는 프로세서를 포함하는 차량.
  2. 제 1항에 있어서,
    비상등을 더 포함하고,
    상기 프로세서는 상기 모바일 장치의 현재 위치 정보 및 상기 차량의 현재 위치 정보에 기초하여 상기 모바일 장치와의 거리가 일정 거리 이내인지를 판단하고, 모바일 장치와의 거리가 상기 일정 거리 이내이면 상기 비상등의 점등을 제어하는 차량.
  3. 제 2항에 있어서,
    스피커를 더 포함하고,
    상기 프로세서는, 상기 모바일 장치와의 거리가 상기 일정 거리 이내이면 알림음을 출력하도록 상기 스피커를 제어하는 차량.
  4. 제 1항에 있어서, 상기 마킹 정보는,
    텍스트 정보, 색상 정보, QR코드 정보 중 적어도 하나를 포함하는 차량.
  5. 제 1항에 있어서,
    상기 통신부는, 인프라와 통신을 수행하고,
    상기 프로세서는, 상기 인프라로부터 상기 마킹 정보가 수신되면 상기 수신된 마킹 정보를 표시하도록 상기 표시부를 제어하는 차량.
  6. 제 5항에 있어서,
    복수 개의 카메라들을 더 포함하고,
    상기 프로세서는, 상기 복수개의 카메라에 의해 획득된 영상 정보 중 적어도 하나에 기초하여 뷰 영상을 생성하고, 상기 차량의 현재 위치 정보와 상기 인프라의 위치 정보에 기초하여 상기 인프라와의 거리 정보를 획득하고 상기 획득한 거리 정보에 기초하여 상기 인프라와의 거리가 제2기준 거리 이하이면 상기 생성한 뷰 영상을 상기 모바일 장치에 전송하도록 하는 차량.
  7. 제 5항에 있어서,
    복수 개의 카메라들을 더 포함하고,
    상기 프로세서는, 상기 복수개의 카메라에 의해 획득된 영상 정보 중 적어도 하나에 기초하여 뷰 영상을 생성하고, 상기 차량의 현재 위치 정보와 상기 인프라의 위치 정보에 기초하여 상기 인프라와의 거리 정보를 획득하고 상기 획득한 거리 정보와 차량의 주행 속도 정보에 기초하여 상기 인프라에 도착하는 도착 시간을 예측하고 상기 예측한 도착 시간이 미리 설정된 시간이면 상기 생성한 뷰 영상을 상기 모바일 장치에 전송하도록 하는 차량.
  8. 제 1항에 있어서,
    복수 개의 카메라를 더 포함하고,
    상기 프로세서는 상기 복수개의 카메라에 의해 획득된 영상 정보 중 적어도 하나에 기초하여 뷰 영상을 생성하고 상기 생성한 뷰 영상을 상기 모바일 장치에 전송하도록 하는 차량.
  9. 제 8항에 있어서, 상기 프로세서는,
    상기 차량의 현재 위치 정보가 매칭된 지도 정보를 상기 모바일 장치에 전송하도록 하는 차량.
  10. 제 9항에 있어서, 상기 프로세서는,
    상기 차량의 현재 위치 정보가 매칭된 지도 정보 및 상기 뷰 영상을 동시에 상기 모바일 장치에 전송하도록 하는 차량.
  11. 제 10항에 있어서, 상기 프로세서는,
    상기 차량의 현재 위치 정보가 매칭된 지도 정보 및 상기 뷰 영상에 기초하여 차량 주변의 객체를 인식하고 상기 인식한 객체에 대한 정보와 상기 모바일 장치와의 거리 정보를 상기 모바일 장치에 전송하도록 하는 차량.
  12. 제 1항에 있어서,
    적어도 하나의 카메라를 포함하고,
    상기 프로세서는, 상기 적어도 하나의 카메라에 의해 획득된 영상 정보에 기초하여 인프라 주변의 식별자를 인식하고 상기 인식한 식별자를 상기 모바일 장치에 전송하도록 하는 차량.
  13. 모바일 장치의 현재 위치 정보를 수신하고, 차량과 통신을 수행하는 통신부;
    사용자 입력으로 차량을 호출하기 위한 호출 정보를 수신하는 입력부;
    표시부; 및
    상기 차량으로부터 응답 정보가 수신되면 상기 모바일 장치의 현재 위치 정보를 상기 차량에 전송하고, 상기 차량으로부터 마킹 정보가 수신되면 상기 수신된 마킹 정보를 표시하도록 상기 표시부를 제어하는 모바일 장치.
  14. 제 13항에 있어서,
    상기 통신부는, 인프라와 통신을 수행하고,
    상기 프로세서는, 상기 인프라로부터 차량의 마킹 정보가 수신되면 상기 수신된 마킹 정보를 표시하도록 상기 표시부를 제어하는 차량.
  15. 제 13항에 있어서, 상기 프로세서는,
    상기 차량으로부터 뷰 영상이 수신되면 상기 수신된 뷰 영상을 표시하도록 상기 표시부를 제어하는 모바일 장치.
  16. 제 13항에 있어서, 상기 프로세서는,
    상기 차량으로부터 차량의 현재 위치 정보가 매칭된 지도 정보 및 뷰 영상이 수신되면 상기 차량의 현재 위치 정보가 매칭된 지도 정보 및 뷰 영상을 동시에 표시하도록 상기 표시부를 제어하는 모바일 장치.
  17. 제 16항에 있어서, 상기 프로세서는,
    상기 차량의로부터 거리 정보가 수신되면 상기 수신된 차량과의 거리 정보를 표시하도록 상기 표시부를 제어하고,
    상기 차량으로부터 객체 정보가 수신되면 상기 수신된 객체 정보를 표시하도록 상기 표시부를 제어하는 모바일 장치.
  18. 제 13항에 있어서,
    카메라를 더 포함하고,
    상기 프로세서는, 상기 카메라에 의해 획득된 영상과 상기 차량에서 전송된 뷰 영상에 기초하여 증강 현실 영상을 생성하고, 상기 생성한 증강 현실 영상을 표시하도록 상기 표시부를 제어하는 모바일 장치.
  19. 제 18항에 있어서, 상기 프로세서는,
    상기 입력부에 의해 수신된 사용자 입력에 대응하여 상기 뷰 영상을 조정하는 모바일 장치.
  20. 제 18항에 있어서,
    상기 뷰 영상은, 주변 모니터링 뷰 영상과 360도 가변 뷰 영상 중 적어도 하나를 포함하고,
    상기 프로세서는, 상기 입력부에 의해 수신된 사용자 입력에 대응하여 상기 주변 모니터링 뷰 영상과 상기 360도 가변 뷰 영상 중 적어도 하나를 표시하도록 상기 표시부를 제어하는 모바일 장치.



KR1020220145358A 2022-11-03 2022-11-03 차량, 차량과 통신을 수행하는 모바일 장치 KR20240064957A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102023116190.3A DE102023116190A1 (de) 2022-11-03 2023-06-21 Fahrzeug und mobile vorrichtung, die mit dem fahrzeug kommuniziert
US18/338,959 US20240153415A1 (en) 2022-11-03 2023-06-21 Vehicle and mobile device communicating with the vehicle

Publications (1)

Publication Number Publication Date
KR20240064957A true KR20240064957A (ko) 2024-05-14

Family

ID=

Similar Documents

Publication Publication Date Title
US11619998B2 (en) Communication between autonomous vehicle and external observers
CN109070891B (zh) 自动驾驶车辆的意图传信
KR101908308B1 (ko) 차량용 램프
KR102548655B1 (ko) 자율 주행 차량의 승객 인증 및 도어 작동 방법
US9969326B2 (en) Intention signaling for an autonomous vehicle
US20200380257A1 (en) Autonomous vehicle object content presentation systems and methods
WO2018005878A1 (en) Ehanced safety through augmented reality and shared data
KR20170024904A (ko) 운전 보조 장치 및 그 제어 방법
US20200166924A1 (en) Autonomous vehicle notification system and method
KR20190029192A (ko) 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
US20220080829A1 (en) Vehicle image processing device and method for displaying visual information on display included in vehicle
KR20180091533A (ko) 차량의 운전을 보조하는 전자 장치 및 방법
US20230168091A1 (en) Power Management Apparatus and Vehicle Having the Same
KR20240064957A (ko) 차량, 차량과 통신을 수행하는 모바일 장치
KR20230091210A (ko) 운전자 보조 장치 및 그를 가지는 차량
US20240153415A1 (en) Vehicle and mobile device communicating with the vehicle
KR20210068643A (ko) 자율주행 차량의 실시간 주행 상황정보 알림장치 및 방법
KR20210030523A (ko) 차량 및 그 제어 방법
KR20240053218A (ko) 인프라, 인프라와 통신을 수행하는 차량 및 모바일 장치
US20230232107A1 (en) Infrastructure and Vehicle for Communicating with the Same
RU2750467C1 (ru) Способ предотвращения столкновения транспортного средства с другим участником движения
US11618322B2 (en) Driver assistance system and vehicle having the same
KR20230071932A (ko) 운전자 보조 장치 및 그를 가지는 차량
KR20200139060A (ko) 단말기, 차량 및 그의 제어 방법
KR20230067799A (ko) 환경 조건에 따라 적어도 하나 이상의 가상 차선을 표시하는 장치의 제어 방법 및 장치