KR102587085B1 - 자율주행차량의 호출자 탐색 방법 - Google Patents

자율주행차량의 호출자 탐색 방법 Download PDF

Info

Publication number
KR102587085B1
KR102587085B1 KR1020180117095A KR20180117095A KR102587085B1 KR 102587085 B1 KR102587085 B1 KR 102587085B1 KR 1020180117095 A KR1020180117095 A KR 1020180117095A KR 20180117095 A KR20180117095 A KR 20180117095A KR 102587085 B1 KR102587085 B1 KR 102587085B1
Authority
KR
South Korea
Prior art keywords
caller
autonomous vehicle
vehicle
mobile terminal
image
Prior art date
Application number
KR1020180117095A
Other languages
English (en)
Other versions
KR20200039046A (ko
Inventor
이원석
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180117095A priority Critical patent/KR102587085B1/ko
Priority to US16/196,082 priority patent/US20200103918A1/en
Priority to CN201811456907.3A priority patent/CN110972111B/zh
Publication of KR20200039046A publication Critical patent/KR20200039046A/ko
Application granted granted Critical
Publication of KR102587085B1 publication Critical patent/KR102587085B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3438Rendez-vous, i.e. searching a destination where several users can meet, and the routes to this destination for these users; Ride sharing, i.e. searching a route such that at least two users can share a vehicle for at least part of the route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

본 발명은 자율주행차량의 호출자 탐색 방법에 관한 것으로, 호출자에 근접한 자율주행차량이 주변의 영상을 호출자의 휴대단말기로 전송하여 호출자로 하여금 영상에서 호출자를 특정하도록 하고, 상기 호출자가 표시된 영상에 기초하여 호출자의 위치까지 자율주행함으로써, 호출자가 직접 자율주행차량을 탐색하지 않아도 되도록 하는 자율주행차량의 호출자 탐색 방법을 제공하고자 한다.
이를 위하여, 본 발명은 자율주행차량의 호출자 탐색 방법에 있어서, 호출자의 휴대단말기로부터 상기 호출자가 마킹된 영상을 수신하는 단계; 상기 호출자가 마킹된 영상을 기반으로 상기 호출자의 주변에서 촬영된 영상들에서 상기 호출자를 식별하는 단계; 및 상기 식별된 호출자의 위치까지 이동하는 단계를 포함한다.

Description

자율주행차량의 호출자 탐색 방법{METHOD FOR SEARCHING CALLER OF AUTONOMOUS VEHICLE}
본 발명은 자율주행차량의 호출자 탐색 방법에 관한 것이다.
카 헤일링(Car Hailing)은 최근 주목받고 있는 차량 공유의 한 종류로 넓은 의미에서 차량 호출 서비스를 통칭한다.
이러한 차량 호출 서비스는 이동을 희망하는 고객과 차량을 보유한 사업자를 직접 연결해주는 서비스로서, 미국에서 시작된 '우버'가 대표적이다. 국내에서는 현재 카카오택시 등이 유사한 비즈니스 모델을 보유하고 있다.
차량 호출 서비스의 운영 방식은 스마트폰을 통해 호출자가 차량을 호출하게 되면 호출자의 위치가 차량 운전자의 스마트폰으로 전달되고, 차량 운전자는 지도상에 표시된 호출자의 위치로 차량을 이동시켜 호출자를 차량에 태우게 된다. 이때, GPS 정보는 거리 오차가 있어 차량 운전자는 호출자의 위치를 정확히 알 수 없고, 호출자의 얼굴도 알 수 없기 때문에 호출자의 주변에 도달하면 호출자에게 전화나 문자 송수신을 통해 호출자를 특정하게 된다.
최근 개발되고 있는 자율주행차량은 운전자의 개입없이 목적지까지 주행할 수 있는 능력을 갖추고 있는 바, 다양한 용도로 사용될 수 있는데 특히 차량 호출 서비스에 이용될 수 있다.
이 경우, 운전자가 탑승하지 않기 때문에 자율주행차량이 직접 호출자를 탐색해 내야 하는데 아직 이러한 기술에 대해서는 제기된 바 없다.
대한민국등록특허 제18-1818212호
상기와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명은 호출자에 근접한 자율주행차량이 주변의 영상을 호출자의 휴대단말기로 전송하여 호출자로 하여금 영상에서 자신(호출자)을 특정하도록 하고, 상기 호출자가 표시된 영상에 기초하여 호출자의 위치까지 자율주행함으로써, 호출자가 직접 자율주행차량을 탐색하지 않아도 되도록 하는 자율주행차량의 호출자 탐색 방법을 제공하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 방법은, 자율주행차량의 호출자 탐색 방법에 있어서, 호출자의 휴대단말기로부터 상기 호출자가 마킹된 영상을 수신하는 단계; 상기 호출자가 마킹된 영상을 기반으로 상기 호출자의 주변에서 촬영된 영상들에서 상기 호출자를 식별하는 단계; 및 상기 식별된 호출자의 위치까지 이동하는 단계를 포함한다.
이러한 본 발명의 방법은 상기 호출자가 마킹된 영상을 수신하는 단계 이전에, 상기 휴대단말기로부터의 호출에 따라 상기 휴대단말기의 위치정보에 기초하여 상기 호출자의 주변까지 이동하는 단계; 및 상기 호출자의 주변에서 영상을 촬영하여 상기 휴대단말기로 전송하는 단계를 더 포함할 수 있다.
또한, 상기 호출자를 식별하는 단계는 상기 영상 내에서 상기 호출자가 마킹된 영역을 템플릿으로 설정하는 단계; 새로운 주변 영상을 촬영하는 단계; 및 상기 호출자가 마킹된 영상과 상기 새로운 주변 영상 간의 템플릿 매칭을 통해 상기 호출자를 식별하는 단계를 포함할 수 있다.
또한, 상기 호출자를 식별하는 단계는 상기 호출자의 안면을 인식하여 식별할 수도 있다.
또한, 본 발명의 방법은 상기 식별된 호출자의 위치까지 이동한 후에 상기 휴대단말기로 도착을 알리는 메시지를 전송하는 단계를 더 포함하거나, 상기 식별된 호출자의 위치까지 이동한 후에 상기 자율주행차량의 외부에 장착된 디스플레이를 통해 도착을 알리는 단계를 더 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 방법은, 자율주행차량에서의 호출자 탐색 방법에 있어서, 호출자의 휴대단말기로부터 상기 호출자가 마킹된 3차원 영상을 수신하는 단계; 상기 호출자가 마킹된 3차원 영상에서 상기 호출자까지의 거리를 추출하는 단계; 및 상기 추출된 호출자까지의 거리를 이동하는 단계를 포함한다.
이러한 본 발명의 다른 방법은 상기 호출자가 마킹된 3차원 영상을 수신하는 단계 이전에, 상기 휴대단말기로부터의 호출에 따라 상기 휴대단말기의 위치정보에 기초하여 상기 호출자의 주변까지 이동하는 단계; 및 상기 호출자의 주변에서 3차원 영상을 촬영하여 상기 휴대단말기로 전송하는 단계를 더 포함할 수 있다.
또한, 본 발명의 다른 방법은 상기 추출된 호출자까지의 거리를 이동한 후에 상기 휴대단말기로 도착을 알리는 메시지를 전송하는 단계를 더 포함하거나, 상기 추출된 호출자까지의 거리를 이동한 후에 상기 자율주행차량의 외부에 장착된 디스플레이를 통해 도착을 알리는 단계를 더 포함할 수도 있다.
상기 목적을 달성하기 위한 본 발명의 또 다른 방법은, 자율주행차량의 호출자 탐색 방법에 있어서, 호출자의 휴대단말기로부터 상기 호출자의 위치가 마킹된 전자지도를 수신하는 단계; 상기 호출자의 위치가 마킹된 전자지도상에서 상기 호출자까지의 거리를 추출하는 단계; 및 상기 추출된 호출자까지의 거리를 이동하는 단계를 포함한다.
이러한 본 발명의 또 다른 방법은 상기 호출자의 위치가 마킹된 전자지도를 수신하는 단계 이전에, 상기 휴대단말기로부터의 호출에 따라 상기 휴대단말기의 위치정보에 기초하여 상기 호출자의 주변까지 이동하는 단계; 및 상기 호출자의 주변에서 전자지도상에 현재 위치를 마킹하여 상기 휴대단말기로 전송하는 단계를 더 포함할 수 있다.
여기서, 상기 전자지도상에 마킹된 현재 위치는 차량 아이콘으로 표시될 수 있고, 상기 차량 아이콘은 상기 자율주행차량의 색상과 동일할 수 있으며, 아울러 상기 자율주행차량과 차종이 동일할 수도 있다.
또한, 상기 전자지도는 현재 위치 주변의 장애물들이 표시된 정밀지도일 수 있고, 이때, 상기 장애물들은 ID를 갖을 수도 있다.
또한, 본 발명의 또 다른 방법은 상기 추출된 호출자까지의 거리를 이동한 후에 상기 휴대단말기로 도착을 알리는 메시지를 전송하는 단계를 더 포함하거나, 상기 추출된 호출자까지의 거리를 이동한 후에 상기 자율주행차량의 외부에 장착된 디스플레이를 통해 도착을 알리는 단계를 더 포함할 수도 있다.
상기와 같은 본 발명은, 호출자에 근접한 자율주행차량이 주변의 영상을 호출자의 휴대단말기로 전송하여 호출자로 하여금 영상에서 호출자를 특정하도록 하고, 상기 호출자가 표시된 영상에 기초하여 호출자의 위치까지 자율주행함으로써, 호출자가 직접 자율주행차량을 탐색하지 않아도 되도록 하는 효과가 있다.
도 1 은 본 발명이 적용되는 자율주행차량에 대한 일예시도,
도 2 는 본 발명에 따른 자율주행차량의 호출자 탐색 방법에 대한 제1 실시예 흐름도,
도 3 은 본 발명에 따른 자율주행차량의 호출자 탐색 방법에 대한 제2 실시예 흐름도,
도 4 는 본 발명은 본 발명에 따른 호출자가 마킹된 영상에 대한 일예시도,
도 5 는 본 발명에 이용되는 3D 영상에 대한 일예시도,
도 6 은 본 발명에 이용되는 거리정보가 포함된 영상에 대한 일예시도,
도 7 은 본 발명에 따른 자율주행차량의 호출자 탐색 방법에 대한 제3 실시예 흐름도,
도 8 은 본 발명의 일 실시예에 따른 군집주행차량의 램프 제어 방법을 실행하기 위한 컴퓨팅 시스템을 보여주는 블록도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1 은 본 발명이 적용되는 자율주행차량에 대한 일예시도이다.
도 1에 도시된 바와 같이, 본 발명이 적용되는 자율주행차량은 센서부(110), 지도 저장부(120), 사용자 입력부(130), 차량 센서부(140), 주행경로 생성부(150), 출력부(160), 차량 제어부(170), 조향 제어부(180), 제동 제어부(190), 구동 제어부(200), 변속 제어부(210), 및 탐색 제어부(220) 등을 포함할 수 있다. 본 발명을 실시하는 방식에 따라 각 구성요소는 서로 결합되어 하나로 구비될 수 있으며, 아울러 발명을 실시하는 방식에 따라 일부의 구성요소가 생략될 수도 있다.
여기서, 주행경로 생성부(150), 차량 제어부(170), 조향 제어부(180), 제동 제어부(190), 구동 제어부(200), 변속 제어부(210) 및 탐색 제어부(200)는 프로세서(미도시) 및 메모리(미도시) 등을 포함할 수 있다. 주행경로 생성부(150), 차량 제어부(170), 조향 제어부(180), 제동 제어부(190), 구동 제어부(200), 변속 제어부(210), 및 탐색 제어부(220)는 CAN(Controller Area Network), MOST(Media Oriented Systems Transport) 네트워크, LIN(Local Interconnect Network), 또는 X-by-Wire(Flexray) 등과 같은 차량 네트워크를 통해 상호 간에 데이터(정보)를 주고 받을 수 있다.
센서부(110)는 차량 주변의 환경정보를 획득한다. 여기서, 환경정보는 자차량과 후방차량과의 거리, 후방차량의 상대속도, 전방차량(선행차량)의 위치, 장애물 및 신호등 정보 등을 포함한다.
이러한 센서부(110)는 카메라(111), 레이더(radar)(112), 라이다(LiDAR)(113), 및 GPS(Global Positioning System)(114)를 포함할 수 있다. 여기서 카메라(111)는 적외선 카메라, 스테레오 카메라, 3D 카메라를 포함할 수 있고, 라이다(113)는 2D 라이다 및 3D 라이다를 포함할 수 있다. 또한, 센서부(110)는 카메라(111), 레이더(112) 및 라이다(113)를 통해 차량 주변영상, 자차량과 후방차량 간의 거리, 후방차량의 상대속도, 전방차량, 장애물, 및/또는 신호등 등을 검출하고, GPS(114)를 통해 자차량의 현재위치를 검출한다. 또한, 센서부(110)는 초음파 센서를 더 포함할 수도 있다.
지도 저장부(120)는 차로별 구분이 가능한 정밀지도를 데이터베이스(DB) 형태로 저장하고 있다. 정밀지도는 무선통신을 이용하여 일정 주기마다 자동으로 업데이트되거나 또는 사용자에 의해 수동으로 업데이트될 수 있다.
이러한 지도 저장부(120)는 플래시 메모리(flash memory), 하드디스크(hard disk), SD 카드(Secure Digital Card), 램(Random Access Memory, RAM), 롬(Read Only Memory, ROM), 웹 스토리지(web storage) 등의 저장매체 중 어느 하나 이상의 저장매체로 구현될 수 있다.
사용자 입력부(130)는 사용자에 의해 입력되는 데이터를 발생시킨다. 예를 들어, 사용자 입력부(130)는 사용자 입력에 따라 목적지 정보(예: 지명 및/또는 좌표 등)를 발생시킨다. 사용자 입력부(130)는 키패드, 돔 스위치, 터치 패드, 조그 휠, 및/또는 조그 스위치 등으로 구성될 수 있다.
차량 센서부(140)는 자차량에 대한 차량정보를 측정한다. 차량정보는 자차량의 속도, 가속도, 요레이트, 및 조향각 등을 포함한다. 차량 센서부(140)는 속도 센서(141), 가속도 센서(142), 요레이트 센서(143), 및 조향각 센서(144) 등을 포함할 수 있다.
주행경로 생성부(150)는 차량의 자율주행을 위한 주행경로(전역경로)를 생성한다. 주행경로 생성부(150)는 사용자 입력부(130)를 통해 목적지가 입력되면 자차량의 현재위치로부터 목적지까지의 주행경로를 생성한다. 이때, 주행경로 생성부(150)는 정밀지도 및/또는 무선통신을 통해 획득한 실시간 교통정보 등에 근거하여 주행경로를 생성한다. 무선통신 기술로는 무선 인터넷, 이동통신 또는 방송통신이 이용될 수 있다.
주행경로 생성부(150)는 자율주행 중 전방경로 상의 포켓차로 영역(포켓차로로 진입하는 영역) 진입 시 환경정보에 기초하여 포켓차로 상황을 인식(판단)한다. 다시 말해서, 주행경로 생성부(150)는 센서부(110)에 의해 측정된 데이터들에 근거하여 포켓차로 내 차량 혼잡도, 후방차량과 자차량 간의 거리, 후방차량의 상대속도, 점등된 신호등 색상 등을 인식한다. 주행경로 생성부(150)는 인식된 포켓차로 상황을 분석하여 포켓차로 진입을 위해 직진주행차로(직진차로)에 정차 가능여부 등을 판단한다. 주행경로 생성부(150)는 인식한 포켓차로 상황에 따라 포켓차로 영역 내 주행경로를 계획한다.
주행경로 생성부(150)는 포켓차로 진입을 위해 직진주행차로에 자차량 정차가 가능하면, 후술되는 차량 제어부(170)를 제어하여 방향지시등을 점등하고 차량속도를 감속하며 포켓차로 내 전방차량이 존재하는지를 확인한다.
주행경로 생성부(150)는 포켓차로 내 전방차량이 존재하면, 포켓차로 내 전방차량의 위치를 검출하여 주행경로로 포켓차로 내 진입이 가능한지를 확인한다. 주행경로 생성부(150)는 주행경로로 포켓차로 내 진입이 가능하면 기설정된 기존의 주행경로를 차량 제어부(170)에 제공한다.
주행경로 생성부(150)는 주행경로로 포켓차로 내 진입이 불가능하면, 전방차량에 대한 추종경로(전방차량 추종경로)를 생성하여 차량 제어부(170)에 제공한다. 따라서, 차량 제어부(170)는 전방차량 추종경로에 기초하여 전방차량을 추종하도록 자차량의 주행을 제어한다.
주행경로 생성부(150)는 포켓차로로의 진입(포켓차로 진입)을 위해 직진주행차로에 자차량 정차가 불가능하면, 직진주행차로로 주행하여 기설정된 목적지에 도달하기 위한 새로운 경로를 탐색하여 새로운 주행경로를 생성한다. 주행경로 생성부(150)는 생성된 새로운 주행경로를 차량 제어부(170)에 전송한다.
주행경로 생성부(150)는 자율주행차량을 호출한 호출자가 위치하는 장소까지 주행경로를 생성한다.
출력부(160)는 시각 정보, 청각 정보 및/또는 촉각 정보 등을 출력하는 것으로, 디스플레이, 음향출력모듈, 햅틱 모듈 등을 포함할 수 있다. 예를 들어, 출력부(160)는 주행경로 생성부(150)로부터 출력되는 주행경로를 정밀지도 상에 중첩하여 표시한다.
이러한 출력부(160)는 주행경로 생성부(150)의 제어에 따라 경고 메시지 또는 알림 메시지 등을 음성 신호로 출력할 수도 있다.
또한, 출력부(160)는 자율주행차량의 외부에 장착된 디스플레이 및 전광판을 더 구비하여, 호출자가 자율주행차량을 보다 용이하게 인식할 수 있도록 호출자의 정보(일례로 사진, 전화번호, ID, 고유번호, 1회용 코드 등)를 표시할 수도 있다.
차량 제어부(170)는 주행경로 생성부(150)에 의해 생성된 주행경로에 따라 차량의 자율주행을 제어한다. 이러한 차량 제어부(170)는 차량 센서부(140)로부터 차량정보를 획득하고, 획득한 차량정보에 근거하여 차량 제어를 수행한다.
또한, 차량 제어부(170)는 자율주행차량을 호출한 호출자가 위치하는 장소까지 차량의 자율주행을 제어한다.
조향 제어부(180)는 차량의 조향을 제어하는 것으로, 전동식 파워 스티어링(Motor Drive Power Steering, MDPS)으로 구현된다. 이러한 조향 제어부(180)는 차량 제어부(170)의 제어에 따라 차량의 조향각을 제어한다.
제동 제어부(190)는 차량의 속도를 제어하기 위한 것으로, 전자식 주행 안정화 컨트롤(Electronic Stability Control, ESC)로 구현된다. 제동 제어부(190)는 브레이크 페달 위치에 따라 제동 압력을 제어하거나 또는 차량 제어부(170)의 제어에 따라 제동압력을 제어한다.
구동 제어부(200)는 차량의 엔진을 제어하는 장치로, 차량의 가감속을 제어한다. 구동 제어부(200)는 EMS(Engine Management System)으로 구현된다. 구동 제어부(200)는 가속 페달 위치 정보에 따라 엔진의 구동토크를 제어한다. 또한, 구동 제어부(200)는 차량 제어부(170)로부터 요청받은 목표구동토크를 추종하기 위해 엔진 출력을 제어한다.
변속 제어부(210)는 차량의 기어(변속단)를 변속하는 역할을 담당한다. 이러한 변속 제어부(210)는 전자식 시프터 또는 전기식 시프터(Shift By Wire, SBW)로 구현된다.
탐색 제어부(220)는 호출자가 위치하는 장소에 근접하면 카메라(111)를 통해 주변의 영상을 촬영하고, 상기 촬영된 영상을 무선통신을 통해 호출자의 휴대단말기(300)로 전송하여 호출자로 하여금 영상에서 호출자를 특정하도록 한다. 즉, 휴대단말기(300)를 통해 영상을 전송받은 호출자는 영상 내에서 자신을 특정한 후 상기 자신이 표시된 영상을 자율주행차량으로 전송한다. 이때, 영상 내에 자신이 없으면 이를 알리거나 새로운 영상의 전송을 요청할 수도 있다.
탐색 제어부(220)는 상기 호출자가 표시된 영상에 기초하여 호출자의 위치까지 자율주행할 수 있도록 주행경로 생성부(150)와 연동하여 주행경로를 생성한다. 이때, 탐색 제어부(220)는 패턴 매칭, 안면인식 등을 이용하여 이동중에 호출자를 탐색해 낼 수도 있다. 이렇게 탐색해 낸 호출자의 위치는 결국 자율주행차량의 목적지가 된다.
탐색 제어부(220)는 호출자의 휴대단말기(300)가 위치한 지점(GPS 위치정보이므로 오차가 있음)에 도착한 후 주변영상을 촬영하여 호출자의 휴대단말기(300)로 전송한다. 탐색 제어부(220)는 호출자의 휴대단말기(300)로부터 호출자가 마킹된 영상을 전송받은 후, 서행하면서 촬영한 현재 영상과 비교하여 호출자를 추적한다. 즉, 호출자의 주변에서 촬영된 영상들에서 상기 호출자를 식별한다.
도 2 는 본 발명에 따른 자율주행차량의 호출자 탐색 방법에 대한 제1 실시예 흐름도이다.
먼저, 호출자(500)로부터의 요청에 따라 휴대단말기(300)는 자율주행차량(100)을 호출한다(201). 이때, 휴대단말기(300)는 자신의 위치정보를 자율주행차량(100)으로 전송한다. 또한, 휴대단말기(300)는 GPS 수신기를 구비하고 있어 자신의 위치정보를 획득할 수 있다.
이후, 자율주행차량(100)은 휴대단말기(300)로부터 전송받은 GPS 위치정보에 상응하는 지점을 목적지로 설정하고, 자율주행을 통해 목적지에 도착한다(202). 이때, GPS 위치정보는 오차가 있어 자율주행차량(100)은 호출자(500)의 위치(일례로 2m 이내)에 도착할 수 없다. 즉, 자율주행차량(100)은 호출자(500)의 주변에 도착하게 된다.
이후, 자율주행차량(100)은 호출자(500)의 주변에서 영상(사진)을 촬영한다(203). 이때, 자율주행차량(100)은 전방영상을 촬영하는 것이 바람직하지만 경우에 따라 측방영상이나 후방영상을 촬영할 수도 있다.
이후, 자율주행차량(100)은 촬영한 영상을 휴대단말기(300)로 전송하고(204), 휴대단말기(300)는 수신한 영상을 디스플레이하며(205), 호출자(500)는 휴대단말기(300)에 의해 디스플레이되는 영상에서 자신을 찾아 마킹한다(206). 이때, 호출자(500)는 영상에서 자신의 모습을 찾을 수 없는 경우 새로운 영상의 전송을 요청할 수도 있다. 여기서 새로운 영상은 서행하고 있는 자율주행차량(100)이 새롭게 촬영한 영상을 의미한다.
그러면, 휴대단말기(300)는 호출자(500)가 마킹된 영상을 자율주행차량(100)으로 전송한다(207). 여기서, 호출자(500)가 마킹된 영상은 일례로 도 4에서 "410" 및 "411"과 같다.
이후, 자율주행차량(100)은 호출자(500)가 마킹된 영상과 서행하면서 새롭게 촬영된 영상 간의 비교를 통해 호출자(500)를 추적한다.
이하, 서행중인 자율주행차량(100)이 영상을 통해 호출자(500)를 추적하는 과정에 대해 상세히 설명하기로 한다.
자율주행차량(100)은 휴대단말기(300)로부터 수신한 영상 내에서 마킹 영역을 템플릿으로 설정하고(208), 서행하면서 주기적으로 새로운 주변영상을 촬영한다(209). 여기서 템플릿 설정 과정은 마킹 영역 내의 호출자의 얼굴이나 헤어 형태 또는 옷 색깔 등을 인식하는 과정을 포함할 수도 있다.
그리고 자율주행차량(100)은 이전 영상(호출자가 마킹된 영상)과 현재 영상(새롭게 촬영된 영상) 간의 템플릿 매칭을 수행한다(210).
이러한 템플릿 매칭은 충분히 짧은 시간 단위로 이루어지므로, 특별한 경우를 제외하고는 매칭 결과를 나타내는 유사도가 임계치를 초과하게 된다. 이때, 현재 영상은 이전 영상이 촬영된 후 짧은 시간(일례로 0.5초, 1초 등) 내에 촬영된 영상일 수 있다. 또한, 템플릿 매칭이 이루어지는 영상 내 대상영역의 크기(R)는 카메라(111)의 화각과 해상도, 차량의 속도, 동작주기(초당 프레임 수), 템플릿의 크기 등을 고려하여 결정할 수 있다. 예를 들어, 동작주기가 20프레임이고, 카메라(111)의 화각이 100도이며, 카메라(111)의 해상도가 2M이고, 차량의 속도가 15KPH이며, 템플릿의 크기가 20픽셀(pixel)인 경우에 영상 내 대상영역의 크기는 40 픽셀로 결정할 수 있다.
이후, 자율주행차량(100)은 템플릿 매칭 결과로서 유사도를 산출한다(211). 이러한 유사도 산출 과정은 주지 관용의 기술로서 어떠한 기술을 이용해도 무방하다.
이후, 자율주행차량(100)은 유사도가 임계치를 초과하는지 판단한다(212).
상기 판단결과(212), 임계치를 초과하지 않으면 "203" 과정으로 진행하고, 임계치를 초과하면 현재 영상 내에서 템플릿이 기준영역에 위치하는지 판단한다(213).
상기 판단결과(213), 기준영역에 위치하지 않으면 "209" 과정으로 진행하여 상술한 과정을 반복 수행하고, 기준영역에 위치하면 정차한다(214).
그리고, 호출자(500)의 위치에 도착하였음을 휴대단말기(300)에 알린다(215). 그러면 휴대단말기(300)는 이를 디스플레이하여 호출자(500)에게 알린다(216).
본 발명의 제1 실시예에서 반복 수행되는 "209" 내지 "213" 과정은 이전 영상과 현재 영상 간의 반복된 템플릿 매칭을 통해 영상 내에서 호출자를 추적하는 과정이다. 예를 들어, 제1 영상(호출자 마킹된 영상)과 제2 영상(이후에 촬영된 영상) 간의 탬플릿 매칭(유사도를 기반으로 제2 영상에서 제1 영상의 템플릿을 검출해 내는 과정)을 통해 도출해 낸 유사도가 임계치를 초과하면, 제2 영상 내의 템플릿을 새로운 기준으로 설정하고 제2 영상과 제3 영상(제2 영상 이후에 촬영된 영상) 간의 템플릿 매칭을 수행한다. 이러한 과정을 반복 수행하여 영상 내에서 템플릿이 기준영역에 위치하게 되면 호출자 탐색 과정은 종료하게 된다.
본 발명의 제1 실시예에서는 템플릿 매칭을 통한 호출자 탐색 과정에 대해 설명하였으나, 사전에 등록된 호출자의 다양한 얼굴사진에 기초하여 안면인식 기법을 이용할 수도 있다. 즉, 자율주행차량(100)은 호출자(500)의 주변에 도착한 후 주기적으로 주변 영상을 촬영하고, 호출자가 마킹된 영상에서 호출자의 안면을 인식한 후 이후에 촬영되는 영상들을 이용하여 호출자(500)를 추적할 수도 있다. 이때, 카메라(111)의 해상도는 HD(High Definition), Full HD, QHD(Quad High Definition), UDH(Ultra High Definition) 중 필요에 따라 선택적으로 적용될 수 있다.
도 3 은 본 발명에 따른 자율주행차량의 호출자 탐색 방법에 대한 제2 실시예 흐름도이다.
먼저, 호출자(500)로부터의 요청에 따라 휴대단말기(300)는 자율주행차량(100)을 호출한다(301). 이때, 휴대단말기(300)는 자신의 위치정보를 자율주행차량(100)으로 전송한다. 또한, 휴대단말기(300)는 GPS 수신기를 구비하고 있어 자신의 위치정보를 획득할 수 있다.
이후, 자율주행차량(100)은 휴대단말기(300)로부터 전송받은 GPS 위치정보에 상응하는 지점을 목적지로 설정하고, 자율주행을 통해 목적지에 도착한다(302). 이때, GPS 위치정보는 오차가 있어 자율주행차량(100)은 호출자(500)의 위치(일례로 2m 이내)에 도착할 수 없다. 즉, 자율주행차량(100)은 호출자(500)의 주변에 도착하게 된다.
이후, 자율주행차량(100)은 호출자(500)의 주변에서 3차원 영상(사진)을 촬영한다(303). 이렇게 촬영된 3차원 영상은 일례로 도 4에 도시된 바와 같다. 이러한 3차원 영상의 데이터는 영상 내 객체(사람)까지의 거리정보를 포함하고 있다. 이때, 자율주행차량(100)은 전방영상을 촬영하는 것이 바람직하지만 경우에 따라 측방영상이나 후방영상을 촬영할 수도 있다.
이후, 자율주행차량(100)은 촬영한 3차원 영상을 휴대단말기(300)로 전송하고(304), 휴대단말기(300)는 수신한 3차원 영상을 디스플레이하며(305), 호출자(500)는 휴대단말기(300)에 의해 디스플레이되는 3차원 영상에서 자신을 찾아 마킹한다(306). 이때, 호출자(500)는 영상에서 자신의 모습을 찾을 수 없는 경우 새로운 영상의 전송을 요청할 수도 있다. 여기서, 새로운 영상은 서행하고 있는 자율주행차량(100)이 새롭게 촬영한 영상을 의미한다.
이후, 휴대단말기(300)는 호출자(500)가 마킹된 영상을 자율주행차량(100)으로 전송한다(307).
이후, 자율주행차량(100)은 3차원 영상에서 호출자(500)까지의 거리를 추출한 후 호출자(500)의 위치로 이동한다(308, 309).
이후, 자율주행차량(100)은 호출자(500)의 위치에 도착한 후 정차한다(310). 그리고 휴대단말기(300)로 도착을 알리는 메시지를 전송한다(311). 이때, 자율주행차량(100)은 외부에 장착된 디스플레이나 전광판을 이용하여 도착을 알릴 수도 있다.
그러면 휴대단말기(300)는 이를 디스플레이하여 호출자(500)에게 알린다(312).
본 발명의 제2 실시예에서는 3D 카메라에 의해 촬영된 3차원 영상을 이용하는 호출자(500)와의 거리를 획득하는 방식에 대해 설명하였지만, 2D 카메라와 3D 라이다, 2D 카메라와 2D 라이다, 2D 카메라와 2D 레이더 등을 이용하여 호출자(500)와의 거리를 획득할 수도 있다. 이때, 3D 라이다 또는 2D 라이다 또는 레이더에서 측정된 신호들을 영상 내의 점들로 변환하여 영상 내 객체와의 거리정보를 생성하는 백 프로젝션(Back Projection) 방식을 이용할 수도 있다.
여기서, 3D 라이다는 충분히 많은 거리정보(고밀도 거리정보)를 측정해 낼 수 있으므로, 백 프로젝션 방식을 이용하여 도 5에 도시된 바와 같은 3D 영상을 생성해 낼 수 있지만, 2D 라이다 또는 레이더는 거리정보가 제한되기 때문에 백 프로젝션을 통해 거리정보가 생성된 영역에 한정하여 호출자를 마킹하도록 하여 호출자와의 거리를 획득할 수 있다. 이렇게 생성된 영상은 도 6에 도시된 바와 같다.
도 7 은 본 발명에 따른 자율주행차량의 호출자 탐색 방법에 대한 제3 실시예 흐름도이다.
먼저, 호출자(500)로부터의 요청에 따라 휴대단말기(300)는 자율주행차량(100)을 호출한다(701). 이때, 휴대단말기(300)는 자신의 위치정보를 자율주행차량(100)으로 전송한다. 또한, 휴대단말기(300)는 GPS 수신기를 구비하고 있어 자신의 위치정보를 획득할 수 있다.
이후, 자율주행차량(100)은 휴대단말기(300)로부터 전송받은 GPS 위치정보에 상응하는 지점을 목적지로 설정하고, 자율주행을 통해 목적지에 도착한다(702). 이때, GPS 위치정보는 오차가 있어 자율주행차량(100)은 호출자(500)의 위치(일례로 2m 이내)에 도착할 수 없다. 즉, 자율주행차량(100)은 호출자(500)의 주변에 도착하게 된다.
이후, 자율주행차량(100)은 호출자(500)의 주변에서 전자지도상에 현재 위치를 마킹한다(703). 이때, 자율주행차량(100)은 차량 아이콘으로 현재 위치를 마킹할 수도 있다. 여기서, 차량 아이콘의 차종(일례로 승용차, 승합차, 화물차 등)과 색상은 자율주행차량(100)의 차종 및 색상과 동일하게 표현될 수 있다. 또한, 전자지도는 호출자(500)의 위치는 물론 자율주행차량(100)의 위치를 용이하게 인지할 수 있는 정밀지도이다. 또한, 전자지도에는 자율주행차량(100)이 감지한 주변의 장애물 위치가 표시될 수도 있다. 이때, 장애물에는 ID가 부여될 수도 있다. 이러한 전자지도는 2차원 전자지도일 수도 있고, 3차원 전자지도일 수도 있으며, AR(Augmented Reallity) 영상일 수도 있다.
이후, 자율주행차량(100)의 현재 위치가 마킹된 전자지도를 휴대단말기(300)로 전송고(704), 휴대단말기(300)는 수신한 전자지도를 디스플레이하며(705), 호출자(500)는 휴대단말기(300)에 의해 디스플레이되는 전자지도상에 자신의 위치를 마킹한다(706).
이후, 휴대단말기(300)는 호출자(500)의 위치가 마킹된 전자지도를 자율주행차량(100)으로 전송한다(707).
이후, 자율주행차량(100)은 전자지도상에서 호출자(500)와의 거리를 추출한 후 호출자(500)의 위치로 이동한다(708, 709).
이후, 자율주행차량(100)은 호출자(500)의 위치에 도착한 후 정차한다(710). 그리고 휴대단말기(300)로 도착을 알리는 메시지를 전송한다(711). 이때, 자율주행차량(100)은 외부에 장착된 디스플레이나 전광판을 이용하여 도착을 알릴 수도 있다.
그러면 휴대단말기(300)는 이를 디스플레이하여 호출자(500)에게 알린다(712).
도 8 은 본 발명의 일 실시예에 따른 군집주행차량의 램프 제어 방법을 실행하기 위한 컴퓨팅 시스템을 보여주는 블록도이다.
도 8을 참조하면, 상술한 본 발명의 일 실시예에 따른 호출자 탐색 방법은 컴퓨팅 시스템을 통해서도 구현될 수 있다. 컴퓨팅 시스템(1000)은 시스템 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 자율주행차량
300: 휴대단말기
500: 호출자

Claims (19)

  1. 자율주행차량이 호출자의 휴대단말기의 위치정보에 기초하여 상기 호출자의 주변까지 이동하는 단계;
    상기 자율주행차량이 상기 호출자의 주변에서 영상을 촬영하여 상기 호출자의 휴대단말기로 전송하는 단계;
    상기 자율주행차량이 상기 호출자의 휴대단말기로부터 상기 호출자가 마킹된 영상을 수신하는 단계;
    상기 자율주행차량이 상기 호출자가 마킹된 영상을 기반으로 상기 호출자의 주변에서 촬영된 영상들에서 상기 호출자를 식별하는 단계; 및
    상기 자율주행차량이 상기 식별된 호출자의 위치까지 이동하는 단계
    를 포함하는 자율주행차량의 호출자 탐색 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 호출자를 식별하는 단계는,
    상기 자율주행차량이 상기 영상 내에서 상기 호출자가 마킹된 영역을 템플릿으로 설정하는 단계;
    상기 자율주행차량이 새로운 주변 영상을 촬영하는 단계; 및
    상기 자율주행차량이 상기 호출자가 마킹된 영상과 상기 새로운 주변 영상 간의 템플릿 매칭을 통해 상기 호출자를 식별하는 단계
    를 포함하는 자율주행차량의 호출자 탐색 방법.
  4. 제 1 항에 있어서,
    상기 호출자를 식별하는 단계는,
    상기 자율주행차량이 상기 호출자의 안면을 인식하여 식별하는 것을 특징으로 하는 자율주행차량의 호출자 탐색 방법.
  5. 제 1 항에 있어서,
    상기 자율주행차량이 상기 식별된 호출자의 위치까지 이동한 후에 상기 휴대단말기로 도착을 알리는 메시지를 전송하는 단계
    를 더 포함하는 자율주행차량의 호출자 탐색 방법.
  6. 제 1 항에 있어서,
    상기 자율주행차량이 상기 식별된 호출자의 위치까지 이동한 후에 상기 자율주행차량의 외부에 장착된 디스플레이를 통해 도착을 알리는 단계
    를 더 포함하는 자율주행차량의 호출자 탐색 방법.
  7. 자율주행차량이 호출자의 휴대단말기의 위치정보에 기초하여 상기 호출자의 주변까지 이동하는 단계;
    상기 자율주행차량이 상기 호출자의 주변에서 3차원 영상을 촬영하여 상기 호출자의 휴대단말기로 전송하는 단계;
    상기 자율주행차량이 상기 호출자의 휴대단말기로부터 상기 호출자가 마킹된 3차원 영상을 수신하는 단계;
    상기 자율주행차량이 상기 호출자가 마킹된 3차원 영상에서 상기 호출자까지의 거리를 추출하는 단계; 및
    상기 자율주행차량이 상기 추출된 호출자까지의 거리를 이동하는 단계
    를 포함하는 자율주행차량의 호출자 탐색 방법.
  8. 삭제
  9. 제 7 항에 있어서,
    상기 자율주행차량이 상기 추출된 호출자까지의 거리를 이동한 후에 상기 휴대단말기로 도착을 알리는 메시지를 전송하는 단계
    를 더 포함하는 자율주행차량의 호출자 탐색 방법.
  10. 제 7 항에 있어서,
    상기 자율주행차량이 상기 추출된 호출자까지의 거리를 이동한 후에 상기 자율주행차량의 외부에 장착된 디스플레이를 통해 도착을 알리는 단계
    를 더 포함하는 자율주행차량의 호출자 탐색 방법.
  11. 자율주행차량이 호출자의 휴대단말기의 위치정보에 기초하여 상기 호출자의 주변까지 이동하는 단계;
    상기 자율주행차량이 상기 호출자의 주변에서 전자지도상에 현재 위치를 마킹하여 상기 휴대단말기로 전송하는 단계;
    상기 자율주행차량이 상기 호출자의 휴대단말기로부터 상기 호출자의 위치가 마킹된 전자지도를 수신하는 단계;
    상기 자율주행차량이 상기 호출자의 위치가 마킹된 전자지도상에서 상기 호출자까지의 거리를 추출하는 단계; 및
    상기 자율주행차량이 상기 추출된 호출자까지의 거리를 이동하는 단계
    를 포함하는 자율주행차량의 호출자 탐색 방법.
  12. 삭제
  13. 제 11 항에 있어서,
    상기 전자지도상에 마킹된 현재 위치는,
    차량 아이콘으로 표시되는 것을 특징으로 하는 자율주행차량의 호출자 탐색 방법.
  14. 제 13 항에 있어서,
    상기 차량 아이콘은,
    상기 자율주행차량의 색상과 동일한 것을 특징으로 하는 자율주행차량의 호출자 탐색 방법.
  15. 제 13 항에 있어서,
    상기 차량 아이콘은,
    상기 자율주행차량과 차종이 동일한 것을 특징으로 하는 자율주행차량의 호출자 탐색 방법.
  16. 제 11 항에 있어서,
    상기 전자지도는,
    현재 위치 주변의 장애물들이 표시된 정밀지도인 것을 특징으로 하는 자율주행차량의 호출자 탐색 방법.
  17. 제 16 항에 있어서,
    상기 장애물들은,
    ID를 갖는 것을 특징으로 하는 자율주행차량의 호출자 탐색 방법.
  18. 제 11 항에 있어서,
    상기 자율주행차량이 상기 추출된 호출자까지의 거리를 이동한 후에 상기 휴대단말기로 도착을 알리는 메시지를 전송하는 단계
    를 더 포함하는 자율주행차량의 호출자 탐색 방법.
  19. 제 11 항에 있어서,
    상기 자율주행차량이 상기 추출된 호출자까지의 거리를 이동한 후에 상기 자율주행차량의 외부에 장착된 디스플레이를 통해 도착을 알리는 단계
    를 더 포함하는 자율주행차량의 호출자 탐색 방법.
KR1020180117095A 2018-10-01 2018-10-01 자율주행차량의 호출자 탐색 방법 KR102587085B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180117095A KR102587085B1 (ko) 2018-10-01 2018-10-01 자율주행차량의 호출자 탐색 방법
US16/196,082 US20200103918A1 (en) 2018-10-01 2018-11-20 Method for detecting caller by autonomous vehicle
CN201811456907.3A CN110972111B (zh) 2018-10-01 2018-11-30 用于由自动驾驶车辆检测呼叫者的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180117095A KR102587085B1 (ko) 2018-10-01 2018-10-01 자율주행차량의 호출자 탐색 방법

Publications (2)

Publication Number Publication Date
KR20200039046A KR20200039046A (ko) 2020-04-16
KR102587085B1 true KR102587085B1 (ko) 2023-10-11

Family

ID=69947484

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180117095A KR102587085B1 (ko) 2018-10-01 2018-10-01 자율주행차량의 호출자 탐색 방법

Country Status (2)

Country Link
US (1) US20200103918A1 (ko)
KR (1) KR102587085B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019212022B4 (de) * 2019-08-09 2021-03-04 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
DE102019212021B4 (de) * 2019-08-09 2024-02-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
US11491909B2 (en) 2020-09-16 2022-11-08 Waymo Llc External facing communications for autonomous vehicles

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (ja) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd 配車システムおよび配車依頼プログラム並びに情報端末
JP5891306B2 (ja) * 2012-08-07 2016-03-22 株式会社日立製作所 自律走行装置の利用支援ツール、運用管理センタ、運用システム及び自律走行装置
WO2018113159A1 (en) * 2016-12-21 2018-06-28 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for displaying vehicle information for on-demand services

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456184B1 (ko) * 2011-09-30 2014-11-04 성균관대학교산학협력단 무인 차량 운행 제어 방법 및 장치, 및 원격 통신 장치를 통한 무인 차량 운행 제어 방법 및 무선 차량 운행 제어를 위한 원격 통신 장치
KR20160119321A (ko) * 2015-04-02 2016-10-13 김진영 택시 호출 서비스 제공 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (ja) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd 配車システムおよび配車依頼プログラム並びに情報端末
JP5891306B2 (ja) * 2012-08-07 2016-03-22 株式会社日立製作所 自律走行装置の利用支援ツール、運用管理センタ、運用システム及び自律走行装置
WO2018113159A1 (en) * 2016-12-21 2018-06-28 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for displaying vehicle information for on-demand services

Also Published As

Publication number Publication date
US20200103918A1 (en) 2020-04-02
KR20200039046A (ko) 2020-04-16
CN110972111A (zh) 2020-04-07

Similar Documents

Publication Publication Date Title
JP6835121B2 (ja) コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム
US11951975B1 (en) Handling sensor occlusions for autonomous vehicles
EP3282228B1 (en) Dynamic-map constructing method, dynamic-map constructing system and moving terminal
US10458810B2 (en) Traffic light state assessment
JP6852638B2 (ja) 自動運転車両の配車システム、自動運転車両、及び配車方法
US10520949B2 (en) Method and device for localizing a vehicle in its surroundings
US20170323179A1 (en) Object detection for an autonomous vehicle
JPWO2017029847A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR102587085B1 (ko) 자율주행차량의 호출자 탐색 방법
US10369995B2 (en) Information processing device, information processing method, control device for vehicle, and control method for vehicle
US10747221B2 (en) Moving body, moving body control system, and moving body control method
US20220182498A1 (en) System making decision based on data communication
CN112073936A (zh) 用于网络节点通信的系统和方法
US11551373B2 (en) System and method for determining distance to object on road
JP2019185105A (ja) 車両システム、空間領域推測方法及び空間領域推測装置
KR20230051412A (ko) 차량을 찾고 액세스하기 위한 기술
US20210284192A1 (en) Movable object control device, movable object control method, and storage medium storing program
TWI573713B (zh) 行車距離提示裝置及其方法
JP6839642B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2006285694A (ja) 車両間通信システム
JP4585356B2 (ja) 車両間通信システム
US11772603B2 (en) Passenger authentication and entry for autonomous vehicles
JP2006285695A (ja) 車両間通信システム
CN110972111B (zh) 用于由自动驾驶车辆检测呼叫者的方法
JP2006285692A (ja) 車両間通信システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant