KR20210086583A - 무인 주행 차량의 제어 방법, 장치 및 전자 기기 - Google Patents

무인 주행 차량의 제어 방법, 장치 및 전자 기기 Download PDF

Info

Publication number
KR20210086583A
KR20210086583A KR1020210079352A KR20210079352A KR20210086583A KR 20210086583 A KR20210086583 A KR 20210086583A KR 1020210079352 A KR1020210079352 A KR 1020210079352A KR 20210079352 A KR20210079352 A KR 20210079352A KR 20210086583 A KR20210086583 A KR 20210086583A
Authority
KR
South Korea
Prior art keywords
unmanned driving
driving vehicle
load state
vehicle
target
Prior art date
Application number
KR1020210079352A
Other languages
English (en)
Inventor
샹 뤄
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210086583A publication Critical patent/KR20210086583A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1223Mirror assemblies combined with other articles, e.g. clocks with sensors or transducers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/06Automatic manoeuvring for parking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0213Road vehicle, e.g. car or truck

Abstract

본 출원은 무인 주행 차량의 제어 방법, 장치 및 전자 기기를 개시하였으며 컴퓨터 비전, 자율주행 등 인공 지능 기술분야에 관한 것이다. 구체적인 구현 방안은, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득하는 단계; 제1 로드 이미지를 토대로, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하는 단계; 및 타겟 로드 상태가 제1 로드 상태인 경우에, 무인 주행 차량을 주차하도록 제어하는 단계; 를 포함한다. 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량의 일측 또는 양측의 로드 상황을 획득하여야 하고, 즉 타겟 로드 상태를 확정하여야 하고, 타겟 로드 상태가 제1 로드 상태인 경우에 무인 주행 차량을 주차하도록 제어하며, 차량에 대해 주차를 제어하는 과정에서 로드 상황을 고려하였기에, 차량 주차 제어에 대한 효과를 향상시킬 수 있다.

Description

무인 주행 차량의 제어 방법, 장치 및 전자 기기{METHOD AND APPARATUS FOR CONTROLLING DRIVERLESS VEHICLE AND ELECTRONIC DEVICE}
본 개시는 컴퓨터 기술 중의 컴퓨터 비전, 자율주행 등 인공 지능 기술분야에 관한 것으로, 특히 무인 주행 차량의 제어 방법, 장치 및 전자 기기에 관한 것이다.
무인 주행 기술의 발전에 따라, 무인 주행 버스 및 무인 주행 택시 등과 같은 무인 주행 차량들이 더욱더 많아지고, 더욱더 지능화되고 있다.
현재, 무인 주행 차량이 주행과정에서, 통상적으로 포지셔닝에 따라 고정된 주차 지점(예를 들면, 무인 주행 버스의 주행 경로에 고정된 주차 지점이 있음)이 있으며, 고정된 지점에 도착하였을 때 바로 주차하거나, 또는 무인 주행 차량에 있는 승객에 의해 입력된 명령에 따라 바로 주차한다.
본 개시는 무인 주행 차량의 제어 방법, 장치 및 전자 기기를 제공한다.
제1 측면에 있어서, 본 개시의 일 실시예는 무인 주행 차량의 제어 방법을 제공하며, 상기 방법은,
주차 명령을 수신하거나 또는 상기 무인 주행 차량이 기설정한 위치에 도착한 경우에, 상기 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득하는 단계;
상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하는 단계; 및
상기 타겟 로드 상태가 제1 로드 상태인 경우에, 상기 무인 주행 차량을 주차하도록 제어하는 단계를 포함한다.
본 개시의 실시예의 무인 주행 차량의 제어 방법에 대해, 주차 명령을 수신하거나 또는 상기 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득하여야 하고, 그리고, 제1 로드 이미지를 이용하여, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하고, 타겟 로드 상태가 제1 로드 상태인 경우에, 무인 주행 차량을 주차하도록 제어한다. 즉 본 개시의 실시예에서, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량의 일측 또는 양측의 로드 상황을 획득하여야 하고, 로드 상황에 따라 주차하는지 여부를 확정하며, 타겟 로드 상태가 제1 로드 상태인 경우에 무인 주행 차량을 주차하도록 제어하고, 이로서, 차량에 대해 주차 제어를 진행하는 과정에서, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에서의 로드 상황을 고려하였기에, 차량 주차 제어에 대한 효과를 향상시킬 수 있다.
제2 측면에 있어서, 본 개시의 일 실시예는 무인 주행 차량의 제어 장치를 제공하며, 상기 장치는:
주차 명령을 수신하거나 또는 상기 무인 주행 차량이 기설정한 위치에 도착한 경우에, 상기 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득하기 위한 제1 획득 모듈;
상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하기 위한 제2 획득 모듈; 및
상기 타겟 로드 상태가 제1 로드 상태인 경우에, 상기 무인 주행 차량을 주차하도록 제어하기 위한 제1 제어 모듈; 을 포함한다.
제3 측면에 있어서, 본 개시의 일 실시예는 전자 기기를 더 제공하며, 상기 전자 기기는,
적어도 하나의 프로세서; 및
적어도 하나의 프로세서와 통신으로 연결되는 메모리를 포함하며, 그중,
상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서로 하여금 본 개시의 각각의 실시예에서 제공하는 무인 주행 차량의 제어 방법을 수행하도록 한다.
제4 측면에 있어서, 본 개시의 일 실시예는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체를 더 제공하며, 상기 컴퓨터 명령은 상기 컴퓨터로 하여금 본 개시의 각각의 실시예에서 제공하는 무인 주행 차량의 제어 방법을 수행하도록 한다.
제5 측면에 있어서, 본 개시의 일 실시예는 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 제공하며, 상기 컴퓨터 프로그램은 상기 컴퓨터로 하여금 본 개시의 각각의 실시예에서 제공하는 무인 주행 차량의 제어 방법을 수행하도록 한다.
도면들은 더 바람직하게 본 방안을 이해하기 위한 것으로, 본 개시에 대한 한정을 구성하지 않는다. 그중,
도 1은 본 개시에서 제공하는 일 실시예의 무인 주행 차량의 제어 방법의 흐름 예시도 1이다.
도 2는 본 개시에서 제공하는 일 실시예의 무인 주행 차량의 제어 방법의 흐름 예시도 2이다.
도 3은 본 개시에서 제공하는 일 실시예의 무인 주행 차량의 제어 방법의 흐름 예시도 1이다.
도 4는 본 개시에서 제공하는 일 실시예의 무인 주행 차량의 제어 장치의 구조도 1이다.
도 5는 본 개시에서 제공하는 일 실시예의 무인 주행 차량의 제어 장치의 구조도 1이다.
도 6은 본 개시의 실시예의 무인 주행 차량의 제어 방법을 구현하기 위한 전자 기기의 블록도이다.
이하, 본 개시의 실시예에서의 도면을 결부시켜, 본 개시의 실시예에 따른 기술 방안을 명확하고 완전하게 설명하기로 한다. 그 중에는 이해를 돕기 위한 본 개시의 실시예의 각종 디테일도 포함되어 있으며, 전술한 실시예들은 단지 예시적인 것이며, 해당 기술분야에서 통상의 지식을 가진 자들은 본 개시의 실시예에 대해 본 개시의 정신 및 특허청구범위를 일탈하지 않고 다양한 개변 및 변형을 진행할 수 있다. 간단 명료하게 설명하기 위해, 아래에서는 해당 기술분야에 공지된 기능 및 구조에 대해 진일보하여 기술하지 않기로 한다.
도 1에 도시된 바와 같이, 본 개시의 실시예에 따라, 본 개시는 무인 주행 차량의 제어 방법을 제공하며, 상기 방법은 무인 주행 차량의 전자 기기에 응용될 수 있고, 전자 기기는 차량 기계 등을 포함할 수 있으며, 상기 방법은 아래와 같은 단계를 포함한다.
단계 S101: 주차 명령을 수신하거나 또는 상기 무인 주행 차량이 기설정한 위치에 도착한 경우에, 상기 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득한다.
주차 명령은 사용자(예컨대 무인 주행 차량 중의 승객)에 의해 전자 기기의 디스플레이 인터페이스중에 입력된 주차 명령일 수 있고, 음성으로 입력된 주차 명령, 문자로 입력된 주차 명령 또는 전자 기기가 디스플레이 인터페이스중의 제어 키 버튼의 조작에 대해 응답하여 생성된 주차 명령 등일 수 있다. 전자 기기는 주차 명령을 수신한 후, 주차할 준비를 진행할 수 있으며, 주차하는지 여부에 대해, 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 현재 위치에서 촬영한 제1 로드 이미지를 획득하여야 하고, 후속으로 검측한 로드의 실제 상황에 따라 확정한다. 또 다른 하나의 예에서, 전자 기기에 무인 주행 차량의 복수 개의 기설정한 위치를 미리 저장하고, 복수 개의 기설정한 위치 중의 각각의 기설정한 위치에서 주차할 준비를 진행할 수 있고, 주차하는지 여부에 대해, 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 현재 위치에서 촬영한 제1 로드 이미지를 획득하여야 하고, 후속으로 검측한 로드의 실제 상황에 따라 확정한다. 본 개시의 실시예에서, 무인 주행 차량의 외부에 카메라가 설치되어 있고, 카메라는 차량 도어와 동일한 측에 위치하며, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 로드 이미지를 촬영하는데 용이하다.
설명해야 할 것은, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측에 카메라가 설치되어 있고, 예를 들면, 차량 도어가 설치되어 있는 일측에 카메라가 설치되어 있고, 카메라의 수량은 하나일 수 있다. 또는, 무인 주행 차량의 양측에 모두 차량 도어가 설치되어 있고, 차량 도어가 설치되어 있는 양측에 각각 카메라가 설치되어 있으며, 카메라의 수량은 2개일 수 있다. 이로서, 상술한 제1 로드 이미지는 차량의 일측의 로드 이미지일 수 있고, 또는 상술한 제1 로드 이미지는 차량의 양측의 로드 이미지를 포함한다.
단계 S102: 제1 로드 이미지를 토대로, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득한다.
제1 로드 이미지를 이용하여, 무인 주행 차량의 일측 또는 양측의 타겟 로드 상태를 획득할 수 있고, 타겟 로드 상태를 제1 로드 이미지에 대해 식별을 진행하여 획득한 로드 식별 결과로 이해할 수 있으며, 로드 식별 결과는 주차하기 적합한 로드 또는 주차하기 적합하지 않은 로드를 포함할 수 있고, 즉 타겟 로드 상태는 주차하기 적합한 상태 및 주차하기 적합하지 않은 상태를 포함할 수 있으며, 즉 로드가 주차하기에 적합하거나 또는 주차하기에 적합하지 않다는 것을 나타낸다. 설명해야 할 것은, 주차하기 적합한 상태에 대응하는 로드 식별 결과는 주차하기 적합한 로드이고, 즉 로드 상황이 양호하고, 주차하기 적합하며, 상기 상태는 로드가 주차하기에 적합하고, 차량 내의 승객이 하차하기에 용이하다는 것을 나타내며, 주차하기 적합하지 않은 상태에 대응하는 로드 식별 결과는 주차하기에 적합하지 않은 로드이고, 즉 로드 상황이 비교적 차하고, 주차하기 적합하지 않다는 것을 나타내며, 예를 들면, 로드에 구덩이, 진흙, 물 등이 있는 상태는 로드가 주차하기에 적합하지 않다는 것을 나타낸다.
단계 S103: 타겟 로드 상태가 제1 로드 상태인 경우에, 무인 주행 차량을 주차하도록 제어한다.
제1 로드 상태를 주차하기 적합한 상태로 이해할 수 있고, 타겟 로드 상태가 제1 로드 상태인 경우에, 현재 위치에서 무인 주행 차량의 일측 또는 양측의 로드 상황이 양호하고, 주차하기 적합하며, 승객이 하차하기에 용이하다는 것을 나타내며, 이때, 무인 주행 차량을 주차하도록 제어한다.
본 개시의 실시예의 무인 주행 차량의 제어 방법에 대해, 주차 명령을 수신하거나 또는 상기 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득하여야 하고, 그리고, 제1 로드 이미지를 이용하여, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하고, 타겟 로드 상태가 제1 로드 상태인 경우에, 무인 주행 차량을 주차하도록 제어한다. 즉 본 개시의 실시예에서, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량의 일측 또는 양측의 로드 상황을 획득하여야 하고, 로드 상황에 따라 주차하는지 여부를 확정하며, 타겟 로드 상태가 제1 로드 상태인 경우에 무인 주행 차량을 주차하도록 제어하고, 이로서, 차량에 대해 주차 제어를 진행하는 과정에서, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에서의 로드 상황을 고려하였기에, 차량 주차 제어에 대한 효과를 향상시킬 수 있다. 상술한 과정을 통해 차량을 주차하도록 제어하고, 주차한 후의 로드는 사용자가 하차하는데 용이하다.
일 실시예에서, 카메라는 무인 주행 차량의 백미러 상에 설치되어 있고, 무인 주행 차량의 측변 로드 이미지를 촬영하기 위한 카메라이다.
무인 주행 차량의 상대적인 양측에 백미러(즉 두개의 백미러를 차량 도어 상에 설치할 수 있음)가 설치되어 있고, 백미러 상에 카메라를 설치할 수 있으며, 카메라를 통해 무인 주행 차량의 측변 로드 이미지를 촬영할 수 있으며, 이로서, 카메라를 통해 제1 로드 이미지를 촬영할 수 있고, 무인 주행 차량 측변의 로드 상황을 확정하여, 후속으로 무인 주행 차량의 측변의 로드 상황에 따라 주차 제어를 진행하는데 용이하고, 주차 제어 효과를 향상시킨다. 하나의 예에서, 백미러는 서로 연결된 백미러 본체(백미러의 미러면 등이 설치되어 있음 등) 및 핸들을 포함하고, 백미러 본체는 핸들을 통해 차량 도어 상에 설치될 수 있고, 카메라는 핸들 상에 설치될 수 있으며, 백미러 본체를 따라 지면으로 향하는 방향으로, 카메라는 백미러 본체의 아래 방향에 위치하여, 카메라가 측변 로드를 더 바람직하게 촬영할 수 있도록 한다.
일 실시예에서, 제1 로드 이미지를 토대로, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하는 단계는, 제1 로드 이미지에 대해 특징 추출을 진행하여 제1 특징 데이터를 획득하는 단계; 및 제1 특징 데이터를 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정하는 단계를 포함한다. 즉 본 개시의 실시예에서, 도 2에 도시된 바와 같이, 일 실시예의 무인 주행 차량의 제어 방법을 제공하며, 상기 방법은 하기의 단계를 포함한다.
단계 S201: 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득한다.
단계 S202: 제1 로드 이미지에 대해 특징 추출을 진행하여 제1 특징 데이터를 획득한다.
단계 S203: 제1 특징 데이터를 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정한다.
단계 S204: 타겟 로드 상태가 제1 로드 상태인 경우에, 무인 주행 차량을 주차하도록 제어한다.
상술한 단계 S201은 단계 S101과 대응하고, 단계 S204는 단계 S103과 대응하며, 여기서 더 이상 상세하게 기술하지 않기로 한다.
본 개시의 실시예에서, 차량 본단에서 타겟 로드 상태의 확정을 진행할 수 있으며, 즉 제1 로드 이미지에 대해 특징 추출을 진행하여 제1 특징 데이터를 획득한 후, 차량 내의 미리 저장된 기설정 특징 데이터 베이스(기설정 특징 데이터는 예를 들면 차량 기계와 같은 차량의 전자 기기에 저장될 수 있음)중에서 제1 특징 데이터에 대해 매칭을 진행하여, 타겟 로드 상태를 확정한다. 설명해야 할 것은, 기설정 특징 데이터 베이스 중에 복수 개의 로드 이미지의 특징 데이터가 포함되어 있고, 상기 특징 데이터와 제1 특징 데이터의 타입은 동일하며, 예를 들면, 기설정 특징 데이터 베이스 중 로드 이미지의 특징 데이터는 로드 이미지의 A 특징 데이터 및 B 특징 데이터 등을 포함하고, 제1 로드 이미지에 대해 A 특징 및 B 특징 추출을 진행하며, 획득한 제1 특징 데이터는 제1 로드 이미지의 A 특징 데이터 및 B 특징 데이터를 포함한다. 하나의 예로서, 제1 특징 데이터를 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정한다는 것을, 제1 특징 데이터와 기설정 데이터 베이스 중의 특징 데이터에 대해 싱크로율이 매칭을 진행하여, 타겟 로드 상태를 확정한다는 것으로 이해할 수 있다. 설명해야 할 것은, 상술한 기설정 특징 데이터 베이스 중의 복수 개의 로드 이미지는 복수 개의 주차하기 적합하지 않은 로드의 이미지이고, 이 이미지는 지난 시간 동안 누적되어 확정된 주차하기 적합하지 않은 로드 이미지이다.
본 개시의 실시예에서, 제1 특징 데이터를 무인 주행 차량 본단에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정함으로, 타겟 로드 상태의 확정 효율을 향상시킬 수 있고, 따라서 주차 제어의 효율을 향상시킨다.
하나의 예에서, 무인 주행 차량에 네트워크가 없는 경우에(즉 네트워크에 접속되지 않고, 오프라인 상태인 것으로 이해할 수 있음), 제1 로드 이미지에 대해 특징 추출을 진행하여 제1 특징 데이터를 획득하고, 제1 특징 데이터를 전자 기기에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정한 것일 수 있으며, 즉 네트워크가 없는 경우에, 무인 주행 차량 본단에서 타겟 로드 상태의 확정을 진행하여, 타겟 로드 상태의 확정 효율을 향상시킬 수 있고, 따라서 주차 제어의 효율을 향상시킨다.
일 실시예에서, 제1 특징 데이터를 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정하는 단계는,
기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되지 않는 경우에, 타겟 로드 상태는 제1 로드 상태인 것으로 확정하는 단계; 또는,
기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되는 경우에, 타겟 로드 상태는 제2 로드 상태인 것으로 확정하는 단계를 포함한다.
제1 로드 상태는 주차하기 적합한 상태이고, 제2 로드 상태는 주차하기 적합하지 않은 상태이며, 기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되는 경우에, 타겟 로드 상태는 제2 로드 상태인 것으로 확정하고, 무인 주행 차량이 위치한 위치의 측변 로드 상황이 주차하기에 적합하지 않다는 것을 나타내며, 후속으로 주차하는지 여부를 진일보하여 판단하여야 한다. 기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되지 않는 경우에, 타겟 로드 상태는 제1 로드 상태인 것으로 확정하고, 무인 주행 차량이 위치한 위치의 측변 로드 상황이 주차하기에 적합하다는 것을 나타내며, 이때, 차량을 주차하도록 제어할 수 있으며, 차량 주차 제어의 정확성과 효과를 향상시킨다.
하나의 예로서, 제1 특징 데이터와 매칭되는 타겟 특징 데이터를, 제1 특징 데이터와 싱크로율이 매칭되는 타겟 특징 데이터로 이해할 수 있고, 싱크로율이 매칭 즉 싱크로율이 기설정 싱크로율보다 큰 것을 의미하며, 예를 들면, 기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되지 않는 경우에, 타겟 로드 상태는 제1 로드 상태인 것으로 확정하는 단계는, 기설정 특징 데이터 베이스 중에 제1 특징 데이터와의 싱크로율이 기설정 싱크로율보다 큰 타겟 특징 데이터가 포함되지 않는 경우에, 타겟 로드 상태는 제1 로드 상태인 것으로 확정하는 단계를 포함할 수 있다. 기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되는 경우에, 타겟 로드 상태는 제2 로드 상태인 것으로 확정하는 단계는, 기설정 특징 데이터 베이스 중에 제1 특징 데이터와의 싱크로율이 기설정 싱크로율보다 큰 타겟 특징 데이터가 포함되는 경우에, 타겟 로드 상태는 제2 로드 상태인 것으로 확정하는 단계를 포함할 수 있다.
일 실시예에서, 상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하는 단계는,
클라우드 서버에 상기 제1 로드 이미지를 송신하는 단계; 및
상기 클라우드 서버가 송신한 로드 상태 식별 모델을 이용하여 상기 제1 로드 이미지에 대해 식별을 진행하여 획득한 상기 타겟 로드 상태를 수신하는 단계로서, 상기 타겟 로드 상태는 제1 로드 상태 또는 제2 로드 상태를 포함하는 것인, 수신하는 단계를 포함한다.
본 개시의 실시예에서, 클라우드 서버는 로드 상태 식별 모델을 이용하여 상기 제1 로드 이미지에 대해 식별을 진행하여 타겟 로드 상태를 획득하고, 타겟 로드 상태는 무인 주행 차량의 측변 로드의 상황을 나타내고, 주차하기 적합한 제1 로드 상태이거나, 또는 주차하기 적합하지 않은 제2 로드 상태일 수 있으며, 클라우드 서버로부터 클라우드 서버가 송신한 타겟 로드 상태를 수신하면 된다. 클라우드 서버의 로드 상태 식별 모델을 통해 식별을 진행하여 타겟 로드 상태를 획득함으로, 타겟 로드 상태의 정확성을 향상시킬 수 있고, 따라서 주차 제어의 정확성을 향상시킨다.
하나의 예로서, 무인 주행 차량이 네트워크에 접속된 경우에(즉 온라인 상태하에), 클라우드 서버에 상기 제1 로드 이미지를 송신하고, 클라우드 서버는 로드 상태 식별 모델을 이용하여 상기 제1 로드 이미지에 대해 식별을 진행하여 타겟 로드 상태를 획득하며, 즉 네트워크가 있는 경우에, 클라우드 서버의 로드 상태 식별 모델을 통해 식별을 진행하여 타겟 로드 상태를 획득함으로, 타겟 로드 상태의 정확성을 향상시키고, 따라서 주차 제어의 정확성을 향상시킨다.
하나의 예로서, 상술한 로드 상태 식별 모델은 훈련된 모델이고, 상기 로드 상태 식별 모델은 신경 네트워크(neural networks) 등을 포함하나, 이에 한정되지 않는다. 예를 들면, 클라우드 서버는 로드 상태 식별 모델을 이용하여 상기 제1 로드 이미지에 대해 식별을 진행하여 타겟 로드 상태를 획득하기 전에, 데이터 샘플(복수 개의 샘플 로드 이미지 및 복수 개의 샘플 로드 이미지에 대응하는 로드 실제 상태를 포함함)을 이용하여 모델 트레이닝을 진행하여, 로드 상태 식별 모델을 획득할 수 있다. 그리고, 클라우드 서버는 로드 상태 식별 모델을 이용하여 상기 제1 로드 이미지에 대해 식별을 진행하여 타겟 로드 상태를 획득한 후, 기설정된 과거 시간대 내에서 복수 개의 무인 주행 차량이 업로드한 제1 로드 이미지에 대해 상태 라벨링을 진행할 수 있고, 복수 개의 무인 주행 차량이 업로드한 제1 로드 이미지의 로드 실제 상태를 획득하며, 복수 개의 무인 주행 차량이 업로드한 제1 로드 이미지 및 대응하는 로드 실제 상태를 이용하여, 로드 상태 식별 모델에 대해 재-트레이닝을 진행하고, 로드 상태 식별 모델을 업데이트하며, 로드 상태 식별 모델의 식별 정확성을 향상시킨다.
일 실시예에서, 상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득한 후, 상기 단계는, 상기 타겟 로드 상태가 제2 로드 상태인 경우에, 제1 제시 정보를 출력하는 단계로서, 상기 제1 제시 정보는 현재 로드가 주차하기에 적합하지 않다는 것을 제시하기 위한 것인, 출력하는 단계; 및 사용자의 제1 입력을 수신한 경우에, 상기 무인 주행 차량을 주차하도록 제어하는 단계를 더 포함한다.
상기 타겟 로드 상태가 제2 로드 상태인 경우에, 주차하는지 여부를 계속하여 판단하여야 하며, 이러한 경우에, 제1 제시 정보를 출력하여, 현재 로드는 주차하기에 적합하지 않다는 것을 사용자에게 제시하고, 사용자는 제시에 따라 주차하는지 여부를 선택할 수 있으며, 만약 사용자가 제1 입력을 진행한다면, 무인 주행 차량을 주차하도록 제어하고, 즉, 현재 로드가 주차하기에 적합하지 않은 경우에도, 사용자의 선택을 요청할 수 있으며, 만약 사용자가 주차를 선택한다면, 차량을 주차하도록 제어하여, 사용자의 수요를 만족시키고, 사용자 체험을 향상시킨다. 하나의 예로서, 제1 제시 정보를 출력한다는 것은 음성으로 제1 제시 정보 등을 재생한다는 것일 수 있고, 사용자로 하여금 제때에 제1 제시 정보를 수신할 수 있도록 한다.
하나의 예로서, 상술한 제1 입력은 음성 입력, 문자 입력이거나 또는 전자 기기의 디스플레이 인터페이스에 있는 주행 정지 키 버튼에 대한 입력 등일 수 있고, 즉 사용자는 상이한 입력 방식을 통해 제1 입력을 진행할 수 있으며, 사용자의 상이한 입력 방식에 대한 수요를 만족시키고, 사용자 체험을 향상시킨다.
일 실시예에서, 타겟 로드 상태가 제2 로드 상태인 경우에, 제1 제시 정보를 출력한 후, 상기 단계는, 사용자의 제2 입력을 수신한 경우에, 무인 주행 차량을 주행하도록 제어하는 단계; 및 현재 시간이 제1 시간을 달성하거나 또는 무인 주행 차량이 위치한 위치와 제2 입력을 수신할 때의 위치 사이의 거리가 기설정 거리를 달성한 경우에, 카메라가 제2 로드 이미지를 촬영하도록 제어하고, 제1 로드를 제2 로드 이미지로 업데이트하고, 무인 주행 차량이 주차할 때까지, 제1 로드 이미지를 토대로, 무인 주행 차량의 차량 도어의 일측에 위치한 타겟 로드 상태를 확정하는 단계로 리턴(Return)하는 단계를 더 포함하며, 그중, 제1 시간과 제2 입력을 수신한 시간 사이의 시간차는 기설정 시간 길이보다 작다.
즉 사용자의 제2 입력을 수신한 경우에, 차량은 계속하여 주행하고, 주차하기 적합한 다음 로드를 찾는다. 기설정한 시간 길이를 주행하거나 또는 기설정한 거리를 주행하는 경우에, 카메라가 다시 촬영을 진행하도록 제어할 수 있으며, 제2 로드 이미지를 획득하고, 제1 로드를 제2 로드 이미지로 업데이트하고, 무인 주행 차량이 주차할 때까지, 제1 로드 이미지를 토대로, 무인 주행 차량의 차량 도어의 일측에 위치한 타겟 로드 상태를 확정하는 단계로 리턴하며, 로드 상태를 계속하여 판단하고 타겟 로드 상태에 따라 차량 제어 과정을 진행한다. 상술한 순환 과정을 통해, 주차하기 적합한 다음 타겟 로드 상태를 찾아, 상기 무인 주행 차량을 주차하도록 제어할 수 있으며, 또는 타겟 로드 상태가 주차하기에 적합하지 않은 경우, 사용자의 제1 입력을 통해 무인 주행 차량을 주차하도록 제어한다. 그리고, 하나의 예로서, 사용자의 제2 입력을 수신한 경우에, 무인 주행 차량을 주행하도록 제어하는 단계는, 사용자의 제2 입력을 수신한 경우에, 만약 제2 입력을 수신한 횟수가 기설정 횟수(예를 들면, 두번)보다 작다면, 무인 주행 차량을 주행하도록 제어하는 단계를 포함할 수 있다. 사용자의 제2 입력을 수신한 경우에, 만약 제2 입력을 수신한 횟수가 기설정 횟수보다 크거나 또는 같다면, 무인 주행 차량을 주차하도록 제어하고, 더 이상 계속하여 주행하지 않으며, 순환 횟수가 많아 초래되는 주차 효율이 낮은 상황을 감소시킨다. 설명해야 할 것은, 제2 입력을 수신한 횟수는, 현재 횟수에서 제2 입력을 수신한 수신 시간 전에, 상기 타겟 로드 상태가 제2 로드 상태인 경우에, 제1 제시 정보를 출력한 후 사용자가 입력한 제2 입력을 수신한 횟수와 현재 한번의 합이다.
하나의 예로서, 상술한 제2 입력은 음성 입력, 문자 입력이거나 또는 전자 기기의 디스플레이 인터페이스에 있는 계속 주행 키 버튼에 대한 입력 등일 수 있고, 즉 사용자는 상이한 입력 방식을 통해 제2 입력을 진행할 수 있으며, 사용자의 상이한 입력 방식에 대한 수요를 만족시키고, 사용자 체험을 향상시킨다.
아래에서는 하나의 구체적인 실시예로 상술한 무인 주행 차량의 제어 방법의 제어 과정에 대해 진일보하여 구체적으로 설명하려 한다. 무인 주행 차량의 제어 방법이 차량 기계에 응용된다는 것을 예로 들어 설명하면,
무인 주행 차량은 360도 파노라마 주차 보조를 지원하는 차량이고, 차량의 백미러 상에 카메라가 설치되어 있다. 도 3에 도시된 바와 같이, 먼저, 주차 명령을 수신하거나 또는 상기 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량 주차 준비 상태로 진입하고, 이때, 백미러 상(예를 들면, 백미러의 핸들 상에 설치하고, 백미러 본체의 아래 방향에 위치함)에 설치된 카메라를 부팅하여 주변 로드 환경을 스캔할 수 있으며, 촬영하여 제1 로드 이미지를 획득하고, 차량 기계는 현재 위치에서 무인 주행 차량의 측변에 있는 제1 로드 이미지를 바로 획득할 수 있다.
그리고, 차량 기계가 네트워크에 접속되었는지 여부를 검측하고, 만약 차량 기계에 네트워크가 없고 즉 네트워크에 접속되지 않았다면, 기설정 특징 데이터 베이스를 토대로 로드 판단을 진행하고, 제1 특징 데이터를 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정하고, 타겟 로드 상태가 주차하기 적합한 상태인지 여부를 판단하며, 기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되지 않는 경우에, 타겟 로드 상태는 제1 로드 상태인 것으로 확정하고, 즉 주차하기 적합한 상태이며, 이때, 무인 주행 차량을 주차하도록 제어한다. 상기 기설정 특징 데이터 베이스 중에 상기 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되는 경우에, 상기 타겟 로드 상태는 제2 로드 상태인 것으로 확정하고, 즉 주차하기 적합하지 않은 상태이며, 이때, 음성으로 제1 제시 정보를 재생하여, 현재 로드가 주차하기에 적합하지 않다는 것을 제시할 수 있고, 또한 계속하여 주행하는지 여부를 제시할 수 있는데, 만약 사용자가 제1 입력(예를 들면, 사용자가 아니오라고 대답함)을 진행한다면, 즉 정지를 선택한다면, 무인 주행 차량을 주차하도록 제어하고, 만약 사용자가 제2 입력(예를 들면, 사용자가 네라고 대답함)을 진행한다면, 즉 계속하여 주행하는 것을 선택한다면, 무인 주행 차량을 계속하여 주행하도록 제어하고, 주차하기 적합한 타겟 로드 상태인 다음 로드를 찾아 주차를 진행한다.
만약 차량 기계에 네트워크가 있고 즉 네트워크에 접속되었다면, 제1 로드 이미지를 클라우드 서버에 업로드하고, 클라우드 서버는 훈련된 신경 네트워크를 통해 제1 로드 이미지에 대해 로드 상태 식별을 진행하고, 즉 제1 로드 이미지 중의 로드가 바람직한 로드(즉 주차하기에 적합한지 여부)인지를 식별하고, 타겟 로드 상태를 획득하고, 타겟 로드 상태를 차량 기계로 송신하고, 차량 기계는 클라우드 서버가 송신한 타겟 로드 상태를 수신하며, 타겟 로드 상태가 주차하기 적합한 상태인지 여부를 판단하고, 상기 타겟 로드 상태가 제1 로드 상태인 경우에, 즉 주차하기 적합한 상태인 경우에, 이때, 무인 주행 차량을 주차하도록 제어한다. 상기 타겟 로드 상태가 제2 로드 상태인 경우에, 즉 주차하기 적합하지 않은 상태인 경우에, 이때, 음성으로 제1 제시 정보를 재생하여, 현재 로드가 주차하기에 적합하지 않다는 것을 제시할 수 있고, 또한 계속하여 주행하는지 여부를 제시할 수 있는데, 만약 사용자가 제1 입력을 진행한다면, 즉 정지를 선택한다면, 무인 주행 차량을 주차하도록 제어하고, 만약 사용자가 제2 입력을 진행한다면, 즉 계속하여 주행하는 것을 선택한다면, 무인 주행 차량을 계속하여 주행하도록 제어하고, 주차하기 적합한 타겟 로드 상태인 다음 로드를 찾아 주차를 진행한다.
본 개시의 실시예의 무인 주행 차량의 제어 방법은 오토매틱 관련 기술분야의 기능을 진일보하여 완성할 수 있으며, 기존 차량상에 설치되어 있는 카메라를 이용함으로, 별도로 하드웨어 기기를 더 설치할 필요가 없으며, 상술한 과정을 통해 로드 식별을 진행하고, 획득한 타겟 로드 상태를 통해 주차하는지 여부를 결정하며, 바로 주차하는 것이 아니라, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에서의 로드 상황을 고려하였기에, 주차 제어의 효과 등을 향상시킬 수 있다.
도 4에 도시된 바와 같이, 본 개시의 실시예에 따라, 본 개시는 무인 주행 차량 중의 전자 기기에 응용될 수 있는 무인 주행 차량의 제어 장치(400)를 더 제공하며, 전자 기기는 차량 기계 등을 포함할 수 있고, 장치(400)는,
주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득하기 위한 제1 획득 모듈(401);
상기 제1 로드 이미지를 토대로, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하기 위한 제2 획득 모듈(402); 및
타겟 로드 상태가 제1 로드 상태인 경우에, 무인 주행 차량을 주차하도록 제어하기 위한 제1 제어 모듈(403); 을 포함한다.
일 실시예에서, 카메라는 무인 주행 차량의 백미러 상에 설치되어 있고, 무인 주행 차량의 측변 로드 이미지를 촬영하기 위한 카메라이다.
도 5에 도시된 바와 같이, 일 실시예에서, 제2 획득 모듈(402)은,
제1 로드 이미지에 대해 특징 추출을 진행하여 제1 특징 데이터를 획득하기 위한 특징 추출 모듈(4021); 및
제1 특징 데이터를 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정하기 위한 제1 확정 모듈(4022); 을 포함한다.
일 실시예에서, 제1 특징 데이터를 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 타겟 로드 상태를 확정하는 것은,
기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되지 않는 경우에, 타겟 로드 상태는 제1 로드 상태인 것으로 확정하는 것; 또는,
기설정 특징 데이터 베이스 중에 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되는 경우에, 타겟 로드 상태는 제2 로드 상태인 것으로 확정하는 것; 을 포함한다.
일 실시예에서, 제2 획득 모듈은,
클라우드 서버에 상기 제1 로드 이미지를 송신하기 위한 송신 모듈; 및
클라우드 서버가 송신한 로드 상태 식별 모델을 이용하여 제1 로드 이미지에 대해 식별을 진행하여 획득한 상기 타겟 로드 상태를 수신하기 위한 수신 모듈로서, 타겟 로드 상태는 제1 로드 상태 또는 제2 로드 상태를 포함하는 것인, 수신 모듈; 을 포함한다.
일 실시예에서, 상술한 장치는,
타겟 로드 상태가 제2 로드 상태인 경우에, 제1 제시 정보를 출력하기 위한 출력 모듈로서, 제1 제시 정보는 현재 로드가 주차하기에 적합하지 않다는 것을 제시하기 위한 것인, 출력 모듈; 및
사용자의 제1 입력을 수신한 경우에, 무인 주행 차량을 주차하도록 제어하기 위한 제2 제어 모듈을 더 포함한다.
상술한 각 실시예의 무인 주행 차량의 제어 장치는 상술한 각 실시예의 무인 주행 차량의 제어 방법을 구현하는 장치이고, 기술적 특징은 대응되고, 기술적 효과는 대응되며, 여기서 더 이상 상세하게 기술하지 않기로 한다.
본 개시의 실시예에 따라, 본 개시는 전자 기기, 판독 가능 저장 매체 및 컴퓨터 프로그램 제품을 더 제공한다.
도 6에 도시된 바와 같이, 도 6은 본 개시의 실시예의 무인 주행 차량의 제어 방법에 따른 전자 기기의 블록도이다. 전자 기기는 예를 들면 랩탑 컴퓨터, 데스크톱 컴퓨터, 워킹 테이블, 개인용 디지털 보조기, 서버, 블레이드 서버, 대형 컴퓨터, 및 기타 적합한 컴퓨터와 같이 다양한 형태의 디지털 컴퓨터를 나타낸다. 본문에서 나타내는 컴포넌트, 그들의 연결 및 관계, 및 그들의 기능은 단지 예시적인 것이지, 본 명세서에 설명된 및/또는 요구하는 본 개시의 구현을 제한하기 위함이 아님은 자명한 것이다.
도 6에 도시된 바와 같이, 상기 전자 기기는: 하나 또는 복수 개의 프로세서(601), 메모리(602), 및 각 컴포넌트들을 연결하기 위한 인터페이스를 포함하고, 고속 인터페이스 및 저속 인터페이스를 포함한다. 각 컴포넌트들은 상이한 버스를 이용하여 서로 연결되고, 공통 메인 플레이트 상에 설치되거나 또는 수요에 따라 기타 방식으로 설치될 수 있다. 프로세서는 전자 기기 내에서 수행하는 명령에 대해 처리를 진행할 수 있으며, 메모리에 저장되거나 또는 메모리상에 외부 입력/출력 장치(예컨대, 인터페이스에 연결되는 표시 기기)상에서 GUI의 그래픽 정보를 나타내는 명령을 포함한다. 기타 실시 방식에 있어서, 필요하다면, 복수 개의 프로세서 및/또는 복수 개의 버스를 복수 개의 메모리 및 복수 개의 메모리와 함께 사용할 수 있다. 동일하게, 복수 개의 전자 기기를 연결할 수 있으며, 각 기기들은 부분적으로 필요한 조작을 제공한다(예컨대, 서버 어레이, 블레이드 서버, 또는 멀티 프로세서 시스템). 도 6에서는 하나의 프로세서(601)를 예로 들었다.
메모리(602)는 본 개시에서 제공하는 비일시적 컴퓨터 판독 가능 저장 매체이다. 그중, 상기 메모리에 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어 있으며, 상기 적어도 하나의 프로세서로 하여금 본 개시에서 제공하는 무인 주행 차량의 제어 방법을 수행하도록 한다. 본 개시의 비일시적 컴퓨터 판독 가능 저장 매체에 컴퓨터 명령이 저장되어 있으며, 상기 컴퓨터 명령은 컴퓨터로 하여금 본 개시에서 제공하는 무인 주행 차량의 제어 방법을 수행하도록 하기 위한 것이다.
본 개시의 실시예의 컴퓨터 프로그램 제품은, 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램은 컴퓨터로 하여금 본 개시의 각 실시예에서 제공하는 무인 주행 차량의 제어 방법을 수행하도록 하기 위한 것이다.
메모리(602)는 하나의 비일시적 컴퓨터 판독 가능 저장 매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터가 실행가능한 프로그램 및 모듈을 저장하기 위한 것이며, 예를 들면 본 개시의 실시예에서의 무인 주행 차량의 제어 방법에 대응되는 프로그램 명령/모듈(예컨대, 도 4에 도시된 제1 획득 모듈(401), 제2 획득 모듈(402), 제1 제어 모듈(403))이다. 프로세서(601)는 메모리(602)내에 저장되어 있는 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행하는 것을 통해, 따라서 서버의 각종 기능 애플리케이션 및 데이터 처리를 수행하며, 즉 상술한 방법 실시예에서의 무인 주행 차량의 제어 방법을 구현한다.
메모리(602)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있으며, 그중, 프로그램 저장 영역은 작업 시스템, 적어도 하나의 기능에 필요한 애플리케이션 프로그램 등을 저장할 수 있으며; 데이터 저장 영역은 키보드에 디스플레이된 전자 기기의 사용에 따라 작성된 데이터 등을 저장할 수 있다. 또한, 메모리(602)는 고속 랜덤 액세스 메모리를 포함할 수도 있고, 비일시적 메모리를 포함할 수도 있으며, 예컨대 적어도 하나의 자기 디스크 저장 디바이스, 플래시 메모리 디바이스, 또는 기타 비일시적 솔리드 스테이트 저장 디바이스를 더 포함할 수 있다. 일부 실시예에서, 메모리(602)는 선택적으로 프로세서(601)와 상대적으로 원격 설치된 메모리를 포함할 수 있으며, 이러한 원격 메모리는 네트워크를 통해 키보드에 디스플레이된 전자 기기에 연결될 수 있다. 상술한 네트워크의 실시예는 인터넷, 기업 내부 네트워크, 로컬 영역 네트워크, 이동 통신망 및 이들의 조합을 포함할 수 있으나 이에 한정되지 않는다.
전자 기기는: 입력 장치(603) 및 출력 장치(604)를 더 포함할 수 있다. 프로세서(601), 메모리(602), 입력 장치(603) 및 출력 장치(604)는 버스 또는 기타 방식을 통해 연결될 수 있고, 도 6에서는 버스를 통해 연결된 것으로 예를 들었다.
입력 장치(603)는 입력된 숫자 또는 문자 부호 정보를 수신하고, 키보드에 디스플레이된 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 발생시킬 수 있는바. 예컨대, 입력 장치는 터치 패널, 기능키, 마우스, 트랙패널, 터치 패널, 표시 로드, 하나 또는 복수 개의 마우스 버튼, 트랙볼, 조이스틱 등 입력 장치이다. 출력 장치(604)는 표시 기기, 보조 조명 장치(예컨대, LED) 및 촉각 피드백 장치(예컨대, 진동 전기) 등을 포함할 수 있다. 상기 표시 기기는 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이 및 플라즈마 디스플레이를 포함할 수 있다. 일부 실시방식에서, 표시 기기는 터치 스크린일 수 있다.
여기서 설명되는 시스템 및 기술의 각종 실시방식들은 디지털 전기 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 각종 실시 방식은, 하나 또는 복수 개의 컴퓨터 프로그램에서 구현하는 방식을 포함할 수 있으며, 상기 하나 또는 복수 개의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능한 프로세서를 포함하는 프로그램 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능한 프로세서는 전용 또는 범용으로 프로그램 가능한 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치로 전송한다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 또는 코드로도 칭할 수 있음)은 프로그램 가능한 프로세서의 기계 명령을 포함하며, 과정 및/또는 대상을 향한 프로그램 언어 및/또는 어셈블링/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 실시할 수 있다. 본문에서 사용되는 용어 "기계 판독 가능 매체" 및 "컴퓨터 판독 가능 매체"는 기계 판독 가능 신호로서 기계 명령을 수신하는 기계 판독 가능한 매체를 포함하는, 기계 명령 및/또는 데이터를 프로그램 가능한 프로세서의 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예컨대, 자기 디스크, 광 디스크, 메모리, 프로그램 가능한 로직 장치(PLD))를 의미한다. 용어 "기계 판독 가능 신호"는 기계 명령 및/또는 데이터를 프로그램 가능한 프로세서에 제공하기 위한 임의의 신호를 의미한다.
사용자와의 인터렉션을 제공하기 위해, 본 명세서에서 설명된 시스템 및 기술을 컴퓨터에서 실시할 수 있으며, 상기 컴퓨터는, 사용자에게 정보를 디스플레이하기 위한 디스플레이 장치(예컨대, CRT (칼라 음극선관) 또는 LCD(액정 디스플레이) 모니터); 및 키보드 및 포인팅 장치(예컨대, 마우스 또는 트랙볼)를 구비하고, 사용자는 상기 키보드 및 포인팅 장치를 통해 입력을 컴퓨터에 제공할 수 있다. 기타 타입의 장치는 사용자와의 인터렉션을 제공할 수 있으며; 예컨대, 사용자에게 제공된 피드백은 임의의 형태의 센싱 피드백(예컨대, 시각적 피드백, 청각적 피드백, 또는 촉각 피드백)일 수 있으며; 그리고 임의의 형태(음향 입력, 음성 입력, 또는 촉각 입력)를 사용하여 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백스테이지 컴포넌트를 포함하는 컴퓨팅 시스템(예컨대, 데이터 서버로서), 또는 중간 컴포넌트를 포함하는 컴퓨팅 시스템(예컨대, 애플리케이션 서버), 또는 전방 컴포넌트를 포함하는 컴퓨팅 시스템(예컨대, 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비한 사용자 컴퓨터, 사용자는 상기 그래픽 사용자 인터페이스 또는 상기 네트워크 브라우저를 통해 여기에서 설명된 시스템 및 기술의 실시 방식을 인터렉션할 수 있음), 또는 이런 백스테이지 컴포넌트, 중간 컴포넌트, 또는 전방 컴포넌트의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 컴포넌트들은 임의의 형태 또는 매체의 디지털 데이터 통신(예컨대, 통신 네트워크)에 의해 서로 연결될 수 있다. 통신 네트워크의 예는, 로컬 네트워크(LAN), 광역 네트워크(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고, 통상적으로 통신 네트워크를 통해 서로 인터렉션을 진행한다. 상응한 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 구비한 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계가 생성된다.
본 개시의 실시예의 기술 방안에 따라, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득한 후, 상기 제1 로드 이미지를 이용하여, 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하고, 타겟 로드 상태가 제1 로드 상태인 경우에, 무인 주행 차량을 주차하도록 제어한다. 즉 본 개시의 실시예에서, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에, 무인 주행 차량의 일측 또는 양측의 로드 상황을 획득하여야 하고, 로드 상황에 따라 주차하는지 여부를 확정하며, 타겟 로드 상태가 제1 로드 상태인 경우에 무인 주행 차량을 주차하도록 제어하고, 이로서, 차량에 대해 주차 제어를 진행하는 과정에서, 주차 명령을 수신하거나 또는 무인 주행 차량이 기설정한 위치에 도착한 경우에서의 로드 상황을 고려하였기에, 차량 주차 제어에 대한 효과를 향상시킬 수 있다.
위에서 도시된 각종 형태의 흐름을 사용하여, 단계를 재정렬, 추가 또는 삭제할 수 있다. 예를 들면, 본 개시에서 기재된 각 단계들은 병렬적으로 수행될 수 있고, 또한 순차적으로 수행될 수도 있으며, 상이한 순서로 수행될 수도 있는바, 단지 본 출원에서 개시한 기술 방안이 희망하는 결과를 구현할 수만 있다면, 본문에서는 이에 대해 한정하지 않는다.
상술한 구체적인 실시 방식은, 본 개시의 보호 범위의 제한을 구성하지 않는다. 해당 기술분야에서 통상의 지식을 가진 자들은 본 개시의 실시예에서의 설계 요구 및 기타 요소에 따라, 다양한 개변, 조합, 서브 조합 및 교체를 진행할 수 있다. 본 개시의 정신 및 특허청구범위를 일탈하지 않고, 이러한 개변, 등가 교체 및 변형은 본 개시의 청구범위 및 그와 동등한 기술 범위 내에 속하며, 본 개시에서는 이러한 개변 및 변형을 청구범위 내에 귀속 시키고자 한다.

Claims (15)

  1. 무인 주행 차량의 제어 방법에 있어서,
    주차 명령을 수신하거나 또는 상기 무인 주행 차량이 기설정한 위치에 도착한 경우에, 상기 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득하는 단계;
    상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하는 단계; 및
    상기 타겟 로드 상태가 제1 로드 상태인 경우에, 상기 무인 주행 차량을 주차하도록 제어하는 단계
    를 포함하는 무인 주행 차량의 제어 방법.
  2. 제1항에 있어서,
    상기 카메라는 상기 무인 주행 차량의 백미러 상에 설치되어 있고, 상기 무인 주행 차량의 측변 로드 이미지를 촬영하기 위한 카메라인 것인 무인 주행 차량의 제어 방법.
  3. 제1항에 있어서,
    상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하는 단계는,
    상기 제1 로드 이미지에 대해 특징 추출을 진행하여 제1 특징 데이터를 획득하는 단계; 및
    상기 제1 특징 데이터를 상기 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 상기 타겟 로드 상태를 확정하는 단계
    를 포함하는 무인 주행 차량의 제어 방법.
  4. 제3항에 있어서,
    상기 제1 특징 데이터를 상기 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 상기 타겟 로드 상태를 확정하는 단계는,
    상기 기설정 특징 데이터 베이스 중에 상기 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되지 않는 경우에, 상기 타겟 로드 상태는 제1 로드 상태인 것으로 확정하는 단계; 또는,
    상기 기설정 특징 데이터 베이스 중에 상기 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되는 경우에, 상기 타겟 로드 상태는 제2 로드 상태인 것으로 확정하는 단계
    를 포함하는 무인 주행 차량의 제어 방법.
  5. 제1항에 있어서,
    상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하는 단계는,
    클라우드 서버에 상기 제1 로드 이미지를 송신하는 단계; 및
    상기 클라우드 서버가 송신한 로드 상태 식별 모델을 이용하여 상기 제1 로드 이미지에 대해 식별을 진행하여 획득한 상기 타겟 로드 상태를 수신하는 단계로서, 상기 타겟 로드 상태는 제1 로드 상태 또는 제2 로드 상태를 포함하는 것인, 수신하는 단계
    를 포함하는 무인 주행 차량의 제어 방법.
  6. 제1항에 있어서,
    상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하는 단계 후에, 상기 방법은,
    상기 타겟 로드 상태가 제2 로드 상태인 경우에, 제1 제시 정보를 출력하는 단계로서, 상기 제1 제시 정보는 현재 로드가 주차하기에 적합하지 않다는 것을 제시하기 위한 것인, 출력하는 단계; 및
    사용자의 제1 입력을 수신한 경우에, 상기 무인 주행 차량을 주차하도록 제어하는 단계
    를 더 포함하는 무인 주행 차량의 제어 방법.
  7. 무인 주행 차량의 제어 장치에 있어서,
    주차 명령을 수신하거나 또는 상기 무인 주행 차량이 기설정한 위치에 도착한 경우에, 상기 무인 주행 차량상의 차량 도어와 동일한 측에 위치한 카메라가 촬영한 제1 로드 이미지를 획득하기 위한 제1 획득 모듈;
    상기 제1 로드 이미지를 토대로, 상기 무인 주행 차량의 차량 도어가 설치되어 있는 일측 또는 양측의 타겟 로드 상태를 획득하기 위한 제2 획득 모듈; 및
    상기 타겟 로드 상태가 제1 로드 상태인 경우에, 상기 무인 주행 차량을 주차하도록 제어하기 위한 제1 제어 모듈
    을 포함하는 무인 주행 차량의 제어 장치.
  8. 제7항에 있어서,
    상기 카메라는 상기 무인 주행 차량의 백미러 상에 설치되어 있고, 상기 무인 주행 차량의 측변 로드 이미지를 촬영하기 위한 카메라인 것인,
    무인 주행 차량의 제어 장치.
  9. 제7항에 있어서,
    상기 제2 획득 모듈은,
    상기 제1 로드 이미지에 대해 특징 추출을 진행하여 제1 특징 데이터를 획득하기 위한 특징 추출 모듈; 및
    상기 제1 특징 데이터를 상기 무인 주행 차량에 저장된 기설정 특징 데이터 베이스와 매칭을 진행하여, 상기 타겟 로드 상태를 확정하기 위한 제1 확정 모듈
    을 포함하는 무인 주행 차량의 제어 장치.
  10. 제9항에 있어서,
    상기 제1 확정 모듈은 또한,
    상기 기설정 특징 데이터 베이스 중에 상기 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되지 않는 경우에, 상기 타겟 로드 상태는 제1 로드 상태인 것으로 확정; 또는,
    상기 기설정 특징 데이터 베이스 중에 상기 제1 특징 데이터와 매칭되는 타겟 특징 데이터가 포함되는 경우에, 상기 타겟 로드 상태는 제2 로드 상태인 것으로 확정
    하기 위한 것인 무인 주행 차량의 제어 장치.
  11. 제7항에 있어서,
    상기 제2 획득 모듈은,
    클라우드 서버에 상기 제1 로드 이미지를 송신하기 위한 송신 모듈; 및
    상기 클라우드 서버가 송신한 로드 상태 식별 모델을 이용하여 상기 제1 로드 이미지에 대해 식별을 진행하여 획득한 상기 타겟 로드 상태를 수신하기 위한 수신 모듈로서, 상기 타겟 로드 상태는 제1 로드 상태 또는 제2 로드 상태를 포함하는 것인, 수신 모듈
    을 포함하는 무인 주행 차량의 제어 장치.
  12. 제7항 내지 제11항 중 어느 한 항에 있어서,
    상기 타겟 로드 상태가 제2 로드 상태인 경우에, 제1 제시 정보를 출력하기 위한 출력 모듈로서, 상기 제1 제시 정보는 현재 로드가 주차하기에 적합하지 않다는 것을 제시하기 위한 것인, 출력 모듈; 및
    사용자의 제1 입력을 수신한 경우에, 상기 무인 주행 차량을 주차하도록 제어하기 위한 제2 제어 모듈
    을 더 포함하는 무인 주행 차량의 제어 장치.
  13. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신으로 연결되는 메모리를 포함하며, 그중,
    상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서로 하여금 제1항 내지 제6항 중 어느 한 항에 따른 무인 주행 차량의 제어 방법을 수행하도록 하는 것인,
    전자 기기.
  14. 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터로 하여금 제1항 내지 제6항 중 어느 한 항에 따른 무인 주행 차량의 제어 방법을 수행하도록 하는 것인,
    비일시적 컴퓨터 판독 가능 저장 매체.
  15. 기록 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램은 컴퓨터로 하여금 제1항 내지 제6항 중 어느 한 항에 따른 무인 주행 차량의 제어 방법을 수행하도록 하는 것인,
    기록 매체에 저장된 컴퓨터 프로그램.
KR1020210079352A 2020-12-15 2021-06-18 무인 주행 차량의 제어 방법, 장치 및 전자 기기 KR20210086583A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011481005.2A CN112572418A (zh) 2020-12-15 2020-12-15 一种无人驾驶车辆的控制方法、装置及电子设备
CN202011481005.2 2020-12-15

Publications (1)

Publication Number Publication Date
KR20210086583A true KR20210086583A (ko) 2021-07-08

Family

ID=75135438

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210079352A KR20210086583A (ko) 2020-12-15 2021-06-18 무인 주행 차량의 제어 방법, 장치 및 전자 기기

Country Status (5)

Country Link
US (1) US11891085B2 (ko)
EP (2) EP3869291A2 (ko)
JP (2) JP2021152947A (ko)
KR (1) KR20210086583A (ko)
CN (1) CN112572418A (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114455051B (zh) * 2022-01-06 2023-07-25 珠海云洲智能科技股份有限公司 一种无人驾驶设备的控制方法、控制装置及无人驾驶设备
CN114809830B (zh) * 2022-05-05 2023-07-14 阿波罗智能技术(北京)有限公司 自动驾驶车辆车门的控制方法、装置、电子设备和介质
CN115331478A (zh) * 2022-08-11 2022-11-11 富赛汽车电子有限公司 避免车辆在斜坡停车的控制方法、装置、电子设备及介质
EP4353559A1 (en) * 2022-10-14 2024-04-17 Volvo Autonomous Solutions AB A method for stopping an autonomous vehicle

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842261B2 (en) * 2011-05-24 2017-12-12 Nissan Motor Co., Ltd. Vehicle monitoring device and method of monitoring vehicle
WO2013046358A1 (ja) * 2011-09-28 2013-04-04 トヨタ自動車株式会社 車輌側域照明/視認手段を備えた車輌
CN102632837B (zh) * 2012-03-31 2014-01-22 奇瑞汽车股份有限公司 一种辅助泊车系统及其控制方法
US20170043720A1 (en) * 2015-08-14 2017-02-16 Faraday&Future Inc. Camera system for displaying an area exterior to a vehicle
KR101850795B1 (ko) 2015-11-09 2018-04-20 엘지전자 주식회사 주차 수행 장치 및 차량
US9919704B1 (en) * 2017-01-27 2018-03-20 International Business Machines Corporation Parking for self-driving car
CN110949392B (zh) 2017-03-21 2021-04-30 腾讯科技(深圳)有限公司 一种车辆控制方法及装置
CN110753646B (zh) * 2017-06-26 2022-11-25 日立安斯泰莫株式会社 驻车辅助装置
RU2740661C1 (ru) * 2017-10-05 2021-01-19 Ниссан Мотор Ко., Лтд. Способ управления парковкой и устройство управления парковкой
CN108121944A (zh) 2017-10-31 2018-06-05 深圳市博鑫创科科技有限公司 一种基于摄像头的平衡车自动停靠方法与系统
CN108284831B (zh) 2018-03-23 2022-01-14 威马智慧出行科技(上海)有限公司 自动停车方法及系统
JP7206608B2 (ja) * 2018-03-26 2023-01-18 株式会社デンソー 停止位置制御装置
WO2019223737A1 (zh) * 2018-05-22 2019-11-28 云丁网络技术(北京)有限公司 一种信息处理方法和系统
CN109017767B (zh) * 2018-08-22 2021-04-06 深圳市广和通无线股份有限公司 泊车方法、装置、计算机设备和存储介质
JP6771517B2 (ja) * 2018-09-07 2020-10-21 本田技研工業株式会社 自動駐車装置及び自動駐車方法
US10621452B2 (en) * 2018-09-14 2020-04-14 Lyft, Inc. Determining and mapping location-based information for a vehicle
CN109658721A (zh) * 2018-12-05 2019-04-19 百度在线网络技术(北京)有限公司 交通标志显示装置、识别方法、装置、设备和介质
JP2020093575A (ja) * 2018-12-10 2020-06-18 株式会社東海理化電機製作所 制御装置及び制御システム
CN111391861A (zh) 2018-12-29 2020-07-10 北京奇虎科技有限公司 一种车辆驾驶辅助方法和装置
JP7139964B2 (ja) 2019-01-15 2022-09-21 トヨタ自動車株式会社 車両制御装置及び車両制御方法
JP7398196B2 (ja) * 2019-03-11 2023-12-14 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置及び駐車支援方法
CN111762152B (zh) * 2019-03-30 2022-05-24 上海欧菲智能车联科技有限公司 泊车方法、装置、设备、车辆及计算机可读存储介质
CN110588638B (zh) * 2019-09-24 2021-06-25 威马智慧出行科技(上海)有限公司 自动泊车控制方法、电子设备及汽车
CN110588273B (zh) * 2019-09-26 2021-05-18 爱驰汽车有限公司 基于路面检测的泊车辅助方法、系统、设备及存储介质
CN110576852B (zh) * 2019-09-26 2021-06-22 华为技术有限公司 自动泊车方法、装置以及车辆
CN110901631B (zh) * 2019-11-29 2021-07-06 长城汽车股份有限公司 一种自动泊车方法、装置及系统
CN111079586B (zh) * 2019-12-03 2023-05-23 西安电子科技大学 基于深度学习与双目摄像的自动驾驶目标检测系统及方法
CN111142519A (zh) * 2019-12-17 2020-05-12 西安工业大学 基于计算机视觉和超声波雷达冗余的自动驾驶系统及其控制方法
CN111231945B (zh) * 2020-03-10 2021-11-12 威马智慧出行科技(上海)有限公司 自动泊车车位寻找方法、电子设备、训练方法、服务器及汽车
CN111367452B (zh) * 2020-03-17 2021-08-03 北京百度网讯科技有限公司 一种设备交互方法、装置、设备、系统及介质
CN112068566A (zh) * 2020-09-15 2020-12-11 北京百度网讯科技有限公司 引导路径确定方法及车辆的行驶控制方法、装置、设备

Also Published As

Publication number Publication date
US11891085B2 (en) 2024-02-06
EP3925846A2 (en) 2021-12-22
JP2022023969A (ja) 2022-02-08
EP3869291A2 (en) 2021-08-25
JP2021152947A (ja) 2021-09-30
US20220126859A1 (en) 2022-04-28
CN112572418A (zh) 2021-03-30
EP3925846A3 (en) 2022-04-20

Similar Documents

Publication Publication Date Title
KR20210086583A (ko) 무인 주행 차량의 제어 방법, 장치 및 전자 기기
US20200326179A1 (en) Distance Measurement Method, Intelligent Control Method, Electronic Device, and Storage Medium
CN110162083B (zh) 利用无人机执行三维结构检查及维护任务的方法和系统
US20210287015A1 (en) Method and apparatus for vehicle re-identification, training method and electronic device
US11100646B2 (en) Future semantic segmentation prediction using 3D structure
US11698262B2 (en) Method and apparatus for generating route planning model, and storage medium
CN111859778B (zh) 泊车模型的生成方法和装置、电子设备和存储介质
CN111931579A (zh) 利用眼动追踪和手势识别技术的自动驾驶辅助系统及方法
JP2018526641A (ja) レーザ深度マップサンプリングのためのシステム及び方法
JP7274515B2 (ja) センサーソリューション決定方法、装置、機器及び記憶媒体
EP3875328A2 (en) Cruise control method and apparatus, device, vehicle and medium
CN110794844B (zh) 自动驾驶方法、装置、电子设备及可读存储介质
CN113479192B (zh) 车辆泊出方法、车辆泊入方法、装置、设备以及存储介质
CN112101209B (zh) 用于路侧计算设备的确定世界坐标点云的方法和装置
US11092690B1 (en) Predicting lidar data using machine learning
US20130155190A1 (en) Driving assistance device and method
JP2021152909A (ja) オフラインマップの生成方法、生成装置、電子機器及び記憶媒体
KR20220090380A (ko) 원격 제어 중의 이미지 처리 방법, 장치, 기기 및 컴퓨터 프로그램
CN113378605B (zh) 多源信息融合方法及装置、电子设备和存储介质
WO2020026798A1 (ja) 制御装置、制御方法、およびプログラム
CN113780045A (zh) 用于训练距离预测模型的方法和装置
CN111325984B (zh) 样本数据的获取方法、装置和电子设备
CN115223384B (zh) 一种车辆数据显示方法、装置、电子设备和存储介质
CN113442910B (zh) 用于辅助停车的方法、装置、设备和可读存储介质
WO2024027112A1 (zh) 车辆控制方法、装置、自动泊车辅助控制器、终端及系统

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application