KR20210151718A - 차량 주차 검출 방법, 시스템, 전자 기기 및 저장 매체 - Google Patents

차량 주차 검출 방법, 시스템, 전자 기기 및 저장 매체 Download PDF

Info

Publication number
KR20210151718A
KR20210151718A KR1020210137473A KR20210137473A KR20210151718A KR 20210151718 A KR20210151718 A KR 20210151718A KR 1020210137473 A KR1020210137473 A KR 1020210137473A KR 20210137473 A KR20210137473 A KR 20210137473A KR 20210151718 A KR20210151718 A KR 20210151718A
Authority
KR
South Korea
Prior art keywords
distance
vehicle
parking
line
scene image
Prior art date
Application number
KR1020210137473A
Other languages
English (en)
Inventor
시우치 리우
샤오롱 왕
솅차오 타오
Original Assignee
아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. filed Critical 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Publication of KR20210151718A publication Critical patent/KR20210151718A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • G06K9/00812
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 출원은 차량 주차 검출 방법, 시스템, 전자 기기 및 저장 매체를 개시하고, 인공지능 기술 분야의 딥러닝, 자율 주행 기술 분야에 관한 것이다. 구체적인 구현 방법은 제1 거리 센서를 통해 상기 차량과 정류장 내의 참조 대상 사이의 제1 가로 방향 거리를 획득하는 단계; 제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 제2 가로 방향 거리를 획득하는 단계; 제1 카메라에 의해 수집된 제1 장면 이미지를 획득하고, 상기 제1 장면 이미지에 따라 제1 세로 방향 거리를 획득하는 단계 - 상기 제1 세로 방향 거리는 상기 차량의 제1 표지선과 상기 정류장의 제1 주차선 사이의 거리를 의미함 -; 및 상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리 및 상기 제1 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는 단계를 포함한다. 당해 차량 주차 검출 방법은 자동 정량 측정을 구현하고, 인적 자원을 절약하고, 차량 주차 검출의 효율을 향상시킨다.

Description

차량 주차 검출 방법, 시스템, 전자 기기 및 저장 매체{METHOD AND SYSTEM FOR VEHICLE PARKING DETECTION, ELECTRONIC DEVICE AND STORAGE MEDIUM}
본 출원은 인공지능 기술 분야의 딥러닝, 자율 주행 기술 분야에 관한 것으로, 특히 차량 주차 검출 방법, 시스템, 저장 매체, 전자 기기 및 컴퓨터 프로그램 제품에 관한 것이다.
자율 주행, 운전면허 심사 등 장면에서, 차량의 주차 결과를 검출해야 하고, 일상적으로 사용되는 검출 수단은 인공으로 측정하거나 센서를 사용하여 차량이 선을 누른지 여부를 측정한다.
기존 기술에서, 인공으로 측정할 경우, 인적 자원에 대한 요구가 상대적으로 높아서 검출 효율이 낮고; 센서를 사용하여 차량이 선을 누른지 여부를 측정할 경우, 차량에 대해 정성 주차 검출만 수행할 수 있고, 정량 주차 검출은 수행할 수 없다.
본 출원은 차량 주차 검출 방법, 시스템, 기기 및 저장 매체를 제공한다.
본 출원은 차량 주차 검출 방법, 시스템, 기기 및 저장 매체를 제공한다.
본 출원의 제1 측면에 따라 제공되는 차량 주차 검출 방법은,
제1 거리 센서를 통해 상기 차량과 정류장 내의 참조 대상 사이의 제1 가로 방향 거리를 획득하는 단계;
제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 제2 가로 방향 거리를 획득하는 단계;
제1 카메라에 의해 수집된 제1 장면 이미지를 획득하고, 상기 제1 장면 이미지에 따라 제1 세로 방향 거리를 획득하는 단계 - 상기 제1 세로 방향 거리는 상기 차량의 제1 표지선과 상기 정류장의 제1 주차선 사이의 거리를 의미함 -; 및
상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리 및 상기 제1 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는 단계를 포함한다.
본 출원의 제2 측면에 따라 제공되는 차량 주차 검출 시스템은,
제1 거리 센서를 통해 상기 차량과 정류장 내의 참조 대상 사이의 제1 가로 방향 거리를 획득하고, 제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 제2 가로 방향 거리를 획득하는 가로 방향 거리 측정 모듈;
제1 카메라에 의해 수집된 제1 장면 이미지를 획득하고, 상기 제1 장면 이미지에 따라 제1 세로 방향 거리를 획득하는 제1 세로 방향 거리 측정 모듈 - 상기 제1 세로 방향 거리는 상기 차량의 제1 표지선과 상기 정류장의 제1 주차선 사이의 거리를 의미함 -; 및
상기 가로 방향 거리 측정 모듈에서 송신한 제1 가로 방향 거리 및 제2 가로 방향 거리를 수신하고, 상기 세로 방향 거리 측정 모듈에서 송신한 제1 세로 방향 거리를 수신하며, 상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리 및 상기 제1 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는 제어 모듈을 포함한다.
본 출원의 제3 측면에 따라 제공되는 전자 기기는,
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 가능하게 연결되는 메모리를 포함하고;
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 수행되므로, 상기 적어도 하나의 프로세서에 의해 본 출원의 일 측면에 따른 차량 주차 검출 방법을 수행하도록 한다.
본 출원의 제4 측면에 따라 제공되는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체에 있어서, 상기 컴퓨터 명령은 상기 컴퓨터가 본 출원의 일 측면에 따른 차량 주차 검출 방법을 수행하는데 사용된다.
본 출원의 제5 측면에 따라 제공되는 컴퓨터 프로그램 제품은 컴퓨터 프로그램을 포함하고, 상기 컴퓨터 프로그램이 프로세서에 의해 수행되는 경우 제1 측면에 따른 차량 주차 검출 방법을 수행하도록 한다.
본 출원의제6 측면에 따라, 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램을 더 제공하는바, 상기 컴퓨터 프로그램중의 명령이 실행될 경우, 제1 측면에 따른 차량 주차 검출 방법이 실행된다.
본 출원에서 제공되는 실시예는 적어도 하기와 같은 유익한 기술적 효과를 구비한다.
본 출원의 기술적 수단에 따르면, 차량 주차의 자동 정량 측정을 구현하여 인적 자원을 절약하고, 차량 주차 검출의 효율을 향상시킨다.
이해 가능한 바로는 본 부분에서 설명된 내용은 본 출원의 실시예의 핵심 또는 중요한 특징을 식별하기 위한 것이 아니며, 본 출원의 범위를 한정하지도 않는다. 본 출원의 기타 특징들은 하기의 명세서에 의해 쉽게 이해될 것이다.
본 출원에서 제공되는 실시예는 적어도 하기와 같은 유익한 기술적 효과를 구비한다.
본 출원의 기술적 수단에 따르면, 차량 주차의 자동 정량 측정을 구현하여 인적 자원을 절약하고, 차량 주차 검출의 효율을 향상시킨다.
첨부된 도면은 본 방안을 더 잘 이해하기 위한 것으로, 본 출원에 대한 한정이 구성되지 않는다.
도1은 본 출원의 일 실시예에 따른 차량 주차 검출 방법의 흐름도이고;
도2는 본 출원의 제2 실시예에 따른 차량 주차 검출 방법의 흐름도이고;
도3은 본 출원의 일부 실시예에 따른 차량 주차 검출 방법의 흐름도이고;
도4는 본 출원의 제3 실시예에 따른 차량 주차 검출 방법의 흐름도이고;
도5a는 본 출원의 일 실시예에 따른 차량 주차 검출 방법의 준비 단계의 개략도이고;
도5b는 본 출원의 일 실시예에 따른 차량 주차 검출 방법의 측정 단계의 개략도이고;
도6은 본 출원의 제4 실시예에 따른 차량 주차 검출 방법의 흐름도이고;
도7은 본 출원의 일부 실시예에 따른 가로 방향 거리를 실시간으로 모니터링하는 흐름도이고;
도8은 본 출원의 일 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고;
도9는 본 출원의 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고;
도10은 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고;
도11은 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고;
도12는 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고;
도13은 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고;
도14는 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고;
도15는 본 출원의 실시예에 따른 차량 주차 검출 방법을 구현하기 위한 전자 기기의 블록도이다.
이하, 첨부된 도면을 결합하여 본 출원의 예시적인 실시예에 대해 설명하며, 여기에는 이해를 돕기 위해 본 출원의 실시예의 다양한 세부 사항을 포함하므로, 이는 단지 예시적인 것으로 이해해야 한다. 따라서, 당업자는 본 출원의 범위 및 사상을 벗어나지 않는 한 여기에 설명된 실시예에 대해 다양한 변경 및 수정이 이루어질 수 있음을 인식해야 한다. 마찬가지로, 명확성과 간결성을 위해, 하기의 설명에서는 공지된 기능 및 구조에 대한 설명을 생략한다.
본 출원은 차량 주차 검출 방법을 제공하여, 당해 방법에 따른 차량 주차 검출의 기술적 수단은 차량 주차에 대해 자동적으로 정량 검출할 수 있으며, 인적 자원을 절약하고, 차량 주차 검출의 효율을 향상시킨다. 도1은 본 출원의 일 실시예에 따른 차량 주차 검출 방법의 흐름도이다. 설명해야 하는 바로는, 본 출원의 실시예에 따른 차량 주차 검출 방법은 본 출원의 실시예에 따른 전자 기기에 적용 가능하다. 도1에 도시된 바와 같이, 당해 차량 주차 검출 방법은 하기와 같은 단계를 포함할 수 있다.
단계 101, 제1 거리 센서를 통해 차량과 정류장 내의 참조 대상 사이의 제1 가로 방향 거리를 획득한다.
이해 가능한 바로는, 차량 주차에 대해 검출할 때 데이터 측정이 필요하며 검출할 지표는 가로 방향 거리 및 세로 방향 거리인 양 측면을 포함할 수 있다. 가로 방향은 차량의 길이에 대략 수직인 방향이고, 세로 방향은 차량의 길이에 대략 평행한 방향일 수 있다.
본 출원의 일부 실시예에서, 가로 방향 거리는 차량과 정류장 내의 참조 대상 사이의 거리일 수 있다. 정류장 내의 참조 대상은 특정 응용 장면에 따라 선택된 갓길, 정류장 주변의 차량 등과 같은 여러 종류의 참조 대상일 수 있으며, 본 실시예에서 이에 대해 제한하지 않는다.
정류장 내의 참조 대상과 차량의 거리는 제1 거리 센서를 통해 측정될 수 있고, 다양한 비용 예산과 응용 장면에 따라, 레이저 거리 측정기, 온도 보상 기능이 있는 초음파 센서, 상기 두가지 센서의 개량과 같은 다양한 제1 거리 센서를 선택할 수 있으며, 본 출원에서 제한하지 않는다. 온도 보상 기능이 있는 초음파 센서의 측정 범위는 하나의 영역으로서, 참조 대상에 대한 요구를 낮추고 외부 온도에 따라 측정 데이터를 보정할 수 있으며 측정 데이터의 신뢰성을 높일 수 있다.
설명해야 하는 바로는, 당해 제1 거리 센서의 고정 위치는 다양한 차량 및 환경에 따라 조절될 수 있으며, 본 실시예에서 이에 대해 제한하지 않는 바, 예를 들어, 휠 허브, 차량의 차체, 참조 대상 중의 임의의 하나의 위일 수 있다.
이해 가능한 바로는, 본 출원의 일부 실시예에서, 제1 가로 방향 거리를 획득하는 방법은 하기와 같은 여러 가지의 방밥을 포함하지만, 이에 제한되지 않는다.
방법 1: 제1 센서를 통해 획득한 데이터가 바로 제1 가로 방향 거리이다.
방법 2: 제1 거리 센서를 통해 차량과 참조 대상 사이의 거리를 여러 번 샘플링하여 여러개의 샘플링 값을 획득하고; 여러개의 샘플링 값 중의 최대값과 최소값을 필터링하여, 필터링 후의 나머지 샘플링 값에 따라 계산을 수행하고, 획득된 계산 결과를 상기 제1 가로 방향 거리로 한다.
상기 처리 방법은 하드웨어 펄스 간섭으로 인해 발생하는 불합리적인 데이터를 필터링하여 측정 데이터를 보다 정확하고 신뢰성있게 얻들 수 있다. 선택적으로, 제1 거리 센서는 연속적으로 10번 샘플링할 수 있고, 버블 정렬 알고리즘을 통해 10개의 샘플링 결과를 크기 순으로 정렬하여, 최대값과 최소값을 제거하고 나머지 8개의 샘플링 데이터의 산술 평균값을 취하여, 당해 평균값이 바로 이번 측정의 제1 가로 방향 거리이다.
단계 102, 제2 거리 센서를 통해 차량과 참조 대상 사이의 제2 가로 방향 거리를 획득한다.
이해 가능한 바로는, 제1 가로 방향 거리만으로 현재 차량이 가로 방향 거리 측면의 요구를 충족하는지 여부를 판단할 수 없다. 또한, 다른 위치에 있는 차량과 참조 대상 사이의 거리를 획득할 필요가 있고, 당해 거리는 제2 가로 방향 거리라고 할 수 있으며, 제2 거리 센서를 통해 제2 가로 방향 거리를 획득할 수 있다.
본 출원의 일부 실시예에서, 제1 거리 센서와 유사하게, 다양한 응용 장면에 따라, 제2 거리 센서의 유형, 고정 위치 및 참조 대상의 유형은 다양한 선택을 가질 수 있으며, 본 실시예에서 이에 대해 제한하지 않는다. 제1 가로 방향 거리와 유사하게, 제2 가로 방향 거리를 제2 거리 센서를 통해 직접 샘플링하여 획득할 수도 있고; 제2 거리 센서를 통해 여러 번 샘플링하여 여러개의 샘플링 데이터에 대해 데이터 처리를 수행하여 획득할 수도 있다.
단계 103, 제1 카메라에 의해 수집된 제1 장면 이미지를 획득하고, 제1 장면 이미지에 따라 제1 세로 방향 거리를 획득하며, 제1 세로 방향 거리는 차량의 제1 표지선과 정류장의 제1 주차선 사이의 거리를 의미한다.
본 출원의 일부 실시예에서, 차량 및 정류장에서 표지할 수 있다. 차량에서의 표지는 제1 표지선라고 할 수 있고; 정류장에서의 표지는 제1 주차선라고 할 수 있다. 이해 가능한 바로는, 제1 표지선은 차량의 실제 세로 방향 위치를 표지하는데 사용되고; 제1 주차선은 차량의 타겟 세로 방향 위치를 표지하는데 사용된다. 제1 세로 방향 거리는 차량의 실제 세로 방향 위치와 타겟 세로 방향 위치 사이의 거리이며, 즉 제1 표지선과 제1 주차선 사이의 거리이다. 이해 가능한 바로는, 제1 표지선과 제1 주차선의 형식은 같을 수도 있고 다를 수도 있다. 제1 표지선과 제1 주차선의 형식이 다를 때, 구체적인 응용 장면에 따라 다양한 형식을 선택할 수 있으며, 예를 들어 다른 색상과 다른 모양 중의 적어도 하나을 선택할 수 있으며, 본 실시예에서 이에 대해 제한하지 않는다.
제1 표지선과 제1 주차선은 제1 카메라에 의해 이미지 수집을 수행하여 제1 장면 이미지를 획득할 수 있다. 본 실시예에서 상기 제1 카메라의 고정 위치에 대해 제한하지 않으며, 차량, 장소 등 상황에 따라 선택될 수 있는 바, 예를 들어, 차량에 고정되거나, 정류장에 고정될 수 있다.
이미지 처리 기술을 통해, 제1 장면 이미지로부터 제1 표지선과 제1 주차선을 추출할 수 있다. 카메라 거리 측정 기술을 통해, 제1 표지선과 제1 주차선의 세로 방향 거리를 획득할 수 있으며, 당해 거리가 바로 제1 세로 방향 거리이다. 상기 카메라 거리 측정 기술은 다양한 장면에 따라 선택될 수 있으며, 예를 들어, 단안 거리 측정 기술 및 양안 거리 측정 기술 중의 임의의 하나를 선택될 수 있으며, 본 실시예에서 이에 대해 제한하지 않는다.
단계 104, 제1 가로 방향 거리, 제2 가로 방향 거리 및 제1 세로 방향 거리에 따라 차량이 정류장 내의 타겟 위치에 주차되었는지 여부를 결정한다.
이해 가능한 바로는, 상기 단계를 통해 제1 가로 방향 거리, 제2 가로 방향 거리 및 제1 세로 방향 거리를 이미 획득하였고, 상술한 파라미터에 따라 차량의 정류장 내의 참조 대상에 대응된 위치를 결정할 수 있다. 따라서, 차량이 정류장 내의 타겟 위치에 주차되었는지 여부를 결정한다.
본 출원의 일부 실시예에서, 가로 방향 거리 임계값과 세로 방향 거리 임계값인 두가지 임계값을 각각 미리 설정할 수 있다. 당해 두가지 임계값의 크기는 차량의 크기와 주차 정밀도의 다른 요구에 따라 조정될 수 있으며, 제1 가로 방향 거리와 제2 가로 방향 거리는 가로 방향 거리 임계값을 만족하고, 제1 세로 방향 거리는 제1 세로 방향 임계값을 만족하는 경우, 차량이 정류장 내의 타겟 위치에 주차된 것으로 간주할 수 있다. 제1 가로 방향 거리, 제2 가로 방향 거리, 제1 세로 방향 거리 중의 임의의 하나가 대응되는 임계값을 만족하지 못할 경우, 차량이 정류장 내의 타겟 위치에 주차되지 않은 것으로 간주할 수 있다.
이해 가능한 바로는, 본 출원의 실시예에 따른 차량 주차 검출 방법은 다양한 장면에 적용될 수 있으며, 다음 세 가지 장면을 포함하지만 이에 제한되지 않는다.
장면 1, 자율 주행 차량의 주차 성능의 검출.
장면 2, 인공 주차시 차량 주차 결과의 검출.
장면 3, 차량 주차 위치가 장애인 탑승 조건을 만족하는지 여부를 판단.
본 출원의 실시예에 따른 차량 주차 검출 방법은 거리 센서를 통해 제1 가로 방향 거리와 제2 가로 방향 거리를 획득한다. 카메라를 통해 제1 표지선과 제1 주차선에 의해 제1 세로 방향 거리를 획득한다. 제1 가로 방향 거리, 제2 가로 방향 거리 및 제1 세로 방향 거리에 따라 상기 차량이 타겟 위치에 있는지 여부를 결정할 수 있다.
본 방법은 차량이 타겟 위치에 있는지 여부의 문제를 상기 세개의 지표에 대한 판단으로 간소화하고, 제1 세로 방향 거리를 측정하는 문제를 제1 표지선과 주차선 사이의 거리를 측정하는 것으로 간소화한다. 검출 정확성을 향상하는 동시에 측정 데이터의 수량을 간소화하고, 측정 데이터의 난이도를 낮추어 자동 정량 포준화 측정을 구현한다. 동시에, 인공으로 측정할 필요가 없으므로, 인적 자원을 절약하고 차량 주차 검출의 효율을 향상시킨다.
본 출원의 제2 실시예에서, 제1 실시예를 기반하여, 제1 세로 방향 거리를 획득할 때 제1 교정 사각형 차트에 의해 제1 세로 방향 거리를 결정할 수 있다. 도1에 도시된 차량 주차 검출 방법을 기반하여 실시예2를 통해 당해 방법을 구체적으로 설명할 수 있다. 도2를 통해 구체적으로 설명할 수 있는 바, 도2는 본 출원의 제2 실시예에 따른 차량 주차 검출 방법의 흐름도이고, 도2에 도시된 바와 같이, 도1의 단계 103은 단계 201-205일 수 있다.
단계 201, 제1 카메라에 의해 수집된 제1 장면 이미지를 획득하고, 제1 장면 이미지에 대해 특징 추출을 수행하여 제1 장면 이미지의 제1 특징 정보를 획득한다.
본 출원의 일부 실시예에서, 당해 제1 카메라는 단안 카메라일 수 있으며, 당해 카메라가 획득한 이미지가 바로 제1 장면 이미지이다. 이해 가능한 바로는, 다양한 응용 장면에 따라 다양한 딥러닝 모델을 미리 설정할 수 있으며, 당해 딥러닝 모델은 컨볼루션 신경망, 영역 기반 전체 컨볼루션 네트워크 중의 임의의 하나를 포함하지만 이에 제한되지 않는다. 외부 환경의 다름에 따라 제1 카메라에 의해 이미지를 획득하여, 획득한 이미지를 사용하여 당해 미리 설정 모델을 트레이닝한다.
이해 가능한 바로는, 차량 주차가 야외 상황에서 많이 발생하며, 다양한 외부 환경하에서 획득한 이미지를 사용하여 미리 설정 모델을 트레이닝하므로, 당해 모델은 다양한 빛과 날씨 조건하에서 모두 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트를 인식할 수 있다.
트레이닝된 미리 설정 모델을 사용하여 제1 장면 이미지에 대해 특징 추출을 수행하여, 제1 장면 이미지에 대응되는 제1 특징 정보를 획득할 수 있다.
단계 202, 제1 특징 정보에 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트에 각각 대응되는 특징이 포함되어 있는지 여부를 검출한다.
제1 세로 방향 거리는 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트를 기반하여 획득된 것으로, 이해 가능한 바로는, 제1 장면 이미지에 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트를 포함해야 한다. 본 출원의 일부 실시예에서, 제1 특징 정보에 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트에 각각 대응되는 특징을 포함하는지 여부를 검출하여 제1 장면 이미지에 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트가 포함되어 있는지 여부를 결정할 수 있다.
본 출원의 일부 실시예에서, 제1 특징 정보에 제1 표지선의 특징, 제1 주차선의 특징, 제1 교정 사각형 차트의 특징 중의 적어도 임의의 하나가 포함되지 않을 때, 당해 차량이 정류장 내의 타겟 위치에 주차되지 않은 것을 결정할 수 있다. 일부 상황에서, 차량이 타겟 위치에 주차되어도 제1 특징 중의 정보가 여전히 불완전하여, 당해 차량 주차 시스템에 대해 디버깅을 해야만 한다.
단계 203, 제1 특징 정보에 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트에 각각 대응되는 특징이 포함됨에 응답하여, 제1 특징 정보에 따라 제1 교정 사각형 차트의 변길이 픽셀 개수를 획득한다.
본 출원의 일부 실시예에서, 제1 특징 정보에 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트에 각각 대응되는 특징이 포함되는 경우, 제1 특징 정보 중의 제1 교정 사각형 차트에 대응되는 특징에 따라 제1 장면 이미지에 있는 제1 교정 사각형 차트의 위치를 획득하여, 제1 장면 이미지 중의 제1 교정 사각형 차트의 변길이 픽셀 개수를 획득할 수 있다.
단계 204, 제1 특징 정보에 따라 제1 표지선과 제1 주차선 사이의 수직 픽셀 개수를 획득한다.
본 출원의 일부 실시예에서, 제1 특징 정보 중의 제1 표지선과 제1 주차선에 대응되는 특징에 따라 제1 장면 이미지에 있는 제1 표지선과 제1 주차선의 위치를 획득하여, 제1 장면 이미지 중의 제1 표지선과 제1 주차선 사이의 수직 픽셀 개수를 획득할 수 있다.
단계 205, 제1 교정 사각형 차트의 변길이의 미리 설정된 길이, 제1 교정 사각형 차트의 변길이 픽셀 개수 및 수직 픽셀 개수에 따라 제1 세로 방향 거리를 획득하며, 제1 세로 방향 거리는 차량의 제1 표지선과 정류장의 제1 주차선 사이의 거리를 의미한다.
이해 가능한 바로는, 본 출원의 일부 실시예에서, 제1 표지선과 정류장의 제1 주차선 사이의 세로 방향 거리는 제1 세로 방향 거리라고 할 수 있으며, 당해 제1 세로 방향 거리는 D3으로 나타낼 수 있다. 또한, 제1 교정 사각형 차트의 변길이의 미리 설정된 길이는 L로 나타낼 수 있고, 단계 203을 통해 획득한 제1 교정 사각형 차트의 변길이 픽셀 개수는 B로 나타낼 수 있고, 단계 204를 통해 획득한 수직 픽셀 개수는 C로 나타낼 수 있다. 따라서, 제1 세로 방향 거리D3은D3/C=L/B를 만족하여, 당해 공식을 통해 제1 세로 방향 거리D3을 계산해낼 수 있다.
본 출원의 일부 실시예에서, 차량 주차 검출의 과정은 도3에 도시된 바와 같다. 도3은 본 출원의 일부 실시예에 따른 차량 주차 검출 방법의 흐름도이다.
도3에서, 가로 방향 거리 센서는 제1 거리 센서 및 제2 거리 센서를 포함하며; 세로 방향 거리 센서는 제1 카메라를 포함한다. 호스트 컴퓨터가 작동 명령을 송신하여 가로 방향 거리 센서 및 세로 방향 거리 센서를 작동한다.
이해 가능한 바로는, 가로 방향 거리 센서에 대하여, 가로 방향 거리 센서의 작동이 실패될 경우 호스트 컴퓨터는 가로 방향 센서 작동 실패를 프린트하고, 가로 방향 거리 센서의 작동이 성공될 때까지 호스트 컴퓨터는 작동 명령을 다시 송신하며; 가로 방향 거리 센서의 작동이 성공되는 경우, 제1 거리 센서 및 제2 거리 센서는 거리를 측정하고, 마이크로컨트롤러에 의해 데이터 처리를 수행한다. 처리된 데이터는 출력되어, 호스트 컴퓨터가 당해 데이터를 수신한다.
세로 방향 거리 센서에 대하여, 세로 방향 거리 센서의 작동이 실패될 경우 호스트 컴퓨터는 세로 방향 센서 작동 실패를 프린트하고, 세로 방향 거리 센서의 작동이 성공될 때까지 호스트 컴퓨터는 작동 명령을 다시 송신하며; 세로 방향 거리 센서의 작동이 성공되는 경우, 장면 이미지를 획득하고, 이미지를 데이터베이스에 의해 미리 트레이닝된 신경망 모델에 입력하여 세로 방향 데이터를 획득한다. 당해 데이터는 출력되어, 호스트 컴퓨터가 당해 데이터를 수신한다.
호스트 컴퓨터에 대하여, 가로 방향 데이터와 세로 방향 데이터를 수신하여 당해 데이터를 인터페이스에 디스플레이하며, 호스트 컴퓨터는 데이터가 합격되는지 여부를 판단한다. 데이터가 합격할 경우, 호스트 컴퓨터는 당해 데이터 그룹이 테스트를 통과함을 프린트하고; 데이터가 합격하지 못할 경우, 호스트 컴퓨터는 당해 데이터 그룹이 테스트를 통과하지 못함을 프린트한다. 데이터와 해당 결과를 테이블에 저장할 수 있다.
상기 호스트 컴퓨터는 본 출원의 실시예에서 데이터 처리를 수행하는 전자 기기일 수 있다.
본 출원의 실시예에 따른 차량 주차 검출 방법은, 제1 장면 이미지로부터 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트를 추출한다. 제1 교정 사각형 차트를 통해 제1 장면 이미지의 픽셀 개수와 실제 장면의 거리의 관계를 획득한다. 따라서, 제1 장면 이미지 중의 제1 표지선과 제1 주차선의 거리에 따라 제1 세로 방향 거리를 획득한다. 본 방법은 비용이 저렴하고 알려진 데이터와 하나의 카메라에 의해 획득한 데이터를 통해 제1 세로 방향 거리를 획득할 수 있으며 감지 속도가 빠르고 효율이 높다.
본 출원의 제3 실시예에서, 상기 실시예를 기반하여, 차량의 세로 방향 거리를 보다 정확하게 획득하기 위해, 정류장에 제2 교정 사각형 차트를 설치할 수 있으며, 제2 카메라를 사용하여 제2 세로 방향 거리를 획득한다. 단계 401-403을 더 포함할 수 있다.
도4를 통해 구체적으로 설명할 수 있는 바, 도4는 본 출원의 제3 실시예에 따른 차량 주차 검출 방법의 흐름도이고, 하기와 같은 단계를 포함한다.
단계 401, 제2 카메라에 의해 수집된 제2 장면 이미지를 획득한다.
본 출원의 일부 실시예에서, 당해 제2 카메라는 단안 카메라일 수 있으며, 당해 카메라가 획득한 이미지는 바로 제2 장면 이미지이다.
단계 402, 제2 장면 이미지에 따라 제2 세로 방향 거리를 획득하며, 제2 세로 방향 거리는 차량의 제2 표지선과 정류장의 제2 주차선 사이의 거리를 의미한다.
본 출원의 일부 실시예에서, 제1 표지선과 제1 주차선 외에 차량에 제2 표지선을 표지하고 정류장에 제2 주차선을 표지할 수도 있다. 마찬가지로, 제2 표지선은 차량의 실제 세로 방향 위치를 표지하고; 제2 주차선은 차량의 타겟 세로 방향 위치를 표지한다. 이해 가능한 바로는, 제1 표지선과 제1 주차선이 대응되고, 제2 표지선과 제2 주차선이 대응된다.
이미지 처리 기술을 통해, 제2 장면 이미지로부터 제2 표지선과 제2 주차선을 추출할 수 있다. 카메라 거리 측정 기술을 통해, 제2 표지선과 제2 주차선의 세로 방향 거리를 획득할 수 있으며, 당해 거리가 바로 제2 세로 방향 거리이다. 상기 카메라 거리 측정 기술은 다양한 장면에 따라 선택될 수 있으며, 예를 들어, 단안 거리 측정 기술 및 양안 거리 측정 기술 중의 임의의 하나를 선택될 수 있으며, 본 실시예에서 이에 대해 제한하지 않는다.
본 출원의 일부 실시예에서, 제2 장면 이미지에 따라 제2 세로 방향 거리를 획득하는 단계는 하기와 같은 단계를 포함할 수 있다.
단계 1, 제2 장면 이미지에 대해 특징 추출을 수행하여 제2 장면 이미지의 제2 특징 정보를 획득한다.
본 출원의 일부 실시예에서, 다양한 응용 장면에 따라 다양한 딥러닝 모델을 미리 설정할 수 있으며, 당해 딥러닝 모델은 컨볼루션 신경망, 영역 기반 전체 컨볼루션 네트워크 중의 임의의 하나를 포함하지만 이에 제한되지 않는다. 외부 환경의 다름에 따라 제2 카메라에 의해 이미지를 획득하여 획득한 이미지를 사용하여 당해 미리 설정 모델을 트레이닝한다.
이해 가능한 바로는, 제2 표지선과 제1 표지선의 형식이 같고, 제2 주차선과 제2 표지선의 형식이 같을 경우, 당해 제2 특징 정보를 추출하는 모델과 제1 특징 정보를 추출하는 모델은 같은 모델일 수 있다.
트레이닝된 미리 설정 모델을 사용하여 제2 장면 이미지에 대해 특징 추출을 수행하여, 제2 장면 이미지에 대응되는 제2 특징 정보를 획득할 수 있다.
단계 2, 제2 특징 정보에 제2 표지선, 제2 주차선 및 제2 교정 사각형 차트에 각각 대응되는 특징이 포함되어 있는지 여부를 검출한다.
제2 세로 방향 거리는 제2 표지선, 제2 주차선 및 제2 교정 사각형 차트를 기반하여 획득된 것으로, 이해 가능한 바로는, 제2 장면 이미지에 제2 표지선, 제2 주차선 및 제2 교정 사각형 차트를 포함해야 한다. 본 출원의 일부 실시예에서, 제2 특징 정보에 제2 표지선, 제2 주차선 및 제2 교정 사각형 차트에 각각 대응되는 특징을 포함하는지 여부를 검출하여 제2 장면 이미지에 제2 표지선, 제2 주차선 및 제2 교정 사각형 차트가 포함되어 있는지 여부를 결정할 수 있다.
단계 3, 제2 특징 정보에 제2 표지선, 제2 주차선 및 제2 교정 사각형 차트에 각각 대응되는 특징이 포함됨에 응답하여, 제2 특징 정보에 따라 제2 교정 사각형 차트의 변길이 픽셀 개수를 획득한다.
본 출원의 일부 실시예에서, 제2 특징 정보에 제2 표지선, 제2 주차선 및 제2 교정 사각형 차트에 각각 대응되는 특징이 포함되는 경우, 제2 특징 정보 중의 제2 교정 사각형 차트에 대응되는 특징에 따라 제2 장면 이미지에 있는 제2 교정 사각형 차트의 위치를 획득하여, 제1 장면 이미지 중의 제1 교정 사각형 차트의 변길이 픽셀 개수를 획득할 수 있다.
단계 4, 제2 특징 정보에 따라 제2 표지선과 제2 주차선 사이의 수직 픽셀 개수를 획득한다.
본 출원의 일부 실시예에서, 제2 특징 정보 중의 제2 표지선과 제2 주차선에 대응되는 특징에 따라 제2 장면 이미지에 있는 제2 표지선과 제2 주차선의 위치를 획득하여, 제2 장면 이미지 중의 제2 표지선과 제2 주차선 사이의 수직 픽셀 개수를 획득할 수 있다.
단계 5, 제2 교정 사각형 차트의 변길이의 미리 설정된 길이, 제2 교정 사각형 차트의 변길이 픽셀 개수 및 수직 픽셀 개수에 따라 제2 세로 방향 거리를 획득한다.
이해 가능한 바로는, 본 출원의 일부 실시예에서, 제2 표지선과 정류장의 제2 주차선 사이의 세로 방향 거리는 제2 세로 방향 거리라고 할 수 있으며, 당해 제2 세로 방향 거리는 D4로 나타낼 수 있다. 또한, 제2 교정 사각형 차트의 변길이의 미리 설정된 길이는 L'로 나타낼 수 있고, 단계 3을 통해 획득한 제1 교정 사각형 차트의 변길이 픽셀 개수는 B'로 나타낼 수 있고, 단계 4를 통해 획득한 수직 픽셀 개수는 C'로 나타낼 수 있다. 따라서, 제1 세로 방향 거리D4는D4/C'=L'/B'를 만족한다.
단계 403, 제1 가로 방향 거리, 제2 가로 방향 거리, 제1 세로 방향 거리 및 제2 세로 방향 거리에 따라 차량이 정류장 내의 타겟 위치에 주차되었는지 여부를 결정한다.
이해 가능한 바로는, 상기 단계를 통해 제1 가로 방향 거리, 제2 가로 방향 거리, 제1 세로 방향 거리 및 제2 가로 방향 거리를 이미 획득하였고, 상술한 파라미터에 따라 차량의 정류장 내의 참조 대상에 대응된 위치를 결정할 수 있다. 따라서, 차량이 정류장 내의 타겟 위치에 주차되었는지 여부를 결정한다.
본 출원의 일부 실시예에서, 차량 주차 검출 방법의 준비 단계는 도5a에 도시된 바와 같다. 도5a는 본 출원의 일 실시예에 따른 차량 주차 검출 방법의 준비 단계의 개략도이다.
도5a에서, 제1 카메라(미도시) 및 제2 카메라(미도시)는 차량에 고정되고, 차량의 앞문과 차량의 뒷문에 자색 제1 표지선(501) 및 제2 표지선(502)이 각각 붙여져 있고, 정류장 내의 대응되는 위치에 푸른색 제1 주차선(503) 및 제2 주차선(504)이 각각 붙여져 있고, 정류장 내에 또한 오렌지색 제1 교정 사각형 차트(505) 및 제2 교정 사각형 차트(506)가 각각 붙여져 있다. 상기 표지의 위치는 모두 알려져있고, 제1 교정 사각형 차트(505), 제2 교정 사각형 차트(506)는 제1 주차선(503)과 제2 주차선(504) 사이의 위치에 붙여져 있다. 그리고, 제1 표지선(501)과 제1 주차선(503)이 대응되고; 제2 표지선(502)과 제2 주차선(504)이 대응된다. 이해 가능한 바로는, 제1 카메라에 의해 수집된 제1 장면 이미지는 점선 테두리(509)로 도시된 범위를 포함할 수 있고, 도5a에 도시된 바와 같이, 점선 테두리(509)는 제1 표지선(501), 제1 주차선(503) 및 제1 교정 사각형 차트(505)를 포함하고; 제2 카메라에 의해 수집된 제2 장면 이미지는 점선 테두리(510)로 도시된 범위를 포함할 수 있고, 도5a에 도시된 바와 같이, 점선 테두리(510)는 제2 표지선(502), 제2 주차선(504) 및 제2 교정 사각형 차트(506)를 포함한다.
도5a에서, 또한 제1 거리 센서(미도시) 및 제2 거리 센서(미도시)를 포함하며, 당해 센서는 초음파 센서일 수 있고, 차량의 앞바퀴 허브(507) 및 뒷바퀴 허브(508)에 각각 고정될 수 있다.
본 출원의 일부 실시예에서, 차량 주차 검출 방법의 측정 단계는 도5b에 도시된 바와 같다. 도5b는 본 출원의 일 실시예에 따른 차량 주차 검출 방법의 측정 단계의 개략도이다.
도5b에서, 제1 카메라를 사용하여 제1 장면 이미지를 수집하고, 제2 카메라를 사용하여 제2 장면 이미지를 수집할 수 있으며, 제1 장면 이미지와 제2 장면 이미지를 처리하여, 당해 이미지는 처리되어 제1 세로 방향 거리D3 및 제2 세로 방향 거리D4를 획득할 수 있고, 당해 제1 세로 방향 거리와 제2 세로 방향 거리는 호스트 컴퓨터에 전송된다.
도5b에서, 또한 제1 거리 센서를 사용하여 앞바퀴 허브와 참조 대상(511) 사이의 제1 가로 방향 거리 D1를 획득할 수 있고; 제2 거리 센서를 사용하여 뒷바퀴 허브와 참조 대상(511) 사이의 제2 가로 방향 거리 D2를 획득할 수 있다. 당해 데이터는 단일 칩으로 처리되어, 2.4G 무선통신을 통해 전송되고, 호스트 컴퓨터에 송신될 수 있다.
본 출원의 일부 실시예에서, 또한 주차 검출 보고를 생성할 수 있으며, 당해 보고는 단계 1과 단계2를 통해 생성될 수 있다.
단계 1, 차량의 주차 검출 결과를 획득한다.
이해 가능한 바로는, 가로 방향, 세로 방향 거리가 요구를 동시에 만족할 때, 주차 검출 결과는 차량이 타겟 위치에 파킹되어 있는 것이고; 가로 방향 거리 및 세로 방향 거리 중의 적어도 하나가 요구를 만족하지 못할 때, 주차 검출 결과는 차량이 타겟 위치에 파킹되지 않은 것이다. 주차 검출 결과를 획득하는 방법은 여러 가지 있으며, 예를 들어 유선 전송을 통해 획득하거나, 무선 전송을 통해 획득할 수 있으며, 본 실시예에서 이에 대해 제한하지 않는다.
도5b에서, 호스트 컴퓨터를 사용하여 2.4G 무선통신을 통해 전송되어 차량의 주차 검출 결과를 획득할 수 있고, 당해 결과를 디스플레이할 수 있다.
단계 2, 제1 가로 방향 거리, 제2 가로 방향 거리, 제1 세로 방향 거리 및 상기 주차 검출 결과에 따라 주차 검출 보고를 생성한다.
본 출원의 일부 실시예에서, 제1 가로 방향 거리, 제2 가로 방향 거리, 제1 세로 방향 거리 및 대응되는 주차 검출 결과에 따라 주차 검출 보고를 생성할 수 있다.
도5b에서, 데이터 및 대응되는 주차 검출 결과를 지정된 테이블 위치에 저장할 수 있고, 당해 테이블에 따라 주차 검출 보고를 생성한다. 당해 보고를 통해 당해 차량 주차의 종합적인 성과를 직관적이고 정량적으로 분석할 수 있다.
본 출원의 일부 실시예에서, 차량이 자율 주행 시스템을 구비할 경우, 당해 주차 검출 보고에 따라 자율 주행 시스템의 성능을 분석하여 해당 디버깅을 수행하고 해당 반복 테스트를 수행할 수 있다.
본 출원의 실시예에 따른 차량 주차 검출 방법에서 획득한 데이터는 제1 가로 방향 거리, 제2 가로 방향 거리 및 제1 세로 방향 거리 외에 또한 제2 세로 방향 거리가 있으며, 보다 정확한 차량 주차 위치를 검출할 수 있다.
본 출원의 제4 실시예에서, 상기 실시예를 기반하여, 차량 주차 과정의 안전성을 보장하기 위해 또한 제1 거리 센서 및 제2 거리 센서를 사용하여 가로 방향 거리의 변화를 실시간으로 모니터링할 수 있다. 당해 기술 수단을 보다 명확하게 설명하기 위해 상기 각 실시예에 따른 차량 주차 검출 방법을 기반하여 실시예4를 통해 당해 기술 수단을 구체적으로 설명할 수 있다. 본 출원의 일부 실시예에서, 또한 단계 601-603을 포함한다.
도6에 도시된 바와 같이, 도6은 본 출원의 제4 실시예에 따른 차량 주차 검출 방법의 흐름도이고, 구체적으로 하기와 같은 단계를 포함한다.
단계 601, 차량이 정류장에 들어가는 과정에서, 제1 거리 센서 및 제2 거리 센서를 통해 차량과 참조 대상 사이의 가로 방향 거리를 실시간으로 검출한다.
이해 가능한 바로는, 차량은 결국 정류장의 참조 대상 옆에 파킹되며, 자율 주행 시스템이 성공적으로 디버깅되지 않거나 운전자가 실수를 했을 경우, 차량의 가로 방향 거리가 너무 좁아, 차량은 참조 대상과 충돌될 수 있다.
본 출원의 일부 실시예에서, 차량이 정류장에 들어가는 과정에서 제1 거리 센서 및 제2 거리 센서를 사용하여 차량과 참조 대상 사이의 가로 방향 거리를 실시간으로 검출할 수 있다.
단계 602, 차량과 참조 대상 사이의 가로 방향 거리 및 제1 거리 센서와 제2 거리 센서에 의해 검출된 거리의 실시간 변화 상황에 따라 차량의 충돌 여부를 예측한다.
이해 가능한 바로는, 본 출원의 일부 실시예에서 임계값을 미리 설정할 수 있으며, 가로 방향 거리, 제1 거리 센서에 의해 실시간으로 검출된 거리, 제2 거리 센서에 의해 실시간으로 검출된 거리 중의 임의의 하나가 당해 임계값보다 작을 때, 당해 차량이 참조 대상과 충돌될 것으로 예측 가능하다.
단계 603, 차량이 충돌이 발생되는 것에 응답하여 충돌 방지 경고 알림을 수행한다.
본 출원의 일부 실시예에서, 차량이 곧 충돌될 것으로 예측되는 경우, 다양한 응용 장면에서 다양한 충돌 방지 경고 알림 방식이 제공될 수 있으며, 본 실시예에서 이에 대해 제한하지 않는 바, 하기와 같은 두가지 방법을 포함하지만 이에 제한되지 않는다.
방법 1, 삑 소리로 운전자에게 차량을 인수하거나 운전에 주의하도록 알린다.
방법 2, 차량 제동 시스템을 연결하여 차량의 제동을 직접 수행한다.
본 출원의 일부 실시예에서, 제1 거리 센서 및 제2 거리 센서를 사용하여 가로 방향 거리의 변화를 실시간으로 모니터링하는 흐름도는 도7에 도시된 바와 같고, 도7은 본 출원의 일부 실시예에 따른 가로 방향 거리를 실시간으로 모니터링하는 흐름도이다.
도7에서, 가로 방향 거리 센서는 제1 거리 센서와 제2 거리 센서를 포함한다. 이해 가능한 바로는, 호스트 컴퓨터가 충돌 방지 명령을 송신하여 가로 방향 거리 센서를 작동하고, 가로 방향 거리 센서의 작동이 실패될 경우 호스트 컴퓨터는 가로 방향 센서 작동 실패를 프린트하고, 가로 방향 거리 센서의 작동이 성공될 때까지 호스트 컴퓨터는 충돌 방지 명령을 다시 송신하며; 가로 방향 거리 센서의 작동이 성공되는 경우, 제1 거리 센서 및 제2 거리 센서는 거리를 측정하고, 마이크로컨트롤러에 의해 데이터 처리를 수행한다. 처리된 데이터는 출력되고, 호스트 컴퓨터는 계속하여 데이터를 처리하여 가로 방향 거리가 너무 가까운지 여부를 판단한다. 거리가 너무 가까운 경우, 경고 알림을 수행하고; 거리가 너무 가깝지 않을 경우, 호스트 컴퓨터는 실시간 거리를 프린트하며, 또한 호스트 컴퓨터는 충돌 방지 명령을 다시 송신하여 가로 방향 거리를 실시간으로 모니터링한다.
본 출원의 실시예에 따른 차량 주차 검출 방법은 제1 거리 센서 및 제2 거리 센서를 사용하여 차량과 참조 대상 사이의 거리를 모니터링하여 충돌을 피하고, 검출 과정의 안전성을 보장한다.
본 출원의 실시예에 따르면, 본 출원은 또한 차량 주차 검출 시스템을 제공한다.
도8은 본 출원의 일 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이다. 도8에 도시된 바와 같이, 당해 차량 주차 검출 시스템(800)은 가로 방향 거리 측정 모듈(810), 제1 세로 방향 거리 측정 모듈(820), 제어 모듈(830)을 포함할 수 있다.
가로 방향 거리 측정 모듈(810)은 제1 거리 센서를 통해 상기 차량과 정류장 내의 참조 대상 사이의 제1 가로 방향 거리를 획득하고, 제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 제2 가로 방향 거리를 획득하는데 사용된다.
본 출원의 일부 실시예에서, 제1 거리 센서 및/또는 제2 거리 센서의 내부 구성은 초음파 센서 유닛, STM(STMicroelectronics) 32 마이크로제어 유닛, 2.4G(GigaHertz) 무선 전송 유닛, 전기량 표시 유닛, 5V(Volt) 배터리 유닛, 방수 금속 스위치 유닛, 방수 충전 헤드 유닛, 상부 쉘, 하부 쉘을 포함할 수 있다. 상부 쉘에는 2개의 정원공과 홈이 구비되고; 초음파 센서 유닛은 2개의 프로브와 회로 기판을 포함한다. 초음파 센서 유닛은 전체 센서의 앞쪽 끝에 위치되고, 초음파 센서 유닛의 2개의 프로브는 상부 쉘의 2개의 정원공 내에 진입되고, 초음파 센서 유닛의 회로 기판의 일부는 하부 쉘의 홈에 배치되어 나사로 고정된다. 5V 배터리 유닛은 하부 쉘 내에 배치되고, 양면 강력한 접착제로 하부 쉘 표면에 접착되며, STM32 마이크로제어 유닛은 5V 배터리 유닛 위에 배치되고, STM32 마이크로제어 유닛은 데이터 처리와 신호 제어에 사용되며, 열 수축성 접착제로 하부 쉘에 고정된다. 전기량 표시 유닛은 5V 배터리 유닛의 전기량을 표시하는데 사용되며, 하부 쉘의 측벽 홈에 배치되고, 2.4G 무선 전송 유닛은 초음파 센서 유닛의 회로 기판 뒤에 배치되어 호스트 컴퓨터의 신호를 수신하고 초음파 센서 유닛의 데이터를 송시하는데 사용되며, 하부 쉘의 양쪽 뒤에 방수 캡이 달린 방수 충전 헤드 유닛 및 방수 금속 스위치 유닛이 각각 배치된다.
제1 세로 방향 거리 측정 모듈(820)은 제1 카메라에 의해 수집된 제1 장면 이미지를 획득하고, 상기 제1 장면 이미지에 따라 제1 세로 방향 거리를 획득하는데 사용되며, 상기 제1 세로 방향 거리는 상기 차량의 제1 표지선과 상기 정류장의 제1 주차선 사이의 거리를 의미한다.
제어 모듈(830)은 상기 가로 방향 거리 측정 모듈에서 송신한 제1 가로 방향 거리 및 제2 가로 방향 거리를 수신하고, 상기 세로 방향 거리 측정 모듈에서 송신한 제1 세로 방향 거리를 수신하며, 상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리 및 상기 제1 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는데 사용된다.
본 출원의 일부 실시예에서, 도9에 도시된 바와 같이, 도9는 본 출원의 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고, 당해 차량 주차 검출 시스템(900)에서, 제1 세로 방향 거리 측정 모듈(920)은 제1 추출 유닛(921), 제1 검출 유닛(922), 제1 픽셀 획득 유닛(923), 제1 거리 획득 유닛(924)을 포함한다.
제1 추출 유닛(921)은 상기 제1 장면 이미지에 대해 특징 추출을 수행하여 상기 제1 장면 이미지의 제1 특징 정보를 획득하는데 사용된다.
제1 검출 유닛(922)은 상기 제1 특징 정보에 상기 제1 표지선, 상기 제1 주차선 및 상기 제1 교정 사각형 차트에 각각 대응되는 특징이 포함되어 있는지 여부를 검출하는데 사용된다.
제1 픽셀 획득 유닛(923)은 상기 제1 특징 정보에 상기 제1 표지선, 상기 제1 주차선 및 상기 제1 교정 사각형 차트에 각각 대응되는 특징이 포함됨에 응답하여, 상기 제1 특징 정보에 따라 상기 제1 교정 사각형 차트의 변길이 픽셀 개수를 획득하고, 상기 제1 특징 정보에 따라 상기 제1 표지선과 상기 제1 주차선 사이의 수직 픽셀 개수를 획득하는데 사용된다.
제1 거리 획득 유닛(924)은 상기 제1 교정 사각형 차트의 변길이의 미리 설정된 길이, 상기 제1 교정 사각형 차트의 변길이 픽셀 개수 및 상기 수직 픽셀 개수에 따라 상기 제1 세로 방향 거리를 획득하는데 사용된다.
도9에 도시된 910, 930은 도8에 도시된 810, 830과 같은 기능과 구조를 구비한다.
본 출원의 일부 실시예에서, 도10에 도시된 바와 같이, 도10은 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고, 당해 차량 주차 검출 시스템(1000)에서, 제1 세로 방향 거리 측정 모듈(1020)은 판단 유닛(1025)을 더 포함한다.
판단 유닛(1025)은 상기 제1 특징 정보에 상기 제1 표지선의 특징이 포함되지 않을 때, 및/또는, 상기 제1 특징 정보에 상기 제1 주차선의 특징이 포함되지 않을 때, 및/또는, 상기 제1 특징 정보에 상기 제1 교정 사각형 차트의 특징이 포함되지 않을 때, 상기 차량이 상기 정류장 내의 타겟 위치에 주차되지 않은 것을 결정하는데 사용된다.
도10에 도시된 1010, 1030은 도9에 도시된 910, 930과 같은 기능과 구조를 구비하고, 도10에 도시된 1021-1024는 도9에 도시된 921-924와 같은 기능과 구조를 구비한다.
본 출원의 일부 실시예에서, 도11에 도시된 바와 같이, 도11은 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고, 당해 차량 주차 검출 시스템(1100)에서, 제2 세로 방향 거리 측정 모듈(1140)을 더 포함한다.
제2 세로 방향 거리 측정 모듈(1140)은 제2 카메라에 의해 수집된 제2 장면 이미지를 획득하고, 상기 제2 장면 이미지에 따라 제2 세로 방향 거리를 획득하는데 사용되며, 상기 제2 세로 방향 거리는 상기 차량의 제2 표지선과 상기 정류장의 제2 주차선 사이의 거리를 의미한다.
도11에 도시된 1110-1030은 도10에 도시된 1010-1030과 같은 기능과 구조를 구비한다.
본 출원의 일부 실시예에서, 도12에 도시된 바와 같이, 도12는 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고, 당해 차량 주차 검출 시스템(1200)에서, 제2 세로 방향 거리 측정 모듈(1240)은 제2 추출 유닛(1241), 제2 검출 유닛(1242), 제2 픽셀 획득 유닛(1243), 제2 거리 획득 유닛(1244)을 더 포함한다.
제2 추출 유닛(1241)은 상기 제2 장면 이미지에 대해 특징 추출을 수행하여 상기 제2 장면 이미지의 제2 특징 정보를 획득하는데 사용된다.
제2 검출 유닛(1242)은 상기 제2 특징 정보에 상기 제2 표지선, 상기 제2 주차선 및 상기 제2 교정 사각형 차트에 각각 대응되는 특징이 포함되어 있는지 여부를 검출하는데 사용된다.
제2 픽셀 획득 유닛(1243)은 상기 제2 특징 정보에 상기 제2 표지선, 상기 제2 주차선 및 상기 제2 교정 사각형 차트에 각각 대응되는 특징이 포함됨에 응답하여, 상기 제2 특징 정보에 따라 상기 제2 교정 사각형 차트의 변길이 픽셀 개수를 획득하고, 상기 제2 특징 정보에 따라 상기 제2 표지선과 상기 제2 주차선 사이의 수직 픽셀 개수를 획득하는데 사용된다.
제2 거리 획득 유닛(1244)은 상기 제2 교정 사각형 차트의 변길이의 미리 설정된 길이, 상기 제2 교정 사각형 차트의 변길이 픽셀 개수 및 상기 수직 픽셀 개수에 따라 상기 제2 세로 방향 거리를 획득하는데 사용된다.
도12에 도시된 1210-1230은 도11에 도시된 1110-1130과 같은 기능과 구조를 구비한다.
본 출원의 일부 실시예에서, 도13에 도시된 바와 같이, 도13은 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고, 당해 차량 주차 검출 시스템(1300)에서, 검출 모듈(1350), 예측 모듈(1360), 경고 모듈(1370)을 더 포함하며,
검출 모듈(1350)은 상기 차량이 상기 정류장에 들어가는 과정에서, 상기 제1 거리 센서 및 상기 제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 가로 방향 거리를 실시간으로 검출하는데 사용되고;
예측 모듈(1360)은 상기 차량과 상기 참조 대상 사이의 가로 방향 거리 및 상기 제1 거리 센서와 상기 제2 거리 센서에 의해 검출된 거리의 실시간 변화 상황에 따라 상기 차량의 충돌 여부를 예측하는데 사용되고;
경고 모듈(1370)은 상기 차량이 충돌이 발생되는 것에 응답하여 충돌 방지 경고 알림을 수행하는데 사용된다.
도13에 도시된 1310-1340은 도12에 도시된 1210-1240과 같은 기능과 구조를 구비한다.
본 출원의 일부 실시예에서, 도14에 도시된 바와 같이, 도14는 본 출원의 또 다른 실시예에 따른 차량 주차 검출 시스템의 구조 블록도이고, 당해 차량 주차 검출 시스템(1400)에서, 획득 모듈(1480), 보고 모듈(1490)을 더 포함하며,
획득 모듈(1480)은 상기 차량의 주차 검출 결과를 획득하는데 사용되고;
보고 모듈(1490)은 상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리, 상기 제1 세로 방향 거리 및 상기 주차 검출 결과에 따라 주차 검출 보고를 생성하는데 사용된다.
도14에 도시된 1410-1470은 도13에 도시된 1310-1370과 같은 기능과 구조를 구비한다.
상기 실시예에 따른 시스템에 관하여, 각 모듈이 작업을 수행하는 구체적인 방법은 이미 당해 방법에 관한 실시예에서 상세히 설명되었으나, 여기서 더 이상 설명하지 않는다.
본 출원의 실시예에 따라 본 출원은 또한 전자 기기, 판독 가능 저장 매체 및 컴퓨터 프로그램 제품을 제공한다. 본 출원의 실시예에 따르면, 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램을 더 제공한다. 당해 컴퓨터 프로그램중의 명령이 실행될 경우, 상기 차량 주차 검출 방법이 실행된다.
도15는 본 출원의 실시예를 실시하기 위한 예시적인 전자 기기(1500)의 개략적 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인용 디지털 비서, 서버, 블레이드 서버, 메인 프레임 컴퓨터 및 기타 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 나타내기 위한 것이다. 전자 기기는 또한 개인용 디지털 처리, 셀룰러 폰, 스마트 폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수도 있다. 본 명세서에서 제시된 구성 요소, 이들의 연결 및 관계, 또한 이들의 기능은 단지 예일 뿐이며 본문에서 설명되거나 및/또는 요구되는 본 출원의 구현을 제한하려는 의도가 아니다.
도15에 도시된 바와 같이, 기기(1500)는 컴퓨팅 유닛(1501)을 포함하며, 읽기 전용 메모리(ROM)(1502)에 저장된 컴퓨터 프로그램에 의해 또는 저장 유닛(1508)로부터 랜덤 액세스 메모리(RAM)(1503)에 로딩된 컴퓨터 프로그램에 의해 수행되어 각종 적절한 동작 및 처리를 수행할 수 있다. RAM(1503)에, 또한 기기(1500)가 작업을 수행하기 위해 필요한 각종 프로그램 및 데이터가 저장되어 있다. 컴퓨팅 유닛(1501), ROM(1502) 및 RAM(1503)는 버스(1504)를 통해 서로 연결되어 있다. 입력/출력(I/O) 인터페이스(1505)도 버스(1504)에 연결되어 있다.
키보드, 마우스 등과 같은 입력 유닛(1506); 각종 유형의 모니터, 스피커 등과 같은 출력 유닛(1507); 자기 디스크, 광 디스크 등과 같은 저장 유닛(1508); 및 네트워크 카드, 모뎀, 무선 통신 트랜시버 등과 같은 통신 유닛(1509)을 포함하는 기기(1500)에서의 복수의 부품은 I/O 인터페이스(1505)에 연결된다. 통신 유닛(1509)은 기기(1500)가 인터넷과 같은 컴퓨터 네트워크 및/또는 다양한 통신 네트워크를 통해 다른 기기와 정보/데이터를 교환하도록 허락한다.
컴퓨팅 유닛(1501)은 프로세싱 및 컴퓨팅 능력을 구비한 다양한 범용 및/또는 전용 프로세싱 컴포넌트일 수 있다. 컴퓨팅 유닛(1501)의 일부 예시는 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU), 다양한 전용 인공 지능(AI) 컴퓨팅 칩, 기계 러닝 모델 알고리즘을 수행하는 다양한 컴퓨팅 유닛, 디지털 신호 처리기(DSP), 및 임의의 적절한 프로세서, 컨트롤러, 마이크로 컨트롤러 등을 포함하지만, 이에 제한되지 않는다. 컴퓨팅 유닛(1501)은 예컨대 차량 주차 검출 방법과 같은 윗글에서 설명된 각각의 방법 및 처리를 수행한다. 예를 들면, 일부 실시예에서, 차량 주차 검출 방법은 저장 유닛(1508)과 같은 기계 판독 가능 매체에 유형적으로 포함되어 있는 컴퓨터 소프트웨어 프로그램으로 구현될 수 있다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부는 ROM(1502) 및/또는 통신 유닛(1509)을 통해 기기(1500)에 로드 및/또는 설치될 수 있다. 컴퓨터 프로그램이 RAM(1503)에 로딩되어 컴퓨팅 유닛(1501)에 의해 수행되는 경우, 전술한 차량 주차 검출 방법의 하나 또는 하나 이상의 단계를 수행할 수 있다. 대안적으로, 다른 실시예에서, 컴퓨팅 유닛(1501)은 임의의 다른 적절한 방식(예를 들어, 펌웨어에 의해)을 통해 구성되어 차량 주차 검출 방법을 수행하도록 한다.
여기서 설명되는 시스템 및 기술의 다양한 실시 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그래머블 게이트 어레이(FPGA), 주문형 집적 회로(ASIC), 특정 용도 표준 제품(ASSP), 시스템온칩(SOC), 복합 프로그래머블 논리 소자(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및 이들의 조합에서 적어도 하나로 구현될 수 있다. 이러한 다양한 실시 방식은 하나 또는 하나 이상의 컴퓨터 프로그램에서의 구현을 포함할 수 있으며, 당해 하나 또는 하나 이상의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 수행 및/또는 해석될 수있고, 당해 프로그램 가능 프로세서는 전용 또는 일반용일 수 있고, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신하고 또한 데이터 및 명령을 당해 저장 시스템, 당해 적어도 하나의 입력 장치 및 당해 적어도 하나의 출력 장치에 전송할 수 있다.
본 출원의 방법을 구현하기 위해 사용되는 프로그램 코드는 하나 또는 하나 이상의 프로그래밍 언어의 임의의 조합으로 작성될 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그래머블 데이터 처리 장치의 프로세서 또는 컨트롤러에 제공될 수 있으므로, 프로그램 코드가 프로세서 또는 컨트롤러에 의해 수행되는 경우, 흐름도 및/또는 블록도에서 규정된 기능/조작을 구현하도록 한다. 프로그램 코드는 전체적으로 기계에서 수행되거나, 부분적으로 기계에서 수행되거나, 독립 소프트웨어 패키지로서 부분적으로 기계에서 수행되고 부분적으로 원격 기계에서 수행되거나 또는 전체적으로 원격 기계 또는 서버에서 수행될 수 있다.
본 출원의 문맥에서, 기계 판독 가능 매체는 명령 수행 시스템, 장치 또는 기기에 의해 사용되거나 명령 수행 시스템, 장치 또는 기기와 결합하여 사용되는 프로그램을 포함하거나 저장할 수 있는 유형의 매체일 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 상기 내용의 임의의 적절한 조합을 포함할 수 있지만 이에 제한되지 않는다. 기계 판독 가능 저장 매체의 더욱 구체적인 예시는 하나 또는 하나 이상의 전선을 기반한 전기 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 지울 수 있는 프로그래머블 읽기 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대용 컴팩트 디스크 읽기 전용 메모리(CD-ROM), 광학 저장 기기, 자기 저장 기기 또는 상기 내용의 임의의 적절한 조합을 포함할 수 있지만 이에 제한되지 않는다.
사용자와의 인터랙션을 제공하기 위해 여기에 설명된 시스템 및 기술은 컴퓨터에서 실시될 수 있다. 당해 컴퓨터는 사용자에게 정보를 디스플레이하기 위한 디스플레이 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 디스플레이) 모니터); 및 키보드 및 포인팅 장치(예를 들어, 마우스 또는 트랙볼)를 구비하며, 사용자는 당해 키보드 및 당해 포인팅 장치를 통해 컴퓨터에 입력을 제공할 수 있다. 다른 유형의 장치를 사용하여 사용자와의 인터랙션을 제공할 수도 있으며, 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각적 피드백, 청각적 피드백 또는 촉각적 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력 또는 촉각 입력을 포함)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술은 백엔드 부품을 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버로서), 또는 미들웨어 부품을 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프런트 엔드 부품을 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비하는 사용자 컴퓨터인 바, 사용자는 당해 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시 방식과 인터랙션할 수 있음), 또는 이러한 백엔드 부품, 미들웨어 부품 또는 프런트 엔드 부품의 임의의 조합을 포한하는 컴퓨팅 시스템에서 실시될 수 있다. 시스템의 부품은 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 서로 연결될 수 있다. 통신 네트워크의 예시는 근거리 통신망(LAN), 광역 통신망(WAN), 인터넷 및 블록체인 네트워크를 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고, 통신 네트워크를 통해 인터랙션한다. 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 대응되는 컴퓨터에서 수행하여 클라이언트와 서버 간의 관계를 생성한다. 서버는 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 하는 클라우드 서버일 수 있고, 클라우드 컴퓨팅 서비스 시스템에서 일종의 호스트 제품이고, 기존의 물리적 호스트 및 VPS(Virtual Private Server, 가상 사설 서버) 서비스에 존재하고 있는 관리가 어렵고 비즈니스 확장이 약한 결점을 해결하기 위한 것이다. 서버는 또한 분산 시스템의 서버, 또는 블록체인을 결합한 서버일 수 있다.
본 출원의 실시예에 따른 차량 주차 검출 방법은 거리 센서를 통해 제1 가로 방향 거리와 제2 가로 방향 거리를 획득한다. 카메라를 통해 제1 표지선과 제1 주차선에 의해 제1 세로 방향 거리를 획득한다. 제1 가로 방향 거리, 제2 가로 방향 거리 및 제1 세로 방향 거리에 따라 상기 차량이 타겟 위치에 있는지 여부를 결정할 수 있다.
본 방법은 차량이 타겟 위치에 있는지 여부의 문제를 상기 세개의 지표에 대한 판단으로 간소화하고, 제1 세로 방향 거리를 측정하는 문제를 제1 표지선과 주차선 사이의 거리를 측정하는 것으로 간소화한다. 검출 정확성을 향상하는 동시에 측정 데이터의 수량을 간소화하고, 측정 데이터의 난이도를 낮추어 자동 정량 포준화 측정을 구현한다. 동시에, 인공으로 측정할 필요가 없으므로, 인적 자원을 절약하고 차량 주차 검출의 효율을 향상시킨다.
제1 장면 이미지로부터 제1 표지선, 제1 주차선 및 제1 교정 사각형 차트를 추출한다. 제1 교정 사각형 차트를 통해 제1 장면 이미지의 픽셀 개수와 실제 장면의 거리의 관계를 획득한다. 따라서, 제1 장면 이미지 중의 제1 표지선과 제1 주차선의 거리에 따라 제1 세로 방향 거리를 획득한다. 본 방법은 비용이 저렴하고 알려진 데이터와 하나의 카메라에 의해 획득한 데이터를 통해 제1 세로 방향 거리를 획득할 수 있으며 감지 속도가 빠르고 효율이 높다.
획득한 데이터는 제1 가로 방향 거리, 제2 가로 방향 거리 및 제1 세로 방향 거리 외에 또한 제2 세로 방향 거리가 있으며, 보다 정확한 차량 주차 위치를 검출할 수 있다.
본 출원의 실시예에 따른 차량 주차 검출 방법은 제1 거리 센서 및 제2 거리 센서를 사용하여 차량과 참조 대상 사이의 거리를 모니터링하여 충돌을 피하고, 검출 과정의 안전성을 보장한다.
이해 가능한 바로는, 전술한 다양한 형식의 프로세스에 있어서 단계 재정렬, 추가 또는 삭제를 할 수 있다. 예를 들어, 본 출원에 개시된 기술 솔루션이 이루고자 하는 결과를 구현할 수 있는 한, 본 출원에 기재된 각 단계들은 병렬로, 순차적으로 또는 다른 순서로 수행될 수 있으나, 본 명세서에서 이에 대해 한정하지 않는다.
전술한 구체적인 실시 방식들은 본 출원의 보호 범위에 대한 한정을 구성하지 않는다. 당업자라면 본 출원의 설계 요건 및 기타 요인에 따라 다양한 수정, 조합, 서브 조합 및 대체가 이루어질 수 있음을 이해해야 한다. 본 출원의 정신과 원칙 내에서 이루어진 모든 수정, 동등한 대체 및 개선은 본 출원의 보호 범위에 포함된다.

Claims (19)

  1. 차량 주차 검출 방법에 있어서,
    제1 거리 센서를 통해 상기 차량과 정류장 내의 참조 대상 사이의 제1 가로 방향 거리를 획득하는 단계;
    제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 제2 가로 방향 거리를 획득하는 단계;
    제1 카메라에 의해 수집된 제1 장면 이미지를 획득하고, 상기 제1 장면 이미지에 따라 제1 세로 방향 거리를 획득하는 단계 - 상기 제1 세로 방향 거리는 상기 차량의 제1 표지선과 상기 정류장의 제1 주차선 사이의 거리를 의미함 -; 및
    상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리 및 상기 제1 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는 단계를 포함하는,
    것을 특징으로 하는 차량 주차 검출 방법.
  2. 제1항에 있어서,
    상기 정류장 내에 제1 교정 사각형 차트가 더 배치되고; 상기 제1 장면 이미지에 따라 제1 세로 방향 거리를 획득하는 단계는,
    상기 제1 장면 이미지에 대해 특징 추출을 수행하여 상기 제1 장면 이미지의 제1 특징 정보를 획득하는 단계;
    상기 제1 특징 정보에 상기 제1 표지선, 상기 제1 주차선 및 상기 제1 교정 사각형 차트에 각각 대응되는 특징이 포함되어 있는지 여부를 검출하는 단계;
    상기 제1 특징 정보에 상기 제1 표지선, 상기 제1 주차선 및 상기 제1 교정 사각형 차트에 각각 대응되는 특징이 포함됨에 응답하여, 상기 제1 특징 정보에 따라 상기 제1 교정 사각형 차트의 변길이 픽셀 개수를 획득하는 단계;
    상기 제1 특징 정보에 따라 상기 제1 표지선과 상기 제1 주차선 사이의 수직 픽셀 개수를 획득하는 단계; 및
    상기 제1 교정 사각형 차트의 변길이의 미리 설정된 길이, 상기 제1 교정 사각형 차트의 변길이 픽셀 개수 및 상기 수직 픽셀 개수에 따라 상기 제1 세로 방향 거리를 획득하는 단계를 포함하는,
    것을 특징으로 하는 차량 주차 검출 방법.
  3. 제2항에 있어서,
    상기 제1 특징 정보에 상기 제1 표지선의 특징이 포함되지 않을 때, 상기 제1 특징 정보에 상기 제1 주차선의 특징이 포함되지 않을 때 및 상기 제1 특징 정보에 상기 제1 교정 사각형 차트의 특징이 포함되지 않을 때 중의 적어도 하나일 경우, 상기 차량이 상기 정류장 내의 타겟 위치에 주차되지 않은 것을 결정하는 단계를 더 포함하는,
    것을 특징으로 하는 차량 주차 검출 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    제2 카메라에 의해 수집된 제2 장면 이미지를 획득하고, 상기 제2 장면 이미지에 따라 제2 세로 방향 거리를 획득하는 단계를 더 포함하고, 상기 제2 세로 방향 거리는 상기 차량의 제2 표지선과 상기 정류장의 제2 주차선 사이의 거리를 의미하며;
    상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리 및 상기 제1 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는 단계는,
    상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리, 상기 제1 세로 방향 거리 및 상기 제2 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는 단계를 포함하는,
    것을 특징으로 하는 차량 주차 검출 방법.
  5. 제4항에 있어서,
    상기 정류장 내에 제2 교정 사각형 차트가 더 배치되고; 상기 제2 장면 이미지에 따라 제2 세로 방향 거리를 획득하는 단계는,
    상기 제2 장면 이미지에 대해 특징 추출을 수행하여 상기 제2 장면 이미지의 제2 특징 정보를 획득하는 단계;
    상기 제2 특징 정보에 상기 제2 표지선, 상기 제2 주차선 및 상기 제2 교정 사각형 차트에 각각 대응되는 특징이 포함되어 있는지 여부를 검출하는 단계;
    상기 제2 특징 정보에 상기 제2 표지선, 상기 제2 주차선 및 상기 제2 교정 사각형 차트에 각각 대응되는 특징이 포함됨에 응답하여, 상기 제2 특징 정보에 따라 상기 제2 교정 사각형 차트의 변길이 픽셀 개수를 획득하는 단계;
    상기 제2 특징 정보에 따라 상기 제2 표지선과 상기 제2 주차선 사이의 수직 픽셀 개수를 획득하는 단계;
    상기 제2 교정 사각형 차트의 변길이의 미리 설정된 길이, 상기 제2 교정 사각형 차트의 변길이 픽셀 개수 및 상기 수직 픽셀 개수에 따라 상기 제2 세로 방향 거리를 획득하는 단계를 포함하는,
    것을 특징으로 하는 차량 주차 검출 방법.
  6. 제1항에 있어서,
    상기 방법은,
    상기 차량이 상기 정류장에 들어가는 과정에서, 상기 제1 거리 센서 및 상기 제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 가로 방향 거리를 실시간으로 검출하는 단계;
    상기 차량과 상기 참조 대상 사이의 가로 방향 거리 및 상기 제1 거리 센서와 상기 제2 거리 센서에 의해 검출된 거리의 실시간 변화 상황에 따라 상기 차량의 충돌 여부를 예측하는 단계; 및
    상기 차량이 충돌이 발생되는 것에 응답하여 충돌 방지 경고 알림을 수행하는 단계를 더 포함하는,
    것을 특징으로 하는 차량 주차 검출 방법.
  7. 제1항에 있어서,
    상기 제1 거리 센서를 통해 상기 차량과 정류장 내의 참조 대상 사이의 제1 가로 방향 거리를 획득하는 단계는,
    상기 제1 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 거리를 여러 번 샘플링하여 여러개의 샘플링 값을 획득하는 단계; 및
    상기 여러개의 샘플링 값 중의 최대값과 최소값을 필터링하여, 필터링 후의 나머지 샘플링 값에 따라 계산을 수행하고, 획득된 계산 결과를 상기 제1 가로 방향 거리로 하는 단계를 포함하는,
    것을 특징으로 하는 차량 주차 검출 방법.
  8. 제1항에 있어서,
    상기 방법은,
    상기 차량의 주차 검출 결과를 획득하는 단계; 및
    상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리, 상기 제1 세로 방향 거리 및 상기 주차 검출 결과에 따라 주차 검출 보고를 생성하는 단계를 더 포함하는,
    것을 특징으로 하는 차량 주차 검출 방법.
  9. 차량 주차 검출 시스템에 있어서,
    제1 거리 센서를 통해 상기 차량과 정류장 내의 참조 대상 사이의 제1 가로 방향 거리를 획득하고, 제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 제2 가로 방향 거리를 획득하는 가로 방향 거리 측정 모듈;
    제1 카메라에 의해 수집된 제1 장면 이미지를 획득하고, 상기 제1 장면 이미지에 따라 제1 세로 방향 거리를 획득하는 제1 세로 방향 거리 측정 모듈 - 상기 제1 세로 방향 거리는 상기 차량의 제1 표지선과 상기 정류장의 제1 주차선 사이의 거리를 의미함 -; 및
    상기 가로 방향 거리 측정 모듈에서 송신한 제1 가로 방향 거리 및 제2 가로 방향 거리를 수신하고, 상기 세로 방향 거리 측정 모듈에서 송신한 제1 세로 방향 거리를 수신하며, 상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리 및 상기 제1 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는 제어 모듈을 포함하는,
    것을 특징으로 하는 차량 주차 검출 시스템.
  10. 제9항에 있어서,
    상기 제1 세로 방향 거리 측정 모듈은,
    상기 제1 장면 이미지에 대해 특징 추출을 수행하여 상기 제1 장면 이미지의 제1 특징 정보를 획득하는 제1 추출 유닛;
    상기 제1 특징 정보에 상기 제1 표지선, 상기 제1 주차선 및 상기 제1 교정 사각형 차트에 각각 대응되는 특징이 포함되어 있는지 여부를 검출하는 제1 검출 유닛;
    상기 제1 특징 정보에 상기 제1 표지선, 상기 제1 주차선 및 상기 제1 교정 사각형 차트에 각각 대응되는 특징이 포함됨에 응답하여, 상기 제1 특징 정보에 따라 상기 제1 교정 사각형 차트의 변길이 픽셀 개수를 획득하고, 상기 제1 특징 정보에 따라 상기 제1 표지선과 상기 제1 주차선 사이의 수직 픽셀 개수를 획득하는 제1 픽셀 획득 유닛; 및
    상기 제1 교정 사각형 차트의 변길이의 미리 설정된 길이, 상기 제1 교정 사각형 차트의 변길이 픽셀 개수 및 상기 수직 픽셀 개수에 따라 상기 제1 세로 방향 거리를 획득하는 제1 거리 획득 유닛을 포함하는,
    것을 특징으로 하는 차량 주차 검출 시스템.
  11. 제10항에 있어서,
    상기 시스템은,
    상기 제1 특징 정보에 상기 제1 표지선의 특징이 포함되지 않을 때, 상기 제1 특징 정보에 상기 제1 주차선의 특징이 포함되지 않을 때 및 상기 제1 특징 정보에 상기 제1 교정 사각형 차트의 특징이 포함되지 않을 때 중의 적어도 하나일 경우, 상기 차량이 상기 정류장 내의 타겟 위치에 주차되지 않은 것을 결정하는 판단 유닛을 더 포함하는,
    것을 특징으로 하는 차량 주차 검출 시스템.
  12. 제9항 내지 제11항 중 어느 한 항에 있어서,
    상기 시스템은,
    제2 카메라에 의해 수집된 제2 장면 이미지를 획득하고, 상기 제2 장면 이미지에 따라 제2 세로 방향 거리를 획득하는 제2 세로 방향 거리 측정 모듈을 더 포함하고, 상기 제2 세로 방향 거리는 상기 차량의 제2 표지선과 상기 정류장의 제2 주차선 사이의 거리를 의미하며;
    상기 제어 모듈은,
    상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리, 상기 제1 세로 방향 거리 및 상기 제2 세로 방향 거리에 따라 상기 차량이 상기 정류장 내의 타겟 위치에 주차되었는지 여부를 결정하는데 사용되는,
    것을 특징으로 하는 차량 주차 검출 시스템.
  13. 제12항에 있어서,
    상기 제2 거리 측정 모듈은,
    상기 제2 장면 이미지에 대해 특징 추출을 수행하여 상기 제2 장면 이미지의 제2 특징 정보를 획득하는 제2 추출 유닛;
    상기 제2 특징 정보에 상기 제2 표지선, 상기 제2 주차선 및 상기 제2 교정 사각형 차트에 각각 대응되는 특징이 포함되어 있는지 여부를 검출하는 제2 검출 유닛;
    상기 제2 특징 정보에 상기 제2 표지선, 상기 제2 주차선 및 상기 제2 교정 사각형 차트에 각각 대응되는 특징이 포함됨에 응답하여, 상기 제2 특징 정보에 따라 상기 제2 교정 사각형 차트의 변길이 픽셀 개수를 획득하고, 상기 제2 특징 정보에 따라 상기 제2 표지선과 상기 제2 주차선 사이의 수직 픽셀 개수를 획득하는 제2 픽셀 획득 유닛; 및
    상기 제2 교정 사각형 차트의 변길이의 미리 설정된 길이, 상기 제2 교정 사각형 차트의 변길이 픽셀 개수 및 상기 수직 픽셀 개수에 따라 상기 제2 세로 방향 거리를 획득하는 제2 거리 획득 유닛을 포함하는,
    것을 특징으로 하는 차량 주차 검출 시스템.
  14. 제9항에 있어서,
    상기 시스템은,
    상기 차량이 상기 정류장에 들어가는 과정에서, 상기 제1 거리 센서 및 상기 제2 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 가로 방향 거리를 실시간으로 검출하는 검출 모듈;
    상기 차량과 상기 참조 대상 사이의 가로 방향 거리 및 상기 제1 거리 센서와 상기 제2 거리 센서에 의해 검출된 거리의 실시간 변화 상황에 따라 상기 차량의 충돌 여부를 예측하는 예측 모듈; 및
    상기 차량이 충돌이 발생되는 것에 응답하여 충돌 방지 경고 알림을 수행하는 경고 모듈을 더 포함하는,
    것을 특징으로 하는 차량 주차 검출 시스템.
  15. 제9항에 있어서,
    상기 가로 방향 거리 측정 모듈은,
    상기 제1 거리 센서를 통해 상기 차량과 상기 참조 대상 사이의 거리를 여러 번 샘플링하여 여러개의 샘플링 값을 획득하고;
    상기 여러개의 샘플링 값 중의 최대값과 최소값을 필터링하여, 필터링 후의 나머지 샘플링 값에 따라 계산을 수행하고, 획득된 계산 결과를 상기 제1 가로 방향 거리로 하는데 사용되는,
    것을 특징으로 하는 차량 주차 검출 시스템.
  16. 제9항에 있어서,
    상기 시스템은,
    상기 차량의 주차 검출 결과를 획득하는 획득 모듈; 및
    상기 제1 가로 방향 거리, 상기 제2 가로 방향 거리, 상기 제1 세로 방향 거리 및 상기 주차 검출 결과에 따라 주차 검출 보고를 생성하는 보고 모듈을 더 포함하는 것,
    을 특징으로 하는 차량 주차 검출 시스템.
  17. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 가능하게 연결되는 메모리를 포함하고;
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 수행되므로, 상기 적어도 하나의 프로세서에 의해 제1항 내지 제8항 중 어느 한 항에 따른 상기 방법을 수행하도록 하는,
    것을 특징으로 하는 전자 기기.
  18. 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제8항 중 어느 한 항에 따른 상기 방법을 수행하도록 하는,
    것을 특징으로 하는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체.
  19. 컴퓨터 판독 가능 저장 매체에 저장되어 있는 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램중의 명령이 실행될 경우, 제1항 내지 제8항 중 어느 한 항에 따른 상기 방법이 실행되는,
    것을 특징으로 하는 컴퓨터 판독 가능 저장 매체에 저장되어 있는 컴퓨터 프로그램.
KR1020210137473A 2021-03-25 2021-10-15 차량 주차 검출 방법, 시스템, 전자 기기 및 저장 매체 KR20210151718A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110322295.4 2021-03-25
CN202110322295.4A CN113012441B (zh) 2021-03-25 2021-03-25 车辆停车检测方法、系统、电子设备以及存储介质

Publications (1)

Publication Number Publication Date
KR20210151718A true KR20210151718A (ko) 2021-12-14

Family

ID=76407361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210137473A KR20210151718A (ko) 2021-03-25 2021-10-15 차량 주차 검출 방법, 시스템, 전자 기기 및 저장 매체

Country Status (5)

Country Link
US (1) US20220019818A1 (ko)
EP (1) EP3923184A3 (ko)
JP (1) JP2022043238A (ko)
KR (1) KR20210151718A (ko)
CN (1) CN113012441B (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114347847B (zh) * 2022-03-18 2022-07-08 蔚来汽车科技(安徽)有限公司 用于协助泊车的方法、控制装置、存储介质和换电站
CN115471787B (zh) * 2022-08-09 2023-06-06 东莞先知大数据有限公司 一种工地物体堆放检测方法、装置及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001114049A (ja) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd 車載駐車支援装置
JP2002288799A (ja) * 2001-03-28 2002-10-04 Seiko Epson Corp 駐車状態確認システム
JP4241026B2 (ja) * 2002-12-24 2009-03-18 横河電機株式会社 フィルタ
JP4515923B2 (ja) * 2005-01-12 2010-08-04 クラリオン株式会社 駐車技術評価システム
KR101051390B1 (ko) * 2009-08-31 2011-07-22 주식회사 이미지넥스트 감시카메라의 객체 정보 추정장치 및 방법
JP2012159469A (ja) * 2011-02-02 2012-08-23 Toyota Motor Corp 車両用画像認識装置
KR101316465B1 (ko) * 2012-06-29 2013-10-08 현대자동차주식회사 충돌 방지 시스템 및 방법
KR102399655B1 (ko) * 2015-11-03 2022-05-19 엘지이노텍 주식회사 차량용 카메라의 시야각 조절 및 거리 표시 방법
WO2018005441A2 (en) * 2016-06-27 2018-01-04 Mobileye Vision Technologies Ltd. Controlling host vehicle based on detected parked vehicle characteristics
US10996338B2 (en) * 2017-09-12 2021-05-04 Toyota Research Institute, Inc. Systems and methods for detection by autonomous vehicles
KR102088611B1 (ko) * 2017-12-29 2020-03-12 윤태건 차량용 주차제어장치 및 그 장치의 구동방법
US11136022B2 (en) * 2018-05-29 2021-10-05 Hitachi Automotive Systems, Ltd. Road marker detection method
CN109229095A (zh) * 2018-10-30 2019-01-18 百度在线网络技术(北京)有限公司 用于确定自动泊车效果的方法、装置、设备和存储介质
CN109598972B (zh) * 2018-11-23 2021-11-19 中汽研(天津)汽车工程研究院有限公司 一种基于视觉的自动泊车停车位检测与测距系统
JPWO2020129516A1 (ja) * 2018-12-21 2021-10-28 日立Astemo株式会社 車両制御装置
CN109934140B (zh) * 2019-03-01 2022-12-02 武汉光庭科技有限公司 基于检测地面横向标线的自动倒车辅助停车方法及系统

Also Published As

Publication number Publication date
US20220019818A1 (en) 2022-01-20
JP2022043238A (ja) 2022-03-15
CN113012441B (zh) 2023-01-13
CN113012441A (zh) 2021-06-22
EP3923184A2 (en) 2021-12-15
EP3923184A3 (en) 2022-05-18

Similar Documents

Publication Publication Date Title
CN106503653B (zh) 区域标注方法、装置和电子设备
CN111998860B (zh) 自动驾驶定位数据校验方法、装置、电子设备及存储介质
US20220035733A1 (en) Method and apparatus for checking automatic driving algorithm, related device and storage medium
KR20210151718A (ko) 차량 주차 검출 방법, 시스템, 전자 기기 및 저장 매체
US20220076038A1 (en) Method for controlling vehicle and electronic device
EP3907659A2 (en) Perception data detection method and apparatus
CN112764013B (zh) 自动驾驶车辆感知系统测试方法、装置、设备及存储介质
CN112863187B (zh) 感知模型的检测方法、电子设备、路侧设备和云控平台
CN115690739B (zh) 多传感器融合障碍物存在性检测方法和自动驾驶车辆
US20220219679A1 (en) Spatial parking place detection method and device, storage medium, and program product
CN114238790A (zh) 用于确定最大感知范围的方法、装置、设备以及存储介质
CN113177497B (zh) 视觉模型的训练方法、车辆识别方法及装置
CN114620013A (zh) 一种车辆前方行人的保护方法、装置、设备及介质
CN112559272B (zh) 车载设备的质量信息确定方法、装置、设备及存储介质
CN114596706B (zh) 路侧感知系统的检测方法及装置、电子设备和路侧设备
CN115902839A (zh) 港口激光雷达标定方法及装置、存储介质及电子设备
CN112927338B (zh) 基于三维轮廓的仿真方法、存储介质及计算机设备
CN112861701A (zh) 违章停车识别方法、装置、电子设备以及计算机可读介质
CN112528848B (zh) 障碍物检测的测评方法、装置、设备以及存储介质
CN117745775A (zh) 目标边界框的调整方法、装置、电子设备及存储介质
CN113361379B (zh) 生成目标检测系统和检测目标的方法及装置
CN115810270A (zh) 车辆转向检测的方法、装置、电子设备及存储介质
CN114267019A (zh) 识别方法、装置、设备以及存储介质
CN118471012A (zh) 基于车辆轨迹跟踪的停车管理方法、装置及系统
CN116302727A (zh) 一种车载摄像头的检测方法、装置及汽车

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
WITB Written withdrawal of application