KR20220071284A - 차량 검출 방법 및 장치 - Google Patents

차량 검출 방법 및 장치 Download PDF

Info

Publication number
KR20220071284A
KR20220071284A KR1020227016264A KR20227016264A KR20220071284A KR 20220071284 A KR20220071284 A KR 20220071284A KR 1020227016264 A KR1020227016264 A KR 1020227016264A KR 20227016264 A KR20227016264 A KR 20227016264A KR 20220071284 A KR20220071284 A KR 20220071284A
Authority
KR
South Korea
Prior art keywords
coordinate
detection frame
information
sample
detection
Prior art date
Application number
KR1020227016264A
Other languages
English (en)
Inventor
시펑 양
민위에 지앙
샤오 탄
하오 순
시레이 웬
홍우 장
얼루이 딩
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20220071284A publication Critical patent/KR20220071284A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

컴퓨터 비전 분야에 관한 것으로, 차량 검출 방법 및 장치에 있어서, 검출할 이미지를 획득하는 단계(S101); 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여, 차량 검출 결과를 획득하는 단계(S102) - 상기 차량 검출 결과는 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함하고, 상기 차량 검출 모델은 이미지와 차량 검출 결과의 대응 관계를 특성화하기 위한 것임 - ; 검출 프레임의 좌표 신뢰도에 따라, 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 하는 단계(S103); 및 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하는 단계(S104)를 포함한다. 상기 방법은 검출 프레임의 좌표 정보의 정확성을 향상하였고, 차량 검출 모델의 정확하지 않은 검출로 인한 검출 착오를 줄인다.

Description

차량 검출 방법 및 장치
본 발명은 2020년 04월 29일에 제출한, 출원번호가 202010356239.8이고 발명의 명칭이 "차량 검출 방법 및 장치"인 중국 특허출원의 우선권을 주장하고, 상기 출원의 전반 내용은 인용을 통해 본 발명에 포함된다.
본 발명의 실시예는 컴퓨터 기술 분야에 관한 것으로, 구체적으로 컴퓨터 비전 기술에 관한 것이다.
최근 몇 년 동안 교통 차량의 수량이 급격히 증가함에 따라 교통 감독 관리는 엄청난 도전에 직면하게 되었다. 차량 타깃 검출은 교통 상황 영상 모니터링 구축의 핵심 기술로서 국내외 연구자들의 많은 관심을 받았다. 일반적으로 실제 도로 상황을 모니터링 할 때, 차량이 너무 길어 검출이 부정확한 경우가 있다. 예를 들어, 도시 도로에 있는 트레일러의 경우, 일반적으로 차량을 검출하기 위한 검출 모델은 트레이닝 시 사용되는 트레이닝 집중 트레일러 이미지 개수가 제한되어 있으므로, 검출 모델의 검출 프레임이 차량의 앞부분 또는 뒷부분만 검출하는 경우가 발생하게 된다. 실제 동일 차량은 검출 모델에 의해 2개 이상의 차량으로 판단된다.
차량 검출 방법 및 장치를 제공하였다.
제1 양태에 따르면, 차량 검출 방법을 제공하는 바, 상기 방법은, 검출할 이미지를 획득하는 단계; 상기 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여, 차량 검출 결과를 획득하는 단계 - 상기 차량 검출 결과는 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함하고, 상기 차량 검출 모델은 이미지와 차량 검출 결과의 대응 관계를 특성화하기 위한 것임 - ; 검출 프레임의 좌표 신뢰도에 따라, 상기 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 하는 단계; 및 상기 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하는 단계를 포함한다.
제2 양태에 따르면, 차량 검출 장치를 제공하는 바, 상기 장치는, 검출할 이미지를 획득하도록 구성되는 획득 유닛; 상기 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여 차량 검출 결과를 획득하도록 구성되는 입력 유닛 - 상기 차량 검출 결과는 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함하고, 상기 차량 검출 모델은 이미지와 차량 검출 결과의 대응 관계를 특성화하기 위한 것임 - ; 검출 프레임의 좌표 신뢰도에 따라, 상기 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 하도록 구성되는 선택 유닛; 및 상기 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하도록 구성되는 생성 유닛을 포함한다.
제3 양태에 따르면, 전자 기기를 제공하는 바, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하되; 상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1 양태 중 어느 한 양태에 따른 방법을 수행할 수 있도록 하는 것을 특징으로 한다.
제4 양태에 따르면, 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장 매체를 제공하는 바, 상기 컴퓨터 명령은 상기 컴퓨터가 제1 양태 중 어느 한 양태에 따른 방법을 수행할 수 있도록 하기 위한 것인 것을 특징으로 한다.
본 발명의 기술적 해결수단에 따라, 검출 프레임의 좌표 신뢰도와 좌표 오차 정보에 기반하여, 차량 검출 모델이 출력한 검출 프레임의 좌표 정보를 부가적으로 처리하여, 처리 후 검출 프레임의 좌표 정보를 생성함으로써, 검출 프레임의 좌표 정보의 정확성을 향상할 수 있고, 차량 검출 모델의 정확하지 않은 검출로 인한 검출 착오를 줄일 수 있다.
반드시 이해해야 할 것은, 본 부분에 서술되는 내용은 본 발명의 실시예의 핵심 또는 중요한 특징을 표시하기 위한 것이 아니며, 본 발명의 범위를 한정하기 위한 것도 아니다. 본 발명의 다른 특징은 하기의 명세서를 통해 용이하게 이해될 것이다.
도면은 본 해결수단을 더 잘 이해하기 위한 것으로, 본 발명을 한정하지 않는다. 여기서,
도 1은 본 발명에 따른 차량 검출 방법의 일 실시예의 흐름도이다.
도 2는 본 발명에 따른 차량 검출 방법의 하나의 응용 장면의 모식도이다.
도 3은 본 발명에 따른 차량 검출 방법의 또 다른 실시예의 흐름도이다.
도 4는 본 발명에 따른 차량 검출 장치의 일 실시예의 구조 모식도이다.
도 5는 본 발명의 실시예에 따른 차량 검출 방법을 구현하기 위한 전자 기기의 블록도이다.
아래 도면과 결부시켜 본 발명의 예시적 실시예를 설명하되, 여기에 이해를 돕기 위한 본 발명의 실시예의 다양한 세부사항들이 포함되지만, 이들은 단지 예시적인 것으로 이해해야 한다. 따라서, 본 기술분야의 통상의 기술자는 본 발명의 범위 및 정신을 벗어나지 않는 전제 하에 여기서 설명된 실시예에 대해 다양한 변형 및 수정을 진행할 수 있음을 이해해야 한다. 마찬가지로, 명확 및 간략을 위해, 아래의 설명에서 공지 기능 및 구조에 대한 설명을 생략한다.
도 1에 도시된 바와 같이, 도 1은 본 발명에 따른 차량 검출 방법의 일 실시예의 흐름도(100)를 도시한다. 상기 차량 검출 방법은 하기와 같은 단계를 포함한다.
단계(S101)에서, 검출할 이미지를 획득을 획득한다.
본 실시예에서, 차량 검출 방법의 수행 주체는 유선 연결 방식 또는 무선 연결 방식을 통해 이미지 수집 기기로부터(예를 들어, 카메라, 캠 등) 검출할 이미지를 획득할 수 있다. 여기서, 상기 검출할 이미지는 차량 이미지를 포함할 수 있다. 예시로, 상기 검출할 이미지는 차량의 도로 이미지를 포함할 수 있다. 예를 들어, 검출할 이미지는 도로 모니터링 카메라가 촬영한 이미지일 수 있다.
여기서, 상기 수행 주체는 이미지 검출 기능이 있는 다양한 전자 기기일 수 있으며, 스마트폰, 태블릿PC, 휴대형 랩톱 및 데스크톱 등을 포함하지만 이에 한정되는 것은 아니다.
단계(S102)에서, 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여, 차량 검출 결과를 획득한다.
본 실시예에서, 상기 수행 주체 내부에 차량 검출 모델을 미리 구축할 수 있고, 상기 차량 검출 모델은 이미지와 차량 검출 결과의 대응 관계를 특성화하기 위한 것일 수 있다. 예시로, 상기 차량 검출 모델은 특징 추출 네트워크 및 대응 관계 리스트를 포함할 수 있다. 여기서, 특징 추출 네트워크는 차량 검출 모델에 입력된 이미지에 대해 특징 추출을 수행하여, 특징 벡터를 획득하기 위한 것이다. 대응 관계 리스트는 당업자가 대량의 특징 벡터와 차량 검출 결과에 대한 통계에 기반하여 미리 제정하고, 복수개의 특징 벡터와 차량 검출 결과의 대응 관계를 저장하고 있는 리스트일 수 있다. 이 경우, 차량 검출 모델은 우선 특징 추출 네트워크를 사용하여 수신된 이미지의 특징 벡터를 추출하고, 추출된 특징 벡터를 타깃 특징 벡터로 사용할 수 있다. 그 후, 타깃 특징 벡터를 대응 관계 리스트 중 복수개의 특징 벡터와 순차적으로 비교하고, 대응 관계 리스트 중 특징 벡터가 타깃 특징 벡터와 동일하거나 유사하면, 상기 대응 관계 리스트 중 상기 특징 벡터에 대응되는 차량 검출 결과를 수신된 이미지의 차량 검출 결과로 한다.
이 경우, 수행 주체는 검출할 이미지를 차량 검출 모델에 입력하여, 차량 검출 결과를 획득할 수 있다. 여기서, 차량 검출 결과는 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함할 수 있다. 여기서, 검출 프레임의 카테고리 정보는 카테고리와 카테고리 컨피던스, 즉, 검출 프레임 내 타깃이 속하는 카테고리 및 상기 카테고리에 속할 확률을 포함할 수 있다. 예를 들면, 카테고리는 소형차, 버스, 트럭, 삼륜차, 이륜차 등을 포함할 수 있다. 검출 프레임의 좌표 정보는 검출 프레임의 위치를 설명하기 위한 것일 수 있고, 예를 들면, 검출 프레임의 좌표 정보는 검출 프레임 좌측 상단의 좌표를 포함할 수 있다. 통상적으로, 좌측 상단의 좌표, 높이와 폭을 통해, 유일하게 하나의 직사각형 검출 프레임을 결정할 수 있다. 좌표 신뢰도는 좌표의 정확 정도를 설명하기 위한 것일 수 있고, 예시로, 좌표 신뢰도는 0 ~ 1 사이의 값일 수 있으며, 값이 클수록 좌표가 정확하다는 것을 나타낼 수 있다. 좌표 정보를 (x, y)로 예로 들면, 좌표 신뢰도는 x와 y에 대해 각각 출력될 수 있다. 좌표 오차 정보는 좌표 예측의 파동 정도를 설명하기 위한 것일 수 있고, 예시로, 좌표 오차는 오프셋 분산일 수 있다. 오프셋 분산은 클수록 예측한 좌표의 파동이 크다는 것을 표시하고, 오프셋 분산이 작을수록 예측한 좌표의 파동이 작다는 것을 표시한다. 통상적으로, 파동이 작을수록 예측된 좌표 정보가 더 정확하다.
통상적으로, 동일 차량에 대한 차량 검출 결과에는 복수개의 검출 프레임이 포함될 수 있다. 일반적으로, 타깃 검출을 진행할 때, 동일한 타깃에 대해 대량의 검출 프레임을 검출할 수 있고, 각 검출 프레임은 컨피던스 스코어(confidence score)를 가질 수 있다. 이 때, 기설정된 스코어 임계값보다 높은 컨피던스 스코어를 갖는 검출 프레임을 선택하여, 타깃에 대응되는 검출 프레임으로 할 수 있다. 여기서, 스코어 임계값은 실제 수요에 따라 설정할 수 있다. 설명해야 할 것은, 타깃 검출에서의 타깃은 검출할 물체를 의미할 수 있다. 본 실시예에서, 검출할 물체는 차량이다.
본 실시예의 일부 선택 가능한 실시형태에서, 상기 차량 검출 모델은 특징 추출 네트워크를 포함할 수 있고, 상기 특징 추출 네트워크는 확장 콘볼루션 레이어 및/또는 비대칭 콘볼루션 레이어를 포함할 수 있다.
본 실시형태에서, 상기 차량 검출 모델은 특징 추출 네트워크를 포함할 수 있고, 상기 특징 추출 네트워크는 수신된 이미지에 대해 특징 추출을 수행하여, 특징 벡터를 생성하기 위한 것일 수 있다. 여기서, 특징 추출 네트워크는 다양한 신경 네트워크일 수 있으며, 예를 들어, 레스넷(resnet), resnext등 일수 있다. 실천에서, 실제 수요에 따라 크기가 다른 특징 추출 네트워크를 선택할 수 있다. 예를 들면, 처리에 대한 실시간 요구가 비교적 높고, 정확도에 대한 요구가 너무 높지 않은 경우, resnet18, resnet34 등과 같은 경량 레벨의 구조를 선택할 수 있다. 처리에 대한 정확도 요구가 비교적 높고, 실시간 요구가 너무 높지 않은 경우, resent101, resneXt152 등과 같은 중형 레벨의 구조를 선택할 수 있다. 또한, resnet50, resneXt50 등과 같이 경량 레벨과 중량 레벨 사이에 개재된 중형 레벨 구조도 선택할 수 있다.
특징 추출 네트워크에서 실제 수요에 따라 확장 콘볼루션(dilated convolution) 구조를 추가하여 확장 콘볼루션 레이어를 형성할 수 있다. 확장 콘볼루션(또는 팽창 콘볼루션)은 표준 콘볼루션을 기반으로 공동에 주입하여 수용 필드를 증가하고, 출력이 더 넓은 범위의 정보를 포함할 수 있으므로 특징 추출 네트워크가 더 많은 지나치게 긴 차량의 특징 정보를 추출할 수 있도록 한다.
특징 추출 네트워크에서 실제 수요에 따라 비대칭 콘볼루션 커넬을 가진 콘볼루션 구조를 증가하여 비대칭 콘볼루션 레이어를 형성할 수 있다. 비대칭 콘볼루션 커넬은 지나치게 긴 타깃의 수용 필드를 증가함과 동시에 배경 정보의 간섭을 줄이는 데 도움이 된다. 따라서 특징 추출 네트워크가 더 많은 지나치게 긴 차량의 특징 정보를 추출할 수 있도록 한다.
여기서, 특징 추출 네트워크는 특징 피라미트 네트워크(Feature Pyramid Networks,FPN) 구조를 사용할 수 있다. 특징 피라미트 네트워크 구조를 사용하여 서로 다른 차원 간의 정보 융합을 실현할 수 있고, 동시에 얕은 시맨틱 정보와 깊은 시맨틱 정보를 결합하여 검출 결과 출력 네트워크가 획득한 특징을 더욱 풍부하도록 함으로써 검출 결과 출력 네트워크가 출력한 결과를 더욱 정확하도록 할 수 있다.
본 실시예의 일부 선택 가능한 실시형태에서, 상기 차량 검출 모델은 특징 추출 네트워크를 포함하는 외에, 카테고리 정보 출력 네트워크, 좌표 정보 출력 네트워크, 좌표 신뢰도 출력 네트워크 및 좌표 오차 정보 출력 네트워크도 포함할 수 있다. 예시로, 카테고리 정보 출력 네트워크는 특징 추출 네트워크에 의해 추출된 특징 정보에 따라, 카테고리 정보를 출력하기 위한 것일 수 있다. 좌표 정보 출력 네트워크는 특징 추출 네트워크에 의해 추출된 특징 정보에 따라, 좌표 정보를 출력하기 위한 것일 수 있다. 좌표 신뢰도 출력 네트워크는 특징 추출 네트워크에 의해 추출된 특징 정보에 따라, 좌표 신뢰도를 출력하기 위한 것일 수 있다. 좌표 오차 정보 출력 네트워크는 특징 추출 네트워크에 의해 추출된 특징 정보에 따라, 좌표 오차 정보를 출력하기 위한 것일 수 있다.
본 실시형태에서, 상기 차량 검출 모델은 하기 방식을 통해 트레이닝하여 획득할 수 있다.
우선, 샘플 세트를 획득한다.
본 실시형태에서, 차량 검출 모델을 트레이닝하기 위한 트레이닝용 수행 주체와 차량을 검출하기 위한 방법의 수행 주체는 동일할 수 있고, 다를 수도 있다. 트레이닝용 수행 주체는 트레이닝 샘플 세트를 획득할 수 있다. 여기서, 샘플 세트 중의 샘플은 샘플 이미지와 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보를 포함할 수 있다. 여기서, 샘플 이미지에 대응되는 샘플 카테고리 정보와 샘플 좌표 정보는 각각 샘플 이미지 중 포함된 차량의 카테고리와 위치를 설명하기 위한 것이다. 예를 들면, 샘플 카테고리 정보는 샘플 이미지 중 차량의 카테고리와 카테고리 컨피던스를 포함할 수 있고, 샘플 좌표 정보는 샘플 이미지 중 차량에 대응하는 검출 프레임의 좌측 상단의 좌표 및 검출 프레임의 높이와 폭을 포함할 수 있다.
그 다음, 샘플의 샘플 이미지를 초기 모델에 입력하여, 초기 모델의 카테고리 정보 출력 네트워크와 좌표 정보 출력 네트워크는 각각 예측 카테고리 정보와 예측 좌표 정보를 출력한다.
본 실시형태에서, 트레이닝용 수행 주체는 샘플 세트에서 샘플의 샘플 이미지를 초기 모델에 입력할 수 있고, 초기 모델의 카테고리 정보 출력 네트워크와 좌표 정보 출력 네트워크는 각각 예측 카테고리 정보와 예측 좌표 정보를 출력할 수 있다. 여기서, 초기 모델은 트레이닝을 거치지 않은 모델 또는 트레이닝이 완성되지 못한 모델일 수 있다. 초기 모델은 특징 추출 네트워크, 카테고리 정보 출력 네트워크, 좌표 정보 출력 네트워크, 좌표 신뢰도 출력 네트워크 및 좌표 오차 정보 출력 네트워크를 포함할 수 있다.
다음으로, 예측 좌표 정보와 입력된 샘플 이미지에 대응되는 샘플 좌표 정보에 따라, 샘플 좌표 신뢰도와 샘플 좌표 오차 정보를 결정한다.
본 실시형태에서, 트레이닝용 수행 주체는 초기 모델이 입력된 샘플 이미지에 대해 출력한 예측 좌표 정보와 입력된 샘플 이미지에 대응되는 샘플 좌표 정보에 따라, 샘플 좌표 신뢰도와 샘플 좌표 오차 정보를 결정할 수 있다. 예시로, 트레이닝용 수행 주체 내에 샘플 좌표 신뢰도와 샘플 좌표 오차 정보를 결정하기 위한 결정 규칙을 미리 저장할 수 있고, 상기 결정 규칙은 당업자가 실제 수요에 따라 결정할 수 있다. 이렇게, 트레이닝용 수행 주체는 결정 규칙에 따라, 샘플 좌표 신뢰도와 샘플 좌표 오차 정보를 결정할 수 있다. 예를 들면, 샘플 좌표 신뢰도에 대해, 어떤 샘플 이미지에 대응되는 예측 좌표 정보가 (x1, y1)이고, 샘플 좌표 정보가 (x2, y2)이면, 상기 샘플 이미지에 대응되는 X축의 샘플 좌표 신뢰도는 하기 산출 규칙을 통해 결정할 수 있다.
Figure pct00001
여기서, C는 샘플 좌표 신뢰도를 표시하고, X는 x1과 x2 사이의 차이값을 표시한다. 마찬가지로, 상기 샘플 이미지에 대응되는 Y축의 샘플 좌표 신뢰도도 상기 공식을 통해 산출될 수 있다. 예를 들면, 샘플 좌표 오차 정보를 풀기 위해, 좌표 오차 정보를 오프셋 분산으로 하여, 샘플 좌표 정보를 평균값이라고 가정하고, 예측 좌표 정보의 확률 분포는 가우스 분포에 컴플라이언스하는 예측 확률 밀도 함수로 한다. 수행 주체는 하나의 타깃 확률 분포를 미리 저장할 수 있고, 상기 타깃 확률 분포는 분산이 0인 가우스 분포에 컴플라이언스할 수 있으며, 예를 들어, 타깃 확률 분포는 디랙 δ 함수일 수 있다. 수행 주체는 예측 확률 밀도 함수와 타깃 확률 분포의 쿨백-라이블러 발산(또한 Kullback-Leibler발산, Kullback-Leibler divergence 이라고 함)의 최소값을 구함으로써 오프셋 분산을 구할 수 있다. 그리고 구해 얻은 오프셋 분산을 좌표 오차 정보로 한다.
마지막으로, 샘플 이미지를 입력으로 하고, 입력된 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보, 샘플 좌표 신뢰도 및 샘플 좌표 오차 정보를 기대 출력으로 하여, 초기 모델을 트레이닝하여 차량 검출 모델을 획득한다.
본 실시형태에서, 트레이닝용 수행 주체는 샘플 이미지를 입력으로 하고, 입력된 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보, 샘플 좌표 신뢰도 및 샘플 좌표 오차 정보를 기대 출력으로 하여, 초기 모델을 트레이닝하여 차량 검출 모델을 획득할 수 있다. 예를 들면, 우선 기 설정된 손실 함수를 사용하여 초기 모델이 출력한 예측 카테고리 정보, 예측 좌표 정보, 예측 좌표 신뢰도, 예측 좌표 오차 정보와 상기 샘플의 샘플 카테고리 정보, 샘플 좌표 정보, 샘플 좌표 신뢰도, 샘플 좌표 오차 정보 사이의 차이를 산출할 수 있다. 그 다음, 산출하여 획득한 차이에 기반하여, 초기 모델의 모델 파라미터를 조정함으로써, 차량 검출 모델을 획득한다. 예를 들어, 백프로퍼게이션(BP, Back Propagation) 알고리즘 또는 확률적 경사 하강(SGD, Stochastic Gradient Descent) 알고리즘을 사용하여 초기 모델의 모델 파라미터를 조정할 수 있다. 본 실시형태를 통해, 차량 검출 모델에 대한 트레이닝을 구현함으로써, 획득된 차량 검출 모델의 출력 결과가 더욱 정확할 수 있다.
단계(S103)에서, 검출 프레임의 좌표 신뢰도에 따라, 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 한다.
본 실시예에서, 단계(S102)에서 획득된 차량 검출 결과 중의 복수개의 검출 프레임에 대해, 수행 주체는 검출 프레임의 좌표 신뢰도에 따라, 복수개의 검출 프레임에서 검출 프레임을 처리할 검출 프레임으로 선택할 수 있다. 예를 들면, 좌표 신뢰도가 기설정된 임계값보다 큰 검출 프레임을 처리할 검출 프레임으로 선택할 수 있다. 여기서, 임계값은 실제 수요에 따라 설정할 수 있다. 여기서, 선택된 복수개의 처리할 검출 프레임의 카테고리는 동일할 수 있다.
단계(S104)에서, 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성한다.
본 실시예에서, 수행 주체는 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성할 수 있다. 예시로, 매개 처리할 검출 프레임은 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함할 수 있다. 수행 주체는 적어도 하나의 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 따라 획득된 새로운 좌표 정보를 산출하기 위한 산출 규칙을 미리 저장할 수 있으며, 이 경우, 수행 주체는 산출 규칙에 따라 처리 후 검출 프레임의 좌표 정보를 획득할 수 있다. 여기서, 상기 산출 규칙은 당업자가 실제 수요에 따라 설정한 것일 수 있다.
본 실시예의 일부 선택 가능한 실시형태에서, 상기 차량 검출 방법은 도 1에서 나타나지 않은 하기 단계를 더 포함할 수 있다. 처리할 검출 프레임의 카테고리 정보와 처리 후 검출 프레임의 좌표 정보에 따라, 정정 후 검출 결과를 생성한다.
본 실시형태에서, 수행 주체는 처리할 검출 프레임의 카테고리 정보와 처리 후 검출 프레임의 좌표 정보에 따라, 정정 후 검출 결과를 생성할 수 있다. 그 후, 수행 주체는 정정 후 검출 결과를 출력할 수 있다. 예를 들면, 수행 주체는 처리할 검출 프레임의 카테고리를 처리 후 검출 프레임의 카테고리로 할 수 있으며, 여기서, 복수개의 처리할 검출 프레임의 카테고리는 동일할 수 있다. 수행 주체는 복수개의 처리할 검출 프레임에서 카테고리 컨피던스가 제일 큰 카테고리 컨피던스를 처리한 후 검출 프레임의 카테고리 컨피던스로 할 수 있다. 그 후, 수행 주체는 처리 후 검출 프레임의 카테고리, 카테고리 컨피던스와 좌표 정보를 정정 후 검출 결과로 할 수 있다. 본 실시형태를 통해, 정정 후 검출 결과를 획득할 수 있고, 차량 검출 모델에서 출력된 차량 검출 결과에 비해, 정정 후 검출 결과가 더욱 정확하다.
계속해서 도 2를 참조하면, 도 2는 본 실시예에 따른 차량 검출 방법의 응용 장면의 하나의 모식도이다. 도 2의 응용 장면에서, 단말기(201)는 우선 검출할 이미지를 획득한다. 그 후, 단말기(201)는 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여, 차량 검출 결과를 획득하되, 차량 검출 결과는 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함할 수 있다. 그 다음, 검출 프레임의 좌표 신뢰도에 따라, 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 한다. 마지막으로, 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성한다.
본 발명의 상기 실시예가 제공한 방법은 검출 프레임의 좌표 신뢰도와 좌표 오차 정보에 기반하여, 차량 검출 모델에서 출력된 검출 프레임의 좌표 정보를 부가적으로 처리하여, 처리 후 검출 프레임의 좌표 정보를 생성함으로써, 검출 프레임의 좌표 정보의 정확성을 향상할 수 있고, 차량 검출 모델의 정확하지 않은 검출로 인한 검출 착오를 줄일 수 있다.
추가로 도 3을 참조하면, 도 3은 차량 검출 방법의 또 다른 실시예의 프로세스(300)를 도시한다. 상기 차량 검출 방법의 프로세스(300)는 하기와 같은 단계를 포함한다.
단계(S301)에서, 검출할 이미지를 획득한다.
본 실시예에서, 단계(S301)와 도 1에 도시된 실시예의 단계(S101)는 유사하므로, 여기서 더이상 반복 설명하지 않는다.
단계(S302)에서, 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여, 차량 검출 결과를 획득한다.
본 실시예에서, 단계(S302)와 도 1에 도시된 실시예의 단계(S102)는 유사하므로, 여기서 더이상 반복 설명하지 않는다.
단계(S303)에서, 검출 프레임의 좌표 신뢰도에 따라, 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 한다.
본 실시예에서, 단계(S303)와 도 1에 도시된 실시예의 단계(S103)는 유사하므로, 여기서 더이상 반복 설명하지 않는다.
단계(S304)에서, 카테고리 정보에 따라, 처리할 검출 프레임에서 검출 프레임을 선택하여 제1 검출 프레임으로 한다.
본 실시예에서, 수행 주체는 카테고리 정보에 따라, 처리할 검출 프레임에서 하나의 검출 프레임을 선택하여 제1 검출 프레임으로 할 수 있다. 예를 들면, 수행 주체는 처리할 검출 프레임에서 카테고리 컨피던스가 제일 큰 검출 프레임을 선택하여 제1 검출 프레임으로 할 수 있다.
단계(S305)에서, 제1 검출 프레임과의 IOU에 기반하여, 처리할 검출 프레임에서 검출 프레임을 선택하여 제2 검출 프레임으로 한다.
본 실시예에서, 수행 주체는 우선 처리할 검출 프레임에서, 제1 검출 프레임을 제외한 다른 각 검출 프레임과 제1 검출 프레임의 IOU(Intersection over Union)를 산출할 수 있다. 여기서, IOU는 IOU 함수에 기반하여 산출하여 획득할 수 있다. 그 후, 수행 주체는 IOU가 기설정된 임계값(예를 들어, 0.5)보다 큰 IOU에 대응되는 처리할 검출 프레임을 선택하여 제2 검출 프레임으로 할 수 있다.
단계(S306)에서, 제1 검출 프레임과 제2 검출 프레임의 IOU 및 제2 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성한다.
본 실시예에서, 수행 주체는 제1 검출 프레임과 제2 검출 프레임의 IOU 및 제2 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성할 수 있다. 예시로, 수행 주체 내부에서는 처리 후 검출 프레임의 좌표 정보를 생성하기 위한 산출 공식을 미리 제정할 수 있다. 이 경우, 수행 주체는 상기 공식을 통해 처리 후 검출 프레임의 좌표 정보를 생성할 수 있다. 예시로, N개의 제2 검출 프레임을 포함하는 경우, 제 i 번째 1≤i≤N 검출 프레임의 X축 좌표는 xi, 좌표 오차 정보는
Figure pct00002
, 제 i 번째 검출 프레임과 제1 검출 프레임의 IOU는 IOU(bi,b)로 가정하면, 처리 후 검출 프레임의 좌표 정보의 X축 좌표는 하기와 같은 공식을 통해 산출하여 획득할 수 있다.
Figure pct00003
, 여기서,
Figure pct00004
여기서, σt는 인위적으로 설정된 파라미터이다. 마찬가지로, 처리 후 검출 프레임의 좌표 정보의 Y축 좌표도 상기 공식을 통해 산출하여 획득할 수 있다.
도 3에 도시된 바와 같이, 도 1에 대응되는 실시예와 비교했을 때, 본 실시예의 차량 검출 방법의 프로세스(300)는 카테고리 정보와 IOU에 기반하여, 제1 검출 프레임과 제2 검출 프레임을 선택하고, 제1 검출 프레임과 제2 검출 프레임을 기반으로, 처리 후 검출 프레임의 좌표 정보를 생성하는 단계를 강조하였다. 이로부터, 본 실시예가 설명한 방안은 IOU에 기반하여 제1 검출 프레임과 제2 검출 프레임을 병합함으로써, 생성된 처리 후 검출 프레임의 좌표 정보가 더욱 정확하도록 할 수 있다.
추가로 도 4를 참조하면, 상기 각 도면에 도시된 방법의 구현으로서, 본 발명은 차량 검출 장치의 일 실시예를 제공하며, 상기 장치 실시예는 도 1에 도시된 방법 실시예에 대응되고, 상기 장치는 구체적으로 다양한 전자 기기에 적용될 수 있다.
도 4에 도시된 바와 같이, 본 실시예의 차량 검출 장치(400)는 획득 유닛(401), 입력 유닛(402), 선택 유닛(403) 및 생성 유닛(404)을 포함할 수 있다. 여기서, 획득 유닛(401)은 검출할 이미지를 획득하도록 구성되고, 입력 유닛(402)은 상기 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여 차량 검출 결과를 획득하도록 구성되되, 상기 차량 검출 결과는 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함하고, 상기 차량 검출 모델은 이미지와 차량 검출 결과의 대응 관계를 특성화하기 위하며; 선택 유닛(403)은 검출 프레임의 좌표 신뢰도에 따라, 상기 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 하도록 구성되고; 생성 유닛(404)은 상기 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하도록 구성된다.
본 실시예에서, 차량 검출 장치(400)의 획득 유닛(401), 입력 유닛(402), 선택 유닛(403) 및 생성 유닛(404)의 구체적인 처리 및 이에 따른 기술적 효과는 각각 도 1에 대응되는 실시예 중의 단계(S101), 단계(S102), 단계(S103) 및 단계(S104)의 관련 설명을 참조할 수 있으며 여기서 더이상 반복 설명하지 않는다.
본 실시예의 일부 선택 가능한 실시형태에서, 상기 생성 유닛(404)은 또한 카테고리 정보에 따라, 상기 처리할 검출 프레임에서 검출 프레임을 선택하여 제1 검출 프레임으로 하고; 상기 제1 검출 프레임과의 IOU에 기반하여, 상기 처리할 검출 프레임에서 검출 프레임을 선택하여 제2 검출 프레임으로 하며; 상기 제1 검출 프레임과 제2 검출 프레임의 IOU 및 제2 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에서, 상기 차량 검출 모델은 특징 추출 네트워크를 포함하고, 상기 특징 추출 네트워크는 확장 콘볼루션 레이어 및/또는 비대칭 콘볼루션 레이어를 포함한다.
본 실시예의 일부 선택 가능한 실시형태에서, 상기 차량 검출 모델은 카테고리 정보 출력 네트워크, 좌표 정보 출력 네트워크, 좌표 신뢰도 출력 네트워크와 좌표 오차 정보 출력 네트워크를 포함하되, 상기 차량 검출 모델은 하기와 같은 방식을 통해 트레이닝하여 획득한다. 샘플 세트를 획득하되, 샘플은 샘플 이미지 및 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보를 포함하고; 샘플의 샘플 이미지를 초기 모델에 입력하며, 초기 모델의 카테고리 정보 출력 네트워크와 좌표 정보 출력 네트워크는 각각 예측 카테고리 정보와 예측 좌표 정보를 출력하고; 상기 예측 좌표 정보와 입력된 샘플 이미지에 대응되는 샘플 좌표 정보에 따라, 샘플 좌표 신뢰도와 샘플 좌표 오차 정보를 결정하며; 샘플 이미지를 입력으로 하고, 입력된 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보, 샘플 좌표 신뢰도 및 샘플 좌표 오차 정보를 기대 출력으로 하여, 초기 모델을 트레이닝하여 차량 검출 모델을 획득한다.
본 실시예의 일부 선택 가능한 실시형태에서, 상기 장치(400)는, 상기 처리할 검출 프레임의 카테고리 정보와 상기 처리 후 검출 프레임의 좌표 정보에 따라 정정 후 검출 결과를 생성하도록 구성되는 결과 생성 유닛(미도시)을 더 포함한다.
본 발명의 실시예에 따르면, 본 발명은 전자 기기 및 판독 가능 저장 매체를 더 제공한다.
도 5에 도시된 바와 같이, 본 발명의 실시예에 따른 차량 검출 방법의 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본문에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 설명 및/또는 요구된 본 발명의 구현을 한정하지 않는다.
도 5에 도시된 바와 같이, 상기 전자 기기는 하나 이상의 프로세서(501), 메모리(502), 및 고속 인터페이스와 저속 인터페이스를 포함하는 각 부재를 연결하기 위한 인터페이스를 포함한다. 각 부재들은 상이한 버스를 이용하여 상호 연결되고, 공통 메인보드에 장착될 수 있거나 필요에 따라 다른 방식으로 장착될 수 있다. 프로세서는, 메모리에 저장되거나 메모리에서 외부 입력/출력 장치(예를 들어, 인터페이스에 커플링된 표시 기기)에 GUI의 그래픽 정보를 표시하는 명령을 포함하는 전자 기기 내에서 실행되는 명령을 처리할 수 있다. 다른 실시형태에서, 필요에 따라 다수의 프로세서 및/또는 다수의 버스를 다수의 메모리와 함께 사용할 수 있다. 마찬가지로, 다수의 전자 기기를 연결할 수 있고, 각 기기는 일부 필요한 동작(예를 들어, 서버 어레이, 한 그룹의 블레이드 서버, 또는 다중 프로세서 시스템)을 제공한다. 도 5에서 하나의 프로세서(501)를 예로 들어 설명한다.
메모리(502)는 본 발명에서 제공된 비일시적 컴퓨터 판독 가능 저장 매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 적어도 하나의 프로세서가 본 발명에서 제공된 차량 검출 방법을 구현할 수 있도록 한다. 본 발명의 비일시적 컴퓨터 판독 가능 저장 매체는 컴퓨터 명령을 저장하고, 상기 컴퓨터 명령은 본 발명에서 제공된 차량 검출 방법을 수행하도록 하는 데 사용된다.
메모리(502)는 비일시적 컴퓨터 판독 가능 저장 매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능한 프로그램 및 모듈을 저장하도록 사용될 수 있고, 본 발명의 실시예에서 차량 검출 방법에 대응되는 프로그램 명령/모듈(예를 들어, 도 4에 도시된 획득 유닛(401), 입력 유닛(402), 선택 유닛(403) 및 생성 유닛(404))이다. 프로세서(501)는 메모리(502)에 저장된 비일시적 소프트웨어 프로그램, 명령 및 모듈 실행을 통해, 서버의 다양한 기능 적용 및 데이터 처리를 실행함으로써, 상기 방법 실시예에서의 차량 검출 방법을 구현한다.
메모리(502)는 프로그램 저장 영역과 데이트 저장 영역을 포함할 수 있고, 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있으며, 데이터 저장 영역은 차량 검출을 위한 전자 기기의 사용에 따라 구축된 데이터를 저장할 수 있다. 이 밖에, 메모리(502)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 적어도 하나의 자기 디스크 메모리, 플래시 메모리, 또는 다른 비일시적 고체 상태 메모리와 같은 비일시적 메모리를 더 포함할 수 있다. 일부 실시예에서, 메모리(502)는 프로세서(501)에 대하여 원격 설치된 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 차량 검출을 위한 전자 기기에 연결될 수 있다. 상기 네트워크의 구현예로 인터넷, 인트라넷, 랜, 이동 통신망 및 그들의 조합을 포함할 수 있지만 이에 한정되지 않는다.
차량 검출 방법을 위한 전자 기기는 입력 장치(503)와 출력 장치(504)를 더 포함할 수 있다. 프로세서(501), 메모리(502), 입력 장치(503)와 출력 장치(504)는 버스 또는 다른 방식을 통해 연결될 수 있고, 도 5에서 버스를 통해 연결되는 것을 예로 든다.
입력 장치(503)는 입력된 디지털 또는 문자 정보를 수신할 수 있고, 비디오 검색 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 발생할 수 있으며, 상기 입력 장치는 예를 들어 터치스크린, 키패드, 마우스, 트랙 패널, 터치 패널, 지시 바, 하나 또는 다수의 마우스 버튼, 트랙 볼, 조이스틱 등 입력 장치이다. 출력 장치(504)는 표시 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 상기 표시 기기는 액정 표시 장치(LCD), 발광 다이오드(LED) 표시 장치 및 플라스마 표시 장치를 포함할 수 있지만 이에 한정되지 않는다. 일부 실시형태에서, 표시 기기는 터치스크린일 수 있다.
여기서 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 다수의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 또는 코드라고도 함)은 프로그램 가능 프로세서의 기계 명령을 포함하고, 하이레벨 프로세스 및/또는 객체에 대한 프로그래밍 언어, 및/또는 컴포넌트/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 실행할 수 있다. 본문에서 사용된 바와 같이, 용어 "기계 판독 가능한 매체" 및 "컴퓨터 판독 가능한 매체"는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 로직 장치(PLD))를 의미하고, 기계 판독 가능한 신호인 기계 명령을 수신하는 기계 판독 가능한 매체를 포함한다. 용어 "기계 판독 가능한 신호"는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 검출 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터이고, 사용자는 상기 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백그라운드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로 근거리 통신망(LAN), 광역 통신망(WAN), 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고, 통상적으로 통신 네트워크를 통해 인터랙션한다. 클라이언트와 서버 간의 관계는, 상기 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램에 의해 생성된다.
본 발명의 실시예의 기술방안에 따라, 검출 프레임의 좌표 신뢰도와 좌표 오차 정보에 기반하여, 차량 검출 모델에서 출력된 검출 프레임의 좌표 정보를 부가적으로 처리하여, 처리 후 검출 프레임의 좌표 정보를 생성함으로써, 검출 프레임의 좌표 정보의 정확성을 향상할 수 있고, 차량 검출 모델의 정확하지 않은 검출로 인한 검출 착오를 줄일 수 있다.
위에서 설명된 다양한 형태의 프로세스를 통해 단계를 재배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들어, 본 발명에 설명된 각 단계들은 동시에, 순차적으로 또는 상이한 순서로 수행될 수 있으며, 본 발명에 개시된 기술적 해결수단이 이루고자 하는 결과를 달성할 수만 있으면, 본 명세서는 여기서 한정하지 않는다.
상기 구체적인 실시형태는 본 발명의 보호 범위를 한정하지 않는다. 본 기술분야의 통상의 기술자라면 설계 요구 및 다른 요인에 따라 다양한 수정, 조합, 서브 조합 및 대체가 이루어질 수 있음을 이해할 것이다. 본 발명의 사상 및 원칙 내에서 이루어진 모든 수정, 등가적 대체 및 개선은 모두 본 발명의 보호 범위 내에 포함되어야 한다.

Claims (12)

  1. 차량 검출 방법으로서,
    검출할 이미지를 획득하는 단계;
    상기 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여, 차량 검출 결과를 획득하는 단계 - 상기 차량 검출 결과는 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함하고, 상기 차량 검출 모델은 이미지와 차량 검출 결과의 대응 관계를 특성화하기 위한 것임 - ;
    검출 프레임의 좌표 신뢰도에 따라, 상기 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 하는 단계; 및
    상기 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 차량 검출 방법.
  2. 제1항에 있어서,
    상기 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하는 상기 단계는,
    카테고리 정보에 따라, 상기 처리할 검출 프레임에서 검출 프레임을 선택하여 제1 검출 프레임으로 하는 단계;
    상기 제1 검출 프레임과의 IOU(Intersection over Union)에 기반하여, 상기 처리할 검출 프레임에서 검출 프레임을 선택하여 제2 검출 프레임으로 하는 단계; 및
    상기 제1 검출 프레임과 제2 검출 프레임의 IOU 및 제2 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 차량 검출 방법.
  3. 제1항 내지 제2항 중 어느 한 항에 있어서,
    상기 차량 검출 모델은 특징 추출 네트워크를 포함하고, 상기 특징 추출 네트워크는 확장 콘볼루션 레이어 및/또는 비대칭 콘볼루션 레이어를 포함하는 것을 특징으로 하는 차량 검출 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 차량 검출 모델은 카테고리 정보 출력 네트워크, 좌표 정보 출력 네트워크, 좌표 신뢰도 출력 네트워크와 좌표 오차 정보 출력 네트워크를 포함하되,
    상기 차량 검출 모델은,
    샘플 세트를 획득하되, 샘플은 샘플 이미지 및 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보를 포함하는 방식;
    샘플의 샘플 이미지를 초기 모델에 입력하고, 초기 모델의 카테고리 정보 출력 네트워크와 좌표 정보 출력 네트워크는 각각 예측 카테고리 정보와 예측 좌표 정보를 출력하는 방식;
    상기 예측 좌표 정보와 입력된 샘플 이미지에 대응되는 샘플 좌표 정보에 따라, 샘플 좌표 신뢰도와 샘플 좌표 오차 정보를 결정하는 방식; 및
    샘플 이미지를 입력으로 하고, 입력된 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보, 샘플 좌표 신뢰도 및 샘플 좌표 오차 정보를 기대 출력으로 하여, 초기 모델을 트레이닝하여 차량 검출 모델을 획득하는 방식을 통해 트레이닝 획득되는 것을 특징으로 하는 차량 검출 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 방법은,
    상기 처리할 검출 프레임의 카테고리 정보와 상기 처리 후 검출 프레임의 좌표 정보에 따라, 정정 후 검출 결과를 생성하는 단계를 더 포함하는 것을 특징으로 하는 차량 검출 방법.
  6. 차량 검출 장치로서,
    검출할 이미지를 획득하도록 구성되는 획득 유닛;
    상기 검출할 이미지를 미리 구축된 차량 검출 모델에 입력하여 차량 검출 결과를 획득하도록 구성되는 입력 유닛 - 상기 차량 검출 결과는 검출 프레임의 카테고리 정보, 좌표 정보, 좌표 신뢰도 및 좌표 오차 정보를 포함하고, 상기 차량 검출 모델은 이미지와 차량 검출 결과의 대응 관계를 특성화하기 위한 것임 - ;
    검출 프레임의 좌표 신뢰도에 따라, 상기 차량 검출 결과에서 검출 프레임을 선택하여 처리할 검출 프레임으로 하도록 구성되는 선택 유닛; 및
    상기 처리할 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하도록 구성되는 생성 유닛을 포함하는 것을 특징으로 하는 차량 검출 장치.
  7. 제6항에 있어서,
    상기 생성 유닛은 또한,
    카테고리 정보에 따라, 상기 처리할 검출 프레임에서 검출 프레임을 선택하여 제1 검출 프레임으로 하고;
    상기 제1 검출 프레임과의 IOU에 기반하여, 상기 처리할 검출 프레임에서 검출 프레임을 선택하여 제2 검출 프레임으로 하며;
    상기 제1 검출 프레임과 제2 검출 프레임의 IOU 및 제2 검출 프레임의 좌표 정보와 좌표 오차 정보에 기반하여, 처리 후 검출 프레임의 좌표 정보를 생성하도록 구성되는 것을 특징으로 하는 차량 검출 장치.
  8. 제6항 내지 제7항 중 어느 한 항에 있어서,
    상기 차량 검출 모델은 특징 추출 네트워크를 포함하고, 상기 특징 추출 네트워크는 확장 콘볼루션 레이어 및/또는 비대칭 콘볼루션 레이어를 포함하는 것을 특징으로 하는 차량 검출 장치.
  9. 제6항 내지 제8항 중 어느 한 항에 있어서,
    상기 차량 검출 모델은 카테고리 정보 출력 네트워크, 좌표 정보 출력 네트워크, 좌표 신뢰도 출력 네트워크와 좌표 오차 정보 출력 네트워크를 포함하되,
    상기 차량 검출 모델은,
    샘플 세트를 획득하되, 샘플은 샘플 이미지 및 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보를 포함하는 방식;
    샘플의 샘플 이미지를 초기 모델에 입력하고, 초기 모델의 카테고리 정보 출력 네트워크와 좌표 정보 출력 네트워크는 각각 예측 카테고리 정보와 예측 좌표 정보를 출력하는 방식;
    상기 예측 좌표 정보와 입력된 샘플 이미지에 대응되는 샘플 좌표 정보에 따라, 샘플 좌표 신뢰도와 샘플 좌표 오차 정보를 결정하는 방식; 및
    샘플 이미지를 입력으로 하고, 입력된 샘플 이미지에 대응되는 샘플 카테고리 정보, 샘플 좌표 정보, 샘플 좌표 신뢰도 및 샘플 좌표 오차 정보를 기대 출력으로 하여, 초기 모델을 트레이닝하여 차량 검출 모델을 획득하는 방식을 통해 트레이닝 획득되는 것을 특징으로 하는 차량 검출 장치.
  10. 제6항 내지 제9항 중 어느 한 항에 있어서,
    상기 장치는,
    상기 처리할 검출 프레임의 카테고리 정보와 상기 처리 후 검출 프레임의 좌표 정보에 따라, 정정 후 검출 결과를 생성하도록 구성되는 결과 생성 유닛을 더 포함하는 것을 특징으로 하는 차량 검출 장치.
  11. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 기기로서,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항 내지 제5항 중 어느 한 항에 따른 방법을 수행할 수 있도록 하는 것을 특징으로 하는 전자 기기.
  12. 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제5항 중 어느 한 항에 따른 방법을 수행하도록 하는 것을 특징으로 하는 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장 매체.
KR1020227016264A 2020-04-29 2020-11-19 차량 검출 방법 및 장치 KR20220071284A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010356239.8 2020-04-29
CN202010356239.8A CN111553282B (zh) 2020-04-29 2020-04-29 用于检测车辆的方法和装置
PCT/CN2020/130110 WO2021218124A1 (zh) 2020-04-29 2020-11-19 用于检测车辆的方法和装置

Publications (1)

Publication Number Publication Date
KR20220071284A true KR20220071284A (ko) 2022-05-31

Family

ID=72000229

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227016264A KR20220071284A (ko) 2020-04-29 2020-11-19 차량 검출 방법 및 장치

Country Status (6)

Country Link
US (1) US20220270373A1 (ko)
EP (1) EP4047511A4 (ko)
JP (1) JP7357789B2 (ko)
KR (1) KR20220071284A (ko)
CN (1) CN111553282B (ko)
WO (1) WO2021218124A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553282B (zh) * 2020-04-29 2024-03-29 北京百度网讯科技有限公司 用于检测车辆的方法和装置
CN112115904A (zh) * 2020-09-25 2020-12-22 浙江大华技术股份有限公司 车牌检测识别方法、装置及计算机可读存储介质
CN112241718B (zh) * 2020-10-23 2024-05-24 北京百度网讯科技有限公司 车辆信息的检测方法、检测模型的训练方法和装置
CN112560726B (zh) * 2020-12-22 2023-08-29 阿波罗智联(北京)科技有限公司 目标检测置信度确定方法、路侧设备及云控平台
CN112712012B (zh) * 2020-12-29 2024-09-13 中通服公众信息产业股份有限公司 一种道路卡口车辆位置检测方法
CN115019498B (zh) * 2022-05-13 2024-09-13 深圳市锐明技术股份有限公司 停车管理方法及系统
CN115171072B (zh) * 2022-06-18 2023-04-21 感知信息科技(浙江)有限责任公司 基于fpga车辆检测跟踪算法实现的车辆3d检测方法
CN115410189B (zh) * 2022-10-31 2023-01-24 松立控股集团股份有限公司 一种复杂场景车牌检测方法
CN116363631B (zh) * 2023-05-19 2023-09-05 小米汽车科技有限公司 三维目标检测方法、装置及车辆
CN116503398B (zh) * 2023-06-26 2023-09-26 广东电网有限责任公司湛江供电局 绝缘子污闪检测方法、装置、电子设备及存储介质
CN116662788B (zh) * 2023-07-27 2024-04-02 太平金融科技服务(上海)有限公司深圳分公司 一种车辆轨迹处理方法、装置、设备和存储介质
CN116704467B (zh) * 2023-08-04 2023-11-03 哪吒港航智慧科技(上海)有限公司 一种车辆防砸自动识别方法、装置、设备和存储介质
CN117576645B (zh) * 2024-01-16 2024-03-22 深圳市欧冶半导体有限公司 基于bev视角的车位检测方法、装置和计算机设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446834A (zh) * 2016-09-27 2017-02-22 东软集团股份有限公司 一种基于图像的车型识别方法及装置
US10402995B2 (en) * 2017-07-27 2019-09-03 Here Global B.V. Method, apparatus, and system for real-time object detection using a cursor recurrent neural network
CN108875902A (zh) * 2017-12-04 2018-11-23 北京旷视科技有限公司 神经网络训练方法及装置、车辆检测估计方法及装置、存储介质
CN108376235A (zh) * 2018-01-15 2018-08-07 深圳市易成自动驾驶技术有限公司 图像检测方法、装置及计算机可读存储介质
JP7104916B2 (ja) * 2018-08-24 2022-07-22 国立大学法人岩手大学 移動物体検出装置および移動物体検出方法
CN110956060A (zh) * 2018-09-27 2020-04-03 北京市商汤科技开发有限公司 动作识别、驾驶动作分析方法和装置及电子设备
JP7208480B2 (ja) * 2018-10-12 2023-01-19 富士通株式会社 学習プログラム、検出プログラム、学習装置、検出装置、学習方法および検出方法
US10890460B2 (en) * 2018-10-19 2021-01-12 International Business Machines Corporation Navigation and location validation for optimizing vehicle-based transit systems
CN109711274A (zh) * 2018-12-05 2019-05-03 斑马网络技术有限公司 车辆检测方法、装置、设备和存储介质
CN109919072B (zh) * 2019-02-28 2021-03-19 桂林电子科技大学 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
CN110427937B (zh) * 2019-07-18 2022-03-22 浙江大学 一种基于深度学习的倾斜车牌矫正和不定长车牌识别方法
CN110490884B (zh) * 2019-08-23 2023-04-28 北京工业大学 一种基于对抗的轻量级网络语义分割方法
CN110796168B (zh) * 2019-09-26 2023-06-13 江苏大学 一种基于改进YOLOv3的车辆检测方法
CN110751633A (zh) * 2019-10-11 2020-02-04 上海眼控科技股份有限公司 基于深度学习的多轴大车制动检测方法、装置、系统
CN111027542A (zh) * 2019-11-20 2020-04-17 天津大学 一种基于Faster RCNN算法改进的目标检测方法
CN111553282B (zh) * 2020-04-29 2024-03-29 北京百度网讯科技有限公司 用于检测车辆的方法和装置

Also Published As

Publication number Publication date
EP4047511A4 (en) 2023-05-31
US20220270373A1 (en) 2022-08-25
WO2021218124A1 (zh) 2021-11-04
EP4047511A1 (en) 2022-08-24
JP7357789B2 (ja) 2023-10-06
JP2023509572A (ja) 2023-03-09
CN111553282A (zh) 2020-08-18
CN111553282B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
KR20220071284A (ko) 차량 검출 방법 및 장치
EP4044117A1 (en) Target tracking method and apparatus, electronic device, and computer-readable storage medium
EP3965431A1 (en) Video data processing method and related device
US20200012876A1 (en) Text detection method, storage medium, and computer device
JP7258066B2 (ja) 測位方法、測位装置及び電子機器
US20210304438A1 (en) Object pose obtaining method, and electronic device
US11288887B2 (en) Object tracking method and apparatus
US11810319B2 (en) Image detection method, device, storage medium and computer program product
US11367195B2 (en) Image segmentation method, image segmentation apparatus, image segmentation device
US11380035B2 (en) Method and apparatus for generating map
JP7273129B2 (ja) 車線検出方法、装置、電子機器、記憶媒体及び車両
JP7228623B2 (ja) 障害物検出方法、装置、設備、記憶媒体、及びプログラム
US20220351398A1 (en) Depth detection method, method for training depth estimation branch network, electronic device, and storage medium
US11881050B2 (en) Method for detecting face synthetic image, electronic device, and storage medium
EP4080470A2 (en) Method and apparatus for detecting living face
US11557062B2 (en) Method and apparatus for processing video frame
KR102568948B1 (ko) 장애물 속도를 결정하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN114913121A (zh) 一种屏幕缺陷检测系统、方法、电子设备及可读存储介质
JP2021174531A (ja) 目標追跡方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
US10824911B2 (en) Combining independent solutions to an image or video processing task
US20220027651A1 (en) Method for generating a license plate defacement classification model, license plate defacement classification method, electronic device and storage medium
CN115439543A (zh) 孔洞位置的确定方法和元宇宙中三维模型的生成方法
CN112634366B (zh) 位置信息的生成方法、相关装置及计算机程序产品
KR102604426B1 (ko) 목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품
CN114565777A (zh) 数据处理方法和装置

Legal Events

Date Code Title Description
A201 Request for examination
WITB Written withdrawal of application