KR102604426B1 - 목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품 - Google Patents

목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품 Download PDF

Info

Publication number
KR102604426B1
KR102604426B1 KR1020210138653A KR20210138653A KR102604426B1 KR 102604426 B1 KR102604426 B1 KR 102604426B1 KR 1020210138653 A KR1020210138653 A KR 1020210138653A KR 20210138653 A KR20210138653 A KR 20210138653A KR 102604426 B1 KR102604426 B1 KR 102604426B1
Authority
KR
South Korea
Prior art keywords
processed
image
target
detection box
height
Prior art date
Application number
KR1020210138653A
Other languages
English (en)
Other versions
KR20210133174A (ko
Inventor
하오 멍
Original Assignee
아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. filed Critical 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Publication of KR20210133174A publication Critical patent/KR20210133174A/ko
Application granted granted Critical
Publication of KR102604426B1 publication Critical patent/KR102604426B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 출원은 목표 탐지 신뢰도를 결정하는 방법 및 장치를 개시하는바, 지능형 교통 기술 분야에 관한 것이다. 구체적인 구현방안으로는, 처리할 영상 중의 각 프레임의 처리할 이미지에 대해, 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 당해 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이를 결정하고; 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 처리할 영상 중의 당해 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 것이다. 본 방안은 간단한 신뢰도 결정 방법을 제공하는바, 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 신속하게 결정할 수 있다.

Description

목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품{METHOD AND APPARATUS FOR DETERMINING TARGET DETECTION CONFIDENCE LEVEL, ELECTRONIC DEVICE, STORAGE MEDIUM, ROADSIDE DEVICE, CLOUD CONTROL PLATFORM, AND COMPUTER PROGRAM PRODUCT}
본 개시는 컴퓨터 기술 분야에 관한 것으로, 구체적으로는 지능형 교통 기술에 관한 것이며, 목표 탐지 신뢰도를 결정하는 방법, 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼 및 컴퓨터 프로그램 제품에 관한 것이다.
국가에서 대거 추진하는 신형 인프라 건설 과정에서 카메라에 기반하는 장애물 감지 알고리즘이 중요한 역할을 하고 있다. 여기서 인공 지능 딥러닝 모델에 기반하는 장애물 감지 알고리즘이 장족의 발전을 하였다. 비정상 작업 상황(예를 들어 비, 눈, 안개, 야간, 영상 스트림 중단 등)에서 감지 모델의 장애물에 대한 재현율 및 정확률은 모두 어느 정도 하락될 수 있다.
본 개시는 목표 탐지 신뢰도를 결정하는 방법, 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼 및 컴퓨터 프로그램 제품을 제공한다.
첫 번째 측면으로, 본 개시는 목표 탐지 신뢰도를 결정하는 방법을 제공하는바, 당해 방법은, 처리할 영상 중의 각 프레임의 처리할 이미지에 대해, 당해 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 당해 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이를 결정하는 단계; 및 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 처리할 영상 중의 당해 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 단계를 포함한다.
두 번째 측면으로, 본 개시는 목표 탐지 신뢰도를 결정하는 장치를 제공하는바, 당해 장치는, 처리할 영상 중의 각 프레임의 처리할 이미지에 대해, 당해 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 당해 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이를 결정하도록 구성되는 높이 결정 유닛; 및 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 처리할 영상 중의 당해 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하도록 구성되는 신뢰도 결정 유닛을 포함한다.
세 번째 측면으로, 전자 기기를 제공하는바, 당해 전자 기기는, 적어도 하나의 프로세서; 및 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하되, 여기서 메모리는 적어도 하나의 프로세서에 의해 실행 가능한 명령을 저장하고, 명령은 적어도 하나의 프로세서에 의해 실행되어, 적어도 하나의 프로세서가 상술한 첫 번째 측면 중 어느 한 항의 방법을 수행하도록 한다.
네 번째 측면으로, 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독가능 저장 매체를 제공하는바, 컴퓨터 명령은 컴퓨터가 상술한 첫 번째 측면 중 어느 한 항의 방법을 수행하도록 한다.
다섯 번째 측면으로, 노변 기기를 제공하는바, 당해 노변 기기는 세 번째 측면에 따른 전자 기기를 포함한다.
여섯 번째 측면으로, 클라우드 제어 플랫폼을 제공하는바, 당해 클라우드 제어 플랫폼은 세 번째 측면에 따른 전자 기기를 포함한다.
일곱 번째 측면으로, 매체에 저장된 컴퓨터 프로그램 제품을 제공하는바, 당해 컴퓨터 프로그램 제품은 컴퓨터 프로그램을 포함하며, 컴퓨터 프로그램이 프로세서에 의해 실행되는 경우 첫 번째 측면 중 어느 한 항의 방법을 구현한다.
본 개시의 기술에 따르면, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지의 신뢰도를 결정함으로써, 간단한 목표 탐지 신뢰도를 결정하는 방법을 제공하고, 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 신속하게 결정할 수 있다.
본 부분에서 서술한 내용은 본 개시의 실시예의 핵심적인 또는 중요한 특징을 표시하기 위한 것이 아니고, 본 개시의 범위를 한정하기 위한 것도 아님을 이해해야 한다. 본 개시의 다른 특징은 아래의 명세서를 통해 이해하기 수월해질 것이다.
첨부 도면은 본 방안을 더 잘 이해하기 위한 것이며, 본 개시에 대한 한정을 구성하지 않는다.
도 1은 본 개시의 일 실시예가 적용될 수 있는 예시적인 시스템 아키텍처 도면이다.
도 2는 본 개시에 따른 목표 탐지 신뢰도를 결정하는 방법의 일 실시예의 흐름도이다.
도 3은 본 개시에 따른 목표 탐지 신뢰도를 결정하는 방법의 일 응용 시나리오의 개략도이다.
도 4는 본 개시에 따른 목표 탐지 신뢰도를 결정하는 방법의 다른 실시예의 흐름도이다.
도 5는 본 개시에 따른 목표 탐지 신뢰도를 결정하는 장치가 협력하는 일 실시예의 흐름도이다.
도 6은 본 개시의 실시예의 전자 기기/단말 기기 또는 서버를 구현하기에 적합한 컴퓨터 시스템의 구조 개략도이다.
아래 첨부 도면을 결부하여 본 출원의 시범적 실시예를 설명하고자 하는바, 이해를 돕고자 본 출원의 실시예의 다양한 세부사항이 포함되나 이는 단지 시범적인 것으로 간주되어야 한다. 따라서, 당업자라면, 여기서 서술한 실시예는 본 출원의 범위 및 사상에 위배되지 않으면서 다양한 변경 및 수정이 가능하다는 것을 인지하여야 한다. 마찬가지로, 명확함과 간결함을 위해, 아래 서술에서는 공지된 기능 및 구조에 대한 서술을 생략하기로 한다.
도 1은 본 개시의 목표 탐지 신뢰도를 결정하는 방법 및 장치가 적용될 수 있는 예시적인 시스템 아키텍처(100)이다.
도 1에 도시한 바와 같이, 시스템 아키텍처(100)는 단말 기기(101, 102, 103), 네트워크(104) 및 서버(105)를 포함할 수 있다. 네트워크(104)는 단말 기기(101, 102, 103)와 서버(105) 사이에서 통신 링크를 제공하는 매체로 사용된다. 네트워크(104)는 다양한 연결 유형, 예를 들면 유선, 무선 통신 링크 또는 광섬유 케이블 등을 포함할 수 있다.
단말 기기(101, 102, 103)는 네트워크 연결을 서포트하여 데이터 인터랙션 및 데이터 처리를 진행하는 하드웨어 기기 또는 소프트웨어일 수 있다. 단말 기기(101, 102, 103)가 하드웨어인 경우, 단말 기기(101, 102, 103)는 네트워크 연결, 정보 획득, 인터랙션, 표시, 처리 등의 기능을 서포트하는 다양한 전자 기기일 수 있는바, 카메라, 스마트폰, 태블릿 컴퓨터, 차량용 컴퓨터, 랩톱 컴퓨터 및 데스크톱 컴퓨터 등을 포함하나 이에 한정되지 않는다. 단말 기기(101, 102, 103)가 소프트웨어인 경우, 이상 나열한 전자 기기에 설치될 수 있다. 이는 복수의 소프트웨어 또는 소프트웨어 모듈(예를 들면 분산 서비스를 제공하는 복수의 소프트웨어 또는 소프트웨어 모듈)로 구현될 수도 있고 단일 소프트웨어 또는 소프트웨어 모듈로 구현될 수도 있다. 여기서는 구체적으로 한정하지 않는다.
서버(105)는 다양한 서비스를 제공하는 서버일 수 있는바, 예를 들어 단말 기기(101, 102, 103)에 의해 촬영된 처리할 영상을 수신하고, 처리할 영상 중의 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 백그라운드 처리 서버일 수 있다. 예를 들어, 백그라운드 처리 서버는 현재의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정한다. 예시로, 서버(105)는 클라우드측 서버일 수 있다.
부연하면, 서버는 하드웨어일 수도 있고 소프트웨어일 수도 있다. 서버가 하드웨어인 경우, 복수의 서버로 구성된 분산 서버 클러스터로 구현될 수도 있고, 단일 서버로 구현될 수도 있다. 서버가 소프트웨어인 경우, 복수의 소프트웨어 또는 소프트웨어 모듈(예를 들면 분산 서비스를 제공하는 소프트웨어 또는 소프트웨어 모듈)로 구현될 수도 있고, 단일 소프트웨어 또는 소프트웨어 모듈로 구현될 수도 있다. 여기서는 구체적으로 한정하지 않는다.
더 부연하면, 본 개시의 실시예에 의해 제공되는 목표 탐지 신뢰도를 결정하는 방법은 서버에 의해 수행될 수도 있고, 단말 기기에 의해 수행될 수도 있으며, 서버와 단말 기기의 상호 협력에 의해 수행될 수도 있다. 상응하게, 목표 탐지 신뢰도를 결정하는 장치에 포함되는 각 부분(예를 들면 각 유닛, 각 모듈)은 모두 서버에 설치될 수도 있고, 모두 단말 기기에 설치될 수도 있으며, 서버와 단말 기기에 각각 설치될 수도 있다.
도 1에서의 단말 기기, 네트워크 및 서버의 수는 단지 예시적인 것임을 이해하여야 한다. 구현의 필요에 따라, 임의 수의 단말 기기, 네트워크 및 서버를 가질 수 있다. 목표 탐지 신뢰도를 결정하는 방법이 수행되는 전자 기기가 다른 전자 기기와의 데이터 전송이 필요하지 않은 경우, 당해 시스템 아키텍처는 목표 탐지 신뢰도를 결정하는 방법이 수행되는 전자 기기(예를 들면 서버 또는 단말 기기)만을 포함할 수 있다.
계속하여 도 2를 참조하면, 목표 탐지 신뢰도를 결정하는 방법의 일 실시예의 흐름(200)을 도시하며, 하기 단계를 포함한다.
단계(201)에서, 처리할 영상 중의 각 프레임의 처리할 이미지에 대해, 당해 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 당해 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이를 결정한다.
본 실시예에서, 목표 탐지 신뢰도를 결정하는 방법의 수행 주체(예를 들면 도 1에서의 서버)는 유선 연결 방식 또는 무선 연결 방식을 통해 원격 또는 로컬에서 처리할 영상을 획득할 수 있다. 여기서, 처리할 영상은 영상획득 장치에 의해 촬영된 임의의 콘텐츠를 포함하는 영상일 수 있다. 예시로, 처리할 영상은 감시 카메라에 의해 촬영된 교통 상황을 특성화하는 영상일 수 있다.
처리할 영상 중의 각 프레임의 이미지에 대해, 상술한 수행 주체는 당해 처리할 이미지에서의 각 목표 객체의 탐지 박스를 결정할 수 있다. 여기서, 목표 객체는 처리할 이미지에 포함된 모든 이동 가능한 목표물일 수 있다. 예시로, 목표 객체는 처리할 이미지에 포함된 차량, 행인 등 객체일 수 있다. 탐지 박스는 당해 처리할 이미지에서 목표 객체에 대응되는 영역을 특성화한다. 각각의 목표 객체는 하나의 탐지 박스 정보에 대응된다.
예시로, 상술한 수행 주체는 탐지 박스 인식 모델을 통해 당해 처리할 이미지에서의 목표 객체의 탐지 박스를 결정할 수 있다. 여기서, 탐지 박스 인식 모델은 처리할 이미지와 목표 객체의 탐지 박스의 대응관계를 특성화한다. 탐지 박스 인식 모델은 합성곱 신경망, 순환 신경망, 잔차 신경망 등 네트워크 모델을 사용하여 머신러닝 알고리즘을 기반으로 훈련하여 얻을 수 있다.
상술한 수행 주체는 당해 처리할 이미지에 포함된 모든 목표 객체의 탐지 박스를 비교하여 당해 처리할 이미지의 최고 위치에 위치한 탐지 박스를 목표 탐지 박스로 결정하고, 목표 탐지 박스가 당해 처리할 이미지에서 위치한 높이를 결정한다. 여기서, 목표 객체의 탐지 박스가 당해 처리할 이미지에서 위치한 높이를 결정할 때, 당해 처리할 이미지의 하부 가장자리를 참조선으로 한다.
본 실시예에서, 상술한 수행 주체는 탐지 박스 내의 어느 하나의 점의, 처리할 이미지에서의 높이를 탐지 박스가 당해 처리할 이미지에서 위치한 높이로 결정할 수 있다. 예시로, 탐지 박스의 중심점 또는 최고점에 기반하여 탐지 박스가 처리할 이미지에서 위치한 높이를 결정할 수 있다.
처리할 영상 중의 각 프레임의 처리할 이미지는 치수가 같으므로, 서로 다른 처리할 이미지 중의 목표 탐지 박스의, 처리할 이미지에서의 위치한 높이 사이는 비교가 가능하다는 것을 이해할 수 있다.
단계(202)에서, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 처리할 영상 중의 당해 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정한다.
본 실시예에서, 상술한 수행 주체는 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 처리할 영상 중의 당해 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정할 수 있다.
예시로, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이는 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도와 양의 상관관계를 나타낸다. 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 높을수록, 처리할 영상의 영상획득 장치에 의해 촬영될 수 있는 목표물의 거리가 더 멀고, 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도가 더 높음을 나타내고, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 낮을수록, 처리할 영상의 영상획득 장치에 의해 촬영될 수 있는 목표물의 거리가 더 가깝고, 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도가 더 낮음을 나타낸다.
영상획득 장치가 도로 상의 감시 카메라인 경우를 예로 들면, 감시 카메라는 일반적으로 전면 카메라와 후면 카메라로 구분된다. 여기서, 전면 카메라는, 렌즈가 목표 객체에 의해 특성화되는 목표물이 달려가는 방향을 향하는 카메라를 특성화한다. 전면 카메라에 의해 촬영된 처리할 영상에서, 목표 객체는 일반적으로 영상 화면의 하부 가장자리로 진입하고 영상 화면의 상부 가장자리에서 소실된다. 후면 카메라는, 렌즈가 목표 객체에 의해 특성화되는 목표물이 달려오는 방향을 향하는 카메라를 특성화한다. 후면 카메라에 의해 촬영된 처리할 영상에서 목표 객체는 일반적으로 영상 화면의 상부 가장자리로 진입하고 영상 화면의 하부 가장자리에서 소실된다.
전면 카메라에 대응되게, 목표 객체가 처리할 영상의 영상 화면에서 거의 소실될 때, 목표 객체에 의해 특성화되는 목표물은 전면 카메라까지의 거리가 더 멀며, 후면 카메라에 대응되게, 목표 객체가 처리할 영상의 영상 화면에 처음 진입할 때, 목표 객체에 의해 특성화되는 목표물은 후면 카메라로까지의 거리가 더 멀다는 것을 이해할 수 있다.
나아가, 상술한 수행 주체는, 사전설정 높이를 설정하고, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이와 사전설정 높이의 비율을 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도로 결정함으로써 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 수량화할 수 있다. 여기서, 사전설정 높이는, 처리할 영상의 영상획득 장치에 의해 촬영될 수 있는 가장 먼 곳의 목표물에 대응되는 목표 객체의 탐지 박스가 처리할 이미지에서 위치하는 높이일 수 있다. 여기서, 목표 객체는 현실 속의 목표물의, 처리할 이미지에서의 결상을 특성화한다.
예시로, 당해 처리할 이미지가 처리할 영상의 제100번째 프레임의 처리할 이미지이고, 당해 처리할 이미지 중의 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이가 전의 99프레임의 처리할 이미지 중의 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이보다 낮지 않으면, 당해 처리할 이미지 중의 목표 탐지 박스의, 당해 처리할 이미지에서 위치한 높이와 사전설정 높이의 비율을 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도로 결정한다.
계속하여 도 3을 참조하면, 도 3은 본 실시예에 따른 객체 탐지 신뢰도를 결정하는 방법의 응용 시나리오의 하나의 개략도이다. 도 3에 도시한 응용 시나리오에서, 카메라(301)는 교통 상황을 특성화하는 처리할 영상을 촬영하고, 처리할 영상을 실시간으로 서버(302)로 전송한다. 서버(302)는 처리할 영상 중의 각 프레임의 처리할 영상에 대해, 당해 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 당해 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이를 결정하고; 및 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이(3021)가 처리할 영상 중의 당해 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이(3022)보다 낮지 않은 것에 응답하여, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정한다.
본 실시예에서, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정함으로써, 간단한 목표 탐지 신뢰도를 결정하는 방법을 제공하고, 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 신속하게 결정할 수 있다
본 실시예의 일부 대안적인 구현방식에서, 상술한 수행 주체는 당해 처리할 이미지를 사전설정 높이로부터 하부 가장자리까지 제1 수량의 목표 영역으로 분할한다. 예시로, 상술한 수행 주체는 당해 처리할 이미지를 사전설정 높이로부터 하부 가장자리까지 제1 수량의 목표 영역으로 평균 분할할 수 있다.
상술한 수행 주체는, 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮다고 결정된 것에 응답하여, 당해 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정할 수 있다.
여기서, 사전설정 상태는 당해 처리할 이미지까지에 있어서의 제3 수량 프레임의 처리할 이미지 중에 존재하는 처리할 이미지에 있어서, 당해 처리할 이미지 중의 목표 객체의 탐지 박스와 목표 영역 간에는 교집합이 존재한다는 것을 특성화한다. 여기서, 제1 수량, 제2 수량 및 제3 수량은 실제 상황에 따라 구체적으로 설정될 수 있다. 예를 들어, 제1 수량은 100이고, 제2 수량은 1000이고, 제3 수량은 20으로 설정될 수 있다.
만약 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면, 당해 처리할 이미지에 탐지 결과의 신뢰도가 하락하는 상황이 존재할 수 있다는 것을 표명한다. 또한, 당해 처리할 이미지에서 목표 객체가 비교적 적거나 목표 객체가 당해 처리할 이미지에서 위치한 높이가 모두 비교적 낮은 상황에서, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 기반하여 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 결정하는 방식에 의해 초래되는 결정된 신뢰도가 부정확한 상황을 회피하기 위해, 본 구현방식은 당해 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도를 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도로 결정한다.
제1 수량이 100, 제2 수량이 1000, 제3 수량이 20인 경우를 예로 들면, 당해 처리할 이미지가 처리할 영상의 제2000 번째 프레임의 이미지이고, 전의 1000 프레임의 처리할 이미지를 통해 결정된 목표 탐지 박스의 최대 높이가 A이고, 제1001-2000 번째 프레임의 처리할 이미지의 목표 탐지 박스가 처리할 이미지에서 위치한 높이가 모두 A보다 낮으면, 당해 처리할 이미지에서의 100개 목표 영역 중에서 상태 정보가 사전설정 상태인 목표 영역을 결정한다. 여기서, 각각의, 사전설정 상태인 목표 영역에 대해, 당해 처리할 이미지까지에 있어서의 20 프레임의 처리할 이미지 중에는, 포함하는 목표 객체의 탐지 박스와 당해 목표 영역 간에 교집합이 존재하는 처리할 이미지가 적어도 하나 존재한다.
상술한 수행 주체는, 사전설정 선택 방식에 기반하여, 결정된 사전설정 상태에 처한 목표 영역 중에서 목표 영역을 선택하고, 선택된 목표 영역에 대응되는 신뢰도를 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도로 결정할 수 있다. 상술한 수행 주체는 사전에 각 목표 영역에 대해 대응되는 신뢰도를 설정할 수 있다는 것을 이해할 수 있다. 여기서 목표 영역이 당해 처리할 이미지에서 위치한 높이는 목표 영역에 대응되는 신뢰도와 양의 상관관계를 나타낸다.
본 실시예의 일부 대안적인 구현방식에서, 당해 처리할 이미지에서 사전설정 상태에 처한 각 목표 영역에 대해, 상술한 수행 주체는 당해 처리할 이미지까지의 제4 수량 프레임의 처리할 이미지 중에서, 목표 영역과 교집합이 존재하는 탐지 박스의, 처리할 영상에서 위치하는 평균 높이를 결정하고; 나아가 평균 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정할 수 있다. 여기서, 평균 높이는 신뢰도와 양의 상관관계를 나타낸다. 제4 수량은 실제 상황에 따라 구체적으로 설정될 수 있다. 예시로, 제4 수량은 제3 수량과 같을 수 있다.
본 실시예의 일부 대안적인 구현방식에서, 상술한 수행 주체는 당해 처리할 이미지 중 사전설정 상태인 목표 영역 중에서 당해 처리할 이미지의 최고 위치에 위치한 목표 영역을 결정하고; 최고 위치의 목표 영역에 대응되는 신뢰도를 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도로 결정한다.
영상획득 장치가 제3 수량 프레임의 영상을 획득하는데 걸리는 시간이 비교적 짧은 경우(예를 들어 2초)에는, 당해 시간 내에 비정상 작업 상황이 발생할 확률이 극히 작으므로, 이를 무시할 수 있다는 것을 이해할 수 있다. 따라서, 만약 당해 처리할 이미지의 제3 수량 프레임의 처리할 이미지 중에 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이가 비교적 높은 상황이 존재하는 경우, 즉 당해 처리할 이미지의 제3 수량 프레임의 처리할 이미지 중에 탐지 결과의 신뢰도가 비교적 높은 처리할 이미지가 존재하는 경우, 상술한 수행 주체는 탐지 결과의 신뢰도가 비교적 높은 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도로 결정할 수 있다. 본 구현방식에서, 목표 영역 중에서 당해 처리할 이미지의 최고 위치에 위치한 목표 영역은 당해 시간 구간 내의 당해 처리할 이미지 중의 가장 높은 탐지 결과의 신뢰도를 특성화할 수 있다.
본 실시예의 일부 대안적인 구현방식에서, 상술한 수행 주체는, 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서 당해 처리할 이미지에 목표 객체의 궤적이 소실되는 상황이 존재한다고 결정된 것에 응답하여, 당해 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정한다.
여기서, 목표 객체의 궤적이 소실되는 상황은 당해 처리할 이미지까지에 있어서, 목표 객체가 처리할 영상의 영상획득 장치의 촬영 범위를 벗어나는 것을 특성화한다. 본 실시예에서, 궤적 소실은 주로 전면 카메라에 대한 것이며, 구체적으로 목표 객체가 처리할 영상의 영상 화면의 하부 가장자리로 진입하고 영상 화면의 상부 가장자리에서 소실되는 것으로 표현된다.
상술한 궤적 소실의 상황이 존재하는 경우, 이는, 영상획득 장치가 당해 처리할 이미지를 획득하는 짧은 시간 내에, 탐지 결과의 신뢰도가 비교적 높은 처리할 영상을 획득한 것을 나타내는 것으로, 이로써, 당해 처리할 이미지에서 목표 객체가 비교적 적거나 또는 목표 객체가 당해 처리할 이미지에서 위치한 높이가 모두 비교적 낮은 상황에서, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 기반하여 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 결정하는 방식에 의해 초래되는 신뢰도가 부정확한 상황을 나아가 회피할 수 있다는 것을 이해할 수 있다.
본 실시예의 일부 대안적인 구현방식에서, 제1 수량의 목표 영역 중의 각 목표 영역의 상태는 하기 방식을 통해 결정될 수 있다.
당해 목표 영역이 비 사전설정 상태인 것에 대응되는 처리할 이미지를 시작으로, 현재의 처리할 이미지까지에 있어서, 당해 목표 영역에 대응되는 탐지 박스가 존재하는 처리할 이미지의 수량과 당해 목표 영역에 대응되는 탐지 박스가 존재하지 않는 처리할 이미지의 수량의 차이값이 사전설정 역치보다 크다고 결정된 것에 응답하여, 현재의 처리할 이미지 중의 당해 목표 영역을 사전설정 상태라고 판정한다.
당해 목표 영역이 사전설정 상태인 것에 대응되는 처리할 이미지를 시작으로, 현재의 처리할 이미지까지에 있어서, 연속적인 제3 수량 프레임의 처리할 이미지 중에 당해 목표 영역에 대응되는 탐지 박스가 존재하지 않는 상황이 존재하는 것에 응답하여, 현재의 처리할 이미지 중의 당해 목표 영역을 비 사전설정 상태라고 판정한다.
예시로, 제1 수량의 목표 영역 중의 각 목표 영역에 대해, 상술한 수행 주체는 사전설정 변수 M을 통해 당해 목표 영역의 상태가 사전설정 상태인지 여부를 결정한다. 구체적으로, 먼저 M을 0으로 초기화한다(비 사전설정 상태에 대응됨). 처리할 영상의 제1 프레임의 처리할 이미지를 시작으로, 처리할 이미지에 목표 객체의 탐지 박스와 당해 목표 영역 간에 교집합이 존재하는 상황이 존재한다고 결정된 것에 응답하여, M = M+1로 하고; 처리할 이미지에 목표 객체의 탐지 박스와 당해 목표 영역 간에 교집합이 존재하는 상황이 존재하지 않는다고 결정된 것에 응답하여, M = M-1로 하며, M이 사전설정 역치에 도달하고 당해 목표 영역이 비 사전설정 상태에서 사전설정 상태로 업데이트될 때까지 지속한다. 여기서, 사전설정 역치는 실제 상황에 따라 구체적으로 설정될 수 있는바, 예시로 사전설정 역치는 20일 수 있다. M이 변화하는 과정에서 M이 다시 0으로 변환하는 경우가 존재할 수 있고, M이 0으로 변환된 후 더 이상 감소하지 않는 다는 것을 이해할 수 있다.
당해 목표 영역이 사전설정 상태로 업데이트된 후, 연속적인 제3 수량 프레임의 처리할 이미지 중에 탐지 박스와 당해 목표 영역 간에 교집합이 존재하는 상황이 모두 존재하지 않을 경우, M을 0으로 설정하고, 당해 목표 영역의 상태를 사전설정 상태에서 비 사전설정 상태로 업데이트한다. 본 구현방식을 통해, 각 목표 영역에 대응되는 상태 정보를 정확하게 결정할 수 있다.
본 실시예의 일부 대안적인 구현방식에서, 상술한 수행 주체는 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서, 또한 당해 처리할 이미지에서 목표 객체가 탐지되지 않은 것에 응답하여, 목표 객체를 포함하면서 당해 처리할 이미지와 가장 인접한 목표 처리할 이미지를 결정하고; 목표 처리할 이미지에 포함된 목표 객체에 대응되는 과거 궤적 정보로부터 처리할 이미지의 최고 위치에 위치한 탐지 박스를 결정하고; 및 최고 위치의 탐지 박스의, 처리할 이미지에서의 위치한 높이와 사전설정 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정할 수도 있다.
본 구현방식은 주로 영상획득 장치가 후면 카메라인 상황에 대한 것이다. 후면 카메라에 대해, 목표 객체가 처음에 처리할 영상의 영상 화면에 진입할 때 처리할 이미지에서 최대 높이에 위치한다. 본 구현방식을 통해, 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서, 또한 당해 처리할 이미지에서 목표 객체가 탐지되지 않은 경우, 당해 처리할 이미지를 위해 비교적 높은 신뢰도를 결정하여, 본 출원의 적용 범위를 향상한다.
본 실시예의 일부 대안적인 구현방식에서, 상술한 수행 주체는 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮은 상황이 존재하지 않는 것에 응답하여, 바로 앞 프레임의 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도로 결정한다. 처리할 영상에 대응되는 탐지 결과의 신뢰도의 하락이 분명하게 결정되지 않은 상황에서, 바로 앞 프레임의 처리할 이미지의 비교적 높은 탐지 결과의 신뢰도를 계속하여 사용함으로써 신뢰도 결정의 정확도를 향상시킨다는 것을 이해할 수 있다.
본 실시예의 일부 대안적인 구현방식에서, 상술한 수행 주체는 처리할 영상 및 각 프레임의 처리할 이미지의 신뢰도 정보를 처리할 영상에 대한 후속 동작을 수행하는 단말 기기에 전송하여, 단말 기기가 처리할 영상 및 각 프레임의 처리할 이미지에 대응되는 탐지 결과의 신뢰도 정보에 따라 상응한 동작을 수행하도록 할 수도 있다.
계속하여 도 4를 참조하면, 본 출원에 따른 목표 탐지 신뢰도를 결정하는 방법의 다른 실시예의 개략적인 흐름(400)을 도시하는바, 하기 단계를 포함한다.
단계(401)에서, 처리할 영상 중의 각 프레임의 처리할 이미지에 대해, 당해 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 당해 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이를 결정한다.
단계(402)에서, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 처리할 영상 중의 당해 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정한다.
단계(403)에서, 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮다고 결정된 것에 응답하여, 당해 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정한다.
단계(404)에서, 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮은 상황이 존재하지 않는 것에 응답하여, 바로 앞 프레임의 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도로 결정한다.
여기서 사전설정 상태는 당해 처리할 이미지까지의 제3 수량 프레임의 처리할 이미지 중에 포함된 목표 객체의 탐지 박스와 목표 영역 간에 교집합이 존재한다는 것을 특성화한다.
본 실시예에서, 도 4에 따르면, 도 2에 대응되는 실시예에 비해, 본 실시예에서의 목표 탐지 신뢰도를 결정하는 방법의 흐름(400)은 다양한 상황에서 처리할 영상의 대응되는 탐지 결과 신뢰도를 결정하는 방식을 강조함으로써 처리할 영상에 대응되는 탐지 결과의 대한 신뢰도의 결정 방법의 적용 범위를 확장한다.
나아가 도 5를 참조하면, 상술한 도 2에 도시된 방법의 구현으로, 본 개시는 목표 탐지 신뢰도를 결정하는 장치의 일 실시예를 제공하는바, 당해 장치 실시예와 도 2에서 도시한 방법 실시예는 대응되고, 아래 기재한 특징 외에 당해 장치 실시예는 도 2에서 도시한 방법 실시예와 같거나 상응한 특징을 더 포함할 수 있고, 도 2에서 도시한 방법 실시예와 같거나 상응한 효과를 발생할 수 있다. 당해 장치는 구체적으로 다양한 전자 기기에 응용될 수 있다.
도 5에 도시한 바와 같이, 본 실시예의 목표 탐지 신뢰도를 결정하는 장치는, 처리할 영상 중의 각 프레임의 처리할 이미지에 대해, 당해 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 당해 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 당해 처리할 이미지에서의 위치한 높이를 결정하도록 구성되는 높이 결정 유닛(501); 및 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 처리할 영상 중의 당해 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지의 신뢰도를 결정하도록 구성되는 신뢰도 결정 유닛(502)을 포함한다.
본 실시예의 일부 대안적인 구현방식에서, 당해 처리할 이미지는 사전설정 높이로부터 하부 가장자리까지 제1 수량의 목표 영역으로 분할되며; 신뢰도 결정 유닛(502)은 나아가, 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮다고 결정된 것에 응답하여, 당해 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하도록 구성되되, 여기서 사전설정 상태는 당해 처리할 이미지까지의 제3 수량 프레임의 처리할 이미지 중에 포함된 목표 객체의 탐지 박스와 목표 영역 간에 교집합이 존재한다는 것을 특성화한다.
본 실시예의 일부 대안적인 구현방식에서, 신뢰도 결정 유닛(502)은 나아가, 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서 당해 처리할 이미지에 목표 객체의 궤적이 소실되는 상황이 존재한다고 결정된 것에 응답하여, 당해 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하도록 구성되되, 여기서 목표 객체의 궤적이 소실되는 상황은 당해 처리할 이미지까지, 목표 객체가 처리할 영상의 영상획득 장치의 촬영 범위를 벗어나는 것을 특성화한다.
본 실시예의 일부 대안적인 구현방식에서, 신뢰도 결정 유닛(502)은 나아가, 당해 처리할 이미지 중 사전설정 상태인 목표 영역 중에서 당해 처리할 이미지의 최고 위치에 위치한 목표 영역을 결정하고; 및 최고 위치의 목표 영역에 대응되는 신뢰도를 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도로 결정하도록 구성된다.
본 실시예의 일부 대안적인 구현방식에서, 제1 수량의 목표 영역 중의 각 목표 영역의 상태는 하기와 같은 방식인, 당해 목표 영역이 비 사전설정 상태인 것에 대응되는 처리할 이미지를 시작으로, 현재의 처리할 이미지까지에 있어서, 당해 목표 영역에 대응되는 탐지 박스가 존재하는 처리할 이미지의 수량과 당해 목표 영역에 대응되는 탐지 박스가 존재하지 않는 처리할 이미지의 수량의 차이값이 사전설정 역치보다 크다고 결정된 것에 응답하여, 현재의 처리할 이미지 중의 당해 목표 영역을 사전설정 상태라고 판정하는 것; 및 당해 목표 영역이 사전설정 상태인 것에 대응되는 처리할 이미지를 시작으로, 현재의 처리할 이미지까지에 있어서, 연속적인 제3 수량 프레임의 처리할 이미지 중에 상기 목표 영역에 대응되는 탐지 박스가 존재하지 않는 상황이 존재하는 것에 응답하여, 현재의 처리할 이미지 중의 당해 목표 영역을 비 사전설정 상태라고 판정하는 것에 의해 결정된다.
본 실시예의 일부 대안적인 구현방식에서, 신뢰도 결정 유닛(502)은 나아가, 상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮은 상황이 존재하지 않는 것에 응답하여, 바로 앞 프레임의 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 당해 처리할 이미지에 대응되는 탐지 결과의 신뢰도로 결정하도록 구성된다.
본 실시예의 일부 대안적인 구현방식에서, 신뢰도 결정 유닛(502)은 나아가, 당해 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서, 또한 당해 처리할 이미지에서 목표 객체가 탐지되지 않은 것에 응답하여, 목표 객체를 포함하면서 당해 처리할 이미지와 가장 인접한 목표 처리할 이미지를 결정하고; 목표 처리할 이미지에 포함된 목표 객체에 대응되는 과거 궤적 정보로부터 처리할 이미지의 최고 위치에 위치한 탐지 박스를 결정하고; 최고 위치의 탐지 박스의, 처리할 이미지에서의 위치한 높이와 사전설정 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하도록 구성된다.
본 실시방식에서, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정함으로써, 간단한 목표 탐지 신뢰도를 결정하는 방법을 제공하고, 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 신속하게 결정할 수 있다.
본 출원의 실시예에 따르면, 본 출원은 전자 기기, 판독가능 저장 매체, 노변 기기, 클라우드 제어 플랫폼 및 컴퓨터 프로그램 제품을 더 제공한다.
도 6은 본 출원의 실시예를 실시할 수 있는 예시적 전자 기기(600)의 개략적인 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크벤치, 개인용 디지털 보조기, 서버, 블레이드 서버, 대형 컴퓨터 및 다른 적합한 컴퓨터와 같은 다양한 형식의 디지털 컴퓨터를 가리키고자 하는 것이다. 전자 기기는 이 외에도, 개인용 디지털 보조기, 셀룰러 폰, 스마트폰, 웨어러블 기기 및 다른 이와 유사한 컴퓨팅 기기와 같은 다양한 형식의 이동 장치를 가리킬 수 있다. 본 명세서에서 제시하는 부품, 이들의 연결과 관계 및 이들의 기능은 단지 예시일 뿐, 본 명세서에서 서술한 및/또는 청구하는 본 출원의 구현을 한정하고자 하는 것이 아니다.
도 6에 도시한 바와 같이, 기기(600)는 컴퓨팅 유닛(601)을 포함하는바, 컴퓨팅 유닛(601)은 읽기 전용 메모리(ROM)(602)에 저장된 컴퓨터 프로그램 또는 저장 유닛(608)으로부터 랜덤 액세스 메모리(RAM)(603)에 로딩된 컴퓨터 프로그램에 따라 다양한 적당한 동작 및 처리를 수행할 수 있다. RAM(603)에는 기기(600)의 동작에 필요한 다양한 프로그램 및 데이터가 저장될 수 있다. 컴퓨팅 유닛(601), ROM(602) 및 RAM(603)은 버스(604)를 통하여 서로 연결된다. 입력/출력 인터페이스(605)도 버스(604)에 연결된다.
기기(500) 내의 복수의 부품은, I/O 인터페이스(605), 예를 들면 키보드, 마우스 등의 입력 유닛(606); 예를 들면 다양한 유형의 디스플레이, 스피커 등의 출력 유닛(607); 예를 들면 자기 디스크, 광 디스크 등의 저장 유닛(608); 및 예를 들면 네트워크 인터페이스 카드, 모뎀, 무선 통신 송수신기 등의 통신 유닛(609)에 연결된다. 통신 유닛(609)은 기기(600)가 인터넷과 같은 컴퓨터 네트워크 및/또는 다양한 전기통신망을 통해 다른 기기와 정보/데이터를 교환하도록 허용한다.
컴퓨팅 유닛(601)은 처리 및 컴퓨팅 능력을 갖는 다양한 범용의 및/또는 전용의 처리 컴포넌트일 수 있다. 컴퓨팅 유닛(601)의 일부 예시로 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU), 다양한 전용 인공 지능(AI) 컴퓨팅칩, 다양한 머신러닝 모델 알고리즘을 실행하는 컴퓨팅 유닛, 디지털 신호 프로세서(DSP), 및 임의의 적당한 프로세서, 제어기, 마이크로 제어기 등이 포함되나, 이에 한정되지 않는다. 컴퓨팅 유닛(601)은 위에서 서술한 각 방법 및 처리를 수행하는바, 예를 들어 목표 탐지 신뢰도를 결정하는 방법을 수행한다. 예를 들어, 일부 실시예에서, 목표 탐지 신뢰도를 결정하는 방법은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있는바, 이는 기계 판독가능 매체,예를 들어 저장 유닛(608)에 유형으로(tangibly) 포함될 수 있다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부는 ROM(602) 및/또는 통신 유닛(609)을 통하여 기기(600)에 로딩 및/또는 설치될 수 있다. 컴퓨터 프로그램이 RAM(603)에 로딩되어 컴퓨팅 유닛(601)에 의해 실행되는 경우, 위에서 서술한 목표 탐지 신뢰도를 결정하는 방법의 하나 또는 복수의 단계를 수행할 수 있다. 선택적으로, 다른 실시예에서, 컴퓨팅 유닛(601)은 다른 임의의 적당한 방식으로(예를 들어 펌웨어에 의해) 목표 탐지 신뢰도를 결정하는 방법을 수행하도록 구성될 수 있다.
본 명세서에서 상술한 시스템 및 기술의 다양한 실시방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그램가능 게이트 어레이(FPGA), 주문형 집적회로(ASIC), 주문형 표준제품(ASSP), 시스템온칩(SOC), 복잡한 프로그램 가능 논리 소자(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시방식은 하나 또는 복수의 컴퓨터 프로그램에서 실시되는 것을 포함할 수 있고, 당해 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램가능 프로세서를 포함하는 프로그램가능 시스템에서 실행 및/또는 해석될 수 있고, 당해 프로그램가능 프로세서는 전용의 또는 범용의 프로그램가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터와 명령을 수신하고, 데이터와 명령을 당해 저장 시스템, 당해 적어도 하나의 입력 장치 및 당해 적어도 하나의 출력 장치로 전송할 수 있다.
본 출원의 방법을 실시하는 프로그램 코드는 하나의 프로그래밍 언어 또는 복수의 프로그래밍 언어의 임의 조합을 사용하여 작성할 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 다른 프로그램가능 데이터 처리 장치의 프로세서 또는 제어기에 제공될 수 있는바, 프로그램 코드가 프로세서 또는 제어기에 의해 실행되는 경우에 흐름도 및/또는 블록도에서 규정한 기능/동작이 실시되도록 할 수 있다. 프로그램 코드는 완전히 기계에서 실행되거나, 부분적으로 기계에서 실행되거나, 독립된 소프트웨어 패키지로서 부분적으로는 기계에서 실행되고 부분적으로는 원격 기계에서 실행되거나, 또는 완전히 원격 기계 또는 서버에서 실행될 수 있다.
본 출원의 문맥에서,기계 판독가능 매체는 유형의(tangible) 매체일 수 있는바,이는 명령 실행 시스템, 장치 또는 기기에 의해 사용되거나 또는 명령 실행 시스템, 장치 또는 기기에 결합되어 사용되는 프로그램을 포함하거나 저장할 수 있다. 기계 판독가능 매체는 기계 판독가능 신호 매체 또는 기계 판독가능 저장 매체일 수 있다. 기계 판독가능 매체는 전자의, 자기의, 광학의, 전자기의, 적외선의 또는 반도체의 시스템, 장치 또는 기기거나, 또는 상술한 내용의 임의의 적합한 조합을 포함할 수 있으나 이에 한정되지 않는다. 기계 판독가능 저장 매체의 더 구체적인 예시는 하나 또는 복수의 선에 기반하는 전기 연결, 휴대형 컴퓨터 디스크, 하드디스크, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 소거 및 프로그램 가능한 읽기 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대형 컴팩트 디스크 읽기 전용 메모리(CD-ROM), 광학 저장 기기, 자기 저장 기기, 또는 상술한 내용의 임의의 적합한 조합을 포함하게 된다.
사용자와의 인터랙션을 제공하기 위해, 여기서 서술하는 시스템과 기술을 컴퓨터에서 실시할 수 있는바, 당해 컴퓨터는, 사용자한테 정보를 표시하기 위한 표시 장치(예를 들면 음극선관(CRT) 또는 액정 디스플레이(LCD) 모니터) 및 키보드와 포인팅 장치(예를 들면 마우스 또는 트랙볼)를 구비하고, 사용자는 당해 키보드와 당해 포인팅 장치를 통해 입력을 컴퓨터에 제공할 수 있다. 다른 종류의 장치 또한 사용자와의 인터랙션을 제공하는 데 사용될 수 있는바, 예를 들면 사용자한테 제공되는 피드백은 임의 형식의 감각 피드백(예를 들어 시각 피드백, 청각 피드백 또는 촉각 피드백)일 수 있고, 임의 형식(소리 입력, 음성 입력 또는 촉각 입력을 포함함)으로 사용자로부터의 입력이 수신될 수 있다.
여기서 서술하는 시스템과 기술을 백그라운드 부품을 포함하는 컴퓨팅 시스템(예를 들면 데이터 서버로서), 미들웨어 부품을 포함하는 컴퓨팅 시스템(예를 들면 애플리케이션 서버), 프론트엔드 부품을 포함하는 컴퓨팅 시스템(예를 들면 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비하는 사용자 컴퓨터가 있고, 사용자는 당해 그래픽 사용자 인터페이스 또는 당해 네트워크 브라우저를 통해 여기서 서술하는 시스템 및 기술의 실시방식과 인터랙션할 수 있음), 또는 이러한 백그라운드 부품, 미들웨어 부품 또는 프런트 엔드 부품의 임의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 임의 형식 또는 매체의 디지털 데이터 통신(예를 들면 통신 네트워크)으로 시스템의 부품을 서로 연결시킬 수 있다. 통신 네트워크의 예시는 근거리 통신망(LAN), 광대역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있고, 통상적으로 통신 네트워크를 통해 인터랙션한다. 상응한 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램에 의해 클라이언트와 서버의 관계가 발생한다. 서버는 클라우드 서버일 수 있는바, 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 지칭하며, 클라우드 컴퓨팅 서비스 체계 중의 호스트 제품으로, 종래의 물리적 호스트와 가성 사설 서버(VPS)의 서비스에서 존재하는 관리 난이도가 크고, 업무의 확장성이 약한 결함을 해결하기 위한 것이다.
노변 기기는 전자기기 이외에 통신 부품 등을 더 포함할 수 있으며, 전자 기기는 통신 부품과 일체로 통합될 수도 있고, 별도로 설치될 수도 있다. 전자 기기는 감지 기기(예로 카메라)의 데이터, 예를 들면 그래픽 및 영상 등을 획득하여, 영상 처리 및 데이터 컴퓨팅을 수행할 수 있다.
클라우드 제어 플랫폼은 클라우드측에서 처리를 수행하는바, 클라우드 제어 플랫폼에 포함된 전자 기기는 감지 기기(예로 카메라)의 데이터, 예를 들면 그래픽 및 영상 등을 획득하여 영상 처리 및 데이터 컴퓨팅을 진행할 수 있으며, 클라우드 제어 플랫폼은 차로 협력 관리 플랫폼, 에지 컴퓨팅 플랫폼, 클라우드 컴퓨팅 플랫폼, 센터 시스템 등으로 지칭될 수도 있다.
본 출원의 실시예의 기술방안에 따르면, 당해 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이에 따라 당해 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정함으로써, 간단한 목표 탐지 신뢰도를 결정하는 방법을 제공하고, 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 신속하게 결정할 수 있다.
위에서 제시하는 다양한 형식의 흐름을 사용하여 단계를 재정렬, 추가 또는 삭제할 수 있다는 것을 이해해야 한다. 예를 들어, 본 출원에 기재된 각 단계는 병렬로 수행될 수도 있고 순차적으로 수행될 수도 있고 서로 다른 순서로 수행될 수도 있는바, 본 출원에서 개시한 기술방안에서 희망하는 결과를 구현할 수만 있다면, 본 명세서는 여기서 한정하지 않는다.
상술한 구체적인 실시방식은 본 출원의 보호 범위에 대한 한정을 구성하지 않는다. 당업자라면, 설계 요구와 다른 요소에 따라 다양한 수정, 조합, 서브조합 및 대체를 진행할 수 있다는 것을 이해해야 한다. 본 출원의 사상 및 원칙 내에서 진행한 어떠한 수정, 등가 치환 및 개선 등은 모두 본 출원의 보호 범위 내에 포함되어야 한다.

Claims (19)

  1. 목표 탐지 신뢰도를 결정하는 방법으로서,
    처리할 영상 중의 각 프레임의 처리할 이미지에 대해, 상기 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 상기 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 상기 처리할 이미지에서의 위치한 높이를 결정하는 단계; 및
    상기 처리할 이미지에서의, 상기 목표 탐지 박스의 위치한 높이가 상기 처리할 영상 중의 상기 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 상기 처리할 이미지에서의, 상기 목표 탐지 박스의 위치한 높이에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 단계를 포함하고,
    상기 처리할 이미지는 사전설정 높이로부터 하부 가장자리까지 제1 수량의 목표 영역으로 분할되며,
    상기 방법은,
    상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 상기 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮다고 결정된 것에 응답하여, 상기 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 단계를 더 포함하되,
    상기 사전설정 상태는 상기 처리할 이미지까지에 있어서의 제3 수량 프레임의 처리할 이미지 중에 존재하는 처리할 이미지에 있어서, 당해 처리할 이미지 중의 목표 객체의 탐지 박스와 목표 영역 간에는 교집합이 존재한다는 것을 특성화하는,
    목표 탐지 신뢰도를 결정하는 방법.
  2. 삭제
  3. 제1항에 있어서,
    상술한 상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 상기 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮다고 결정된 것에 응답하여, 상기 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 단계는,
    상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 상기 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서 상기 처리할 이미지에 목표 객체의 궤적이 소실되는 상황이 존재한다고 결정된 것에 응답하여, 상기 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 단계를 포함하되,
    상기 목표 객체의 궤적이 소실되는 상황은, 상기 처리할 이미지까지에 있어서 목표 객체가 처리할 영상의 영상획득 장치의 촬영 범위를 벗어나는 것을 특성화하는,
    목표 탐지 신뢰도를 결정하는 방법.
  4. 제1항 또는 제3항에 있어서,
    상술한 상기 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 단계는,
    상기 처리할 이미지 중 사전설정 상태인 목표 영역 중에서 상기 처리할 이미지의 최고 위치에 위치한 목표 영역을 결정하는 단계; 및
    상기 최고 위치의 목표 영역에 대응되는 신뢰도를 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도로 결정하는 단계를 포함하는,
    목표 탐지 신뢰도를 결정하는 방법.
  5. 제1항 또는 제3항에 있어서,
    상기 제1 수량의 목표 영역 중의 각 목표 영역의 상태는 하기와 같은 방식인,
    상기 목표 영역이 비 사전설정 상태인 것에 대응되는 처리할 이미지를 시작으로, 현재의 처리할 이미지까지에 있어서, 상기 목표 영역에 대응되는 탐지 박스가 존재하는 처리할 이미지의 수량과 상기 목표 영역에 대응되는 탐지 박스가 존재하지 않는 처리할 이미지의 수량의 차이값이 사전설정 역치보다 크다고 결정된 것에 응답하여, 현재의 처리할 이미지 중의 상기 목표 영역을 상기 사전설정 상태라고 판정하는 것; 및
    상기 목표 영역이 상기 사전설정 상태인 것에 대응되는 처리할 이미지를 시작으로, 현재의 처리할 이미지까지에 있어서, 연속적인 제3 수량 프레임의 처리할 이미지 중에 상기 목표 영역에 대응되는 탐지 박스가 존재하지 않는 상황이 존재하는 것에 응답하여, 현재의 처리할 이미지 중의 상기 목표 영역을 비 사전설정 상태라고 판정하는 것에 의해 결정되는,
    목표 탐지 신뢰도를 결정하는 방법.
  6. 제1항에 있어서,
    상기 방법은,
    상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮은 상황이 존재하지 않는 것에 응답하여, 바로 앞 프레임의 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 상기 처리할 이미지에 대응되는 탐지 결과의 신뢰도로 결정하는 단계를 더 포함하는,
    목표 탐지 신뢰도를 결정하는 방법.
  7. 제1항에 있어서,
    상기 방법은,
    상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 상기 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서, 또한 상기 처리할 이미지에서 목표 객체가 탐지되지 않은 것에 응답하여, 목표 객체를 포함하면서 상기 처리할 이미지와 가장 인접한 목표 처리할 이미지를 결정하는 단계;
    상기 목표 처리할 이미지에 포함된 목표 객체에 대응되는 과거 궤적 정보로부터 처리할 이미지의 최고 위치에 위치한 탐지 박스를 결정하는 단계; 및
    상기 최고 위치의 탐지 박스의, 처리할 이미지에서의 위치한 높이와 사전설정 높이에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하는 단계를 더 포함하는 목표 탐지 신뢰도를 결정하는 방법.
  8. 목표 탐지 신뢰도를 결정하는 장치로서,
    처리할 영상 중의 각 프레임의 처리할 이미지에 대해, 상기 처리할 이미지에 포함된 각 목표 객체에 일대일 대응되는 탐지 박스 중 상기 처리할 이미지의 최고 위치에 위치한 목표 탐지 박스의, 상기 처리할 이미지에서의 위치한 높이를 결정하도록 구성되는 높이 결정 유닛; 및
    상기 처리할 이미지에서의, 상기 목표 탐지 박스의 위치한 높이가 상기 처리할 영상 중의 상기 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이보다 낮지 않다고 결정된 것에 응답하여, 상기 처리할 이미지에서의, 상기 목표 탐지 박스의 위치한 높이에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하도록 구성되는 신뢰도 결정 유닛을 포함하며
    상기 처리할 이미지는 사전설정 높이로부터 하부 가장자리까지 제1 수량의 목표 영역으로 분할되며;
    상기 신뢰도 결정 유닛은 나아가,
    상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 상기 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮다고 결정된 것에 응답하여, 상기 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하도록 구성되되,
    상기 사전설정 상태는 상기 처리할 이미지까지에 있어서의 제3 수량 프레임의 처리할 이미지 중에 존재하는 처리할 이미지에 있어서, 당해 처리할 이미지 중의 목표 객체의 탐지 박스와 목표 영역 간에는 교집합이 존재한다는 것을 특성화하는,
    목표 탐지 신뢰도를 결정하는 장치.
  9. 삭제
  10. 제8항에 있어서,
    상기 신뢰도 결정 유닛은 나아가,
    상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 상기 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서 상기 처리할 이미지에 목표 객체의 궤적이 소실되는 상황이 존재한다고 결정된 것에 응답하여, 상기 처리할 이미지 중 사전설정 상태인 목표 영역에 대응되는 신뢰도에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하도록 구성되되,
    상기 목표 객체의 궤적이 소실되는 상황은, 상기 처리할 이미지까지에 있어서 목표 객체가 처리할 영상의 영상획득 장치의 촬영 범위를 벗어나는 것을 특성화하는,
    목표 탐지 신뢰도를 결정하는 장치.
  11. 제8항 또는 제10항에 있어서,
    상기 신뢰도 결정 유닛은 나아가,
    상기 처리할 이미지 중 사전설정 상태인 목표 영역 중에서 상기 처리할 이미지의 최고 위치에 위치한 목표 영역을 결정하고;
    상기 최고 위치의 목표 영역에 대응되는 신뢰도를 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도로 결정하도록 구성되는,
    목표 탐지 신뢰도를 결정하는 장치.
  12. 제8항 또는 제10항에 있어서,
    상기 제1 수량의 목표 영역 중의 각 목표 영역의 상태는 하기와 같은 방식인,
    상기 목표 영역이 비 사전설정 상태인 것에 대응되는 처리할 이미지를 시작으로, 현재의 처리할 이미지까지에 있어서, 상기 목표 영역에 대응되는 탐지 박스가 존재하는 처리할 이미지의 수량과 상기 목표 영역에 대응되는 탐지 박스가 존재하지 않는 처리할 이미지의 수량의 차이값이 사전설정 역치보다 크다고 결정된 것에 응답하여, 현재의 처리할 이미지 중의 상기 목표 영역을 상기 사전설정 상태라고 판정하는 것; 및
    상기 목표 영역이 상기 사전설정 상태인 것에 대응되는 처리할 이미지를 시작으로, 현재의 처리할 이미지까지에 있어서, 연속적인 제3 수량 프레임의 처리할 이미지 중에 상기 목표 영역에 대응되는 탐지 박스가 존재하지 않는 상황이 존재하는 것에 응답하여, 현재의 처리할 이미지 중의 상기 목표 영역을 비 사전설정 상태라고 판정하는 것에 의해 결정되는,
    목표 탐지 신뢰도를 결정하는 장치.
  13. 제8항에 있어서,
    상기 신뢰도 결정 유닛은 나아가,
    상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮은 상황이 존재하지 않는 것에 응답하여, 바로 앞 프레임의 처리할 이미지에 대응되는 탐지 결과의 신뢰도를 상기 처리할 이미지에 대응되는 탐지 결과의 신뢰도로 결정하도록 구성되는,
    목표 탐지 신뢰도를 결정하는 장치.
  14. 제8항에 있어서,
    상기 신뢰도 결정 유닛은 나아가,
    상기 처리할 이미지까지에 있어서, 연속적인 제2 수량 프레임의 처리할 이미지가 존재하며, 상기 제2 수량 프레임의 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이가 상기 제2 수량 프레임의 처리할 이미지 전까지의 모든 처리할 이미지에서의, 목표 탐지 박스의 위치한 높이 중의 최대 높이보다 낮으면서, 또한 상기 처리할 이미지에서 목표 객체가 탐지되지 않은 것에 응답하여, 목표 객체를 포함하면서 상기 처리할 이미지와 가장 인접한 목표 처리할 이미지를 결정하고;
    상기 목표 처리할 이미지에 포함된 목표 객체에 대응되는 과거 궤적 정보로부터 처리할 이미지의 최고 위치에 위치한 탐지 박스를 결정하고;
    상기 최고 위치의 탐지 박스의, 처리할 이미지에서의 위치한 높이와 사전설정 높이에 따라 상기 처리할 이미지 중의 탐지 박스의 탐지 결과에 대한 신뢰도를 결정하도록 구성되는,
    목표 탐지 신뢰도를 결정하는 장치.
  15. 전자 기기로서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하되,
    상기 메모리는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령을 저장하고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항, 제3항, 제6항, 및 제7항 중 어느 한 항의 방법을 수행하도록 하는,
    전자 기기.
  16. 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항, 제3항, 제6항, 및 제7항 중 어느 한 항의 방법을 수행하도록 하는,
    비일시적 컴퓨터 판독가능 저장 매체.
  17. 노변 기기로서,
    제15항에 따른 전자 기기를 포함하는,
    노변 기기.
  18. 클라우드 제어 플랫폼으로서,
    제15항에 따른 전자 기기를 포함하는,
    클라우드 제어 플랫폼.
  19. 비일시적 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서,
    당해 컴퓨터 프로그램이 프로세서에 의해 실행되는 경우, 제1항, 제3항, 제6항, 및 제7항 중 어느 한 항의 방법을 구현하는,
    비일시적 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
KR1020210138653A 2020-12-22 2021-10-18 목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품 KR102604426B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011527234.3A CN112560726B (zh) 2020-12-22 2020-12-22 目标检测置信度确定方法、路侧设备及云控平台
CN202011527234.3 2020-12-22

Publications (2)

Publication Number Publication Date
KR20210133174A KR20210133174A (ko) 2021-11-05
KR102604426B1 true KR102604426B1 (ko) 2023-11-22

Family

ID=75030757

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210088443A KR20210092705A (ko) 2020-12-22 2021-07-06 목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품
KR1020210138653A KR102604426B1 (ko) 2020-12-22 2021-10-18 목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210088443A KR20210092705A (ko) 2020-12-22 2021-07-06 목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품

Country Status (5)

Country Link
US (1) US20220157061A1 (ko)
EP (1) EP3923187A3 (ko)
JP (1) JP7263478B2 (ko)
KR (2) KR20210092705A (ko)
CN (1) CN112560726B (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116563521B (zh) * 2023-04-14 2024-04-23 依未科技(北京)有限公司 目标检测的检测框处理方法及其装置、电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180342070A1 (en) * 2017-05-24 2018-11-29 Qualcomm Incorporated Methods and systems of determining object status for false positive removal in object tracking for video analytics
WO2019203921A1 (en) * 2018-04-17 2019-10-24 Hrl Laboratories, Llc System for real-time object detection and recognition using both image and size features

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5773206B2 (ja) * 2011-12-13 2015-09-02 アイシン・エィ・ダブリュ株式会社 標高信頼度判定システム、データ整備システム、走行支援システム、走行支援プログラム及び方法、データ整備プログラム及び方法、並びに標高信頼度判定プログラム及び方法
US9892326B2 (en) * 2016-03-31 2018-02-13 International Business Machines Corporation Object detection in crowded scenes using context-driven label propagation
US10699139B2 (en) * 2017-03-30 2020-06-30 Hrl Laboratories, Llc System for real-time object detection and recognition using both image and size features
US20190130191A1 (en) * 2017-10-30 2019-05-02 Qualcomm Incorporated Bounding box smoothing for object tracking in a video analytics system
CN108229307B (zh) * 2017-11-22 2022-01-04 北京市商汤科技开发有限公司 用于物体检测的方法、装置和设备
CN110163932A (zh) * 2018-07-12 2019-08-23 腾讯数码(天津)有限公司 图像处理方法、装置、计算机可读介质及电子设备
CN113168517A (zh) * 2018-11-30 2021-07-23 高通股份有限公司 处理传感器信息以供对象检测
CN109919072B (zh) * 2019-02-28 2021-03-19 桂林电子科技大学 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
CN115567891A (zh) * 2019-06-05 2023-01-03 华为技术有限公司 自动驾驶信息指示方法、自动驾驶信息获取方法、自动驾驶信息发送方法及装置
CN110838112A (zh) * 2019-11-08 2020-02-25 上海电机学院 一种基于霍夫变换和YOLOv3网络的绝缘子缺损检测方法
CN111104925B (zh) * 2019-12-30 2022-03-11 上海商汤临港智能科技有限公司 图像处理方法、装置、存储介质和电子设备
CN111199230B (zh) * 2020-01-03 2023-07-07 腾讯科技(深圳)有限公司 目标检测的方法、装置、电子设备及计算机可读存储介质
CN111553282B (zh) * 2020-04-29 2024-03-29 北京百度网讯科技有限公司 用于检测车辆的方法和装置
CN111601013B (zh) * 2020-05-29 2023-03-31 阿波罗智联(北京)科技有限公司 用于处理视频帧的方法和装置
US20220083907A1 (en) * 2020-09-17 2022-03-17 Sap Se Data generation and annotation for machine learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180342070A1 (en) * 2017-05-24 2018-11-29 Qualcomm Incorporated Methods and systems of determining object status for false positive removal in object tracking for video analytics
WO2019203921A1 (en) * 2018-04-17 2019-10-24 Hrl Laboratories, Llc System for real-time object detection and recognition using both image and size features

Also Published As

Publication number Publication date
CN112560726B (zh) 2023-08-29
EP3923187A3 (en) 2022-05-18
KR20210092705A (ko) 2021-07-26
JP2022020673A (ja) 2022-02-01
CN112560726A (zh) 2021-03-26
JP7263478B2 (ja) 2023-04-24
KR20210133174A (ko) 2021-11-05
EP3923187A2 (en) 2021-12-15
US20220157061A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
EP3944213A2 (en) Method and apparatus of controlling traffic, roadside device and cloud control platform
JP7357789B2 (ja) 車両を検出するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
KR20200018612A (ko) 물체 검출을 위한 방법, 장치 및 기기
US20220234605A1 (en) Method for outputting early warning information, device, storage medium and program product
JP7436670B2 (ja) 路車協調における目標検出方法、装置及び路側機器
CN112560684B (zh) 车道线检测方法、装置、电子设备、存储介质以及车辆
EP3951741B1 (en) Method for acquiring traffic state, relevant apparatus, roadside device and cloud control platform
CN112597895B (zh) 基于偏移量检测的置信度确定方法、路侧设备及云控平台
CN112530021B (zh) 用于处理数据的方法、装置、设备以及存储介质
KR20220126264A (ko) 비디오 흔들림 검출 방법, 장치, 전자 기기 및 저장 매체
WO2023273344A1 (zh) 车辆跨线识别方法、装置、电子设备和存储介质
CN112528927B (zh) 基于轨迹分析的置信度确定方法、路侧设备及云控平台
KR20220149508A (ko) 이벤트 검출 방법, 장치, 전자 기기 및 판독 가능 기록 매체
KR102604426B1 (ko) 목표 탐지 신뢰도를 결정하는 방법 및 장치, 전자 기기, 저장 매체, 노변 기기, 클라우드 제어 플랫폼, 컴퓨터 프로그램 제품
CN113052047A (zh) 交通事件的检测方法、路侧设备、云控平台及系统
KR102595678B1 (ko) 차량 연계 방법, 차량 연계 장치, 노변 장치 및 클라우드 제어 플랫폼
EP4080479A2 (en) Method for identifying traffic light, device, cloud control platform and vehicle-road coordination system
CN113920273B (zh) 图像处理方法、装置、电子设备和存储介质
CN114429631B (zh) 三维对象检测方法、装置、设备以及存储介质
CN114064745A (zh) 一种确定交通提示距离的方法、装置及电子设备
KR20210134252A (ko) 이미지 안정화 방법, 장치, 노변 기기 및 클라우드 제어 플랫폼
CN112700657B (zh) 用于生成检测信息的方法、装置、路侧设备和云控平台
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
US20230049992A1 (en) Fusion and association of traffic objects in driving environment
CN117746126A (zh) 慢行道井盖病害检测方法、系统及装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right