KR20210040320A - 클라우드 제어 플랫폼용 이벤트 검출방법, 장치, 기기와 저장매체 및 컴퓨터 프로그램 - Google Patents

클라우드 제어 플랫폼용 이벤트 검출방법, 장치, 기기와 저장매체 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20210040320A
KR20210040320A KR1020210038107A KR20210038107A KR20210040320A KR 20210040320 A KR20210040320 A KR 20210040320A KR 1020210038107 A KR1020210038107 A KR 1020210038107A KR 20210038107 A KR20210038107 A KR 20210038107A KR 20210040320 A KR20210040320 A KR 20210040320A
Authority
KR
South Korea
Prior art keywords
target
target vehicle
acceleration
vehicle
event
Prior art date
Application number
KR1020210038107A
Other languages
English (en)
Inventor
보 류
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210040320A publication Critical patent/KR20210040320A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 출원은 이벤트 검출방법, 장치, 기기와 컴퓨터 저장매체 및 컴퓨터 프로그램를 공개하고 스마트 교통 및 자율주행분야에 관한 것이다. 구체적인 실현 방안으로서, 목표구역의 모니터링 영상에 근거하여 상기 목표구역에 위치한 목표차량을 검출하고; 상기 목표차량에 대한 수집시간과 상기 수집시간에 대응되는 이미지 프레임에서의 상기 목표차량의 위치정보를 결정하고; 적어도 상기 수집시간과 상기 위치정보에 근거하여 상기 목표차량의 가속도를 획득하며; 상기 목표차량의 가속도에 근거하여 상기 목표차량의 돌발이벤트 발생여부를 판단한다. 본 출원의 실시예에 따라 산출되는 목표차량의 가속도는 비교적 높은 정확성을 가지기 때문에 목표차량의 돌발이벤트 발생여부를 추후 판단할 때 보다 더 정확한 판단결과를 얻을 수 있고 이에 따라 돌발이벤트의 오보율을 감소시킬 수 있다.

Description

클라우드 제어 플랫폼용 이벤트 검출방법, 장치, 기기와 저장매체 및 컴퓨터 프로그램{EVENT DETECTION METHOD AND APPARATUS FOR CLOUD CONTROL PLATFORM, DEVICE, AND STORAGE MEDIUM}
본 출원은 데이터 처리 분야에 관한 것으로서, 구체적으로는 스마트 교통 분야에 관한 것이다.
자율주행상황에서 자율주행차량의 주행 중, 주변차량의 주행상태를 확인하고 제때에 상응하는 동작을 수행하여 교통사고를 피하도록 해야 한다. 따라서 어떻게 영상데이터를 통해 이러한 분석이 필요한 목표차량의 주행상태를 기록하고 분석하느냐가 자율주행분야에서 시급히 해결해야 할 문제가 되고 있다.
기존기술 중의 적어도 한 가지 문제를 해결하기 위해 본 출원의 실시예는 클라우드 제어 플랫폼용 이벤트 검출방법, 장치, 기기와 저장매체를 제공한다.
제1 태양에 따르면, 본 출원의 실시예는 이벤트 검출방법을 제공한다. 상기 이벤트 검출방법은, 목표구역의 모니터링 영상에 근거하여 목표구역에 위치한 목표차량을 검출하는 단계; 목표차량에 대한 수집시간 및 수집시간에 대응되는 이미지 프레임에서의 목표차량의 위치정보를 결정하는 단계; 적어도 수집시간과 위치정보에 근거하여 목표차량의 가속도를 획득하는 단계; 목표차량의 가속도에 근거하여 목표차량의 돌발 이벤트 발생여부를 판단하는 단계를 포함한다.
제2 태양에 따르면, 본 출원의 실시예는 이벤트 검출장치를 제공한다. 상기 이벤트 검출장치는, 목표구역의 모니터링 영상에 근거하여 목표구역에 위치한 목표차량을 검출하기 위한 목표차량 검출 모듈; 목표차량에 대한 수집시간 및 수집시간에 대응되는 이미지 프레임에서의 목표차량의 위치정보를 결정하기 위한 위치정보 모듈; 적어도 수집시간 및 위치정보에 근거하여 목표차량의 가속도를 획득하기 위한 가속도 모듈; 목표차량의 가속도에 근거하여 목표차량의 돌발이벤트 발생여부를 판단하기 위한 돌발이벤트 모듈을 포함한다.
제3 태양에 따르면 본 출원의 실시예는 전자기기를 제공한다. 상기 전자기기는, 적어도 하나의 프로세서; 및 적어도 하나의 프로세서와 통신연결되어 있는 메모리를 포함하며; 메모리에는 적어도 하나의 프로세서가 수행할 수 있는 명령이 저장되어 있으며, 명령은 적어도 하나의 프로세서에 의해 수행되어, 적어도 하나의 프로세서로 하여금 본 출원의 임의의 일 실시예에 따른 방법을 수행하도록 한다.
제4 태양에 따르면, 본 출원의 실시예는 컴퓨터 명령이 저장되어 있는 비순간 컴퓨터 판독가능 저장매체를 제공하며, 컴퓨터 명령은 컴퓨터로 하여금 본 출원의 임의의 일 실시예에 따른 방법을 수행하도록 한다.
제5 태양에 따르면, 본 출원의 실시예는 클라우드 제어 플랫폼용 이벤트 검출방법을 제공한다. 상기 클라우드 제어 플랫폼용 이벤트 검출방법은, 도로측 기기로부터 목표구역의 모니터링 영상을 얻는 단계; 목표구역의 모니터링 영상에 근거하여 상기 목표구역에 위치한 목표차량을 검출하는 단계; 상기 목표차량에 대한 수집시간 및 상기 수집시간에 대응되는 이미지 프레임에서의 상기 목표차량의 위치정보를 결정하는 단계; 적어도 상기 수집시간 및 상기 위치정보에 근거하여 상기 목표차량의 가속도를 얻는 단계; 상기 목표차량의 가속도에 근거하여 상기 목표차량의 돌발이벤트 발생여부를 판단하는 단계를 포함한다.
상술한 출원 중의 하나의 실시예는 다음과 같은 장점 또는 유익한 효과가 있다.
획득한 모니터링 영상에 근거하여 목표차량의 가속도를 계산한 다음, 목표차량의 가속도에 근거하여 목표차량의 돌발이벤트 발생여부를 판단함으로써 도로환경중의 대량의 카메라에 의해 수집된 데이터를 통해 도로에 있는 각 차량에 대해 돌발이벤트 검출을 수행하여, 도로교통상황 중의 각 차량의 돌발상황을 신속하고 정확하게 파악하도록 한다.
상술한 선택적 방식이 가지고 있는 다른 효과는 아래 내용에서 구체적인 실시예와 결합하여 설명하고자 한다.
아래 첨부 도면들은 본 기술적 해결수단을 보다 쉽게 이해하는 데 사용되며 본 출원을 한정하지 않는다.
도 1은 본 출원의 일 실시예에 따른 이벤트 검출방법의 설명도이다.
도 2는 본 출원의 실시예에 따른 축차법에 의한 가속도 계산 설명도이다.
도 3A-3C는 본 출원의 일 실시예에 따른 급제동이벤트 속도와 시간 관계 설명도이다.
도 4는 본 출원의 다른 실시예에 따른 이벤트 검출방법의 설명도이다.
도 5는 본 출원의 다른 실시예에 따른 이벤트 검출장치의 설명도이다.
도 6은 본 출원의 다른 실시예에 따른 이벤트 검출장치의 설명도이다.
도 7은 본 출원의 다른 실시예에 따른 이벤트 검출장치의 설명도이다.
도 8은 본 출원의 다른 실시예에 따른 이벤트 검출장치의 설명도이다.
도 9는 본 출원의 실시예에 따른 이벤트 검출방법을 실현하기 위한 전자기기의 구성도이다.
이하, 첨부 도면과 결합하여 본 출원의 시범적인 실시예에 대해 설명한다. 그 중에는 이해하기 쉽도록 하기 위해 본 출원의 실시예의 다양한 세부사항을 포함하지만 이는 단지 시범적인 것이다. 따라서 본 출원이 속하는 기술분야에서 통상적인 지식을 가진 자라면 여기서 설명되는 실시예는 본 출원의 범위와 정신을 벗어나지 않으면서 다양한 변화와 수정을 할 수 있음을 알 수 있을 것이다. 마찬가지로 명확하고 간단명료하기 위해 아래 설명에서는 공지기능과 구조에 대한 설명을 생략한다.
본 출원의 실시예는 검출방법을 제공한다. 이 방법은, 도로 또는 다른 환경에 설치된 카메라를 통해 수집구역내의 영상데이터를 얻고, 영상데이터에 기초하여 수집구역내 운동상태에 있는 대상을 목표대상으로 결정하며, 영상데이터에 기초하여 목표대상의 가속도정보를 결정한다. 그리고 가속도정보에 기초하여 목표대상에 돌발이벤트 발생 여부를 결정한다. 따라서 특정 상황에서, 예를 들어 도로교통상황에서, 목표대상 주변의 다른 대상에 돌발이벤트 발생에 대한 조기경보정보를 보낼 수 있다. 도로교통상황에서, 도로에 대량의 카메라가 설치되어 있기에 목표대상에 돌발이벤트가 발생한 것을 비교적 제때에 검출하고 돌발이벤트가 발생했다는 사실에 근거하여 조기경보 등 후속작업을 할 수 있다.
본 출원의 실시예는 먼저 이벤트 검출방법을 제공한다. 상기 이벤트 검출방법은 도 1 과 같이,
목표구역의 모니터링 영상에 근거하여 목표구역에 위치한 목표차량을 검출하는 단계(S11);
목표차량에 대한 수집시간 및 수집시간에 대응되는 이미지 프레임에서의 목표차량의 위치정보를 결정하는 단계(S12);
적어도 수집시간과 위치정보에 근거하여 목표차량의 가속도를 획득하는 단계(S13);
목표차량의 가속도에 근거하여 목표차량의 돌발이벤트 발생여부를 판단하는 단계(S14)를 포함한다.
본 실시예에서, 모니터링 영상은 다수의 이미지 프레임을 포함하고 목표구역 주변에 설치된 영상카메라장치에서 얻은 영상일 수 있다. 예를 들어 본 실시예의 방법은 도로교통상황에 응용될 때, 도로양측, 도로교차점과 도로주변 건축물 등 위치에 설치된 카메라를 통해 영상데이터를 얻을 수 있고; 차량 등 기타 이동대상에 설치된 카메라를 통해 영상데이터를 얻을 수도 있다. 본 실시예에서 목표구역의 목표차량을 검출하는 것은 임의의 목표검출 알고리즘을 사용하여 모니터링 영상을 검출할 수 있다.
본 실시예에서, 모니터링 영상의 촬영범위에 근거하여 목표차량의 돌발이벤트 발생여부에 대한 판단 필요성을 결정할 수 있다. 예를 들어, 고정밀 맵의 데이터에 따르면 모니터링 영상의 촬영범위에 자동차도로 또는 길목이 포함되면 단계 S11-S14를 수행하여 목표차량의 돌발이벤트 발생여부를 판단한다.
본 실시예에서, 목표차량은 모니터링 영상 중의 운동상태에 있는 각각의 차량 중 하나일 수 있다. 예를 들면 자동차, 비동력자동차 등이다. 일 실시형태에서, 목표차량은 모니터링 영상 중의 일정한 속도를 가진 차량 중 하나일 수 있다. 모니터링 영상에 기초하여 각 영상프레임 중의 각 대상의 윤곽정보 및 각 영상프레임 중의 운동구역과 비운동구역을 결정할 수 있다. 그 다음, 각 영상프레임 중의 각 대상의 윤곽정보 및 각 영상프레임 중의 운동구역과 비운동구역에 기초하여 각 대상 중에서 운동상태에 있는 대상을 결정한다.
본 출원의 실시예에서, 모니터링 영상 중의 하나 또는 몇 개의 영상프레임에 기초하여 각 대상의 윤곽정보를 결정할 수 있다. 예를 들어, 사례분할방법을 통해 영상프레임 중의 각 대상의 윤곽정보를 얻을 수 있다. 예를 들면, 신경망에 기초한 분할방법을 사용할 수 있고, 그 중에서 분할된 배경은 대상 이외의 물체(예를 들면, 도로, 하늘 등)이고 분할된 전망은 각 대상(예를 들면, 사람, 자동차, 비동력차 등)이다.
본 실시예에서, 목표구역의 모니터링 영상에 근거하여 목표구역에 있는 목표차량을 검출하는 것은 목표대상의 운동방향의 뒤쪽에 다른 목표대상이 존재하는 것으로 결정된 상황에서 단계 S12에 진입하는 것을 포함할 수 있다. 구체적으로 목표구역에서의 목표대상의 구체적인 차선정보를 검출하고; 고정밀 맵 데이터에 근거하여 차선정보에 대응되는 차량흐름방향을 획득하며; 주변 영상획득장치가 제공하는 차량정보와 차량흐름방향에 근거하여 목표차량 뒤에 다른 차량이 존재하는 지를 확인하고, 존재할 경우 단계 S12에 진입하는 것을 포함할 수 있다.
본 실시예에서, 목표구역은 모니터링 영상의 커버구역일 수도 있고 모니터링 영상의 커버구역 중의 관심구역일 수도 있다. 예를 들면, 본 실시예에 따른 방법이 도로교통상황에 사용될 때 목표구역은 모니터링 영상 중의 도로구역일 수 있다.
본 실시예에서, 목표차량의 수집시간은 다수의 목표시점을 포함할 수 있고 목표시점은 모니터링 영상에 포함된 시점일 수 있다. 예를 들어, 모니터링 영상의 시간범위를 t1-t100이면 목표시점은 t1-t100 중의 임의의 시점일 수 있다. 매 하나의 목표시점은 구체적인 이미지 프레임에 대응할 수 있다. 하나의 목표대상에 대하여 목표시점은 하나일 수도 있고 다수일 수도 있으며 목표시점이 다수일 때 목표시점 사이의 간격은 같을 수도 있고 다를 수도 있다.
본 실시예에서, 목표차량에 대한 수집시간 및 수집시간에 대응되는 이미지 프레임에서의 목표차량의 위치정보를 결정함에 있어서, 모니터링 영상에서 목표차량에 대한 다수의 목표시점을 결정하고; 결정된 목표시점에 근거하여 대응되는 이미지 프레임을 획득하고; 이미지 프레임에서의 목표차량의 픽셀위치정보를 결정하고; 픽셀위치정보를 이미지 프레임에서의 목표차량의 위치정보로 하는 것을 포함할 수 있다. 구체적인 실시예에서는, 칼만필터를 사용하여, 획득한 목표시점에 대응되는 위치를 필터링하여 목표차량의 위치가 크게 변동되지 않도록 할 수 있다.
본 실시예에서, 목표차량에 대한 수집시간 및 수집시간에 대응되는 이미지 프레임에서의 목표차량의 위치정보를 결정함에 있어서, 모니터링 영상에서 목표차량에 대한 다수의 목표시점을 결정하고; 결정된 목표시점에 근거하여 대응되는 이미지 프레임을 획득하고; 이미지 프레임에서의 목표차량의 픽셀위치정보를 결정하고; 이미지 프레임에서의 목표차량의 위치정보를 세계좌표계에 따른 위치정보로 전환하고; 세계좌표계에 따른 위치정보를 이미지 프레임에서의 목표차량의 위치정보로 하는 것을 더 포함할수 있다.
본 실시예에서, 수집시간과 위치정보에 근거하여 목표차량의 가속도를 획득함에 있어서, 수집시간은 다수의 목표시점을 포함할 수 있고, 다수의 목표시점은 다수의 위치정보에 대응할 수 있다. 따라서 다수의 목표시점 및 대응되는 다수의 위치정보에 근거하여 시간과 위치 곡선을 얻을 수 있고, 나아가 수학적계산을 통해 목표차량의 가속도정보를 얻을 수 있다. 예를 들어, 다수의 목표시점 및 대응되는 다수의 위치정보를 이용하여 변위와 시간에 관한 방정식을 얻어 가속도를 획득할 수 있다.
본 실시예에서, 목표차량의 가속도에 근거하여 목표차량의 돌발이벤트 발생여부를 판단함에 있어서, 적어도 목표차량의 가속도에 근거하여 목표차량의 돌발이벤트 발생여부를 판단할 수 있다. 구체적으로, 돌발이벤트는 목표차량의 급제동이벤트, 목표차량의 급가속이벤트 또는 기타 임의의 목표차량의 가속도와 관련된 운전이벤트일 수 있다. 돌발이벤트는 목표차량의 주행과정에서 매우 짧은 시간내에 발생하여, 주변차량이 제때에 반응하지 못하면 교통사고를 일으킬 가능성이 있는 이벤트일 수도 있다. 다른 실시예에서는 목표차량의 기타 파라미터에 근거하여 목표차량의 가속도와 결합하여 목표차량의 돌발이벤트 발생여부를 판단할 수도 있다. 예를 들어, 목표차량의 가속도와 속도를 결합하여 목표차량의 돌발이벤트 발생여부를 판단할 수 있다.
다른 실시형태에서는, 가속도의 수치크기와 가속도의 방향 중 적어도 하나에 근거하여 목표차량의 돌발이벤트 발생여부를 판단할 수 있다. 예를 들어, 가속도의 방향급전환을 통해 목표차량에 급회전, 차선 급변경 등 돌발이벤트의 발생을 판단할수 있다. 가속도의 수치크기를 통해 목표차량에 급제동, 급가속이벤트의 발생을 판단할 수 있다.
본 출원의 실시예에서는, 획득한 모니터링 영상에 근거하여 목표차량의 가속도를 계산한 다음, 목표차량의 가속도에 근거하여 목표차량의 돌발이벤트 발생여부를 판단하여, 도로환경 중의 대량의 카메라에 의해 수집된 데이터를 통해 도로 위의 각 차량에 대해 돌발이벤트를 분석함으로써, 신속하고 정확하게 도로교통상황 중의 각 차량의 돌발상태를 파악하여 자율주행차량에 제때에 주변차량의 주행상태정보를 제공하는 데 도움이 되고, 일반차량에 주변의 다른 차량의 주행상태정보를 제때에 제공하여, 자율주행차량과 일반차량의 운전자가 도로환경의 다른 차량의 주행상태 돌변이벤트를 제때에 파악하는 데 도움을 준다. 예를 들어, 목표차량의 급제동상황에서 후방 차량이 제때에 반응하지 못해 추돌 등 교통사고를 초래할 수 있는데, 본 출원의 실시예에 따른 방법을 통해 차량의 급제동 등 돌발이벤트를 신속하게 검출하여 목표차량의 주변차량에 신속하게 알릴 수 있어, 도로교통상황에서의 차량의 안전운행에 도움이 된다.
본 출원의 실시예에 따른 이벤트 검출방법의 수행주체는 다양한 도로측 기기, 예를 들어 도로측 감지기기, 도로측 감지기기와 연결된 도로측 컴퓨팅 기기일 수 있고, 도로측 컴퓨팅 기기와 연결된 서버기기일 수도 있고, 또는 도로측 감지기기와 직접 연결된 서버기기 등일 수도 있다. 본 출원의 실시예에서 서버기기는 예를 들어 클라우드 제어 플랫폼, 차량도로 협력관리 플랫폼, 중앙 서브 시스템, 에지 컴퓨팅 플랫폼, 클라우드 컴퓨팅 플랫폼 등이다.
일 실시형태에서, 적어도 수집시간과 위치정보에 근거하여 목표차량의 가속도를 획득함에 있어서, 수집시간내에 다수의 목표시점을 결정하고; 목표시점에 대응되는 이미지 프레임에서의 위치정보 및 목표시점 사이의 시간간격에 근거하여 각 목표시점에서의 목표차량의 가속도를 산출하는 것을 포함하다.
본 실시예에서는, 동등한 시간간격에 따라 수집시간내에 다수의 목표시점을 결정할 수 있다. 예를 들어, 수집시간은 t1-t100 사이의 모든 연속시간을 포함하며, 다시말해 무한 개의 목표시점을 포함하고, t1-t100 사이에 시간간격 t 에 따라 t1, t2, t3, t4, t5, t6과 t7을 포함하는 목표시점을 결정하며, 이 7개 목표시점에 대응되는 이미지 프레임에 근거하여 이 7개 목표시점에서의 목표차량의 위치 x1, x2, x3, x4, x5, x6과 x7을 결정한 다음, 인접한 목표시점 사이의 운동을 등가속도운동으로 근사화 한다. 구체적으로는, 두 개의 목표시점에 대응되는 목표차량의 위치, 예를 들어 t1과 t3에 대응되는 목표차량의 위치 x1, x3에 근거하여 위치차이 x3 - x1, 즉 목표차량의 이 두 개의 목표시점의 시간간격내에서의 변위를 산출한 후, 등가속도운동의 가속도 계산방식에 근거하여 목표차량의 t1-t3 시간내 등가속도운동 상황에서의 가속도를 계산하고, 이를 목표차량의 t1- t3 시간내 가속도로 정한다.
다른 실시형태에서는, 같은 시간간격에 따라 수집시간내에 다수의 목표시점을 결정할 수 있고, 같은 시간간격은 이미지 프레임 사이의 시간간격일 수 있다.
다른 실시예에서는, 각 목표시점 및 각 목표시점에 대응되는 목표차량의 위치정보에 근거하여 시간과 변위하는 근사곡선을 얻고, 근사곡선의 경사율을 통해 목표차량의 가속도를 획득할 수 있다.
본 실시예에서는, 목표시점에 대응되는 이미지 프레임의 위치정보와 목표시점 사이의 시간간격에 근거하여 목표차량의 각 목표시점에서의 가속도를 계산하고 계산할 때 사용되는 위치정보와 시간간격은 목표차량의 모니터링 영상에서 직접 얻을 수 있으며 계산속도가 빠르고 계산결과의 정확도가 비교적 높다.
일 실시형태에서, 목표시점에 대응되는 이미지 프레임에서의 위치정보, 및 목표시점 사이의 시간간격에 근거하여 목표차량의 각 목표시점에서의 가속도를 획득함에 있어서,
이전 목표시점과 이에 대응되는 위치정보, 및 다음 목표시점과 이에 대응되는 위치정보에 근거하여 목표차량의 중간 목표시점에서의 근사 가속도를 산출하여 목표차량의 중간 목표시점에서의 가속도를 획득하는 것을 포함하며,
그 중, 중간 목표시점은 이전 목표시점과 다음 목표시점 사이에 처해 있다.
본 실시예에서, 목표차량의 운동곡선은 세그먼트 선형화 방법을 사용하여 등가속도운동에 근사화시킬 수 있다. 목표차량의 속도-시간 운동곡선은 매끄러운 곡선이고 곡선상의 매 점에 대해 모두 연속적으로 도달할 수 있기 때문에 매 점 주위의 일정한 연속구간내에서 그에 대해 선형근사화 하여 곡선을 작은 세그먼트로 나누어 목표차량이 세그먼트에서 등가속도운동을 한다고 할 수 있다. 따라서, 축차법으로 목표차량의 가속도를 계산할 수 있다. 도 2와 같이, 등간격으로 목표시점 t1, t2, t3, t4, t5, t6과 t7을 획득하는 경우, t3과 t7, t2와 t6, t1과 t5, 및 이에 각각 대응되는 목표차량위치 중의 임의의 한 조를 선택하여 시점 t4의 목표차량의 근사가속도를 계산하여 t4 시각의 목표차량의 가속도로 할 수 있다. 구체적으로, t3과 t7 및 이에 대응되는 목표차량의 위치 x3과 x5에 따른 근사가속도 계산공식은 a1=(x7-x3)/4△t2 이다. t2와 t6 및 이에 대응되는 목표차량의 위치 x2와 x6에 따른 목표차량의 근사가속도 계산공식은 a2=(x6-x2)/4△t2 이다. t1과 t5 및 이에 대응되는 목표차량의 위치 x1과 x5에 따른 목표차량의 근사가속도 계산공식은 a3=(x5-x1)/4△t2 이고, 그 중 △t는 인접한 목표시점 사이의 시간간격이다. a4, a5와 a6 중 임의의 하나를 목표차량의 t4 시각의 가속도로 선택할 수 있다.
본 실시예에서는, 이전 목표시점과 이에 대응되는 위치정보, 및 다음 목표시점과 이에 대응되는 위치정보는 설정할 수 있다. 예를 들어, t1과 t7 및 이에 각각 대응되는 목표차량의 위치를 사용하여 시점 t4의 목표차량의 근사가속도를 계산하여 t4 시각의 목표차량의 근사가속도로 할 수 있다. 구체적으로, t1과 t7 및 이에 대응되는 목표차량의 위치 x3과 x5에 따른 근사가속도 a4의 계산공식은 a4=(x7-x1)/6△t2 이다.
본 실시예에서는, 시간간격이 충분히 작을 경우, 목표차량의 시간간격내에서의 운동은 등가속도운동으로 근사화될 수 있고 계산을 통해 얻은 가속도는 실제가속도와 비슷하여 이런 계산방식은 비교적 높은 정확성을 가지기 때문에 이후에 돌발이벤트 발생여부를 판단하는 데 효과적인 참고 역할을 한다.
일 실시형태에서, 목표차량의 중간 목표시점에서의 가속도를 획득함에 있어서, 중간 목표시간에 대응되는 다수의 근사가속도의 평균값을 중간 목표시점의 가속도로 하는 것을 포함한다.
일 실시형태에서, 목표차량의 중간 목표시점 주변의 작은 구간내 운동을 등가속도운동으로 근사화시켜 축차법으로 목표차량의 가속도를 계산한다. 여전히 도 2를 참고하면, 등간격으로 목표시점 t1, t2, t3, t4, t5, t6과 t7을 획득하는 경우, 각각 t3과 t7, t2와 t6, t1과 t5, 및 이에 각각 대응되는 목표차량의 위치에 근거하여 시점 t4에서의 목표차량의 3개의 근사가속도를 계산한 다음, 평균값을 계산하여 t4 시각 목표차량의 가속도를 얻을 수 있다. 구체적으로, t3과 t7 및 이에 대응되는 목표차량의 위치 x3과 x5에 따른 근사가속도 계산공식은 a4=2×(x7-x3)/(t7-t3)2 이다. t2 와 t6 및 이에 대응되는 목표차량의 위치 x2와 x6에 따른 목표차량의 근사가속도 계산공식은 a1=(x6-x2)/4△t2 이다. t1과 t5 및 이에 대응되는 목표차량의 위치 x1과 x5에 따른 목표차량의 근사가속도 계산공식은 a2=(x5-x1)/4△t2 이다. 그후, a4, a5와 a6의 평균값을 목표차량의 가속도로 할 수 있다. 즉, t4 시각의 가속도 a의 계산공식은 a=(x7+x6+t5-t1-x2-x3)/12△t2 이며, 그 중에서 △t는 인접한 목표시점 사이의 시간간격이다.
본 실시예에서는, 이전 목표시점과 이에 대응되는 위치정보, 및 다음 목표시점과 이에 대응되는 위치정보를 설정할 수 있다. 예를 들어, t1과 t7에 각각 대응되는 목표차량의 위치를 사용하여 시점 t4에서의 목표차량의 근사가속도를 계산하여, t4 시각 목표차량의 가속도로 할 수 있다. 구체적으로, t1과 t7 및 이에 대응되는 목표차량의 위치 x3과 x5에 따른 근사가속도 a4의 계산공식은 a4=(x7-x1)/6△t2 이다.
본 실시예에서는, 하나의 목표시점에 대하여 다수의 근사가속도를 계산한 다음, 다수의 근사가속도의 평균값을 얻어 목표차량의 당해 목표시점에서의 가속도로 하므로, 가속도의 계산수치의 정확도를 한층 더 높일 수 있다.
일 실시형태에 있어서, 돌발이벤트는 목표차량의 급제동이벤트이며; 목표차량의 가속도에 근거하여 목표차량에 미리 설정된 돌발이벤트의 발생을 판단함에 있어서,
목표차량의 가속도의 분산이 가속도의 분산임계값보다 작을 경우,
목표차량의 가속도 절대값이 제1 가속도 임계값보다 크다는 조건;
목표차량의 가속도 평균값의 절대값이 제2 가속도 임계값보다 크다는 조건;
목표차량의 가속도 중, 절대값이 제3 가속도 임계값보다 큰 가속도의 수량이 수량 임계값보다 크다는 조건;
중의 적어도 하나의 조건을 만족시킬 때, 목표차량에 미리 설정된 돌발이벤트가 발생한 것으로 결정하는 것을 포함한다.
본 실시예에서, 목표차량이 도로에서 주행하는 과정에서 발생하는 급제동이벤트가 있을 수 있는 상황은 도 3A-3C와 같다. 도 3A는, 차량의 가속가동 중에 급제동이벤트가 발생한 상황을 표시한다. 도 3B는, 차량의 정상운행 중에 급제동이벤트가 발생한 상황을 표시한다. 도 3C는, 차량이 임의의 상태에서 급제동이벤트가 발생한 후 바로 가속시킨 상황을 표시한다.
본 실시예에서는, 판단정책의 완화 정도에 근거하여 상기 다수의 판단조건 중 하나 또는 여러 개를 만족시킬 때 급제동이벤트가 발생한 것으로 설정할 수 있다. 예를 들어, 느슨한 판단정책하에서, 상기 다수의 판단조건 중의 임의의 하나를 만족시키면 목표차량에 급제동이벤트가 발생했다고 판정할 수 있다. 적절한 판단정책하에서, 상기 다수의 판단조건 중의 하나 이상을 만족시키면 목표차량에 급제동이벤트가 발생했다고 판정할 수 있다. 엄격한 판단정책하에서, 상기 다수의 판단조건 중의 모든 조건을 만족시킬 때 목표차량에 급제동이벤트가 발생했다고 판정한다.
목표차량의 가속도의 분산이 가속도의 분산임계값보다 작을 경우, 계산을 통해 얻은 가속도 소음이 작고, 가속도 수치 정확도가 높다는 것을 설명한다. 제1 가속도임계값, 제2 가속도임계값과 제3 가속도임계값은 동등한 임계값일 수 있다.
본 실시예에서는, 가속도 절대값에 근거하여 급제동이벤트 발생여부를 결정하므로, 차량이 급제동이벤트로 인한 상기 문제를 자발적으로 보고하지 않도록 하며, 조기경보 지연문제를 줄이고 보편성이 높다.
일 실시형태에 있어서, 이벤트 검출방법은 도 4와 같이, 도 1의 이벤트 검출방법의 기초위에, 돌발이벤트에 근거하여 이벤트보고정보를 생성하여 이벤트보고정보를 전송하는 단계(S41)를 더 포함한다.
본 실시예에서, 이벤트보고정보의 수신자는 지정된 서버일 수 있다. 지정된 서버는 이벤트보고를 받은 후, 목표차량 주변의 차량에 이벤트보고정보를 전송하여, 다른 차량이 제때에 상응한 동작을 수행하여 사고발생을 피할 수 있도록 한다.
이벤트보고정보의 수신자는 목표차량 주변의 다른 차량일 수 있다. V2X (Vehicle To Everything, 차량용 무선 통신 기술)를 통해 차량간 통신을 수행하여, 돌발이벤트 보고를 전송하고 획득할 수 있다. 차량용 유닛(On board Unit, OBU)을 설치한 차량에 대해서는 하나의 플랫폼을 통해 미리 설정된 이벤트에 대한 보고를 받을 수 있고, 길가에 도로측 유닛(Road Side Unit, RSU)을 설치하여 서로간에 마이크로파를 통해 통신을 수행하여, 돌발이벤트에 대한 보고를 주변차량에 보낼 수도 있으며, 당해 OBU는 자율주행차량의 신분을 표시한다. 자율주행차량에 있어서는, 교통사고발생상황에 대해 제‹š에 정보를 얻고 가장 짧은 시간내에 최신 도로교통상황에 근거하여 주행노선을 조정하여 노선이 지나가는 도로구간에서 교통사고가 발생한 상황에서 다시 교통사고가 발생하지 않도록 해야 한다.
본 실시예에서, 이벤트보고정보의 수신자는 목표차량 주변의 다른 차량일 수 있으며, 차량 네트워크, 차량용 외부 디스플레이장치, OBU 등을 통해 주변차량에 목표차량의 돌발이벤트 발생정보를 공유함으로써 다른 차량이 신속하게 상응한 동작을 수행하여 사고발생을 피할 수 있도록 한다.
하나의 구체적인 실시형태에 있어서, 목표차량은 자율주행차량이다.
다른 구체적인 실시형태에 있어서, 보고정보의 수신자는 자율주행차량이다.
다른 구체적인 실시형태에 있어서, 보고정보의 수신자는 목표차량 주변의 설정범위내의 자율주행차량이다. V2X 통신을 이용하여 차량의 위치추적을 진행하여 목표차량 주변의 차량을 확인할 수 있다. 즉, OBU가 설치된 차량은 방송을 통해 당해 차량의 현재 유일한 ID(예를 들어 엔진 번호)와 당해 차량의 현재 위치, 및 현재 보고 시각의 타임스탬프를 보고할 수 있다. 차량의 위치는 자신의 위치추적시스템을 통해 획득할 수 있으며, 보다 높은 정밀도의 위치추적을 획득하기 위해 차량에 차동 GPS(Global Position System, 위성항법시스템)를 설치할 수 있다. 에지 컴퓨팅 플랫폼이나 클라우드 컴퓨팅 플랫폼은 차량이 보고한 정보를 받은 후, 우선 칼만 필터를 이용하여 장애물 보고 위치를 필터링하여 장애물 보고 위치의 평활성을 향상시켜 장애물의 위치가 크게 변동되지 않도록 한다. 그 다음, 각 차량이 보고한 위치정보에 근거하여 목표차량의 주변에 어떤 차량들이 있는지를 결정한다.
일 실시형태에 있어서, 목표구역의 모니터링 영상에 근거하여 목표구역에 있는 목표차량을 검출함에 있어서,
모니터링 영상에 근거하여 목표구역내의 대상의 속도를 결정하며;
속도가 속도임계값보다 큰 대상을 목표차량으로 정하는 것을 포함한다.
본 실시예에서, 속도임계값은 안전요구에 따라 정할 수 있다.
운동속도가 너무 느린 대상은 심각한 급제동이벤트가 거의 발생하지 않을 뿐만 아니라, 저속일 경우 추적 알고리즘의 관성에 의해 저속일 때 일정한 속도변동이 생긴다는 것을 이해할 수 있을 것이다. 이를 감안하여, 본 실시예는 저속운동하는 대상을 필터링하여 계산량을 줄이고 응답속도를 높일 수 있다.
본 출원의 실시예는 이벤트 검출장치를 더 제공하며, 이는 도 5와 같이,
목표구역의 모니터링 영상에 근거하여 목표구역에 위치한 목표차량을 검출하기 위한 목표차량 검출 모듈(51);
목표차량에 대한 수집시간 및 수집시간에 대응되는 이미지 프레임에서의 목표차량의 위치정보를 결정하기 위한 위치정보 모듈(52);
적어도 수집시간 및 위치정보에 근거하여 목표차량의 가속도를 획득하기 위한 가속도 모듈(53);
목표차량의 가속도에 근거하여 목표차량의 돌발이벤트 발생여부를 판단하기 위한 돌발이벤트 모듈(54)을 포함한다.
일 실시형태에 있어서, 도 6과 같이, 가속도모듈(53)은,
수집시간에 다수의 목표시점을 결정하기 위한 목표시점 유닛(61);
목표시점에 대응하는 이미지 프레임에서의 위치정보 및 목표시점 사이의 시간간격에 근거하여 목표차량의 각 목표시점에서의 가속도를 산출하기 위한 컴퓨팅 유닛(62)을 포함한다.
일 실시형태에 있어서, 컴퓨팅 유닛은,
이전 목표시점과 이에 대응되는 위치정보, 및 다음 목표시점과 이에 대응되는 위치정보에 근거하여, 목표차량의 중간 목표시점에서의 근사 가속도를 산출하여, 목표차량의 중간 목표시점에서의 가속도를 획득하는 데 더 사용되며;
그 중, 중간 목표시점은 이전 목표시점과 다음 목표시점 사이에 위치한다.
일 실시형태에 있어서, 컴퓨팅 유닛은,
중간 목표시간에 대응되는 다수의 근사 가속도의 평균값을 중간 목표시점의 가속도로 하는 데 더 사용된다.
일 실시형태에 있어서, 돌발이벤트는 목표차량의 급제동이벤트이며; 돌발이벤트 모듈은,
목표차량의 가속도의 분산이 가속도의 분산임계값보다 작을 경우,
목표차량의 가속도 절대값이 제1 가속도 임계값보다 크다는 조건;
목표차량의 가속도 평균값의 절대값이 제2 가속도 임계값보다 크다는 조건;
목표차량의 가속도 중, 절대값이 제3 가속도 임계값보다 큰 가속도의 수량이 수량 임계값보다 크다는 조건;
중의 적어도 하나의 조건을 만족시킬 때, 목표차량에 미리 설정된 돌발이벤트가 발생한 것으로 판단하는 데 더 사용된다.
일 실시형태에 있어서, 도 7과 같이,
돌발이벤트에 근거하여 이벤트보고정보를 생성하고 이벤트보고정보를 전송하기 위한 보고 모듈(71)을 더 포함한다.
일 실시형태에 있어서, 도 8과 같이, 목표차량 검출 모듈(51)은,
모니터링 영상에 근거하여 목표구역에서의 대상의 속도를 결정하기 위한 속도 유닛(81);
속도가 속도임계값보다 큰 대상을 목표차량으로 정하기 위한 목표차량 유닛(82)을 포함한다.
본 출원의 실시예의 각 장치 중의 각 모듈의 기능은 상기 방법 중의 대응되는 설명을 참고할 수 있으며, 여기서는 더 이상 언급하지 않는다.
본 출원의 실시예는 스마트 교통도로 협력시스템 구조에 응용될 수 있고, 스마트 교통도로 협력시스템 구조는 도로측 기기를 포함한다. 도로측 기기는 도로측 감지기기와 도로측 컴퓨팅기기를 더 포함하고, 도로측 감지기기(예를 들어 도로측 카메라)는 도로측 컴퓨팅기기(예를 들어 도로측 컴퓨팅 유닛 RSCU)에 연결되고 도로측 컴퓨팅기기는 서버기기에 연결된다. 다른 시스템 구조에서는, 도로측 감지기기 자체가 계산기능을 포함하고 도로측 감지기기는 상기 서버기기에 직접 연결된다. 이상의 연결은 유선 또는 무선일 수 있다. 본 출원에서 서버기기는, 예를 들어 클라우드 제어 플랫폼, 차량도로 협력관리 플랫폼, 중앙 서브 시스템, 에지 컴퓨팅 플랫폼, 클라우드 컴퓨팅 플랫폼 등이다.
본 출원의 실시예에 따르면, 본 출원은 전자기기와 판독가능한 저장매체를 더 제공한다.
도 9는 본 출원의 실시예에 따른 이벤트 검출방법의 전자기기 블록도이다. 전자기기는 다양한 형태의 디지털 컴퓨터, 예를 들어, 휴대용 컴퓨터, 데스크톱 컴퓨터, 작업대, 개인용 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터 및 기타 적합한 컴퓨터 등을 의미한다. 전자기기는 또한 다양한 형태의 모바일 장치, 예를 들어 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블기기 및 기타 유사한 컴퓨팅 장치 등을 의미할 수 있다. 본 명세서에서 설명한 부품, 이들의 연결과 관계, 그리고 이들의 기능은 예시일 뿐이고 본 명세서에서 설명하고/또는 요구하는 본 출원의 실현을 제한하는 것이 아니다.
도 9와 같이, 당해 전자기기는, 하나 또는 다수의 프로세서(901), 메모리(902), 및 각 부품을 연결하는 인터페이스를 포함하고, 인터페이스는 고속 인터페이스와 저속 인터페이스를 포함한다. 각 부품은 서로 다른 버스를 이용하여 서로 연결되고, 공통메인보드에 설치되거나 필요에 따라 다른 방식으로 설치될 수 있다. 프로세서는 전자기기내에서 수행되는 명령을 처리할 수 있고, 상기 명령은 메모리내에 저장된 명령 또는 메모리내에 저장되어 외부 입력/출력장치(예를 들어 인터페이스에 커플링된 디스플레이장치)에 그래픽 사용자 인터페이스(Graphical User Interface,GUI)의 그래픽 정보를 표시하는 명령을 포함한다. 다른 실시형태에서는, 필요하다면 다수의 프로세서와/또는 다수의 버스를 다수의 메모리와 다수의 메모리와 함께 사용할 수 있다. 마찬가지로 다수의 전자기기를 연결시킬 수 있고 각 기기는 일부 필요한 동작(예를 들어 서버 어레이, 블레이드 서버 그룹, 또는 멀티 프로세서 시스템)을 제공한다. 도 9에서는 하나의 프로세서(901)를 예로 들었다.
메모리(902)는 본 출원에 의해 제공되는 비순간 컴퓨터 판독가능 저장매체이다. 그 중, 메모리에는 적어도 하나의 프로세서가 수행할 수 있는 명령이 저장되어 있어 적어도 하나의 프로세서로 하여금 본 출원에 의해 제공되는 이벤트 검출방법을 수행하도록 한다. 본 출원의 비순간 컴퓨터 판독가능 저장매체는 컴퓨터 명령이 저장되어 있고, 당해 컴퓨터 명령은 컴퓨터로 하여금 본 출원에 의해 제공되는 이벤트 검출방법을 수행하도록 하는 데 사용된다.
메모리(902)는 비순간 컴퓨터 판독가능 저장매체로서, 비순간 소프트웨어 프로그램, 비순간 컴퓨터 실행 가능 프로그램 및 모듈, 예들 들어 본 출원의 실시예 중의 이벤트 검출방법에 대응하는 프로그램 명령/모듈(예를 들면, 도 5에 도시된 목표차량 검출 모듈(51), 위치정보 모듈(52), 가속도 모듈(53)과 돌발이벤트 모듈(54))을 저장하는 데 사용될 수 있다. 프로세서(901)는 메모리(902)에 저장된 비순간 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써 서버의 각종 기능 응용 및 데이터 처리를 실행한다. 즉, 상기 방법에 따른 실시예 중의 이벤트 검출방법을 구현한다.
메모리(902)는 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있다. 그 중에서 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있고; 데이터 저장 영역은 이벤트 검출방법의 전자기기의 사용에 따라 생성된 데이터 등을 저장할 수 있다. 이 외, 메모리(902)는 고속 랜덤 액세스 메모리를 포함할 수 있고 비순간 메모리를 포함할 수도 있다. 비순간 메모리는 예를 들어 적어도 하나의 디스크 저장장치, 플래시 저장장치, 또는 기타 비순간 고체 저장장치이다. 일부 실시예에서, 메모리(902)는 선택적으로 프로세서(901)에 상대하여 원격설치된 메모리를 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 전자기기에 연결될 수 있다. 상기 네트워크의 실례는 인터넷, 인트라넷, 랜, 이동 통신망 및 그 조합을 포함하나 이에 한정되지 않는다.
상기 전자기기는 입력장치(903)와 출력장치(904)를 포함할 수도 있다. 프로세서(901), 메모리(902), 입력장치(903)와 출력장치(904)는 버스 또는 기타 방식으로 연결될 수 있으며, 도 9에서는 버스로 연결된 것을 예로 들었다.
입력장치(903)는 입력한 숫자 또는 문자정보를 수신하고, 상기 전자기기의 사용자 설정과 기능제어와 관련된 키 신호 입력을 생성할 수 있다. 입력장치(903)는 예를 들어, 터치 스크린, 키패드, 마우스, 트랙 보드, 터치 보드, 지시봉, 하나 또는 다수의 마우스 버튼, 트랙 볼, 조이스틱 등 입력장치이다. 출력장치(904)는 디스플레이 장치, 보조 조명 장치(예를 들어 LED)와 촉각 피드백 장치(예를 들어 진동 모터) 등을 포함할 수 있다. 당해 디스플레이 장치는 액정 디스플레이(Liquid Crystal Display,LCD), 발광 다이오드(Light Emitting Diode,LED) 디스플레이와 플라즈마 디스플레이를 포함하지만 이에 한정되지 않는다. 일부 실시형태에서 디스플레이 장치는 터치 스크린일 수 있다.
여기서 서술한 시스템과 기술의 각종 실시형태는 디지털 전자회로 시스템, 집적회로 시스템, 응용 주문형 집적회로(Application Specific Integrated Circuits,ASIC), 컴퓨터 하드웨어, 펌웨어, 소프트웨어와/또는 이들의 조합에서 이루어질 수 있다. 이러한 다양한 실시형태는, 하나 또는 다수의 컴퓨터 프로그램에서 실시되어, 저장시스템, 적어도 하나의 입력장치와 적어도 하나의 출력장치로부터 데이터와 명령을 수신하고, 데이터와 명령을 상기 저장시스템, 상기 적어도 하나의 입력장치와 상기 적어도 하나의 출력 장치에 전송할 수 있는 것을 포함할 수 있다. 여기서, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그래밍 가능한 프로세서를 포함하는 프로그래밍 가능한 시스템에서 실행되고 또한/또는 해석될 수 있으며, 상기 프로그래밍 가능한 프로세서는 전용 또는 범용의 프로그래밍 가능한 프로세서일 수 있다.
이들 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 응용 또는 코드라고도 함)은 프로그래밍 가능한 프로세서의 기계명령을 포함하고 고급프로세스와/또는 객체 지향 프로그래밍 언어, 및/또는 어셈블리/기계언어를 이용하여 이들 컴퓨팅 프로그램을 실시할 수 있다. 본 명세서에서 사용한 바와 같이, 용어 ‘기계 판독가능 매체’와 ‘컴퓨터 판독가능 매체’는 기계명령과/또는 데이터를 프로그래밍 가능한 프로세서에 제공하는 모든 컴퓨터 프로그램 제품, 기기, 와/또는 장치(예를 들어 디스크, 광 디스크, 메모리, 프로그래밍 가능한 논리장치(programmable logic device,PLD))를 가리키며, 기계 판독가능한 신호로서의 기계명령을 수신하는 기계 판독가능 매체를 포함하다. 용어 ‘기계 판독가능 신호’는 기계명령과/또는 데이터를 프로그래밍 가능한 프로세서에 제공하는 모든 신호를 가리킨다.
사용자와의 인터랙티브를 제공하기 위해 여기서 설명한 시스템과 기술을 컴퓨터에서 실시할 수 있다. 당해 컴퓨터는 사용자에게 정보를 표시하는 디스플레이 장치(예를 들어 CRt(Cathode Ray tube(음극선관) 또는 LCD(액정 디스플레이) 모니터); 키보드와 방향지시장치(예를 들어 마우스 또는 트랙 볼)를 포함하고 사용자는 당해 키보드와 당해 방향지시장치를 통해 입력을 컴퓨터에 제공할 수 있다. 다른 종류의 장치는 또한 사용자와의 인터랙티브를 제공하는 데 사용될 수도 있다. 예를 들어, 사용자에게 제공하는 피드백은 모든 형태의 센싱 피드백(예를 들어 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 또한 모든 형태(소리입력, 음성입력 또는 촉각 입력을 포함)로 사용자의 입력을 수신할 수 있다.
여기서 서술한 시스템과 기술은 백엔드 부품을 포함하는 컴퓨팅 시스템(예를 들어 데이터 서버), 또는 미들웨어 부품을 포함하는 컴퓨팅 시스템(예를 들어 응용 서버), 또는 프론트엔드 부품을 포함하는 컴퓨팅 시스템(예를 들어 그래픽 사용자 인터페이스 또는 웹브라우저를 가진 사용자 컴퓨터, 사용자는 당해 그래픽 사용자 인터페이스 또는 당해 웹브라우저를 통해 여기서 설명한 시스템과 기술의 실시형태와 인터랙티브를 진행할 수 있다), 또는 이러한 백엔드 부품, 미들웨어 부품 또는 프론트엔드 부품의 모든 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 모든 형식이나 매체의 디지털 데이터 통신(예를 들어 통신망)을 통해 시스템의 부품을 서로 연결할 수 있다. 통신망의 예는 랜(Local Area Network,LAN), 광역망(Wide Area Network,WAN), 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트와 서버를 포함한다. 클라이언트와 서버는 일반적으로 서로 멀리 이격되고 통신망을 통해 인터랙티브를 진행한다. 서로 상응하는 컴퓨터에서 작동하고 서로 클라이언트-서버 관계를 가진 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계를 형성한다.
본 출원의 실시예의 기술적 해결수단에 따르면, 획득한 모니터링 영상에 근거하여 목표차량의 가속도를 계산한 다음, 목표차량의 가속도에 근거하여 목표차량의 돌발이벤트 발생여부를 판단한다. 이로써, 도로환경의 대량의 카메라에 의해 수집된 데이터를 통해 도로의 각 차량에 대해 돌발이벤트를 분석함으로써, 신속하고 정확하게 도로교통상황 중의 각 차량의 돌발상황을 파악하여 자율주행차량에 주변차량의 주행상태정보를 제때에 제공하는 데 도움이 되고, 일반차량에 주변의 다른 차량의 주행상태정보를 제때에 제공하여 자율주행차량 및 일반차량의 운전자가 도로환경 중의 다른 차량의 주행상태 돌변이벤트를 제때에 파악할 수 있도록 돕는다. 예를 들어, 목표차량이 급제동을 한 상태에서 후방 차량이 제때에 반응을 하지 못해 추돌 등 교통사고를 초래할 수 있는데, 본 출원의 실시예에 따른 방법을 통해 차량의 급제동 등 돌발이벤트를 신속하게 검출하여, 목표차량의 주변차량에 신속하게 알림으로써, 차량이 도로교통상황에서 안전하게 운행할 수 있도록 돕는다.
위에서 설명한 다양한 형태의 프로세스를 사용할 수 있으며 단계를 재정렬, 추가 또는 삭제할 수 있음을 이해할 것이다. 예를 들어, 본 출원에 기재된 각 단계는 병행 실행할 수도 있고 순차적으로 실행할 수도 있고 서로 다른 순서로 실행할 수도 있으며, 본 출원이 제공한 기술적 해결수단이 기대하는 결과를 실현할 수만 있다면 본 명세서에서는 이에 제한을 두지 않는다.
상술한 구체적인 실시형태는 본 출원의 보호범위를 한정하지 않는다. 본 출원이 속하는 기술분야에서 통상적인 지식을 가진 자라면 설계요구와 기타 요소에 따라 각종 수정, 조합, 부분조합과 교체를 할 수 있을 것이다. 본 출원의 정신과 원칙내에서 진행되는 모든 수정, 등가적인 교체와 개선 등은 모두 본 출원의 보호범위내에 포함된다.

Claims (18)

  1. 이벤트 검출방법에 있어서,
    목표구역의 모니터링 영상에 근거하여 상기 목표구역에 위치한 목표차량을 검출하는 단계;
    상기 목표차량에 대한 수집시간 및 상기 수집시간에 대응되는 이미지 프레임에서의 상기 목표차량의 위치정보를 결정하는 단계;
    적어도 상기 수집시간과 상기 위치정보에 근거하여 상기 목표차량의 가속도를 획득하는 단계;
    상기 목표차량의 가속도에 근거하여 상기 목표차량의 돌발이벤트 발생여부를 판단하는 단계를 포함하는 방법.
  2. 제1항에 있어서,
    상술한 적어도 상기 수집시간과 상기 위치정보에 근거하여 상기 목표차량의 가속도를 획득하는 단계는,
    상기 수집시간에 다수의 목표시점을 결정하는 단계;
    상기 목표시점에 대응되는 이미지 프레임에서의 위치정보, 및 상기 목표시점 사이의 시간간격에 근거하여, 상기 목표차량의 각 상기 목표시점에서의 가속도를 산출하는 단계를 포함하는 방법.
  3. 제2항에 있어서,
    상술한 상기 목표시점에 대응되는 이미지 프레임에서의 위치정보, 및 상기 목표시점 사이의 시간간격에 근거하여, 상기 목표차량의 각 상기 목표시점에서의 가속도를 산출하는 단계는,
    이전 상기 목표시점과 이에 대응되는 위치정보, 및 다음 상기 목표시점과 이에 대응되는 위치정보에 근거하여, 상기 목표차량의 중간 목표시점에서의 근사 가속도를 산출하여, 상기 목표차량의 상기 중간 목표시점에서의 가속도를 획득하는 단계를 포함하며;
    상기 중간 목표시점은 이전 상기 목표시점과 다음 상기 목표시점 사이에 위치하는 방법.
  4. 제3항에 있어서,
    상술한 상기 목표차량의 상기 중간 목표시점에서의 가속도를 획득하는 단계는,
    상기 중간 목표시점에 대응되는 다수의 근사 가속도의 평균값을 상기 중간 목표시점에서의 가속도로 하는 단계를 포함하는 방법.
  5. 제1항 내지 제4항 중 임의의 한 항에 있어서,
    상기 돌발이벤트는 상기 목표차량의 급제동이벤트이며;
    상술한 상기 목표차량의 가속도에 근거하여 상기 목표차량에 미리 설정된 돌발이벤트의 발생을 판단하는 단계는,
    상기 목표차량의 가속도의 분산이 가속도의 분산임계값보다 작을 경우, 상기 목표차량의 가속도 절대값이 제1 가속도 임계값보다 크다는 조건;
    상기 목표차량의 가속도 평균값의 절대값이 제2 가속도 임계값보다 크다는 조건;
    상기 목표차량의 가속도 중, 절대값이 제3 가속도 임계값보다 큰 가속도의 수량이 수량 임계값보다 크다는 조건;
    중의 적어도 하나의 조건을 만족시킬 때, 상기 목표차량에 미리 설정된 돌발이벤트가 발생했다고 결정하는 단계를 포함하는 방법.
  6. 제1항에 있어서,
    상기 돌발이벤트에 근거하여 이벤트보고정보를 생성하고 상기 이벤트보고정보를 전송하는 단계를 더 포함하는 방법.
  7. 제1항에 있어서,
    상기 목표구역의 모니터링 영상에 근거하여 상기 목표구역에 위치한 목표차량을 검출하는 단계는,
    상기 모니터링 영상에 근거하여 상기 목표구역에서의 대상의 속도를 결정하는 단계;
    상기 속도가 속도임계값보다 큰 대상을 상기 목표차량으로 정하는 단계를 포함하는 방법.
  8. 이벤트 검출장치에 있어서,
    목표구역의 모니터링 영상에 근거하여 상기 목표구역에 위치한 목표차량을 검출하기 위한 목표차량 검출 모듈;
    상기 목표차량에 대한 수집시간 및 상기 수집시간에 대응되는 이미지 프레임에서의 상기 목표차량의 위치정보를 결정하기 위한 위치정보 모듈;
    적어도 상기 수집시간 및 상기 위치정보에 근거하여 상기 목표차량의 가속도를 획득하기 위한 가속도 모듈;
    상기 목표차량의 가속도에 근거하여 상기 목표차량의 돌발이벤트 발생여부를 판단하기 위한 돌발이벤트 모듈을 포함하는 장치.
  9. 제8항에 있어서,
    상기 가속도 모듈은,
    상기 수집시간에 다수의 목표시점을 결정하기 위한 목표시점 유닛;
    상기 목표시점에 대응하는 이미지 프레임에서의 위치정보 및 상기 목표시점 사이의 시간간격에 근거하여 상기 목표차량의 각 상기 목표시점에서의 가속도를 산출하기 위한 컴퓨팅 유닛을 포함하는 장치.
  10. 제9항에 있어서,
    상기 컴퓨팅 유닛은,
    이전 상기 목표시점과 이에 대응되는 위치정보, 및 다음 상기 목표시점과 이에 대응되는 위치정보에 근거하여, 상기 목표차량의 중간 목표시점에서의 근사 가속도를 산출하여, 상기 목표차량의 상기 중간 목표시점에서의 가속도를 획득하는 데 더 사용되며;
    상기 중간 목표시점은 이전 상기 목표시점과 다음 상기 목표시점 사이에 위치하는 장치.
  11. 제10항에 있어서,
    상기 컴퓨팅 유닛은,
    상기 중간 목표시간에 대응되는 다수의 근사 가속도의 평균값을 상기 중간 목표시점의 가속도로 하는 데 더 사용되는 장치.
  12. 제8항 내지 제11항 중 임의의 한 항에 있어서,
    상기 돌발이벤트는 상기 목표차량의 급제동이벤트이며;
    상기 돌발이벤트 모듈은,
    상기 목표차량의 가속도의 분산이 가속도의 분산임계값보다 작을 경우,
    상기 목표차량의 가속도 절대값이 제1 가속도 임계값보다 크다는 조건;
    상기 목표차량의 가속도 평균값의 절대값이 제2 가속도 임계값보다 크다는 조건;
    상기 목표차량의 가속도 중, 절대값이 제3 가속도 임계값보다 큰 가속도의 수량이 수량 임계값보다 크다는 조건;
    중의 적어도 하나의 조건을 만족시킬 때, 상기 목표차량에 미리 설정된 돌발이벤트가 발생했다고 결정하는 데 더 사용되는 장치.
  13. 제8항에 있어서,
    상기 돌발이벤트에 근거하여 이벤트보고정보를 생성하고 상기 이벤트보고정보를 전송하기 위한 보고 모듈을 더 포함하는 장치.
  14. 제8항에 있어서,
    상기 목표차량 검출 모듈은,
    상기 모니터링 영상에 근거하여 상기 목표구역에서의 대상의 속도를 결정하기 위한 속도 유닛;
    상기 속도가 속도임계값보다 큰 대상을 상기 목표차량으로 정하기 위한 목표차량 유닛을 포함하는 장치.
  15. 클라우드 제어 플랫폼용 이벤트 검출방법에 있어서,
    도로측 기기로부터 목표구역의 모니터링 영상을 얻는 단계;
    목표구역의 모니터링 영상에 근거하여 상기 목표구역에 위치한 목표차량을 검출하는 단계;
    상기 목표차량에 대한 수집시간 및 상기 수집시간에 대응되는 이미지 프레임에서의 상기 목표차량의 위치정보를 결정하는 단계;
    적어도 상기 수집시간 및 상기 위치정보에 근거하여 상기 목표차량의 가속도를 얻는 단계;
    상기 목표차량의 가속도에 근거하여 상기 목표차량의 돌발이벤트 발생여부를 판단하는 단계를 포함하는 방법.
  16. 전자기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신연결되어 있는 메모리를 포함하며;
    상기 메모리에는 상기 적어도 하나의 프로세서가 수행할 수 있는 명령이 저장되어 있으며, 상기 명령은 상기 적어도 하나의 프로세서에 의해 수행되어, 상기 적어도 하나의 프로세서로 하여금 제1항 또는 제15항의 방법을 수행할 수 있도록 하는 것을 특징으로 하는 전자기기.
  17. 컴퓨터 명령이 저장되어 있는 비순간 컴퓨터 판독가능 저장매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터로 하여금 제1항 또는 제15항의 방법을 수행하도록 하기 위한 것을 특징으로 하는 저장매체.
  18. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 경우, 제1항 또는 제15항의 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
KR1020210038107A 2020-09-16 2021-03-24 클라우드 제어 플랫폼용 이벤트 검출방법, 장치, 기기와 저장매체 및 컴퓨터 프로그램 KR20210040320A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010972805.8 2020-09-16
CN202010972805.8A CN112053563B (zh) 2020-09-16 2020-09-16 可用于边缘计算平台、云控平台的事件检测方法及设备

Publications (1)

Publication Number Publication Date
KR20210040320A true KR20210040320A (ko) 2021-04-13

Family

ID=73603163

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210038107A KR20210040320A (ko) 2020-09-16 2021-03-24 클라우드 제어 플랫폼용 이벤트 검출방법, 장치, 기기와 저장매체 및 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US20210224553A1 (ko)
EP (1) EP3893221B1 (ko)
JP (1) JP2021180016A (ko)
KR (1) KR20210040320A (ko)
CN (1) CN112053563B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115223092A (zh) * 2022-07-15 2022-10-21 南京福田文化传媒有限公司 一种大数据场景下的视频监控系统及方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112581763A (zh) * 2020-12-11 2021-03-30 北京百度网讯科技有限公司 道路事件检测的方法、装置、设备和存储介质
CN112729187B (zh) * 2020-12-22 2023-02-17 阿波罗智联(北京)科技有限公司 用于生成车辆长度信息的方法、装置、路侧设备和云控平台
CN112948628B (zh) * 2021-03-25 2024-05-28 智道网联科技(北京)有限公司 车联网数据处理方法、装置、设备和存储介质
CN113240909B (zh) * 2021-06-17 2022-11-29 阿波罗智联(北京)科技有限公司 车辆监测方法、设备、云控平台和车路协同系统
CN113793523B (zh) * 2021-08-06 2023-01-13 华为技术有限公司 一种指挥交通的方法、装置、车载设备及车辆
CN114241430A (zh) * 2021-12-22 2022-03-25 杭州海康威视系统技术有限公司 一种事件检测方法、装置、系统、电子设备及存储介质
CN114596650B (zh) * 2022-05-11 2022-08-09 中电科创智联(武汉)有限责任公司 一种用于汽车紧急事件记录的系统
CN116691626B (zh) * 2023-08-08 2023-10-31 徐州奥特润智能科技有限公司 基于人工智能的车辆制动系统及方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030080878A1 (en) * 2001-10-30 2003-05-01 Kirmuss Charles Bruno Event-based vehicle image capture
JP4725565B2 (ja) * 2007-09-11 2011-07-13 住友電気工業株式会社 情報提供装置、情報提供システム及び情報提供方法
WO2012056655A1 (ja) * 2010-10-28 2012-05-03 パナソニック株式会社 交通事故検出装置及び交通事故検出方法
CN102164270A (zh) * 2011-01-24 2011-08-24 浙江工业大学 具有异常事件发掘功能的智能视频监控方法及系统
CN102622886B (zh) * 2012-03-23 2014-04-30 长安大学 一种基于视频的车辆违章变道事件检测方法
CN105809954B (zh) * 2014-12-30 2018-03-16 清华大学 交通事件检测方法以及系统
CN107644475B (zh) * 2016-07-21 2020-09-01 深圳零一智能科技有限公司 一种车辆碰撞检测的方法和装置以及obd盒子
CN106548142A (zh) * 2016-11-01 2017-03-29 浙江大学 一种基于信息熵的视频中人群突发事件检测与评估方法
JP6801384B2 (ja) * 2016-11-08 2020-12-16 住友電気工業株式会社 交通情報提供装置、交通情報提供プログラム、交通情報提供方法および交通情報提供システム
US10553092B2 (en) * 2016-12-05 2020-02-04 A9.Com, Inc. Passing vehicle filters for audio/video recording and communication devices
CN108256380A (zh) * 2016-12-28 2018-07-06 南宁市浩发科技有限公司 道路交通异常自动检测方法
CN109278747B (zh) * 2017-07-21 2021-05-07 鸿富锦精密电子(天津)有限公司 车辆监控系统及方法
CN107818312A (zh) * 2017-11-20 2018-03-20 湖南远钧科技有限公司 一种基于异常行为识别的嵌入式系统
CN108230616A (zh) * 2018-02-02 2018-06-29 辽宁友邦网络科技有限公司 一种危险驾驶识别警报方法及系统
CN110164130B (zh) * 2019-04-29 2021-06-15 北京北大千方科技有限公司 交通事件检测方法、装置、设备及存储介质
CN111598009B (zh) * 2020-05-19 2023-08-04 阿波罗智联(北京)科技有限公司 监控急刹车辆的方法、装置、电子设备和存储介质
CN111767851A (zh) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 突发事件的监控方法、装置、电子设备和介质
CN111767850A (zh) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 突发事件的监控方法、装置、电子设备和介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115223092A (zh) * 2022-07-15 2022-10-21 南京福田文化传媒有限公司 一种大数据场景下的视频监控系统及方法
CN115223092B (zh) * 2022-07-15 2023-11-14 广东万龙科技有限公司 一种大数据场景下的视频监控系统及方法

Also Published As

Publication number Publication date
EP3893221B1 (en) 2024-02-07
US20210224553A1 (en) 2021-07-22
CN112053563A (zh) 2020-12-08
CN112053563B (zh) 2023-01-20
JP2021180016A (ja) 2021-11-18
EP3893221A1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
KR20210040320A (ko) 클라우드 제어 플랫폼용 이벤트 검출방법, 장치, 기기와 저장매체 및 컴퓨터 프로그램
CN111739344B (zh) 一种预警方法、装置及电子设备
US9990732B2 (en) Entity recognition system
CN109345829B (zh) 无人车的监控方法、装置、设备及存储介质
KR20210127121A (ko) 도로 이벤트 검출 방법, 장치, 기기 및 저장매체
US20220035733A1 (en) Method and apparatus for checking automatic driving algorithm, related device and storage medium
CN113370911B (zh) 车载传感器的位姿调整方法、装置、设备和介质
KR20220088387A (ko) 도로의 울퉁불퉁한 구역의 검측방법, 장치, 전자기기, 저장매체, 컴퓨터 프로그램 및 차량
KR102540045B1 (ko) 교통 이벤트의 보고 방법, 장치, 전자 기기 및 저장 매체
CN111913183A (zh) 车辆侧向避障方法、装置、设备及车辆
CN111674388B (zh) 用于车辆弯道行驶的信息处理方法和装置
CN111402598A (zh) 一种车辆控制方法、装置和电子设备
CN112101223A (zh) 检测方法、装置、设备和计算机存储介质
US20210394788A1 (en) Method and apparatus for detecting unexpected control state in autonomous driving system
CN110595798B (zh) 测试方法及装置
CN111731240A (zh) 急刹车合理性评估方法、装置、设备以及存储介质
Dörterler et al. Neural network based vehicular location prediction model for cooperative active safety systems
CN114368693B (zh) 用于臂架的防碰撞方法、装置、处理器及起重机
CN111563046B (zh) 用于生成信息的方法和装置
US20240013476A1 (en) Traffic event reproduction system, server, traffic event reproduction method, and non-transitory computer readable medium
CN114282776A (zh) 车路协同评估自动驾驶安全性的方法、装置、设备和介质
CN112885087A (zh) 确定路况信息的方法、装置、设备和介质和程序产品
CN111598009A (zh) 监控急刹车辆的方法、装置、电子设备和存储介质
US20230360531A1 (en) System and method for adaptive v2x applications
CN115683645A (zh) 车辆部件的异常检测方法、存储介质、电子设备及系统

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal