KR20220004016A - 속도 측정 방법 및 장치, 전자 기기 및 저장 매체 - Google Patents
속도 측정 방법 및 장치, 전자 기기 및 저장 매체 Download PDFInfo
- Publication number
- KR20220004016A KR20220004016A KR1020217030375A KR20217030375A KR20220004016A KR 20220004016 A KR20220004016 A KR 20220004016A KR 1020217030375 A KR1020217030375 A KR 1020217030375A KR 20217030375 A KR20217030375 A KR 20217030375A KR 20220004016 A KR20220004016 A KR 20220004016A
- Authority
- KR
- South Korea
- Prior art keywords
- projection parameter
- size
- image
- pixel point
- processed
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 속도 측정 방법 및 장치, 전자 기기 및 저장 매체를 개시한다. 상기 속도 측정 방법은 제1 처리될 이미지 및 제2 처리될 이미지를 획득하는 단계 - 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 모두 제1 객체를 포함함 - ; 상기 제1 처리될 이미지에서의 상기 제1 객체의 제1 위치, 상기 제2 처리될 이미지에서의 상기 제1 객체의 제2 위치 및 제1 이동 거리의 제1 투사 파라미터를 획득하는 단계; 및 상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하는 단계 - 상기 이동 시간은 상기 제1 처리될 이미지의 타임 스탬프 및 상기 제2 처리될 이미지의 타임 스탬프에 따라 획득됨 - 를 포함한다.
Description
관련 출원의 상호 참조
본 발명은 출원 번호가 202010613426.x이고, 출원일이 2020년 06월 30일인 중국 특허 출원에 기반하여 제출하였고, 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본 출원에 인용된다.
본 발명은 컴퓨터 기술분야에 관한 것으로, 특히 속도 측정 방법 및 장치, 전자 기기 및 저장 매체에 관한 것이다.
컴퓨터 비전 기술의 발전과 함께, 컴퓨터 비전 기술의 응용은 점점 더 광범위해지고 있으며, 많은 응용 분야에는 컴퓨터 비전 기술을 기반으로 하는 객체(예를 들어, 사람 및 물체)의 이동 속도 측정이 포함된다.
관련 기술에서, 이미지에서의 객체의 이동 거리 및 객체의 이동 시간에 기반하여, 객체의 이동 속도를 획득한다. 그러나 이미지에서의 이동 거리와 객체의 물리 이동 거리 사이의 차이가 비교적 크므로, 객체의 이동 속도를 얻는 정확도가 낮아진다.
본 발명은 속도 측정 방법 및 장치, 전자 기기 및 저장 매체를 제공한다.
제1 측면에 있어서, 속도 측정 방법을 제공하며, 상기 속도 측정 방법은,
제1 처리될 이미지 및 제2 처리될 이미지를 획득하는 단계 - 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 모두 제1 객체를 포함함 - ; 상기 제1 처리될 이미지에서의 상기 제1 객체의 제1 위치, 상기 제2 처리될 이미지에서의 상기 제1 객체의 제2 위치 및 제1 이동 거리의 제1 투사 파라미터를 획득하는 단계 - 상기 제1 이동 거리는 상기 제1 위치와 상기 제2 위치 사이의 거리이고; 상기 제1 투사 파라미터는 상기 제1 이동 거리와 제1 물리적 거리 사이의 전환 관계를 나타내며; 상기 제1 물리적 거리는 상기 제1 이동 거리에 대응하는 물리적 거리이며; 상기 제1 물리적 거리와 상기 제1 처리될 이미지에서의 상기 제1 위치의 스케일은 음의 상관 관계를 갖는 것, 및, 상기 제1 물리적 거리와 상기 제2 처리될 이미지에서의 상기 제2 위치의 스케일은 음의 상관 관계를 갖는 것 중 적어도 하나임 - ; 및 상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하는 단계 - 상기 이동 시간은 상기 제1 처리될 이미지의 타임 스탬프 및 상기 제2 처리될 이미지의 타임 스탬프에 따라 획득됨 - 를 포함한다.
상기 측면에서, 제1 투사 파라미터는 제1 위치의 스케일 정보 및 제2 위치의 스케일 정보 중 적어도 하나를 반송한다. 속도 측정 장치는 제1 투사 파라미터, 제1 이동 거리 및 이동 시간에 따라 제1 객체의 속도를 획득함으로써, 속도의 정확도를 향상시킬 수 있다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하는 단계는, 상기 제1 투사 파라미터 및 상기 제1 이동 거리에 따라, 제2 이동 거리를 획득하는 단계; 및 상기 제2 이동 거리 및 상기 이동 시간에 따라, 상기 속도를 획득하는 단계를 포함한다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 이동 거리의 제1 투사 파라미터를 획득하는 단계는, 제3 위치의 제2 투사 파라미터를 획득하는 단계 - 상기 제3 위치는 상기 제1 위치와 상기 제2 위치의 연결선 상의 위치이며; 상기 제2 투사 파라미터는 제1 픽셀 포인트의 사이즈와 제1 물체 포인트 사이즈 사이의 전환 관계를 나타내며; 상기 제1 픽셀 포인트는 상기 제3 위치에 따라 상기 제1 처리될 이미지에서 결정된 픽셀 포인트이며, 또는 상기 제1 픽셀 포인트는 상기 제3 위치에 따라 상기 제2 처리될 이미지에서 결정된 픽셀 포인트이며; 상기 제1 물체 포인트는 상기 제1 픽셀 포인트에 대응하는 물체 포인트이며; 제1 비율과 이미지에서의 상기 제1 픽셀 포인트의 스케일은 음의 상관 관계를 가지며; 상기 제1 비율은 상기 제1 픽셀 포인트의 사이즈와 상기 제1 물체 포인트의 사이즈 사이의 비율임 - ; 및 상기 제2 투사 파라미터에 따라, 상기 제1 투사 파라미터를 획득하는 단계 - 상기 제1 투사 파라미터와 상기 제2 투사 파라미터는 양의 상관 관계를 가짐 - 를 포함한다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제3 위치는 상기 제1 위치와 상기 제2 위치 사이의 중간 위치이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제3 위치의 제2 투사 파라미터를 획득하는 단계는, 상기 제1 처리될 이미지에 대해 물체 검출 처리를 수행하여, 제1 물체 프레임의 위치 및 제2 물체 프레임의 위치를 획득하는 단계 - 상기 제1 물체 프레임은 제1 물체를 포함하고; 상기 제2 물체 프레임은 제2 물체를 포함함 - ; 상기 제1 물체 프레임의 위치에 따라 상기 제1 물체의 제1 사이즈를 획득하고, 상기 제2 물체 프레임의 위치에 따라 상기 제2 물체의 제2 사이즈를 획득하는 단계; 상기 제1 사이즈 및 제3 사이즈에 따라 제3 투사 파라미터를 획득하고, 상기 제2 사이즈 및 제4 사이즈에 따라 제4 투사 파라미터를 획득하는 단계 - 상기 제3 사이즈는 상기 제1 물체의 물리적 사이즈이고; 상기 제3 투사 파라미터는 제5 사이즈와 제6 사이즈 사이의 전환 관계를 나타내며; 상기 제5 사이즈는 제2 픽셀 포인트의 사이즈이고; 상기 제1 처리될 이미지에서의 상기 제2 픽셀 포인트의 위치는 상기 제1 물체 프레임의 위치에 따라 결정되며; 상기 제6 사이즈는 상기 제2 픽셀 포인트에 대응하는 물체 포인트의 사이즈이며; 상기 제4 사이즈는 상기 제2 물체의 물리적 사이즈이며; 상기 제4 투사 파라미터는 제7 사이즈와 제8 사이즈 사이의 전환 관계를 나타내며; 상기 제7 사이즈는 제3 픽셀 포인트의 사이즈이며; 상기 제2 처리될 이미지에서의 상기 제3 픽셀 포인트의 위치는 상기 제2 물체 프레임의 위치에 따라 결정되며; 상기 제8 사이즈는 상기 제3 픽셀 포인트에 대응하는 물체 포인트의 사이즈임 - ; 상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 제1 처리될 이미지의 투사 파라미터 맵을 획득하는 단계 - 제9 사이즈와 제10 사이즈 사이의 전환 관계는 상기 투사 파라미터 맵에서의 제1 픽셀 값에 따라 결정되며; 상기 제9 사이즈는 상기 제1 처리될 이미지에서의 제4 픽셀 포인트의 사이즈이고; 상기 제10 사이즈는 상기 제4 픽셀 포인트에 대응하는 물체 포인트의 사이즈이며; 상기 제1 픽셀 값은 제5 픽셀 포인트의 픽셀 값이며; 상기 제5 픽셀 포인트는 상기 투사 파라미터 맵에서 상기 제4 픽셀 포인트에 대응하는 픽셀 포인트임 - ; 및 상기 투사 파라미터 맵에서 상기 제3 위치에 대응하는 픽셀 값에 따라, 상기 제2 투사 파라미터를 획득하는 단계를 포함한다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 처리될 이미지의 투사 파라미터 맵을 획득하기 전에, 상기 속도 측정 방법은, 신뢰도 매핑을 획득하는 단계 - 상기 신뢰도 매핑은 물체 타입과 투사 파라미터의 신뢰도 사이의 매핑을 나타냄 - ; 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하는 단계를 더 포함하고; 상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 처리될 이미지의 투사 파라미터 맵을 획득하는 단계는, 상기 제1 신뢰도 및 상기 제3 투사 파라미터에 따라, 제5 투사 파라미터를 획득하는 단계 - 상기 제5 투사 파라미터와 상기 제1 신뢰도는 양의 상관 관계를 가짐 - ; 및 상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계를 포함한다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하는 단계 전에, 상기 속도 측정 방법은, 상기 제1 물체 프레임 내의 픽셀 포인트 영역에 대해 특징 추출 처리를 수행하여, 특징 데이터를 획득하는 단계; 상기 특징 데이터에 따라, 상기 제1 물체의 점수를 획득하는 단계 - 상기 점수와 상기 제1 물체의 사이즈의 신뢰도는 양의 상관 관계를 가짐 - 를 더 포함하고; 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하는 단계는, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제2 신뢰도를 획득하는 단계; 및 상기 점수와 상기 제2 신뢰도에 따라, 상기 제1 신뢰도를 획득하는 단계 - 상기 제1 신뢰도와 상기 점수는 상관 관계를 가짐 - 를 포함한다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 신뢰도 및 상기 제3 투사 파라미터에 따라, 제5 투사 파라미터를 획득하는 단계는, 상기 제1 신뢰도와 상기 제3 투사 파라미터의 곱을 결정하여, 상기 제5 투사 파라미터를 획득하는 단계를 포함한다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계 전에, 상기 속도 측정 방법은, 상기 제1 처리될 이미지의 깊이 이미지를 획득하는 단계; 상기 깊이 이미지에 따라, 상기 제2 픽셀 포인트의 제1 깊이 정보 및 상기 제3 픽셀 포인트의 제2 깊이 정보를 획득하는 단계; 및 상기 제1 깊이 정보 및 상기 제5 투사 파라미터에 따라 제1 데이터 포인트를 획득하고, 상기 제2 깊이 정보 및 상기 제4 투사 파라미터에 따라 제2 데이터 포인트를 획득하는 단계를 더 포함하고; 상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계는, 상기 제1 데이터 포인트 및 상기 제2 데이터 포인트에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계를 포함한다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 동일한 이미징 기기에 의해 수집되고, 상기 이미징 기기가 상기 제1 처리될 이미지를 수집하는 과정 중의 자세는 상기 이미징 기기가 상기 제2 처리될 이미지를 수집하는 과정 중의 자세와 동일하다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 객체는 사람 객체이고; 상기 사람 객체는 모니터링되는 군중에 속하며, 상기 속도 측정 방법은, 상기 속도가 안전 속도 임계값을 초과하지 않는 경우, 상기 이미징 기기의 위치를 획득하는 단계; 단말로 상기 위치를 포함하는 경고 명령을 송신하는 단계 - 상기 경고 명령은 상기 단말이 상기 모니터링되는 군중의 군중 밀도가 높다는 경고 정보를 출력하도록 지시하기 위한 것임 - 를 더 포함한다.
제2 측면에 있어서, 속도 측정 장치를 더 포함하며, 상기 속도 측정 장치는, 제1 처리될 이미지 및 제2 처리될 이미지를 획득하기 위한 제1 획득 유닛 - 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 모두 제1 객체를 포함함 - ; 상기 제1 처리될 이미지에서의 상기 제1 객체의 제1 위치, 상기 제2 처리될 이미지에서의 상기 제1 객체의 제2 위치 및 제1 이동 거리의 제1 투사 파라미터를 획득하기 위한 제2 획득 유닛 - 상기 제1 이동 거리는 상기 제1 위치와 상기 제2 위치 사이의 거리이고; 상기 제1 투사 파라미터는 상기 제1 이동 거리와 제1 물리적 거리 사이의 전환 관계를 나타내며; 상기 제1 물리적 거리는 상기 제1 이동 거리에 대응하는 물리적 거리이며; 상기 제1 물리적 거리와 상기 제1 처리될 이미지에서의 상기 제1 위치의 스케일은 음의 상관 관계를 갖는 것, 및, 상기 제1 물리적 거리와 상기 제2 처리될 이미지에서의 상기 제2 위치의 스케일은 음의 상관 관계를 갖는 것 중 적어도 하나임 - ; 및 상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하기 위한 제1 처리 유닛 - 상기 이동 시간은 상기 제1 처리될 이미지의 타임 스탬프 및 상기 제2 처리될 이미지의 타임 스탬프에 따라 획득됨 - 을 포함한다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 처리 유닛은, 상기 제1 투사 파라미터 및 상기 제1 이동 거리에 따라, 제2 이동 거리를 획득하고; 상기 제2 이동 거리 및 상기 이동 시간에 따라, 상기 속도를 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제2 획득 유닛은, 제3 위치의 제2 투사 파라미터를 획득하고 - 상기 제3 위치는 상기 제1 위치와 상기 제2 위치의 연결선 상의 위치이며; 상기 제2 투사 파라미터는 제1 픽셀 포인트의 사이즈와 제1 물체 포인트 사이즈 사이의 전환 관계를 나타내며; 상기 제1 픽셀 포인트는 상기 제3 위치에 따라 상기 제1 처리될 이미지에서 결정된 픽셀 포인트이며, 또는 상기 제1 픽셀 포인트는 상기 제3 위치에 따라 상기 제2 처리될 이미지에서 결정된 픽셀 포인트이며; 상기 제1 물체 포인트는 상기 제1 픽셀 포인트에 대응하는 물체 포인트이며; 제1 비율과 이미지에서의 상기 제1 픽셀 포인트의 스케일은 음의 상관 관계를 가지며; 상기 제1 비율은 상기 제1 픽셀 포인트의 사이즈와 상기 제1 물체 포인트의 사이즈 사이의 비율임 - ; 상기 제2 투사 파라미터에 따라, 상기 제1 투사 파라미터를 획득 - 상기 제1 투사 파라미터와 상기 제2 투사 파라미터는 양의 상관 관계를 가짐 - 하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제3 위치는 상기 제1 위치와 상기 제2 위치 사이의 중간 위치이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제2 획득 유닛은, 상기 제1 처리될 이미지에 대해 물체 검출 처리를 수행하여, 제1 물체 프레임의 위치 및 제2 물체 프레임의 위치를 획득하고 - 상기 제1 물체 프레임은 제1 물체를 포함하고; 상기 제2 물체 프레임은 제2 물체를 포함함 - ; 상기 제1 물체 프레임의 위치에 따라 상기 제1 물체의 제1 사이즈를 획득하고, 상기 제2 물체 프레임의 위치에 따라 상기 제2 물체의 제2 사이즈를 획득하며; 상기 제1 사이즈 및 제3 사이즈에 따라 제3 투사 파라미터를 획득하고, 상기 제2 사이즈 및 제4 사이즈에 따라 제4 투사 파라미터를 획득하며 - 상기 제3 사이즈는 상기 제1 물체의 물리적 사이즈이고; 상기 제3 투사 파라미터는 제5 사이즈와 제6 사이즈 사이의 전환 관계를 나타내며; 상기 제5 사이즈는 제2 픽셀 포인트의 사이즈이고; 상기 제1 처리될 이미지에서의 상기 제2 픽셀 포인트의 위치는 상기 제1 물체 프레임의 위치에 따라 결정되며; 상기 제6 사이즈는 상기 제2 픽셀 포인트에 대응하는 물체 포인트의 사이즈이며; 상기 제4 사이즈는 상기 제2 물체의 물리적 사이즈이며; 상기 제4 투사 파라미터는 제7 사이즈와 제8 사이즈 사이의 전환 관계를 나타내며; 상기 제7 사이즈는 제3 픽셀 포인트의 사이즈이며; 상기 제2 처리될 이미지에서의 상기 제3 픽셀 포인트의 위치는 상기 제2 물체 프레임의 위치에 따라 결정되며; 상기 제8 사이즈는 상기 제3 픽셀 포인트에 대응하는 물체 포인트의 사이즈임 - ; 상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 제1 처리될 이미지의 투사 파라미터 맵을 획득하며 - 제9 사이즈와 제10 사이즈 사이의 전환 관계는 상기 투사 파라미터 맵에서의 제1 픽셀 값에 따라 결정되며; 상기 제9 사이즈는 상기 제1 처리될 이미지에서의 제4 픽셀 포인트의 사이즈이고; 상기 제10 사이즈는 상기 제4 픽셀 포인트에 대응하는 물체 포인트의 사이즈이며; 상기 제1 픽셀 값은 제5 픽셀 포인트의 픽셀 값이며; 상기 제5 픽셀 포인트는 상기 투사 파라미터 맵에서 상기 제4 픽셀 포인트에 대응하는 픽셀 포인트임 - ; 상기 투사 파라미터 맵에서 상기 제3 위치에 대응하는 픽셀 값에 따라, 상기 제2 투사 파라미터를 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 획득 유닛은 또한, 상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 처리될 이미지의 투사 파라미터 맵을 획득하기 전에, 신뢰도 매핑을 획득 - 상기 신뢰도 매핑은 물체 타입과 투사 파라미터의 신뢰도 사이의 매핑을 나타냄 - 하기 위한 것이며; 상기 속도 측정 장치는, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하기 위한 제2 처리 유닛을 더 포함하고; 상기 제2 획득 유닛은, 상기 제1 신뢰도 및 상기 제3 투사 파라미터에 따라, 제5 투사 파라미터를 획득하고 - 상기 제5 투사 파라미터와 상기 제1 신뢰도는 양의 상관 관계를 가짐 - ;
상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 속도 측정 장치는, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하는 단계 전에, 상기 제1 물체 프레임 내의 픽셀 포인트 영역에 대해 특징 추출 처리를 수행하여, 특징 데이터를 획득하기 위한 제3 처리 유닛; 상기 특징 데이터에 따라, 상기 제1 물체의 점수를 획득하기 위한 제4 처리 유닛 - 상기 점수와 상기 제1 물체의 사이즈의 신뢰도는 양의 상관 관계를 가짐 - 을 더 포함하며; 상기 제2 처리 유닛은, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제2 신뢰도를 획득하고; 상기 점수와 상기 제2 신뢰도에 따라, 상기 제1 신뢰도를 획득 - 상기 제1 신뢰도와 상기 점수는 상관 관계를 가짐 - 하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제2 획득 유닛은, 상기 제1 신뢰도와 상기 제3 투사 파라미터의 곱을 결정하여, 상기 제5 투사 파라미터를 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 획득 유닛은 또한, 상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계 전에, 상기 제1 처리될 이미지의 깊이 이미지를 획득하기 위한 것이고; 상기 제2 획득 유닛은 또한, 상기 깊이 이미지에 따라, 상기 제2 픽셀 포인트의 제1 깊이 정보 및 상기 제3 픽셀 포인트의 제2 깊이 정보를 획득하며; 상기 제1 깊이 정보 및 상기 제5 투사 파라미터에 따라 제1 데이터 포인트를 획득하고, 상기 제2 깊이 정보 및 상기 제4 투사 파라미터에 따라 제2 데이터 포인트를 획득하기 위한 것이며; 상기 제2 획득 유닛은 또한, 상기 제1 데이터 포인트 및 상기 제2 데이터 포인트에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 동일한 이미징 기기에 의해 수집되고, 상기 이미징 기기가 상기 제1 처리될 이미지를 수집하는 과정 중의 자세는 상기 이미징 기기가 상기 제2 처리될 이미지를 수집하는 과정 중의 자세와 동일하다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 객체는 사람 객체이고; 상기 사람 객체는 모니터링되는 군중에 속하며, 상기 제1 획득 유닛은 또한, 상기 속도가 안전 속도 임계값을 초과하지 않는 경우, 상기 이미징 기기의 위치를 획득하기 위한 것이며; 상기 속도 측정 장치는 단말로 상기 위치를 포함하는 경고 명령을 송신하기 위한 송신 유닛 - 상기 경고 명령은 상기 단말이 상기 모니터링되는 군중의 군중 밀도가 높다는 경고 정보를 출력하도록 지시하기 위한 것임 - 을 더 포함한다.
제3 측면에 있어서, 전술한 제1 측면 및 이의 임의의 가능한 구현 방식의 방법을 실행하기 위한 프로세서를 제공한다.
제4 측면에 있어서, 프로세서, 송신 장치, 입력 장치, 출력 장치 및 메모리를 포함하는 전자 기기를 제공하며, 상기 메모리는 컴퓨터 명령을 포함하는 컴퓨터 프로그램 코드를 저장하기 위한 것이고, 상기 프로세서가 상기 컴퓨터 명령을 실행하는 경우, 상기 전자 기기는 전술한 제1 측면 및 이의 임의의 가능한 구현 방식의 방법을 실행한다.
제5 측면에 있어서, 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터 판독 가능한 저장 매체에는 컴퓨터 명령을 포함하는 컴퓨터 프로그램이 저장되어 있고, 상기 프로그램 명령이 프로세서에 의해 실행되는 경우, 상기 프로세서로 하여금 전술한 제1 측면 및 이의 임의의 가능한 구현 방식의 방법을 실행하도록 한다.
제6 측면에 있어서, 컴퓨터 프로그램 또는 명령을 포함하는 컴퓨터 프로그램 제품을 제공하며, 상기 컴퓨터 프로그램 또는 명령이 컴퓨터에서 작동되는 경우, 상기 컴퓨터로 하여금 전술한 제1 측면 및 이의 가능한 구현 방식의 방법을 실행하도록 한다.
이해해야 할 것은, 이상의 일반적인 설명 및 하기의 상세한 설명은 다만 예시적이고 해석적인 것이며, 본 발명을 한정하려는 것은 아니다.
본 발명의 실시예 또는 배경 기술에서의 기술 방안을 보다 명확하게 설명하기 위해, 본 발명의 실시예 또는 배경 기술을 설명하는데 필요한 첨부 도면에 대해 설명한다.
아래의 도면은 본 명세서의 일부분으로서 명세서 전체를 구성하며, 이러한 도면은 본 발명에 맞는 실시예를 예시하여, 명세서와 함께 본 발명의 기술방안을 설명하는데 사용된다.
도 1은 본 발명의 실시예에 따라 제공된 군중 이미지 모식도이다.
도 2는 본 발명의 실시예에 따라 제공된 픽셀 좌표계 모식도이다.
도 3은 본 발명의 실시예에 따라 제공된 속도 측정 방법의 흐름 모식도이다.
도 4는 본 발명의 실시예에 따라 제공된 다른 속도 측정 방법의 흐름 모식도이다.
도 5는 본 발명의 실시예에 따라 제공된 골문 모식도이다.
도 6은 본 발명의 실시예에 따라 제공된 속도 측정 장치의 구조 모식도이다.
도 7은 본 발명의 실시예에 따라 제공된 속도 측정 장치의 하드웨어 구조 모식도이다.
아래의 도면은 본 명세서의 일부분으로서 명세서 전체를 구성하며, 이러한 도면은 본 발명에 맞는 실시예를 예시하여, 명세서와 함께 본 발명의 기술방안을 설명하는데 사용된다.
도 1은 본 발명의 실시예에 따라 제공된 군중 이미지 모식도이다.
도 2는 본 발명의 실시예에 따라 제공된 픽셀 좌표계 모식도이다.
도 3은 본 발명의 실시예에 따라 제공된 속도 측정 방법의 흐름 모식도이다.
도 4는 본 발명의 실시예에 따라 제공된 다른 속도 측정 방법의 흐름 모식도이다.
도 5는 본 발명의 실시예에 따라 제공된 골문 모식도이다.
도 6은 본 발명의 실시예에 따라 제공된 속도 측정 장치의 구조 모식도이다.
도 7은 본 발명의 실시예에 따라 제공된 속도 측정 장치의 하드웨어 구조 모식도이다.
본 기술분야의 기술자가 본 발명의 방안을 더 잘 이해할 수 있도록 하기 위해, 아래에 본 발명의 실시예에서의 도면을 참조하여, 본 발명의 실시예에서의 기술 방안을 명확하게 설명하며, 설명된 실시예는 본 발명의 일부일 뿐이며, 모든 실시예가 아닌 것은 명백하다. 본 발명의 실시예에 기반하여, 본 분야의 통상의 기술자가 창조성 노동을 부여하지 않은 전제 하에서 얻은 다른 실시예는 전부 본 발명의 청구범위에 속한다.
본 발명의 명세서, 청구 범위 및 상기 도면에서의 용어 "제1", "제2" 등은 상이한 대상을 구별하기 위한 것이지, 특징 순서를 설명하기 위한 것은 아니다. 또한, 용어 "포함" 및 "갖는" 및 그것들의 임의의 변형은 비배타적인 포함을 포함하도록 의도된다. 예를 들어, 일련의 단계 또는 유닛이 포함된 과정, 방법, 시스템, 제품 또는 기기는 나열된 단계 또는 유닛에 한정되지 않으며, 선택적으로 나열되지 않은 단계 또는 유닛을 더 포함하거나, 선택적으로 이러한 과정, 방법, 제품 또는 기기에 고유한 다른 단계 또는 유닛을 더 포함한다.
이해해야 할 것은, "적어도 하나(항)"는 하나 또는 복수 개를 의미하고, "복수 개(multiple)"는 둘 또는 둘 이상을 의미하며, "적어도 두 개(항)"는 둘 또는 셋 및 셋 이상을 의미하며, "및/또는"은 연관된 객체의 연관 관계를 설명하는데 사용되며, 세 가지 관계가 있을 수 있음을 의미하며, 예를 들어, "A 및/또는 B"는 A만 존재, B만 존재, A와 B가 모두 존재함을 의미할 수 있으며, 여기서, A와 B는 단수 또는 복수일 수 있다. 문자 부호 "/"는 앞뒤에 연결된 객체가 "또는"의 관계임을 나타낼 수 있으며, 이는 단일 항(개) 또는 복수 항(개)의 조합을 포함하여 이러한 항목의 모든 조합을 나타낸다. 예를 들어, a, b 또는 c 중 적어도 하나는 a, b, c, "a 및 b", "a 및 c", "b 및 c" 또는 "a 및 b 및 c"를 의미할 수 있으며, 여기서 a, b, c는 단일 또는 복수 개일 수 있다. 문자 부호 "/"는 수학 연산에서 나눗셈 기호를 나타낼 수도 있으며, 예를 들어, a/b=a를 b로 나누기, 즉 6/3=2이다. "다음 중 적어도 한 항(개)" 또는 이와 유사한 표현이다.
본문에서 "실시예"에 대한 언급은, 실시예와 결합하여 설명된 특정 특징, 구조 또는 특성이 본 발명의 적어도 하나의 실시예에 포함될 수 있음을 의미한다. 명세서에서 각 위치에서 상기 문구의 출현은 반드시 동일한 실시예를 지칭하는 것은 아니며, 다른 실시예와 상호 배타적인 독립적이거나 대안적인 실시예도 아니다. 본 기술 분야의 기술자는 본문에 설명된 실시예가 다른 실시예에 결합될 수 있음을 명백하고 암시적으로 이해한다.
먼저 아래에 나타날 몇 가지 개념을 정의한다. 본 발명의 실시예에서, 물체 포인트는 현실 세계에서의 포인트를 의미하고, 물리적 거리는 현실 세계에서의 거리를 의미하며, 물리적 사이즈는 현실 세계에서의 사이즈를 의미한다.
물체 포인트는 이미지에서 픽셀 포인트에 대응한다. 예를 들어, 카메라를 사용하여 테이블 사진을 찍어 이미지 A를 얻는다. 테이블은 물체 포인트 a를 포함하고, 물체 포인트 a를 매핑하여 이미지 A에서의 픽셀 포인트 b를 얻으면, 물체 포인트 a는 픽셀 포인트 b에 대응한다.
물리적 영역은 이미지에서의 픽셀 포인트 영역에 대응한다. 예를 들어, 카메라로 농구장을 촬영하여 이미지 B를 얻는다. 농구장을 이미징하여 이미지 A에서의 픽셀 포인트 영역 c를 얻으면, 농구장은 픽셀 포인트 영역 c에 대응한다.
본 발명의 실시예에서, 가까운 물체는 이미지에서 큰 스케일을 가지고, 멀리 떨어진 물체는 이미지에서 작은 스케일을 가진다. 본 발명의 실시예에서의 "먼"은 이미지에서의 물체에 대응하는 실제 물체와 상기 이미지를 수집한 이미징 기기 사이의 거리가 먼 것을 의미하고, "가까운"은 이미지에서의 물체에 대응하는 실제 물체와 상기 이미지를 수집하는 이미징 기기 사이의 거리가 가까운 것을 의미한다.
이미지에서, 픽셀 포인트의 스케일은 상기 픽셀 포인트에 대응하는 물체 포인트의 사이즈와 양의 상관 관계를 가진다. 구체적으로, 픽셀 포인트가 이미지에서의 스케일이 클수록, 상기 픽셀 포인트에 대응하는 물체 포인트의 사이즈는 크다. 예를 들어, 이미지 A는 픽셀 포인트 a 및 픽셀 포인트 b를 포함하며, 여기서, 픽셀 포인트 a에 대응하는 물체 포인트는 물체 포인트 1이고, 픽셀 포인트 b에 대응하는 물체 포인트는 물체 포인트 2이다. 픽셀 포인트 a가 이미지 A에서의 스케일이 픽셀 포인트 b가 이미지 A에서의 스케일보다 크면, 물체 포인트 1의 사이즈는 물체 포인트 2의 사이즈보다 크다.
이미지에서, 위치의 스케일은 상기 위치에 있는 물체의 사이즈와 상기 물체의 물리적 사이즈 사이의 비율을 나타낸다. 예를 들어, 도 1에서, 사람 A의 위치의 스케일은 사람 B의 위치의 스케일보다 크고, 사람과 사람 사이의 사이즈 차이가 작을수록(즉 상이한 사람의 물리적 사이즈 사이의 차이가 작을수록), 사람 A가 커버하는 픽셀 포인트 영역의 면적은 사람 B가 커버하는 픽셀 포인트 영역의 면적보다 크다.
본 발명의 실시예에서, 이미지에서의 위치는 모두 이미지의 픽셀 좌표 하의 위치를 나타낸다. 본 발명의 실시예에서의 픽셀 좌표계의 가로 좌표는 픽셀 포인트가 위치한 열의 수를 나타내고, 픽셀 좌표계 하의 세로 좌표는 픽셀 포인트가 위치한 행의 수를 나타내기 위한 것이다. 예를 들어, 도 2에 도시된 이미지에서, 이미지의 왼쪽 위 모서리를 좌표 원점 O, 이미지의 행과 평행한 방향을 X 축의 방향, 이미지의 열과 평행한 방향을 Y 축의 방향으로 하면, 픽셀 좌표계 XOY를 구성한다. 가로 좌표 및 세로 좌표의 단위는 모두 픽셀 포인트이다. 예를 들어, 도 2에서의 픽셀 포인트 A11의 좌표는 (1, 1)이고, 픽셀 포인트 A23의 좌표는 (3, 2)이며, 픽셀 포인트 A42의 좌표는 (2, 4)이며, 픽셀 포인트 A34의 좌표는 (4, 3)이다.
본 발명의 실시예의 실행 주체는 속도 측정 장치이다. 일부 가능한 구현 방식에서, 속도 측정 장치는 휴대폰, 컴퓨터, 서버, 태블릿 컴퓨터 중 하나일 수 있다. 아래에 본 발명의 실시예의 도면을 결합하여 본 발명의 실시예에 대해 설명한다.
아래에 본 발명의 실시예의 도면을 결합하여 본 발명의 실시예에 대해 설명한다. 도 3을 참조하면, 도 3은 본 발명의 실시예에서 제공한 속도 측정 방법의 흐름 모식도이다.
단계 301에 있어서, 제1 처리될 이미지 및 제2 처리될 이미지를 획득하고, 여기서, 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 모두 제1 객체를 포함한다.
본 발명의 실시예에서, 제1 처리될 이미지 및 제2 처리될 이미지는 모두 아래의 내용을 포함한다. 예를 들어, 제1 처리될 이미지는 사람을 포함할 수 있으며; 제1 처리될 이미지는 도로 및 자동차 헤드를 포함할 수도 있다. 제2 처리될 이미지는 사람을 포함할 수 있고; 제2 처리될 이미지는 동물을 포함할 수도 있다. 본 발명은 제1 처리될 이미지에 포함된 콘텐츠 및 처리될 제2 이미지에 포함된 콘텐츠를 한정하지 않는다.
본 발명의 실시예에서, 제1 객체는 사람 및 물체 중 하나일 수 있다. 예를 들어, 제1 객체는 사람일 수 있고; 제1 객체는 자동차일 수도 있으며; 제1 객체는 또한 동물일 수 있다.
제1 처리될 이미지 및 제2 처리될 이미지는 모두 제1 객체를 포함한다. 예를 들어, 제1 처리될 이미지는 장산(사람 이름)을 포함하고, 제2 처리될 이미지도 장산을 포함한다. 다른 예를 들어, 제1 처리될 이미지 및 제2 처리될 이미지는 모두 차량 a를 포함한다.
제1 처리될 이미지를 획득하는 구현 방식에 있어서, 속도 측정 장치는 사용자가 입력 컴포넌트를 통해 입력한 제1 처리될 이미지를 수신한다. 상기 입력 컴포넌트는 키보드, 마우스, 터치 스크린, 터치 패드 및 오디오 입력 장치 등을 포함한다.
제1 처리될 이미지를 획득하는 다른 구현 방식에 있어서, 속도 측정 장치는 제1 단말에 의해 송신된 제1 처리될 이미지를 수신한다. 일부 가능한 구현 방식에서, 제1 단말은 휴대폰, 컴퓨터, 태블릿 컴퓨터, 서버, 웨어러블 기기 중 어느 하나일 수 있다.
제1 처리될 이미지를 획득하는 또 다른 구현 방식에 있어서, 속도 측정 장치는 촬영 컴포넌트를 전재하며, 여기서, 촬영 컴포넌트는 카메라를 포함한다. 속도 측정 장치는 촬영 컴포넌트를 사용하여 이미지 획득하여 제1 처리될 이미지를 획득한다.
제1 처리될 이미지를 획득하는 또 다른 구현 방식에 있어서, 속도 측정 장치는 획득된 비디오 스트림으로부터 한 프레임의 이미지를 선택하여 제1 처리될 이미지로 사용한다.
제2 처리될 이미지를 획득하는 구현 방식에서, 속도 측정 장치는 사용자가 입력 컴포넌트를 통해 입력된 제2 처리될 이미지를 수신한다. 상기 입력 컴포넌트는 키보드, 마우스, 터치 스크린, 터치 패드 및 오디오 입력기 등을 포함한다.
제2 처리될 이미지를 획득하는 다른 구현 방식에서, 속도 측정 장치는 제2 단말에 의해 송신된 제2 처리될 이미지를 수신한다. 일부 가능한 구현 방식에서, 제2 단말은 휴대폰, 컴퓨터, 태블릿 컴퓨터, 서버, 웨어러블 기기 중 어느 하나일 수 있다.
제2 처리될 이미지를 획득하는 또 다른 구현방식에서, 속도 측정 장치는 촬영 컴포넌트를 전재하며, 여기서, 촬영 컴포넌트는 카메라를 포함한다. 속도 측정 장치는 촬영 컴포넌트를 사용하여 이미지 획득하여 제2 처리될 이미지를 획득한다.
제2 처리될 이미지를 획득하는 또 다른 구현 방식에 있어서, 속도 측정 장치는 획득된 비디오 스트림으로부터 한 프레임의 이미지를 선택하여 제2 처리될 이미지로 사용한다.
일부 가능한 구현 방식 중 실시 형태로서, 속도 측정 장치와 감시 카메라 사이에 통신 연결이 존재한다. 속도 측정 장치는 통신 연결을 통해 감시 카메라에 의해 수집된 감시 비디오 스트림을 획득하고, 감시 비디오 스트림에서 두 프레임의 이미지를 선택하여, 제1 처리될 이미지 및 제2 처리될 이미지로 사용한다.
단계 302에 있어서, 상기 제1 처리될 이미지에서의 상기 제1 객체의 제1 위치, 상기 제2 처리될 이미지에서의 상기 제1 객체의 제2 위치 및 제1 이동 거리의 제1 투사 파라미터를 획득한다.
본 발명의 실시예에서, 제1 처리될 이미지에서의 제1 객체의 위치는 제1 처리될 이미지에서의 제1 객체의 객체 프레임의 위치일 수 있으며; 제1 처리될 이미지에서의 제1 객체의 위치는 제1 처리될 이미지에서의 제1 객체에 의해 커버된 픽셀 포인트 영역 내의 픽셀 포인트의 위치일 수 있다. 제2 처리될 이미지에서의 제1 객체의 위치는 제2 처리될 이미지에서의 제1 객체의 객체 프레임의 위치일 수 있으며; 제1 처리될 이미지에서의 제1 객체의 위치는 제2 처리될 이미지에서의 제1 객체에 의해 커버된 픽셀 포인트 영역 내의 픽셀 포인트의 위치일 수 있다.
본 발명의 실시예에서, 제1 이동 거리는 제1 위치와 제2 위치 사이의 거리이고, 즉 제1 이동 거리는 픽셀 좌표계에서의 거리이다. 예를 들어, 제1 위치는 (3, 5)이고, 즉 제1 처리될 이미지에서의 제1 객체의 위치는 (3, 5)이고; 제2 위치는 (7, 8)이며, 즉 제2 처리될 이미지에서의 제1 객체의 위치는 (7, 8)이다. 이때, 제1 이동 거리는 이다.
본 발명의 실시예에서, 물리적 거리(상기 제1 물리적 거리를 포함함)는 현실 세계에서의 거리를 의미한다. 제1 이동 거리에 대응하는 물리적 거리는 제1 물리적 거리이다. 제1 투사 파라미터는 제1 이동 거리와 제1 물리적 거리 사이의 전환 관계를 나타낸다. 예를 들어, 제1 처리될 이미지의 타임 스탬프가 t1이고, 제2 처리될 이미지의 타임 스탬프가 t2라고 가정하면, 제1 객체는 장산이다. 속도 측정 장치가 제1 위치 및 제2 위치에 따라 획득된 제1 이동 거리는 d1이고, 속도 측정 장치는 제1 투사 파라미터를 사용하여 d1을, 장산이 t1 내지 t2에서 현실 세계에서의 이동 거리(즉 제1 물리적 거리)로 전환할 수 있다. 일부 가능한 구현 방식에서, 제1 투사 파라미터는 제1 이동 거리와 제1 물리적 거리 사이의 비율이다.
본 발명의 실시예에서, 제1 물리적 거리와 제1 위치가 제1 처리될 이미지에서의 스케일은 음의 상관 관계를 가지거나, 및/또는, 제1 물리적 거리와 제2 위치가 제2 처리될 이미지에서의 스케일은 음의 상관 관계를 가진다. 상기 상관 관계는 다음 중 적어도 하나를 포함한다.
(1) 속도 측정 장치가 제1 이동 거리 및 제1 투사 파라미터에 따라 획득한 제1 물리적 거리와, 제1 위치가 제1 처리될 이미지에서의 스케일은 음의 상관 관계를 가진다.
(2) 속도 측정 장치가 제1 이동 거리 및 제1 투사 파라미터에 따라 획득한 제1 물리적 거리와, 제2 위치가 제2 처리될 이미지에서의 스케일은 음의 상관 관계를 가진다.
(3) 속도 측정 장치가 제1 이동 거리 및 제1 투사 파라미터에 따라 획득한 제1 물리적 거리와, 제1 위치가 제1 처리될 이미지에서의 스케일은 음의 상관 관계를 가지고, 상기 제1 물리적 거리와 제2 위치가 제2 처리될 이미지에서의 스케일은 음의 상관 관계를 가진다.
단계 303에 있어서, 상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득한다.
본 발명의 실시예에서, 이동 시간은 제1 객체가 제1 이동 거리만큼 이동하는데 소요되는 시간이다. 속도 측정 장치는 제1 처리될 이미지의 타임 스탬프 및 제2 처리될 이미지의 타임 스탬프에 따라, 상기 이동 시간을 획득할 수 있다.
하나의 가능한 구현 방식에 있어서, 제1 처리될 이미지의 타임 스탬프 및 제2 처리될 이미지의 타임 스탬프 중 작은 타임 스탬프를 작은 타임 스탬프라고 지칭하고, 제1 처리될 이미지의 타임 스탬프 및 제2 처리될 이미지의 타임 스탬프 중 큰 타임 스탬프를 큰 타임 스탬프라고 지칭한다. 이동 시간의 시작 시간은 작은 타임 스탬프이고, 이동 시간의 종료 시간은 큰 타임 스탬프이다. 예를 들어, 제1 처리될 이미지의 타임 스탬프는 2020년 6월 27일 16시 54분 30초이고, 제2 처리될 이미지의 타임 스탬프는 2020년 6월 27일 16시 54분 33초이다. 이때, 작은 타임 스탬프는 2020년 6월 27일 16시 54분 30초이고, 큰 타임 스탬프는 2020년 6월 27일 16시 54분 33초이다.
본 발명의 실시예에서, 제1 객체의 속도는 제1 객체가 현실 세계에서의 속도이다. 제1 객체의 속도를 획득하는 구현 방식에서, 속도 측정 장치는 제1 투사 파라미터 및 제1 이동 거리에 따라 제1 객체가 현실 세계에서의 이동 거리(아래에 제2 이동 거리라 지칭함)를 획득한다. 속도 측정 장치는 제1 물리 이동 거리 및 이동 시간에 따라, 제1 객체의 속도를 획득할 수 있다. 예를 들어, 제1 투사 파라미터는 제1 이동 거리와 제1 물리적 거리 사이의 비율을 나타내고, 제1 투사 파라미터는 0.1cm이고, 제1 이동 거리는 10이며, 이동 시간은 0.5초이다. 속도 측정 장치는 다음 식에 따라 제2 이동 거리를 획득할 수 있으며, 10/0.1cm=100cm=1m이다. 속도 측정 장치는 다음 식에 따라 제1 객체가 현실 세계에서의 속도를 획득할 수 있으며, 1/0.5m/s=2m/s이다.
다른 가능한 구현 방식에 있어서, 속도 측정 장치는 제1 이동 거리 및 이동 시간에 따라 제1 객체가 이미지에서의 속도(이하 가상 속도라 지칭함)를 획득한다. 속도 측정 장치는 가상 속도 및 제1 투사 파라미터에 따라 제1 객체가 현실 세계에서의 속도를 획득한다.
상기 측면에서, 제1 투사 파라미터는 제1 위치의 스케일 정보 및 제2 위치의 스케일 정보 중 적어도 하나를 반송한다. 속도 측정 장치는 제1 투사 파라미터, 제1 이동 거리 및 이동 시간에 따라 제1 객체의 속도를 획득함으로써, 속도의 정확도를 향상시킬 수 있다.
일부 가능한 구현 방식 중 실시 형태로서, 속도 측정 장치는 다음 단계를 수행하여 제1 투사 파라미터를 획득하며, 즉,
단계 1에 있어서, 제3 위치의 제2 투사 파라미터를 획득한다.
본 발명의 실시예에서, 제3 위치는 제1 위치와 제2 위치의 연결선 상의 위치이다. 이해해야 할 것은, 제1 위치가 제1 처리될 이미지에서의 위치이고, 제2 위치가 제2 처리될 이미지에서의 위치이지만, 본 발명의 실시예에서, 제1 처리될 이미지의 픽셀 좌표계와 제2 처리될 이미지의 픽셀 좌표계가 동일하므로, 속도 측정 장치는 제1 위치 및 제2 위치에 따라, 픽셀 좌표계에서의 제3 위치를 결정할 수 있다. 제3 위치는 제1 처리될 이미지에서의 위치일 수 있고, 제3 위치는 제2 처리될 이미지에서의 위치일 수도 있다. 예를 들어, 제1 위치는 (3, 4)이고, 제2 위치는 (7, 8)이다. 제3 위치가 제1 위치와 제2 위치의 중간 위치 (5, 6)이라고 가정한다. 이때, 제3 위치는 제1 처리될 이미지에서 5 번째 행 6 번째 열에 위치한 픽셀 포인트를 나타내고, 제3 위치는 제2 처리될 이미지에서 5 번째 행 6 번재 열에 위치한 픽셀 포인트를 나타낼 수도 있다.
본 발명의 실시예에서, 속도 측정 장치는 제3 위치에 따라 제1 처리될 이미지에서 픽셀 포인트를 결정할 수 있고, 속도 측정 장치는 제3 위치에 따라 제2 처리될 이미지에서 픽셀 포인트를 결정할 수도 있다. 속도 측정 장치가 제3 위치에 따라 결정한 픽셀 포인트를 제1 픽셀 포인트라 지칭하고, 제2 투사 파라미터는 제1 픽셀 포인트의 사이즈와 제1 물체 포인트 사이즈 사이의 전환 관계를 나타내며, 여기서, 제1 물체 포인트는 제1 픽셀 포인트에 대응하는 물체 포인트이다. 예를 들어, 제2 투사 파라미터는 제1 픽셀 포인트의 길이와 제1 물체 포인트의 길이 사이의 전환 관계를 나타낸다. 다른 예를 들어, 제2 투사 파라미터는 제1 픽셀 포인트의 높이와 제1 물체 포인트의 높이 사이의 전환 관계를 나타낸다. 또 다른 예를 들어, 제2 투사 파라미터는 제1 픽셀 포인트의 너비와 제1 물체 포인트의 너비 사이의 전환 관계를 나타낸다.
제1 픽셀 포인트의 사이즈와 제1 물체 포인트의 사이즈 사이의 비율을 제1 비율이라 지칭하고, 본 발명의 실시예에서, 제1 비율과 제1 픽셀 포인트가 이미지에서의 스케일은 음의 상관 관계를 가진다. 예를 들어, 제1 픽셀 포인트는 제1 처리될 이미지에 속하고, 제1 비율을 제1 픽셀 포인트의 길이와 제1 물체 포인트의 비율로 가정하면, 제1 픽셀 포인트가 제1 처리될 이미지에서의 스케일이 클수록, 제1 비율은 작다. 제1 처리될 이미지에서의 임의의 두 개의 픽셀 포인트의 길이가 모두 동일한 것을 고려하면, 다시 말해서, 제1 픽셀 포인트의 길이가 변하지 않으면, 제1 픽셀 포인트의 스케일이 클수록, 제1 물체 포인트의 길이는 작고, 즉 제1 물체 포인트의 사이즈와 제1 픽셀 포인트의 스케일은 음의 상관 관계를 가진다.
또 다른 예를 들어, 제1 비율이 제1 픽셀 포인트의 길이와 제1 물체 포인트의 비율이고, 제1 픽셀 포인트가 제2 처리될 이미지에 속한다고 가정하면, 제1 픽셀 포인트가 제2 처리될 이미지에서의 스케일이 클수록, 제1 비율은 작다. 제2 처리될 이미지에서의 임의의 두 개의 픽셀 포인트의 길이가 모두 동일한 것을 고려하면, 다시 말해서, 제1 픽셀 포인트의 길이가 변하지 않으면, 제1 픽셀 포인트의 스케일이 클수록, 제1 물체 포인트의 길이는 작고, 즉 제1 물체 포인트의 사이즈와 제1 픽셀 포인트의 스케일은 음의 상관 관계를 가진다.
위에서 알 수 있는 바와 같이, 제1 물체 포인트의 사이즈는 제1 픽셀 포인트의 사이즈 및 제2 투사 파라미터에 따라 획득되고, 제1 픽셀 포인트의 사이즈는 고정된 값이며, 제2 투사 파라미터는 제1 픽셀 포인트의 스케일 정보를 반송한다. 제3 위치의 제2 투사 파라미터를 획득하는 구현 방식에서, 속도 측정 장치는 사용자가 입력 컴포넌트를 통해 입력한 제2 투사 파라미터를 수신한다. 상기 입력 컴포넌트는 키보드, 마우스, 터치 스크린, 터치 패드 및 오디오 입력기 등을 포함한다.
제3 위치의 제2 투사 파라미터를 획득하는 다른 구현 방식에서, 속도 측정 장치는 제3 단말에 의해 송신된 제2 투사 파라미터를 수신한다. 일부 가능한 구현 방식에서, 제3 단말은 휴대폰, 컴퓨터, 태블릿 컴퓨터, 서버, 웨어러블 기기 중 어느 하나일 수 있다. 제3 단말과 제1 단말은 동일할 수 있거나, 상이할 수도 있다.
단계 2에 있어서, 상기 제2 투사 파라미터에 따라, 상기 제1 투사 파라미터를 획득한다.
하나의 가능한 구현 방식에 있어서, 픽셀 포인트의 스케일과 픽셀 포인트의 가로 좌표는 선형 관계를 가지거나, 및/또는, 픽셀 포인트의 스케일과 픽셀 포인트의 세로 좌표는 선형 관계를 가진다. 제3 위치의 스케일과 제1 위치의 스케일은 선형 관계를 가지거나, 및/또는, 제3 위치의 스케일과 제2 위치의 스케일은 선형 관계를 가진다. 따라서, 속도 측정 장치는 제1 위치와 제2 위치의 중간 위치의 투사 파라미터에 따라 제1 이동 거리의 투사 파라미터를 결정할 수 있고, 즉 제2 투사 파라미터에 따라 제1 투사 파라미터를 결정한다. 일부 가능한 구현 방식 중 실시 형태로서, 제3 위치는 제1 위치와 제2 위치 사이의 중간 위치이다.
본 발명의 실시예에서, 제1 투사 파라미터와 제2 투사 파라미터는 양의 상관 관계를 가진다. 제1 투사 파라미터가 b1이고, 제2 투사 파라미터가 b2라고 가정하면, 하나의 가능한 구현 방식에 있어서, b1, b2는 공식 (1)을 만족한다.
도 4를 참조하면, 도 4는 본 발명의 실시예에 따라 제공된 단계 1의 가능한 구현 방법의 흐름 모식도이다.
단계 401에 있어서, 상기 제1 처리될 이미지에 대해 물체 검출 처리를 수행하여, 제1 물체 프레임의 위치 및 제2 물체 프레임의 위치를 획득한다.
본 발명의 실시예에서, 물체 검출 처리의 검출 객체의 사이즈는 결정된 값에 가까운 물체에 위치한다. 예를 들어, 얼굴의 평균 길이는 20cm이고, 물체 검출 처리의 검출 객체는 얼굴일 수 있다. 다른 예를 들어, 사람의 평균 키는 1.65m이고, 물체 검출 처리의 검출 객체는 인체일 수 있다. 또 다른 예를 들어, 축구장에서, 도 5에 도시된 골문의 높이는 모두 결정되고(예컨대, 2.44m), 물체 검출 처리의 검출 객체는 골문이 될 수 있다.
본 발명의 실시예에서, 물체 프레임은 임의의 모양일 수 있으며, 본 발명은 물체 프레임(상기 제1 물체 프레임 및 제2 물체 프레임을 포함함)의 모양을 한정하지 않는다. 일부 가능한 구현 방식에서, 물체 프레임의 모양은 직사각형, 능형, 원, 타원 및 다각형 중 적어도 하나를 포함한다.
본 발명의 실시예에서, 물체 프레임의 위치(상기 제1 물체 프레임의 위치 및 상기 제2 물체 프레임의 위치를 포함함)는 물체 프레임에 포함된 픽셀 포인트 영역을 결정하기 위한 것이며, 즉 물체 프레임이 처리될 이미지에서의 위치이다. 예를 들어, 물체 프레임의 모양이 직사각형인 경우, 물체 프레임의 위치는 직사각형에서 임의의 한 쌍의 대각선 모서리의 좌표를 포함할 수 있으며, 여기서, 한 쌍의 대각선 모서리는 직사각형의 대각선 상의 두 정점을 의미한다. 또 다른 예를 들어, 물체 프레임의 형태가 직사각형인 경우, 물체 프레임의 위치는직사각형의 기하학적 중심 위치, 직사각형의 길이 및 직사각형의 너비를 포함할 수 있다. 다른 예를 들어, 몸체 프레임의 모양이 원형인 경우, 물체 프레임의 위치는 물체 프레임의 원심 위치 및 물체 프레임의 반경을 포함할 수 있다.
본 발명의 실시예에서, 물체 검출 처리의 검출 객체의 개수는 1보다 작지 않다. 예를 들어, 검출 객체가 얼굴인 경우, 처리될 이미지에 대해 물체 검출 처리를 수행함으로써, 얼굴을 포함하는 얼굴 프레임의 위치를 획득할 수 있다. 또 다른 예를 들어, 검출 객체가 얼굴 및 인체를 포함하는 경우, 처리될 이미지에 대해 물체 검출 처리를 수행하여, 얼굴을 포함하는 얼굴 프레임의 위치 및 인체를 포함하는 인체 프레임의 위치를 획득할 수 있다. 또 다른 예를 들어, 검출 객체가 얼굴, 인체 및 나사를 포함하는 경우, 처리될 이미지에 대해 물체 검출 처리를 수행하여, 얼굴을 포함하는 얼굴 프레임의 위치, 인체를 포함하는 인체 프레임의 위치 및 나사를 포함하는 나사 프레임의 위치를 획득할 수 있다. 일부 가능한 구현 방식에서, 물체 검출 처리의 검출 객체는 얼굴, 발, 인체, 나사, 골문 중 적어도 하나를 포함한다.
하나의 가능한 구현 방식에 있어서, 처리될 이미지에 대해 물체 검출 처리를 수행하는 과정은 컨볼루션 신경망을 통해 구현될 수 있다. 라벨링 정보가 있는 이미지를 훈련 데이터로 사용하여, 컨볼루션 신경망을 훈련하여 훈련된 컨볼루션 신경망이 이미지에 대한 객체 검출 처리를 완료할 수 있다. 훈련 데이터에서의 이미지의 라벨링 정보는 물체 프레임의 위치 정보이며, 상기 물체 프레임은 물체 검출 처리의 검출 객체를 포함한다.
다른 가능한 구현 방식에 있어서, 물체 검출 처리는 물체 검출 알고리즘에 의해 구현될 수 있으며, 여기서, 물체 검출 알고리즘은, 욜로 알고리즘(you only look once, YOLO), 타깃 검출 알고리즘(deformable part model, DMP), 단일 이미지 멀티 타깃 검출 알고리즘(single shot multiBox detector, SSD), Faster-RCNN 알고리즘 등이며, 본 발명은 물체 검출 처리를 구현하는 물체 검 출 알고리즘에 대해 한정하지 않는다.
속도 측정 장치는 제1 처리될 이미지에 대해 물체 검출 처리를 수행함으로써, 제1 물체를 포함하는 제1 물체 프레임의 위치 및 제2 물체를 포함하는 제2 물체 프레임의 위치를 획득한다. 제1 물체 프레임에 포함된 검출 객체와 제2 물체 프레임에 포함된 검출 객체는 상이하다. 예를 들어, 제1 물체 프레임에 포함된 검출 객체는 장산의 얼굴이고, 제2 물체 프레임에 포함된 검출 객체는 리쓰(사람 이름)의 얼굴이다. 또 다른 예를 들어, 제1 물체 프레임에 포함된 검출 객체는 장산의 얼굴이고, 제2 물체 프레임에 포함된 검출 객체는 안내 표지판이다.
단계 402에 있어서, 상기 제1 물체 프레임의 위치에 따라 제1 물체의 제1 사이즈를 획득하고, 상기 제2 물체 프레임의 위치에 따라 제2 물체의 제2 사이즈를 획득한다.
속도 측정 장치는 물체 프레임의 위치에 따라 물체 프레임에 포함된 검출 객체의 사이즈를 결정할 수 있다. 예를 들어, 물체 프레임의 모양이 직사각형인 경우, 속도 측정 장치는 물체 프레임의 위치에 따라 물체 프레임의 길이와 너비를 결정하여, 물체 프레임 내의 검출 객체의 길이와 너비를 결정할 수 있다.
속도 측정 장치는 제1 물체 프레임의 위치에 따라 제1 물체의 제1 사이즈를 획득하고, 제2 물체 프레임의 위치에 따라 제2 물체의 제2 사이즈를 획득할 수 있다.
단계 403에 있어서, 상기 제1 사이즈 및 제3 사이즈에 따라 제3 투사 파라미터를 획득하고, 상기 제2 사이즈 및 제4 사이즈에 따라 제4 투사 파라미터를 획득한다.
본 발명의 실시예에서, 제3 사이즈는 제1 물체의 물리적 사이즈이고, 제4 사이즈는 제2 물체의 물리적 사이즈이다. 예를 들어, 제1 물체 프레임에 포함된 검출 객체가 인체이면, 제3 사이즈는 사람의 키(예컨대, 170cm)일 수 있다. 또 다른 예를 들어, 제2 물체 프레임에 포함된 검출 객체는 얼굴이고, 제3 사이즈는 얼굴의 길이(예컨대, 20cm)일 수 있다.
속도 측정 장치는 제1 물체 프레임의 위치에 따라 제1 처리될 이미지에서 하나의 픽셀 포인트(즉 제2 픽셀 포인트)를 결정할 수 있다. 예를 들어, 제1 물체 프레임의 형태가 직사각형인 경우, 속도 측정 장치는 제1 물체 프레임의 위치에 따라 제1 물체 프레임의 기하학적 중심의 위치를 결정하고, 기하학적 중심에 대응하는 픽셀 포인트를 제2 픽셀 포인트로 사용한다. 또 다른 예를 들어, 제1 물체 프레임의 형태가 직사각형인 경우, 속도 측정 장치는 제1 물체 프레임의 위치에 따라 제1 물체 프레임의 임의의 하나의 정점의 위치를 결정하고, 상기 정점에 대응하는 픽셀 포인트를 제2 픽셀 포인트로 사용한다. 다른 예를 들어, 제1 물체 프레임의 형태가 원형인 경우, 속도 측정 장치는 제1 물체 프레임의 위치에 따라 제1 물체 프레임의 원심의 위치를 결정하고, 원심에 대응하는 픽셀 포인트를 제2 픽셀 포인트로 사용한다. 마찬가지로, 속도 측정 장치는 제2 물체 프레임의 위치에 따라 제1 처리될 이미지에서 하나의 픽셀 포인트, 즉 제3 픽셀 포인트를 결정할 수 있다.
본 발명의 실시예에서, 제2 픽셀 포인트의 사이즈를 제5 사이즈라 지칭하고, 제2 픽셀 포인트에 대응하는 물체 포인트의 사이즈를 제6 사이즈라 지칭하며, 제3 픽셀 포인트의 사이즈를 제7 사이즈라 지칭하고, 제3 픽셀 포인트에 대응하는 물체 포인트의 사이즈를 제8 사이즈라 지칭한다. 제5 사이즈와 제6 사이즈 사이의 전환 관계를 제3 투사 파라미터라 지칭하고, 제7 사이즈와 제8 사이즈 사이의 전환 관계를 제4 투사 파라미터라 지칭한다.
속도 측정 장치는 제1 사이즈 및 제3 사이즈에 따라 제3 투사 파라미터를 획득할 수 있고, 제2 사이즈 및 제4 사이즈에 따라 제4 투사 파라미터를 획득할 수 있다. 제1 사이즈를 , 제2 사이즈를 , 제3 사이즈를 , 제4 사이즈를 , 제3 투사 파라미터를 , 제4 투사 파라미터를 라고 가정한다.
단계 404에 있어서, 상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 제1 처리될 이미지의 투사 파라미터 맵을 획득한다.
제1 처리될 이미지에서, 픽셀 포인트의 스케일과 픽셀 포인트의 가로 좌표는 선형 관계를 가지거나, 및/또는, 픽셀 포인트의 스케일과 픽셀 포인트의 세로 좌표는 선형 관계를 가지며, 속도 측정 장치는 제3 투사 파라미터 및 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 제1 처리될 이미지의 투사 파라미터 맵을 획득할 수 있다. 투사 파라미터 맵에서의 픽셀 값에 따라, 제1 처리될 이미지에서 임의의 하나의 픽셀 포인트의 투사 파라미터를 결정할 수 있다.
투사 파라미터 맵에서의 제5 픽셀 포인트를 예로 든다. 제5 픽셀 포인트의 픽셀 값이 제1 픽셀 값이고, 제5 픽셀 포인트가 투사 파라미터 맵에서의 위치와 제4 픽셀 포인트가 제1 처리될 이미지에서의 위치가 동일하며, 즉 제5 픽셀 포인트는 제1 투사 파라미터 맵에서 제4 픽셀 포인트에 대응하는 픽셀 포인트라고 가정한다. 그러면 속도 측정 장치는 제1 픽셀 값에 따라, 제4 픽셀 포인트의 사이즈(즉 제9 사이즈)와 제10 사이즈 사이의 전환 관계를 결정할 수 있으며, 여기서, 제10 사이즈는 제4 픽셀 포인트에 대응하는 물체 포인트의 사이즈이다.
또 다른 가능한 구현 방식에서, 공식 (12)를 만족한다.
마찬가지로, 속도 측정 장치는 투사 파라미터 맵에 따라 제1 처리될 이미지 중 제4 픽셀 포인트를 제외한 임의의 하나의 픽셀 포인트의 투사 파라미터를 결정할 수 있다.
단계 405에 있어서, 상기 투사 파라미터 맵 및 상기 제3 위치가 상기 처리될 이미지에서의 위치에 따라, 상기 제2 투사 파라미터를 획득한다.
제3 위치가 제1 처리될 이미지에서의 위치를 나타내는 경우, 속도 측정 장치는 제3 위치에 따라 투사 파라미터 맵으로부터 참조 픽셀 값을 결정할 수 있으며, 여기서, 참조 픽셀 값에 대응하는 픽셀 포인트가 투사 파라미터 맵에서의 위치와 제3 위치는 동일하다. 속도 측정 장치는 참조 픽셀 값에 따라, 제2 투사 파라미터를 획득할 수 있다.
본 발명의 실시예에서, 속도 측정 장치는 제1 사이즈 및 제3 사이즈에 따라 제3 투사 파라미터를 획득하고, 제2 사이즈 및 제4 사이즈에 따라 제4 투사 파라미터를 획득한다. 제3 투사 파라미터 및 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 투사 파라미터 맵을 획득한 다음, 투사 파라미터 맵에 따라 제1 처리될 이미지 중 임의의 하나의 픽셀 포인트의 투사 파라미터를 획득할 수 있다.
이해해야 할 것은, 제3 위치가 제2 처리될 이미지에서의 위치를 나타내는 경우, 거리 측정 장치는 제2 처리될 이미지에 대해 물체 검출 처리를 수행하여, 제2 처리될 이미지의 투사 파라미터 맵을 획득한다. 다음 제2 투사 파라미터를 결정한다.
일부 가능한 구현 방식 중 실시 형태로서, 단계 404를 실행하기 전에, 속도 측정 장치는 또한 다음의 단계들을 실행한다.
단계 3에 있어서, 신뢰도 매핑을 획득한다.
본 발명의 실시예에서, 픽셀 포인트의 투사 파라미터의 정확도와 상기 픽셀 포인트에 대응하는 물체 포인트의 사이즈의 정확도는 양의 상관 관계를 가지고, 이에 따라, 투사 파라미터 맵의 정확도와, 제1 물체의 사이즈의 정확도 및 제2 물체의 사이즈는 양의 상관 관계를 가진다.
명백하게, 고정 사이즈의 객체의 사이즈의 정확도는 부동 구간에 있는 객체 사이즈의 정확도보다 높다
예를 들어, 표준 축구 골문의 너비는 7.32m이고, 높이는 2.44m이다. 90%의 사람들은 키가 1.4미터에서 2미터 사이이다. 축구 골문의 사이즈의 정확도는 사람의 키보다 높다.
또 다른 예를 들어, 표준 농구 골대의 높이는 3.05m이다. 95%의 얼굴의 길이는 17cm~30cm 사이에 있다. 농구 골대 높이의 정확도는 사람의 얼굴 길이 정확도보다 높다.
또 다른 예를 들어, 고정 길이를 갖는 나사이다. 95%의 사람의 발의 길이는 20cm~35cm 사이에 있다. 고정 길이의 나사 길이의 정확도는 사람의 발보다 높다.
일부 가능한 구현 방식에서, 상기 고정 사이즈를 갖는 물체는, 특징 장면에서 고정 사이즈를 갖는 물체일 수 있다. 예를 들어, 대기실에 있는 탑승 안내 표지판이다. 또 다른 예를 들어, 체육관의 의자이다. 또 다른 예를 들어, 사무실의 업무 책상이다.
본 발명의 실시예에서, 신뢰도 매핑은 물체 타입과 투사 파라미터의 신뢰도 사이의 매핑을 나타낸다. 예를 들어, 상기 신뢰도 매핑은 표 1을 참조할 수 있다.
표 1
신뢰도 매핑을 획득하는 구현 방식에서, 속도 측정 장치는 사용자가 입력 컴포넌트를 통해 입력한신뢰도 매핑을 수신한다. 상기 입력 컴포넌트는 키보드, 마우스, 터치 스크린, 터치 패드 및 오디오 입력기 등을 포함한다.
신뢰도 매핑을 획득하는 다른 구현 방식에서, 속도 측정 장치는 제4 단말에 의해 송신된 신뢰도 매핑을 수신한다. 일부 가능한 구현 방식에서, 제4 단말은 휴대폰, 컴퓨터, 태블릿 컴퓨터, 서버, 웨어러블 기기 중 어느 하나일 수 있다. 제4 단말과 제1 단말은 동일할 수 있거나, 상이할 수도 있다.
단계 4에 있어서, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득한다.
속도 측정 장치는 신뢰도 매핑을 획득한 후, 신뢰도 매핑 및 제1 물체의 물체 타입에 따라, 제3 투사 파라미터의 제1 신뢰도를 획득할 수 있다. 예를 들어, 신뢰도 매핑이 상기 표 1이고, 제1 물체의 물체 타입이 인체라고 가정한다. 이때, 제1 신뢰도는 0.9이다.
일부 가능한 구현 방식에서, 속도 측정 장치는 제1 물체 프레임에 포함된 픽셀 포인트 영역에 대해 특징 추출 처리를 수행하여, 제1 물체의 물체 타입을 결정할 수 있다.
일부 가능한 구현 방식 중 실시 방식으로서, 속도 측정 장치는 각 물체 프레임 내의 물체의 물체 타입에 따라, 각 물체 프레임 내의 물체에 대응하는 투사 파라미터를 각각 결정할 수 있다. 예를 들어, 속도 측정 장치는 제2 물체의 물체 타입 및 신뢰도 매핑에 따라, 제4 투사 파라미터의 신뢰도(본 출원의 실시예에서는 제3 신뢰도라 지칭함)를 획득할 수 있다.
제1 신뢰도를 획득한 후, 속도 측정 장치는 단계 404를 실행하는 과정에서 다음의 단계들을 실행한다.
단계 5에 있어서, 상기 제1 신뢰도 및 상기 제3 투사 파라미터에 따라, 제5 투사 파라미터를 획득한다.
본 발명의 실시예에서, 제5 투사 파라미터와 제1 신뢰도는 양의 상관 관계를 획득한다. 제1 신뢰도가 이고, 제5 투사 파라미터가 라고 가정한다. 하나의 가능한 구현 방식에 있어서, , 는 공식 (13)을 만족한다.
단계 6에 있어서, 상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득한다.
속도 측정 장치는 제4 투사 파라미터 및 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 투사 파라미터 맵의 정확도를 향상시킬 수 있다.
일부 가능한 구현 방식 중 실시 형태로서, 속도 측정 장치가 단계 4를 실행하여 제3 신뢰도를 획득하고, 제3 신뢰도 및 제4 투사 파라미터에 따라 제6 투사 파라미터를 획득하는 경우, 속도 측정 장치는 제5 투사 파라미터 및 제6 투사 파라미터를 통해 곡선 맞춤 처리를 수행하여, 투사 파라미터 맵을 획득할 수 있다.
이해해야 할 것은, 제3 위치가 제2 처리될 이미지에서의 위치를 나타내는 경우, 거리 측정 장치는 신뢰도 매핑에 기반하여 제2 처리될 이미지의 투사 파라미터 맵을 획득함으로써, 제2 처리될 이미지의 투사 파라미터 맵의 정확도를 향상시킬 수 있다.
일부 가능한 구현 방식 중 실시 형태로서, 단계 4를 실행하기 전에, 속도 측정 장치는 또한 다음의 단계들을 실행한다.
단계 7에 있어서, 상기 제1 물체 프레임 내의 픽셀 포인트 영역에 대해 특징 추출 처리를 수행하여, 특징 데이터를 획득한다.
본 발명의 실시예에서, 특징 추출 처리는 컨볼루션 처리일 수 있고, 풀링 처리일 수도 있으며, 또한 컨볼루션 처리 및 풀링 처리의 조합일 수 있다. 일부 가능한 구현 방식에서, 특징 추출 처리는 훈련된 컨볼루션 신경망을 통해 구현될 수 있거나, 특징 추출 모델을 통해 구현될 수도 있으며, 본 발명은 이를 한정하지 않는다.
속도 측정 장치는 물체 프레임 내의 픽셀 포인트 영역에 대해 특징 추출 처리를 수행함으로써, 물체 프레임 내의 픽셀 포인트 영역에서의 시멘틱 정보를 추출하여, 물체 프레임의 특징 데이터를 획득할 수 있다.
제1 물체 프레임 내의 픽셀 포인트 영역에 대해 특징 추출 처리를 수행하는 구현 방식에서, 적어도 두 개의 컨볼루션 계층을 통해 제1 물체 프레임 내의 픽셀 포인트 영역에 대해 계층 별로 컨볼루션 처리를 수행하여, 제1 물체 프레임 내의 픽셀 포인트 영역에 대한 특징 추출 처리를 완료한다. 적어도 두 개의 컨볼루션 계층에서의 컨볼루션 계층은 순차적으로 직렬 연결되어 있으며, 즉 이전 컨볼루션 계층의 출력은 다음 컨볼루션 계?v의 입력이고, 각 계층의 컨볼루션 계층에서 추출한 시멘틱 정보는 상이하다. 구체적은 구현으로, 특징 추출 처리는 제1 물체 프레임 내의 픽셀 포인트 영역의 특징을 점차적으로 추상화하고, 동시에 상대적으로 부차적인 특징 데이터도 점차적으로 폐기하며, 여기서, 상대적으로 부차적인 특징 정보는, 제1 물체 프레임의 물체의 물체 타입을 결정하기 위한 특징 정보 이외의 특징 정보를 의미한다. 따라서, 나중에 추출되는 특징 데이터의 사이즈는 작을수록 시멘틱 정보가 집중된다. 멀티 계층 컨볼루션 계층을 통해 제1 물체 프레임 내의 픽셀 포인트 영역에 대해 단계적으로 컨볼루션 처리를 수행하여, 제1 물체 프레임 내의 픽셀 포인트 영역의 시멘틱 정보를 획득할 수 있다.
일부 가능한 구현 방식에서, 속도 측정 장치는 각 물체 프레임 내의 픽셀 포인트 영역에 대해 특징 추출 처리를 수행하여, 각 물체 프레임 내의 픽셀 포인트 영역의 특징 데이터를 획득할 수 있다.
단계 8에 있어서, 상기 특징 데이터에 따라, 상기 제1 물체의 점수를 획득한다.
고정된 사이즈가 없는 물체의 실제 사이즈가 변경될 수 있음을 고려하여, 본 발명의 실시예에서, 물체의 특징 데이터에 따라 물체의 상태를 결정하여, 물체의 사이즈를 나타내기 위한 신뢰도의 점수를 획득하며, 여기서, 물체의 점수와 상기 물체의 사이즈의 신뢰도는 양의 상관 관계를 가진다.
예를 들어, 물체가 인체이고, 물체의 사이즈가 사람의 키라고 가정한다. 사람이 똑바로 서 있을 때, 그 사람의 키는 실제 키와 같으며, 이때, 사람의 키의 신뢰도는 가장 높으며; 사람이 걸을 때, 사람의 키와 사람의 실제 키 사이에는 약간의 오차가 있으며, 이때, 사람의 키의 신뢰도는 그 다음이며; 사람이 머리를 숙인 상태(전화를 내려다보는 등)에 있을 때, 사람의 키와 사람의 실제 키 사이에 약간의 오차가 있으며, 이때, 사람의 키의 신뢰도는 걸을 때의 상태에 있는 사람의 키의 신뢰도보다 낮으며; 사람이 앉아 있을 때 사람의 키와 실제 키 사이에는 큰 오차가 있는데, 이때, 사람의 키의 신뢰도는 비교적 낮다.
본 발명의 실시예에서, 속도 측정 장치는 물체 프레임 내의 픽셀 포인트 영역으로부터 추출된 특징 데이터에 따라, 물체 프레임 내의 물체의 점수를 결정할 수 있다.
일부 가능한 구현 방식 중 실시 형태로서, 속도 측정 장치는 분류기(예컨대, 벡터기, softmax 함수를 지원함)를 사용하여 물체 프레임의 특징 데이터를 처리하여, 물체 프레임 내의 물체의 점수를 획득할 수 있다.
일부 가능한 구현 방식에서, 속도 측정 장치는 신경망을 사용하여 물체 프레임 내의 픽셀 포인트 영역을 처리하여, 물체 프레임 내의 물체의 점수를 획득할 수 있다. 예를 들어, 속도 측정 장치 라벨링된 이미지 세트를 훈련 데이터로 사용하여, 신경망을 훈련하여, 훈련된 신경망을 획득한다. 훈련된 신경망을 사용하여 언라벨링된 이미지 세트를 처리하여, 언라벨링된 이미지 세트의 태그를 획득한다. 라벨링된 이미지 세트, 언라벨링된 이미지 세트, 및 언라벨링된 이미지 세트의 태그를 사용하여 훈련된 신경망을 훈련하여, 이미지 처리 신경망을 획득한다. 여기서, 태그가 반송하는 정보는 이미지에서의 물체 프레임을 포함하는 위치 및 물체 프레임 내의 물체의 점수를 포함한다.
속도 측정 장치는 제1 물체의 특징 데이터에 따라 제1 물체의 점수를 획득할 수 있다. 일부 가능한 구현 방식에서, 속도 측정 장치는 제1 처리될 이미지에서 각 물체의 점수를 각각 획득할 수 있다.
제1 물체의 점수를 획득한 경우, 속도 측정 장치는 단계 4를 실행하는 과정에서 다음의 단계들을 실행한다.
단계 9에 있어서, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제2 신뢰도를 획득한다.
이 단계의 구현 과정은 단계 4를 참조할 수 있지만, 이 단계에서, 속도 측정 장치는 제1 물체의 물체 타입 및 신뢰도 매핑에 따라, 제1 신뢰도를 획득하는 것이 아니라 제2 신뢰도를 획득한다.
단계 10에 있어서, 상기 점수와 상기 제2 신뢰도에 따라, 상기 제1 신뢰도를 획득한다.
본 발명의 실시예에서, 제1 신뢰도와 점수는 상관 관계를 가진다. 제1 신뢰도가 이고, 제2 신뢰도가 이며, 점수가s라고 가정한다. 하나의 가능한 구현 방식에 있어서, , , s는 공식 (16)을 만족한다.
속도 측정 장치는 제1 물체의 점수 및 제2 신뢰도에 따라, 제1 신뢰도를 획득함으로써, 제1 신뢰도의 정확도를 향상시킬 수 있다.
일부 가능한 구현 방식에서, 속도 측정 장치는 단계 9를 실행함으로써 제4 투사 파라미터의 제4 신뢰도를 획득할 수 있고, 속도 측정 장치는 제2 물체의 점수 및 제4 신뢰도에 따라, 상기 제3 신뢰도를 획득할 수 있다.
일부 가능한 구현 방식 중 실시 형태로서, 단계 6을 실행하기 전에, 속도 측정 장치는 또한 다음의 단계들을 실행한다.
단계 11에 있어서, 상기 제1 처리될 이미지의 깊이 이미지를 획득한다.
본 발명의 실시예에서, 제1 처리될 이미지의 깊이 이미지는 제1 처리될 이미지에서의 픽셀 포인트의 깊이 정보를 반송한다. 하나의 가능한 구현 방식에 있어서, 속도 측정 장치는 사용자가 입력 컴포넌트를 통해 입력한 깊이 이미지를 수신한다. 상기 입력 컴포넌트는 키보드, 마우스, 터치 스크린, 터치 패드 및 오디오 입력기 등을 포함한다.
다른 가능한 구현 방식에 있어서, 속도 측정 장치에는 RGB 카메라 및 깊이 카메라가 장착되어 있다. 속도 측정 장치가 RGB 카메라를 사용하여 제1 처리될 이미지를 수집하는 과정에서, 깊이 카메라를 사용하여 제1 처리될 이미지의 깊이 이미지를 수집한다. 여기서, 깊이 카메라는 구조광(structured light) 카메라, TOF 카메라, 쌍안 스테레오 비전(binocular stereo vision) 카메라 중 하나일 수 있다.
또 다른 가능한 구현 방식에서, 속도 측정 장치는 제5 단말에 의해 송신된 깊이 이미지를 수신하고, 여기서, 제5 단말은 휴대폰, 컴퓨터, 태블릿, 서버 등을 포함한다. 본 실시예에서, 제5 단말과 제1 단말은 동일할 수 있거나, 상이할 수도 있다.
단계 12에 있어서, 상기 깊이 이미지에 따라, 상기 제2 픽셀 포인트의 제1 깊이 정보 및 상기 제3 픽셀 포인트의 제2 깊이 정보를 획득한다.
전술한 바와 같이, 깊이 이미지는 제1 처리될 이미지에서의 픽셀 포인트의 깊이 정보를 반송한다. 속도 측정 장치가 깊이 이미지를 획득한 후, 깊이 이미지에 따라 제2 픽셀 포인트의 깊이 정보(즉 제1 깊이 정보) 및 제3 픽셀 포인트의 깊이 정보(즉 제2 깊이 정보)를 결정할 수 있다.
단계 13에 있어서, 상기 제1 깊이 정보 및 상기 제5 투사 파라미터에 따라 제1 데이터 포인트를 획득하고, 상기 제2 깊이 정보 및 상기 제4 투사 파라미터에 따랄 제2 데이터 포인트를 획득한다.
하나의 가능한 구현 방식에 있어서, 제1 데이터 포인트의 가로 좌표는 제1 깊이 정보이고, 제2 데이터 포인트의 가로 좌표는 제2 깊이 정보이며, 제1 데이터 포인트의 세로 좌표는 제5 투사 파라미터이며, 제2 데이터 포인트의 세로 좌표는 제4 투사 파라미터이다. 즉 속도 측정 장치는 픽셀 포인트의 깊이 정보를 가로 좌표로, 픽셀 포인트의 투사 파라미터를 세로 좌표로 사용한다.
하나의 가능한 구현 방식에 있어서, 제1 데이터 포인트의 세로 좌표는 제1 깊이 정보이고, 제2 데이터 포인트의 세로 좌표는 제2 깊이 정보이며, 제1 데이터 포인트의 가로 좌표는 제5 투사 파라미터이며, 제2 데이터 포인트의 가로 좌표는 제4 투사 파라미터이다. 즉 속도 측정 장치는 픽셀 포인트의 깊이 정보를 세로 좌표로, 픽셀 포인트의 투사 파라미터를 가로 좌표로 사용한다.
제1 데이터 포인트 및 제2 데이터 포인트를 획득한 후, 속도 측정 장치는 단계 6을 실행하는 과정에서 다음의 단계들을 실행한다.
단계 14에 있어서, 상기 제1 데이터 포인트 및 상기 제2 데이터 포인트에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득한다.
제1 데이터 포인트 및 제2 데이터 포인트는 각각 픽셀 포인트의 깊이 정보를 반송한다. 속도 측정 장치가 제1 데이터 포인트 및 제2 데이터 포인트에 대해 곡선 맞춤 처리를 수행하여 획득한 투사 파라미터 맵도 깊이 정보를 반송한다.
픽셀 포인트의 깊이 정보에 따라 제1 처리될 이미지에서의 픽셀 포인트의 스케일을 결정하므로, 제1 처리될 이미지에서의 픽셀 포인트의 스케일의 정확도를 향상시킬 수 있어, 속도 측정 장치는 단계 14를 실행함으로써 투사 파라미터 맵을 획득하여, 투사 파라미터 맵의 정확도를 향상시킬 수 있으므로, 제1 처리될 이미지에서의 픽셀 포인트의 투사 파라미터의 정확도를 향상시켜, 제1 객체의 속도의 정확도를 향상시킬 수 있다.
이해해야 할 것은, 제3 위치가 제2 처리될 이미지에서의 위치를 나타내는 경우, 속도 측정 장치는 제2 처리될 이미지의 깊이 맵에 기반하여, 제2 처리될 이미지의 투사 파라미터 맵을 획득할 수 있으므로, 제1 객체의 속도의 정확도를 향상시킨다.
일부 가능한 구현 방식 중 실시 형태로서, 제1 처리될 이미지 및 제2 처리될 이미지는 동일한 이미징 기기에 의해 수집되고, 이미징 기기가 제1 처리될 이미지를 수집하는 과정에서의 자세는 이미징 기기가 제2 처리될 이미지를 수집하는 과정에서의 자세와 동일하다. 이러한 방식으로, 제1 처리될 이미지 및 제2 처리될 이미지에서 동일한 위치의 픽셀 포인트의 스케일을 동일하다. 예를 들어, 픽셀 포인트 a는 제1 처리될 이미지에 속하고, 픽셀 포인트 b는 제2 처리될 이미지에 속하며, 픽셀 포인트 a가 제1 처리될 이미지에서의 위치와 픽셀 포인트b가 제2 처리될 이미지에서의 위치는 동일하다. 따라서, 픽셀 포인트 a가 제1 처리될 이미지에서의 스케일과 픽셀 포인트 b가 제2 처리될 이미지에서의 스케일은 동일하다. 일부 가능한 구현 방식에서, 이미징 기기는 감시 카메라이다.
본 발명의 실시예에 따라 제공되는 기술방안에 기반하여, 본 발명의 실시예는 또한 가능한 응용 시나리오를 제공한다.
전술한 바와 같이, 공공장소에서는 인파가 몰리면서 사람이 밀집되는 경우가 많아, 공공사고가 발생하기도 하는데, 공공장소에서의 군중의 밀도를 어떻게 결정하느냐가 매우 중요하다.
관련 기술에서, 일, 생활 또는 사회 환경의 안전을 향상시키기 위해 비디오 스트림 정보를 기반으로 보안 보호를 위해 각 공공 장소에 감시 카메라 기기를 설치할 수 있다. 본 발명의 실시예에 따라 제공되는 기술방안을 사용하여 감시 촬영 기기에 의해 수집된 비디오 스트림을 처리함을써, 공공장소의 군중의 밀집도를 결정하여, 공공사고의 발생을 효과적으로 방지할 수 있다.
일부 가능한 구현 방식 중 실시 형태로서, 상술한 제1 객체는 인물 객체이고, 인물 객체는 감시 군중에 속하며, 여기서 감시 군중은 감시 카메라의 감시 화면에서의 군중을 의미한다. 군중 밀도의 경우, 사람들 사이의 거리가 작아, 사람들이 천천히 움직인다. 따라서, 제1 객체의 속도를 통해 모니터링되는 군중의 군중 밀도의 큰지 여부를 판단한다.
하나의 가능한 구현 방식에 있어서, 제1 객체의 속도가 안전 속도 임계값을 초과하지 않은 경우, 속도 측정 장치는 모니터링되는 군중의 군중 밀도가 너무 크다고 결정한다. 그 다음, 속도 측정 장치는 이미징 기기의 위치(이미징 기기의 위치는, 이미징 기기의 번호, 이미징 기기의 경도 및 위도 정보 중 적어도 하나를 반송함)를 획득하고, 관련 관리자의 단말로 상기 위치를 포함하는 경고 명령을 송신하여, 관리자에게 군중의 군중 밀도가 너무 높은 것을 모니터링하도록 제시함으로써, 공공 안전 사고의 발생 빈도를 줄인다.
일부 가능한 구현 방식에서, 경고 명령은 빛, 음성, 문자, 진동 중 적어도 하나의 방식을 통해 모니터링되는 군중의 과도한 군중 밀도를 나타내는 경고 정보를 단말에 출력하도록 지시할 수 있다.
본 분야의 기술자는 구체적인 실시형태의 상기 이미지 재구성 방법에서, 각 단계의 기록 순서는 엄격한 실행 순서를 의미하지 않고 실시 과정에 대한 임의의 제한을 구성하며, 각 단계의 구체적인 실행 순서는 그 기능 및 가능한 내부 논리에 의해 결정된다.
이상은 본 발명의 실시예의 방법을 상세히 설명하였고, 아래에 본 발명의 실시예의 장치를 제공한다.
도 6을 참조하면, 도 6은 본 발명의 실시예에 따라 제공된 속도 측정 장치의 구조 모식도이며, 상기 속도 측정 장치는, 제1 획득 유닛(11), 제2 획득 유닛(12), 제1 처리 유닛(13)을 포함하며, 여기서, 제1 획득 유닛(11)은, 제1 처리될 이미지 및 제2 처리될 이미지를 획득하기 위한 것이고, 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 모두 제1 객체를 포함하며; 제2 획득 유닛(12)은, 상기 제1 처리될 이미지에서의 상기 제1 객체의 제1 위치, 상기 제2 처리될 이미지에서의 상기 제1 객체의 제2 위치 및 제1 이동 거리의 제1 투사 파라미터를 획득하기 위한 것이고, 상기 제1 이동 거리는 상기 제1 위치와 상기 제2 위치 사이의 거리이고; 상기 제1 투사 파라미터는 상기 제1 이동 거리와 제1 물리적 거리 사이의 전환 관계를 나타내며; 상기 제1 물리적 거리는 상기 제1 이동 거리에 대응하는 물리적 거리이며; 상기 제1 물리적 거리와 상기 제1 처리될 이미지에서의 상기 제1 위치의 스케일은 음의 상관 관계를 갖는 것, 및, 상기 제1 물리적 거리와 상기 제2 처리될 이미지에서의 상기 제2 위치의 스케일은 음의 상관 관계를 갖는 것 중 적어도 하나이며; 제1 처리 유닛(13)은, 상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하기 위한 것이고, 상기 이동 시간은 상기 제1 처리될 이미지의 타임 스탬프 및 상기 제2 처리될 이미지의 타임 스탬프에 따라 획득된다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 처리 유닛(13)은,
상기 제1 투사 파라미터 및 상기 제1 이동 거리에 따라, 제2 이동 거리를 획득하고;
상기 제2 이동 거리 및 상기 이동 시간에 따라, 상기 속도를 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제2 획득 유닛(12)은,
제3 위치의 제2 투사 파라미터를 획득하고 - 상기 제3 위치는 상기 제1 위치와 상기 제2 위치의 연결선 상의 위치이며; 여기서, 상기 제2 투사 파라미터는 제1 픽셀 포인트의 사이즈와 제1 물체 포인트 사이즈 사이의 전환 관계를 나타내며; 상기 제1 픽셀 포인트는 상기 제3 위치에 따라 상기 제1 처리될 이미지에서 결정된 픽셀 포인트이며, 또는 상기 제1 픽셀 포인트는 상기 제3 위치에 따라 상기 제2 처리될 이미지에서 결정된 픽셀 포인트이며; 상기 제1 물체 포인트는 상기 제1 픽셀 포인트에 대응하는 물체 포인트이며; 제1 비율과 이미지에서의 상기 제1 픽셀 포인트의 스케일은 음의 상관 관계를 가지며; 상기 제1 비율은 상기 제1 픽셀 포인트의 사이즈와 상기 제1 물체 포인트의 사이즈 사이의 비율임 - ;
상기 제2 투사 파라미터에 따라, 상기 제1 투사 파라미터를 획득 - 상기 제1 투사 파라미터와 상기 제2 투사 파라미터는 양의 상관 관계를 가짐 - 하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제3 위치는 상기 제1 위치와 상기 제2 위치의 중간 위치이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제2 획득 유닛(12)은,
상기 제1 처리될 이미지에 대해 물체 검출 처리를 수행하여, 제1 물체 프레임의 위치 및 제2 물체 프레임의 위치를 획득하고 - 상기 제1 물체 프레임은 제1 물체를 포함하고; 여기서, 상기 제2 물체 프레임은 제2 물체를 포함함 - ;
상기 제1 물체 프레임의 위치에 따라 상기 제1 물체의 제1 사이즈를 획득하고, 상기 제2 물체 프레임의 위치에 따라 상기 제2 물체의 제2 사이즈를 획득하며;
상기 제1 사이즈 및 제3 사이즈에 따라 제3 투사 파라미터를 획득하고, 상기 제2 사이즈 및 제4 사이즈에 따라 제4 투사 파라미터를 획득하며 - 상기 제3 사이즈는 상기 제1 물체의 물리적 사이즈이고; 상기 제3 투사 파라미터는 제5 사이즈와 제6 사이즈 사이의 전환 관계를 나타내며; 상기 제5 사이즈는 제2 픽셀 포인트의 사이즈이고; 상기 제1 처리될 이미지에서의 상기 제2 픽셀 포인트의 위치는 상기 제1 물체 프레임의 위치에 따라 결정되며; 상기 제6 사이즈는 상기 제2 픽셀 포인트에 대응하는 물체 포인트의 사이즈이며; 상기 제4 사이즈는 상기 제2 물체의 물리적 사이즈이며; 상기 제4 투사 파라미터는 제7 사이즈와 제8 사이즈 사이의 전환 관계를 나타내며; 상기 제7 사이즈는 제3 픽셀 포인트의 사이즈이며; 상기 제2 처리될 이미지에서의 상기 제3 픽셀 포인트의 위치는 상기 제2 물체 프레임의 위치에 따라 결정되며; 상기 제8 사이즈는 상기 제3 픽셀 포인트에 대응하는 물체 포인트의 사이즈임 - ;
상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 제1 처리될 이미지의 투사 파라미터 맵을 획득하며 - 제9 사이즈와 제10 사이즈 사이의 전환 관계는 상기 투사 파라미터 맵에서의 제1 픽셀 값에 따라 결정되며; 상기 제9 사이즈는 상기 제1 처리될 이미지에서의 제4 픽셀 포인트의 사이즈이고; 상기 제10 사이즈는 상기 제4 픽셀 포인트에 대응하는 물체 포인트의 사이즈이며; 상기 제1 픽셀 값은 제5 픽셀 포인트의 픽셀 값이며; 상기 제5 픽셀 포인트는 상기 투사 파라미터 맵에서 상기 제4 픽셀 포인트에 대응하는 픽셀 포인트임 - ;
상기 투사 파라미터 맵에서 상기 제3 위치에 대응하는 픽셀 값에 따라, 상기 제2 투사 파라미터를 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 획득 유닛(11)은 또한, 상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 처리될 이미지의 투사 파라미터 맵을 획득하기 전에, 신뢰도 매핑을 획득 - 상기 신뢰도 매핑은 물체 타입과 투사 파라미터의 신뢰도 사이의 매핑을 나타냄 - 하기 위한 것이며;
상기 속도 측정 장치는, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하기 위한 제2 처리 유닛(14)을 더 포함하며; 상기 제2 획득 유닛(12)은, 상기 제1 신뢰도 및 상기 제3 투사 파라미터에 따라, 제5 투사 파라미터를 획득하고 - 상기 제5 투사 파라미터와 상기 제1 신뢰도는 양의 상관 관계를 가짐 - ; 상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 속도 측정 장치(1)는 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하는 단계 전에, 상기 제1 물체 프레임 내의 픽셀 포인트 영역에 대해 특징 추출 처리를 수행하여, 특징 데이터를 획득하기 위한 제3 처리 유닛(15)을 더 포함하며; 제4 처리 유닛(16)은, 상기 특징 데이터에 따라, 상기 제1 물체의 점수를 획득 - 상기 점수와 상기 제1 물체의 사이즈의 신뢰도는 양의 상관 관계를 가짐 - 하기 위한 것이며; 상기 제2 처리 유닛(14)은, 상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제2 신뢰도를 획득하고; 상기 점수와 상기 제2 신뢰도에 따라, 상기 제1 신뢰도를 획득 - 상기 제1 신뢰도와 상기 점수는 상관 관계를 가짐 - 하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제2 획득 유닛(12)은, 상기 제1 신뢰도와 상기 제3 투사 파라미터의 곱을 결정하여, 상기 제5 투사 파라미터를 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 획득 유닛은 또한, 상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계 전에, 상기 제1 처리될 이미지의 깊이 이미지를 획득하기 위한 것이며; 상기 제2 획득 유닛(12)은 또한, 상기 깊이 이미지에 따라, 상기 제2 픽셀 포인트의 제1 깊이 정보 및 상기 제3 픽셀 포인트의 제2 깊이 정보를 획득하고; 상기 제1 깊이 정보 및 상기 제5 투사 파라미터에 따라 제1 데이터 포인트를 획득하고, 상기 제2 깊이 정보 및 상기 제4 투사 파라미터에 따라 제2 데이터 포인트를 획득하기 위한 것이며; 상기 제2 획득 유닛(12)은 또한, 상기 제1 데이터 포인트 및 상기 제2 데이터 포인트에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하기 위한 것이다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 동일한 이미징 기기에 의해 수집되고, 상기 이미징 기기가 상기 제1 처리될 이미지를 수집하는 과정 중의 자세는 상기 이미징 기기가 상기 제2 처리될 이미지를 수집하는 과정 중의 자세와 동일하다.
본 발명의 임의의 실시 형태와 결합하면, 상기 제1 객체는 사람 객체이고; 상기 사람 객체는 모니터링되는 군중에 속하며, 상기 제1 획득 유닛(11)은 또한, 상기 속도가 안전 속도 임계값을 초과하지 않는 경우, 상기 이미징 기기의 위치를 획득하기 위한 것이고; 상기 속도 측정 장치는 단말로 상기 위치를 포함하는 경고 명령을 송신하기 위한 송신 유닛(17) - 상기 경고 명령은 상기 단말이 상기 모니터링되는 군중의 군중 밀도가 높다는 경고 정보를 출력하도록 지시하기 위한 것임 - 을 더 포함한다.
본 실시에서, 제1 투사 파라미터는 제1 위치의 스케일 정보 및/또는제2 위치의 스케일 정보를 반송한다. 속도 측정 장치는 제1 투사 파라미터, 제1 이동 거리 및 이동 시간에 따라 제1 객체의 속도를 획득함으로써, 속도의 정확도를 향상시킬 수 있다.
일부 실시예에서, 본 발명의 실시예에서 제공한 장치가 갖고 있는 기능 또는 포함하는 모듈은 전술한 방법 실시예에서 설명한 방법을 실행하기 위한 것이고, 그 구체적인 구현은 전술한 방법 실시예의 설명을 참조할 수 있으며, 간결함을 위해, 여기서 더이상 반복하여 설명하지 않는다.
도 7은 본 발명의 실시예에 따라 제공된 속도 측정 장치의 하드웨어 구조 모식도이다. 상기 속도 측정 장치(2)는 프로세서(21), 메모리(22), 입력 장치(23), 출력 장치(24)를 포함할 수 있다. 상기 프로세서(21), 메모리(22), 입력 장치(23) 및 출력 장치(24)는 커넥터를 통해 연결되며, 상기 커넥터는 다양한 인터페이스, 전송 라인 또는 버스 등을 포함하지만, 본 발명의 실시예는 이에 대해 한정하지 않는다. 이해해야 할 것은, 본 발명의 다양한 실시예에서, 결합은 다른 장치를 통한 직접 연결 또는 간접 연결을 포함하는 특징한 방식의 상호 연결을 의미하며, 예를 들어, 다양한 인터페이스, 전송 라인, 버스 등을 통해 연결될 수 있다.
프로세서(21)는 하나 또는 복수 개의 그래픽 처리 유닛(그래픽 처리 장치, GPU)일 수 있으며, 프로세서(21)가 GPU인 경우 GPU는 단일 코어 GPU 또는 멀티 코어 GPU일 수 있다. 일부 가능한 구현 방식에서, 프로세서(21)는 복수 개의 GPU로 구성된 프로세서 그룹일 수 있으며, 복수 개의 프로세서는 하나 또느 복수 개의 버스를 통해 서로 결합된다. 일부 가능한 구현 방식에서, 상기 프로세서는 또한 다른 물체 타입 등의 프로세서일 수 있으며, 본 발명의 실시예는 한정하지 않는다.
메모리(22)는 컴퓨터 프로그램 명령 및 본 발명의 방안을 실행하는데 사용되는 프로그램 코드를 포함하는 다양한 컴퓨터 프로그램 코드를 저장하는데 사용될 수 있다. 선택적으로, 메모리는 랜덤 액세스 메모리(random access memory,RAM),판독 전용 메모리(read-only memory,ROM),소거 가능 프로그래머블 판독 전용 메모리(erasable programmable read only memory,EPROM), 또는 판독 전용 컴팩트 디스크(compact disc read-only memory,CD-ROM)를 포함하지만 이에 한정되지 않는며,상기 메모리는 관련 명령어 및 데이테에 사용된다.
입력 장치(23)는 데이터 및/또는 신호를 입력하기 위한 것이고, 및 출력 장치(24)는 데이터 및/또는 신호를 출력하기 위한 것이다. 입력 장치(23) 및 출력 장치(24)는 독립적인 부품일 수 있고,하나의 통합적인 부품일 수도 있다. 이해할 수 있는 것은, 본 발명의 실시예에서, 메모리(22)는 관련 명령어를 저장할 뿐만 아니라 관련 데이터도 저장할 수 있으며, 예를 들어, 상기 메모리(22)는 입력 장치(23)를 통해 획득된 제1 처리될 이미지를 저장하는데 사용될 수 있거나, 상기 메모리(22)는 프로세서(21)를 통해 획득된 제1 객체의 속도 등을 저장하는데 사용될 수 있으며, 본 발명의 실시예는 메모리에 저장된 특징 데이터를 한정하지 않는다.
이해할 수 있는 것은, 도 7은 다만 속도 측정 장치의 단순화된 설계를 도시한 것이다. 실제 응용에서, 속도 측정 장치에는 입력/출력 장치, 프로세서, 메모리 등을 포함하되 이에 한정되지 않는 다른 필수 구성 요소가 포함될 수도 있으며, 본 발명의 실시예를 구현할 수 있는 모든 속도 측정 장치는 본 발명의 보호 범위에 속한다.
당업자는 본문에서 개시된 실시예에서 설명된 각 예시적 유닛 및 알고리즘 단계를 결합하여 전자 하드웨어 또는 컴퓨터 소프트웨어와 전자 하드웨어의 조합을 통해 구현될 수 있음을 이해할 수 있다. 이러한 기능이 하드웨어 방식으로 실행될지 아니면 소프트웨어 방식으로 실행될지는 기술방안의 특징 응용과 설계 제약 조건에 따라 결정된다. 전문 기술자는 각 특징 응용에 대해 상이한 방법을 사용하여 설명된 기능을 구현할 수 있으나, 이러한 구현은 본 발명의 범위를 벗어나는 것으로 간주되어서는 안된다.
당업자는 설명의 편의와 간결함을 위해 상기에서 설명된 시스템, 장치 및 유닛의 구체적인 동작 과정은 전술한 방법 실시예에서 대응되는 과정을 참조할 수 있음을 이해할 것이며, 여기서 더 이상 설명하지 않는다. 본 발명의 각 실시 예에 대한 설명은 그 자체에 초점이 있음을 당업자는 명확하게 이해할 수 있으며, 설명의 편의성 및 간결성을 위해 서로 다른 실시 예에서 동일하거나 유사한 부분을 반복하지 않을 수 있으며, 상세하게 설명되거나 설명되지 않은 부분에 대해서는 다른 실시예의 기록을 참조 할 수 있다.
본 발명에서 제공된 몇 개의 실시예에 있어서, 개시된 시스템, 장치 및 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 예를 들어, 전술한 장치 실시예는 다만 개략적인 것이며, 예를 들어, 상기 유닛의 분할은, 다만 논리적 기능 분할이며, 실제 구현 시 다른 분할 방식이 있을 수 있으며, 예를 들어, 복수 개의 유닛 또는 구성 요소가 다른 시스템에 결합되거나 통합될 수 있거나, 일부 특징이 무시되거나 실행되지 않을 수 있다. 또한, 기재 또는 논의된 서로 간의 커플링 또는 직접 커플링 또는 통신 연결은 일부 인터페이스, 장치 또는 유닛의 간접 커플링 또는 통신을 통해 연결될 수 있고, 전기적, 기계적 또는 다른 형태일 수 있다.
상기 분리 부재로서 설명된 유닛은 물리적으로 분리된 것이거나 아닐 수 있고, 유닛으로 나타낸 부재는 물리적 유닛이거나 아닐 수 있고, 즉 한 곳에 위치하거나, 복수 개의 네트워크 유닛에 분포될 수도 있다. 실제 필요에 따라 유닛의 일부 또는 전부를 선택하여 본 실시예 방안의 목적을 구현할 수 있다. 또한, 본 발명의 각 실시예에서 각 기능 유닛은 하나의 처리 유닛에 통합되거나 또는 각각의 유닛이 별도로 물리적으로 존재할 수도 있고, 둘 또는 둘 이상의 유닛이 하나의 유닛에 통합될 수도 있다.
상기 실시예에서, 소프트웨어, 하드웨어, 펌웨어 또는 이들의 임의의 조합을 통해 전체적으로 또는 부분적으로 구현할 수 있다. 소프트웨어로 구현될 경우, 컴퓨터 프로그램 제품의 형태로 전체적으로 또는 부분적으로 구현될 수 있다. 상기 컴퓨터 프로그램 제품은 하나 또는 복수 개의 컴퓨터 명령어를 포함한다. 컴퓨터에서 상기 컴퓨터 프로그램 명령어를 로딩 및 실행할 경우, 본 발명의 실시예의 설명에 따른 프로세스 또는 기능을 전부 또는 부분적으로 생성할 수 있다. 상기 컴퓨터는 범용 컴퓨터, 특수 목적 컴퓨터, 컴퓨터 네트워크 또는 다른 프로그래머블 장치일 수 있다. 상기 컴퓨터 명령어는 컴퓨터 판독 가능 저장 매체에 저장되거나, 또는 상기 컴퓨터 판독 가능 저장 매체를 통해 전송될 수 있다. 상기 컴퓨터 명령어는 하나의 웹 사이트 사이트, 컴퓨터,서버 또는 데이터 센터에서 유선(예를 들어 동축 케이블, 광섬유, 디지털 가입자 회선(digital subscriber line, DSL)) 또는 무선(예를 들어 적외선, 무선, 마이크로웨이브 등)방식으로 다른 웹 사이트 사이트, 컴퓨터, 서버 또는 데이터 센터로 전송될 수 있다. 상기 컴퓨터 판독 가능 저장 매체는 컴퓨터가 액세스 가능한 임의의 사용 가능한 매체 또는 하나 또는 복수 개의 사용 가능한 매체 통합을 포함하는 서버, 데이터 센터 등 데이터 저장 기기일 수 있다. 상기 사용 가능한 매체는 자기 매체,(예를 들어,플로피 디스크, 하드 디스크, 자기 테이프),광학 매체(예를 들어, 디지털 다기능 디스크(digital versatile disc, DVD)), 또는 반도체 매체(예를 들어 솔리드 스테이트 디스크(solid state disk, SSD)) 등일 수 있다.
당업자는 상기 실시예 방법에서의 프로세서의 전부 또는 일부가 구현된것으로 이해할 수 있고, 상기 프로세서는 관련 하드웨어를 지시하는 컴퓨터 프로그램으로 완료할 수 있고, 상기 프로그램은 컴퓨터 판독 가능 저장 매체에 저장될 수 있고, 상기 프로그램이 실행할 때, 상기 각 방법 실시예의 프로세스를 포함할 수 있다. 전술한 저장 매체는, 판독 전용 메모리(read-only memory, ROM) 또는 랜덤 저장 메모리(random access memory, RAM), 자기 디스크 또는 광 디스크와 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.
[산업상 이용 가능성]
본 발명은 속도 측정 방법 및 장치, 전자 기기 및 저장 매체를 개시한다. 상기 속도 측정 방법은, 제1 처리될 이미지 및 제2 처리될 이미지를 획득하는 단계; 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 모두 제1 객체를 포함함 - ; 상기 제1 처리될 이미지에서의 상기 제1 객체의 제1 위치, 상기 제2 처리될 이미지에서의 상기 제1 객체의 제2 위치 및 제1 이동 거리의 제1 투사 파라미터를 획득하는 단계; 및 상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하는 단계 - 상기 이동 시간은 상기 제1 처리될 이미지의 타임 스탬프 및 상기 제2 처리될 이미지의 타임 스탬프에 따라 획득됨 - 를 포함한다.
Claims (14)
- 속도 측정 방법으로서,
제1 처리될 이미지 및 제2 처리될 이미지를 획득하는 단계 - 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 모두 제1 객체를 포함함 - ;
상기 제1 처리될 이미지에서의 상기 제1 객체의 제1 위치, 상기 제2 처리될 이미지에서의 상기 제1 객체의 제2 위치 및 제1 이동 거리의 제1 투사 파라미터를 획득하는 단계 - 상기 제1 이동 거리는 상기 제1 위치와 상기 제2 위치 사이의 거리이고; 상기 제1 투사 파라미터는 상기 제1 이동 거리와 제1 물리적 거리 사이의 전환 관계를 나타내며; 상기 제1 물리적 거리는 상기 제1 이동 거리에 대응하는 물리적 거리이며; 상기 제1 물리적 거리와 상기 제1 처리될 이미지에서의 상기 제1 위치의 스케일은 음의 상관 관계를 갖는 것, 및 상기 제1 물리적 거리와 상기 제2 처리될 이미지에서의 상기 제2 위치의 스케일은 음의 상관 관계를 갖는 것 중 적어도 하나임 - ; 및
상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하는 단계 - 상기 이동 시간은 상기 제1 처리될 이미지의 타임 스탬프 및 상기 제2 처리될 이미지의 타임 스탬프에 따라 획득됨 - 를 포함하는 것을 특징으로 하는 속도 측정 방법. - 제1항에 있어서,
상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하는 단계는,
상기 제1 투사 파라미터 및 상기 제1 이동 거리에 따라, 제2 이동 거리를 획득하는 단계; 및
상기 제2 이동 거리 및 상기 이동 시간에 따라, 상기 속도를 획득하는 단계를 포함하는 것을 특징으로 하는 속도 측정 방법. - 제1항 또는 제2항에 있어서,
상기 제1 이동 거리의 제1 투사 파라미터를 획득하는 단계는,
제3 위치의 제2 투사 파라미터를 획득하는 단계 - 상기 제3 위치는 상기 제1 위치와 상기 제2 위치의 연결선 상의 위치이며; 상기 제2 투사 파라미터는 제1 픽셀 포인트의 사이즈와 제1 물체 포인트 사이즈 사이의 전환 관계를 나타내며; 상기 제1 픽셀 포인트는 상기 제3 위치에 따라 상기 제1 처리될 이미지에서 결정된 픽셀 포인트이며, 또는 상기 제1 픽셀 포인트는 상기 제3 위치에 따라 상기 제2 처리될 이미지에서 결정된 픽셀 포인트이며; 상기 제1 물체 포인트는 상기 제1 픽셀 포인트에 대응하는 물체 포인트이며; 제1 비율과 이미지에서의 상기 제1 픽셀 포인트의 스케일은 음의 상관 관계를 가지며; 상기 제1 비율은 상기 제1 픽셀 포인트의 사이즈와 상기 제1 물체 포인트의 사이즈 사이의 비율임 - ; 및
상기 제2 투사 파라미터에 따라, 상기 제1 투사 파라미터를 획득하는 단계 - 상기 제1 투사 파라미터와 상기 제2 투사 파라미터는 양의 상관 관계를 가짐 - 를 포함하는 것을 특징으로 하는 속도 측정 방법. - 제3항에 있어서,
상기 제3 위치는 상기 제1 위치와 상기 제2 위치 사이의 중간 위치인 것을 특징으로 하는 속도 측정 방법. - 제3항 또는 제4항에 있어서,
상기 제3 위치의 제2 투사 파라미터를 획득하는 단계는,
상기 제1 처리될 이미지에 대해 물체 검출 처리를 수행하여, 제1 물체 프레임의 위치 및 제2 물체 프레임의 위치를 획득하는 단계 - 상기 제1 물체 프레임은 제1 물체를 포함하고; 상기 제2 물체 프레임은 제2 물체를 포함함 - ;
상기 제1 물체 프레임의 위치에 따라 상기 제1 물체의 제1 사이즈를 획득하고, 상기 제2 물체 프레임의 위치에 따라 상기 제2 물체의 제2 사이즈를 획득하는 단계;
상기 제1 사이즈 및 제3 사이즈에 따라 제3 투사 파라미터를 획득하고, 상기 제2 사이즈 및 제4 사이즈에 따라 제4 투사 파라미터를 획득하는 단계 - 상기 제3 사이즈는 상기 제1 물체의 물리적 사이즈이고; 상기 제3 투사 파라미터는 제5 사이즈와 제6 사이즈 사이의 전환 관계를 나타내며; 상기 제5 사이즈는 제2 픽셀 포인트의 사이즈이고; 상기 제1 처리될 이미지에서의 상기 제2 픽셀 포인트의 위치는 상기 제1 물체 프레임의 위치에 따라 결정되며; 상기 제6 사이즈는 상기 제2 픽셀 포인트에 대응하는 물체 포인트의 사이즈이며; 상기 제4 사이즈는 상기 제2 물체의 물리적 사이즈이며; 상기 제4 투사 파라미터는 제7 사이즈와 제8 사이즈 사이의 전환 관계를 나타내며; 상기 제7 사이즈는 제3 픽셀 포인트의 사이즈이며; 상기 제2 처리될 이미지에서의 상기 제3 픽셀 포인트의 위치는 상기 제2 물체 프레임의 위치에 따라 결정되며; 상기 제8 사이즈는 상기 제3 픽셀 포인트에 대응하는 물체 포인트의 사이즈임 - ;
상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 제1 처리될 이미지의 투사 파라미터 맵을 획득하는 단계 - 제9 사이즈와 제10 사이즈 사이의 전환 관계는 상기 투사 파라미터 맵에서의 제1 픽셀 값에 따라 결정되며; 상기 제9 사이즈는 상기 제1 처리될 이미지에서의 제4 픽셀 포인트의 사이즈이고; 상기 제10 사이즈는 상기 제4 픽셀 포인트에 대응하는 물체 포인트의 사이즈이며; 상기 제1 픽셀 값은 제5 픽셀 포인트의 픽셀 값이며; 상기 제5 픽셀 포인트는 상기 투사 파라미터 맵에서 상기 제4 픽셀 포인트에 대응하는 픽셀 포인트임 - ; 및
상기 투사 파라미터 맵에서 상기 제3 위치에 대응하는 픽셀 값에 따라, 상기 제2 투사 파라미터를 획득하는 단계를 포함하는 것을 특징으로 하는 속도 측정 방법. - 제5항에 있어서,
상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 처리될 이미지의 투사 파라미터 맵을 획득하기 전에, 상기 속도 측정 방법은,
신뢰도 매핑을 획득하는 단계 - 상기 신뢰도 매핑은 물체 타입과 투사 파라미터의 신뢰도 사이의 매핑을 나타냄 - ; 및
상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하는 단계를 더 포함하고;
상기 제3 투사 파라미터 및 상기 제4 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 처리될 이미지의 투사 파라미터 맵을 획득하는 단계는,
상기 제1 신뢰도 및 상기 제3 투사 파라미터에 따라, 제5 투사 파라미터를 획득하는 단계 - 상기 제5 투사 파라미터와 상기 제1 신뢰도는 양의 상관 관계를 가짐 - ; 및
상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계를 포함하는 것을 특징으로 하는 속도 측정 방법. - 제6항에 있어서,
상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하는 단계 전에, 상기 속도 측정 방법은,
상기 제1 물체 프레임 내의 픽셀 포인트 영역에 대해 특징 추출 처리를 수행하여, 특징 데이터를 획득하는 단계; 및
상기 특징 데이터에 따라, 상기 제1 물체의 점수를 획득하는 단계 - 상기 점수와 상기 제1 물체의 사이즈의 신뢰도는 양의 상관 관계를 가짐 - 를 더 포함하고;
상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제1 신뢰도를 획득하는 단계는,
상기 제1 물체의 물체 타입 및 상기 신뢰도 매핑에 따라, 상기 제3 투사 파라미터의 제2 신뢰도를 획득하는 단계; 및
상기 점수와 상기 제2 신뢰도에 따라, 상기 제1 신뢰도를 획득하는 단계 - 상기 제1 신뢰도와 상기 점수는 상관 관계를 가짐 - 를 포함하는 것을 특징으로 하는 속도 측정 방법. - 제5항 또는 제6항에 있어서,
상기 제1 신뢰도 및 상기 제3 투사 파라미터에 따라, 제5 투사 파라미터를 획득하는 단계는,
상기 제1 신뢰도와 상기 제3 투사 파라미터의 곱을 결정하여, 상기 제5 투사 파라미터를 획득하는 단계를 포함하는 것을 특징으로 하는 속도 측정 방법. - 제6항 내지 제8항 중 어느 한 항에 있어서,
상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계 전에, 상기 속도 측정 방법은,
상기 제1 처리될 이미지의 깊이 이미지를 획득하는 단계;
상기 깊이 이미지에 따라, 상기 제2 픽셀 포인트의 제1 깊이 정보 및 상기 제3 픽셀 포인트의 제2 깊이 정보를 획득하는 단계;
상기 제1 깊이 정보 및 상기 제5 투사 파라미터에 따라 제1 데이터 포인트를 획득하고, 상기 제2 깊이 정보 및 상기 제4 투사 파라미터에 따라 제2 데이터 포인트를 획득하는 단계를 더 포함하고;
상기 제4 투사 파라미터 및 상기 제5 투사 파라미터에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계는,
상기 제1 데이터 포인트 및 상기 제2 데이터 포인트에 대해 곡선 맞춤 처리를 수행하여, 상기 투사 파라미터 맵을 획득하는 단계를 포함하는 것을 특징으로 하는 속도 측정 방법. - 제1항 내지 제9항 중 어느 한 항에 있어서,
상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 동일한 이미징 기기에 의해 수집되고, 상기 이미징 기기가 상기 제1 처리될 이미지를 수집하는 과정 중의 자세는 상기 이미징 기기가 상기 제2 처리될 이미지를 수집하는 과정 중의 자세와 동일한 것을 특징으로 하는 속도 측정 방법. - 제10항에 있어서,
상기 제1 객체는 사람 객체이고; 상기 사람 객체는 모니터링되는 군중에 속하며, 상기 속도 측정 방법은,
상기 속도가 안전 속도 임계값을 초과하지 않는 경우, 상기 이미징 기기의 위치를 획득하는 단계; 및
단말로 상기 위치를 포함하는 경고 명령을 송신하는 단계 - 상기 경고 명령은 상기 단말이 상기 모니터링되는 군중의 군중 밀도가 높다는 경고 정보를 출력하도록 지시하기 위한 것임 - 를 더 포함하는 것을 특징으로 하는 속도 측정 방법. - 속도 측정 장치로서,
제1 처리될 이미지 및 제2 처리될 이미지를 획득하기 위한 제1 획득 유닛 - 상기 제1 처리될 이미지 및 상기 제2 처리될 이미지는 모두 제1 객체를 포함함 - ;
상기 제1 처리될 이미지에서의 상기 제1 객체의 제1 위치, 상기 제2 처리될 이미지에서의 상기 제1 객체의 제2 위치 및 제1 이동 거리의 제1 투사 파라미터를 획득하기 위한 제2 획득 유닛 - 상기 제1 이동 거리는 상기 제1 위치와 상기 제2 위치 사이의 거리이고; 상기 제1 투사 파라미터는 상기 제1 이동 거리와 제1 물리적 거리 사이의 전환 관계를 나타내며; 상기 제1 물리적 거리는 상기 제1 이동 거리에 대응하는 물리적 거리이며; 상기 제1 물리적 거리와 상기 제1 처리될 이미지에서의 상기 제1 위치의 스케일은 음의 상관 관계를 갖는 것, 및, 상기 제1 물리적 거리와 상기 제2 처리될 이미지에서의 상기 제2 위치의 스케일은 음의 상관 관계를 갖는 것 중 적어도 하나임 - ; 및
상기 제1 이동 거리, 상기 제1 투사 파라미터 및 이동 시간에 따라, 상기 제1 객체의 속도를 획득하기 위한 제1 처리 유닛 - 상기 이동 시간은 상기 제1 처리될 이미지의 타임 스탬프 및 상기 제2 처리될 이미지의 타임 스탬프에 따라 획득됨 - 을 포함하는 것을 특징으로 하는 속도 측정 장치. - 프로세서 및 메모리를 포함하는 전자 기기로서,
상기 메모리는 컴퓨터 프로그램 코드를 포함하고, 상기 컴퓨터 프로그램 코드는 컴퓨터 명령어를 포함하며, 상기 프로세서가 상기 컴퓨터 명령을 실행하는 경우, 상기 전자 기기는 제1항 내지 제11항 중 어느 한 항에 따른 속도 측정 방법을 실행하기 위한 것임을 특징으로 하는 전자 기기. - 컴퓨터 판독 가능한 저장 매체로서,
상기 컴퓨터 판독 가능 저장 매체는 컴퓨터 프로그램을 저장하고, 상기 컴퓨터 프로그램은 프로그램 명령어를 포함하며, 상기 프로그램 명령어가 프로세서에 의해 실행되는 경우, 상기 프로세서로 하여금 제1항 내지 제11항 중 어느 한 항에 따른 속도 측정 방법을 실행하도록 하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010613426.X | 2020-06-30 | ||
CN202010613426.XA CN111739098B (zh) | 2020-06-30 | 2020-06-30 | 测速方法及装置、电子设备及存储介质 |
PCT/CN2020/121491 WO2022000856A1 (zh) | 2020-06-30 | 2020-10-16 | 测速方法及装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220004016A true KR20220004016A (ko) | 2022-01-11 |
Family
ID=79356006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217030375A KR20220004016A (ko) | 2020-06-30 | 2020-10-16 | 속도 측정 방법 및 장치, 전자 기기 및 저장 매체 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022542205A (ko) |
KR (1) | KR20220004016A (ko) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05312819A (ja) * | 1992-05-14 | 1993-11-26 | N T T Data Tsushin Kk | 移動物体の速度検出装置 |
JP3390515B2 (ja) * | 1994-03-17 | 2003-03-24 | 富士通株式会社 | 位置対応付け方法、車両速度算出方法および車両速度算出装置 |
JP2002311038A (ja) * | 2001-04-06 | 2002-10-23 | Toshiba Corp | 車両速度算出システム及び車両速度算出方法 |
-
2020
- 2020-10-16 JP JP2021547718A patent/JP2022542205A/ja active Pending
- 2020-10-16 KR KR1020217030375A patent/KR20220004016A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
JP2022542205A (ja) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10977818B2 (en) | Machine learning based model localization system | |
US10121076B2 (en) | Recognizing entity interactions in visual media | |
US20220351390A1 (en) | Method for generating motion capture data, electronic device and storage medium | |
TWI752466B (zh) | 影像處理方法、處理器、電子設備、儲存媒介 | |
EP3010229B1 (en) | Video surveillance system, video surveillance device | |
EP4050305A1 (en) | Visual positioning method and device | |
CN112085031A (zh) | 目标检测方法及系统 | |
CN114005140A (zh) | 一种人员识别方法、装置、设备、行人监控系统及存储介质 | |
US20220058824A1 (en) | Method and apparatus for image labeling, electronic device, storage medium, and computer program | |
US20220005208A1 (en) | Speed measurement method and apparatus, electronic device, and storage medium | |
CN111739086A (zh) | 测量面积的方法及装置、电子设备及存储介质 | |
TWI735367B (zh) | 測速方法、電子設備及儲存介質 | |
US20230089845A1 (en) | Visual Localization Method and Apparatus | |
KR20220004016A (ko) | 속도 측정 방법 및 장치, 전자 기기 및 저장 매체 | |
CN115988182A (zh) | 面向数字孪生的远程视频监测方法和系统 | |
KR102460899B1 (ko) | 심층 구조 학습 기반 사람 계수 방법 및 시스템 | |
TWI739601B (zh) | 圖像處理方法、電子設備和儲存介質 | |
CN111739097A (zh) | 测距方法及装置、电子设备及存储介质 | |
CN116229209B (zh) | 目标模型的训练方法、目标检测方法及装置 | |
Kalarot et al. | 3D object tracking with a high-resolution GPU based real-time stereo | |
JP2023020071A (ja) | 物体移動計測装置、システム、方法、及びプログラム | |
CN117152832A (zh) | 跌倒检测方法、装置、电子设备及计算机可读存储介质 |