KR20050077863A - 객체 추적 방법 및 장치 - Google Patents

객체 추적 방법 및 장치 Download PDF

Info

Publication number
KR20050077863A
KR20050077863A KR1020040005460A KR20040005460A KR20050077863A KR 20050077863 A KR20050077863 A KR 20050077863A KR 1020040005460 A KR1020040005460 A KR 1020040005460A KR 20040005460 A KR20040005460 A KR 20040005460A KR 20050077863 A KR20050077863 A KR 20050077863A
Authority
KR
South Korea
Prior art keywords
information
image
divided region
parameters
database
Prior art date
Application number
KR1020040005460A
Other languages
English (en)
Inventor
김현우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040005460A priority Critical patent/KR20050077863A/ko
Publication of KR20050077863A publication Critical patent/KR20050077863A/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G19/00Table service
    • A47G19/30Other containers or devices used as table equipment
    • A47G19/32Food containers with dispensing devices for bread, rolls, sugar, or the like; Food containers with movable covers
    • A47G19/34Food containers with dispensing devices for bread, rolls, sugar, or the like; Food containers with movable covers dispensing a certain quantity of powdered or granulated foodstuffs, e.g. sugar

Landscapes

  • Engineering & Computer Science (AREA)
  • Food Science & Technology (AREA)
  • Image Analysis (AREA)

Abstract

객체 추적 방법 및 장치가 개시된다. 본 발명에 따른 객체 추적 방법은 입력되는 영상으로부터 객체가 위치하는 지역을 분할하는 단계; 복수의 입자들에 대해 분할지역에 대한 소정 파라미터들을 예측하는 단계; 분할지역에 대한 비주얼 큐를 측정하는 단계; 및 측정된 비주얼 큐와 예측된 파라미터들을 이용하여 각 입자에 대해 파라미터들을 갱신하고, 갱신 결과들중 가장 큰 값을 갖는 입자의 파라미터들을 상기 객체의 파라미터들로 선택하는 단계를 포함함을 특징으로한다.

Description

객체 추적 방법 및 장치{Object tracking method and apparatus thereof}
본 발명은 객체 추적 방법 및 장치에 관한 것으로, 특히 스테레오 영상을 이용하여 움직이는 객체를 추적하는 방법 및 장치에 관한 것이다.
컴퓨터 비젼을 이용하여 인간의 행동을 분석하는 분야는 수십년동안 연구되어왔고, 그 연구 결과는 영상 감시(videp surveillance), 컨텐츠 기반의 영상 서비스, 가상 현실(vitual reality), 고객 관계 관리(customer relationship management), 바이오메트릭(biometrics) 및 지능형 인터페이스(intelligent interface) 등에 적용되었다. 최근에는 노년 인구나 개인의 안전과 같은 사회적인 요구, 스마트 홈(smart home) 또는 유비쿼터스 컴퓨팅(ubiquitous computing)과 같은 새로운 컴퓨팅 환경 등으로 인해 인간 행동에 대한 영상 분석 연구가 더욱 활발해지고 있다.
비주얼(visual) 추적은 많은 사람들 또는 그들의 몸의 일부분들에 대한 움직임 궤적(trajectory)을 제공하고, 인간 행동 분석에 대한 주요 입력 요소가 된다.
비주얼 추적의 예로서, 베이머(David Beymer)는 "People counting using stero, IEEE workshop on human motion, Austin, TX, December 7-8, 2000"에서 스테레오 카메라를 이용하여 사람을 추적하여 사람 수를 카운팅하는 방법을 개시하였다.
이러한 비주얼 방식을 이용한 객체 추적에서는 영상의 칼라/강도(intensity) 정보가 불충분하고, 외관(appearance)의 변화가 크며, 그에 따라 영상에서 객체를 분할(segmentation)하기가 용이하지않다는 문제점이 있다.
본 발명이 이루고자하는 기술적 과제는 움직이는 객체에 대해 위에서 아래로 향하는 시야(top-down view)를 갖는 스테레오 영상으로부터 객체에 해당하는 지역을 분할하며, 분할된 지역에 대한 비주얼 큐(cue)를 이용하여 이동하는 객체를 추적하는 객체 추적 방법 및 그 장치를 제공하는데 있다.
상기 기술적 과제를 이루기위한, 본 발명의 객체 추적 방법은 입력되는 영상으로부터 객체가 위치하는 지역을 분할하는 단계; 복수의 입자들에 대해 상기 분할지역에 대한 소정 파라미터들을 예측하는 단계; 상기 분할지역에 대한 비주얼 큐를 측정하는 단계; 및 측정된 비주얼 큐와 예측된 파라미터들을 이용하여 각 입자에 대해 상기 파라미터들을 갱신하고, 갱신 결과들중 가장 큰 값을 갖는 입자의 파라미터들을 상기 객체의 파라미터들로 선택하는 단계를 포함함을 특징으로한다.
상기 기술적 과제를 이루기위한, 본 발명의 객체 추적 장치는 스테레오 영상을 입력하는 영상 입력부; 상기 영상에서 객체가 위치하는 지역을 판별하고 분할하는 영상 분할부; 분할지역에 대한 깊이 정보, 칼라 정보 및 움직임 정보에 대한 확률들중 적어도 하나를 포함하는 비주얼 큐를 구하는 비주얼 큐 측정부; 및 상기 비주얼 큐를 이용하여 상기 분할지역에 해당하는 객체의 이전 위치 및 스케일로부터 다음 위치 및 스케일을 추적하는 추적부를 포함함을 특징으로한다.
이하에서 첨부된 도면을 참조하여 본 발명을 보다 상세하게 설명하기로한다.
도 1은 본 발명에 따른 객체 추적 장치에 대한 블록도이다. 도시된 바에 따른 객체 추적 장치는 영상 입력부(10), 영상 분할부(11), 초기화부(12), 데이터베이스(13), 비주얼 큐 측정부(14) 및 추적부(15)를 포함한다.
상기 구성에 따른 동작을 도 2의 흐름도를 참조하여 설명하기로한다. 도 2는 본 발명에 따른 객체 추적 방법에 대한 흐름도이다.
영상 입력부(10)는 두 카메라를 이용하여 일정한 시간마다 스테레오 영상을 입력받는다(21단계). 두 카메라는 도 3a에 도시된 바와 같이 목표 장소의 상부에 설치되어 위에서 아래로 향하는 시야(탑다운 뷰(top-down view))를 갖는다. 도 3b는 객체들의 탑다운 뷰를 개략적으로 도시한 것으로, 사람의 경우 머리와 어깨부분을 타원으로 도시할 수 있다. 영상 분할부(11)는 입력된 스테레오 영상에서 객체를 감지하고 영상으로부터 감지된 부분을 분할한다(22단계). 객체 감지는 기존의 어떠한 객체 감지 방법으로도 이루어질 수 있으며, 스테레오 영상에서 깊이를 이용하여 깊이의 변화 패턴 또는 변화 범위를 참조하여 이루어질 수도 있다. 여기서, 깊이는 카메라로부터 객체까지의 거리를 말한다. 예를 들어, 깊이가 어깨-머리-어깨의 패턴에 따라 깊이의 패턴이 요철형태로 나타난다면 객체인 것으로 감지할 수도 있다.
분할(segmentation)은 영상에서 사람의 머리와 어깨부분에 대해 이루어지는데, 이 부분은 사람의 움직임에 대한 탑-다운 뷰에서 움직임이 거의 없는 부분이다.
초기화부(12)는 데이터베이스(13)를 참조하여 감지된 객체가 새로운 객체인지를 판별하고(23단계), 새로운 객체이면 데이터베이스(13)에 새로운 객체의 ID와 관련정보를 저장하고(24단계), 초기화한다(25단계). 여기서 객체 관련정보는 분할지역에 대한 깊이정보 y0 깊이와 칼라정보 y0 칼라를 포함한다. 깊이 정보는 1차원 깊이 맵으로서, 도 4에 도시된 바와 같이 분할지역(41)에서 어느 한 방향의 일직선(42)을 따라서 감지된 객체에 대해 측정된 깊이를 평균한 값을 말한다. 칼라 정보는 분할된 부분(41)에 포함된 칼라 히스토그램을 말한다.
초기화부(12)는 감지된 객체의 깊이 및 칼라 정보가 상기 데이터베이스(13)에 저장된 값들과 실질적으로 동일한지를 판별하고, 실질적으로 동일하지않다면 감지된 객체를 새로운 객체인 것으로 판별한다. 분할지역(41)은 사각형의 폭과 높이의 평균 길이의 제곱으로 정규화된다. 따라서 객체가 영상으로부터 분할되었을 때, 회전변화(rotation change)에 불변하고 분할된 부분의 크기(스케일, scale)에 민감하지않은 것으로 간주할 수 있다. 즉, 비대칭 분할(non-symmetric segmentation)이어도 잘(reasonably) 동작한다.
추적을 위해 초기상태에서 분할지역(41)의 중심위치 와 스케일이 다음과 같이 저장된다. 여기서, x0, y0는 분할된 부분의 중심에 대한 x,y 위치를 나타내고, 스케일은 초기 분할 부분의 폭과 길이를 기준으로하고 그 값을 1.0으로 지정한다.
또한 초기화부(12)는 추적부(15)를 초기화한다. 본 발명에서 추적부(15)는 입자 필터(particle filter)를 사용한다. 입자 필터는 복잡한 해석적인(analytic) 계산을 하지않고, 몬테-카를로 시뮬레이션(Monte-Carlo simulation)을 기반으로하여 비선형, 비가우시안 시스템에서 상태 추정(state estimation)에 적합한 틀(framework)을 제공하므로 인간의 몸을 추적하는데 적절하다. 입자 필터는 베이지안(Bayesian) 이론 및 확률 전파 이론(probability propagation theory)에 따라 초기화, 예측 및 갱신 과정을 수행한다. 일반적으로 비주얼(visual) 추적에 따른 움직임 확률은 결정적인(deterministic) 모델로 표현될 수 없으므로 몬테-카를로 시뮬레이션을 사용하는 스토캐스틱(stocastic) 탐색 방법을 적용하는 것이 적절하며, 입자 필터는 이러한 스토캐스틱 탐색에 알맞는 방법이다.
초기화부(12)는 입자 필터의 초기화하기위해 객체의 초기위치 주변에서 복수의 랜덤 샘플들(random samples), 즉, 입자들(particles)을 생성한다(26단계). 이 때, 초기위치의 주변이라 함은 초기위치를 중심으로 실험적으로 정해지는 반경이내를 말한다. 또한 입자 개수를 N이라 할 때, 의 위치에 객체가 존재할 확률을 로 정한다. 이 때, p0는 1/N이다.
가 각각 k번째 프레임에서의 상태 벡터 및 측정 벡터일 때, 이전 시간의 상태벡터 및 측정 벡터로부터 각 입자에 대해 다음 식과 같이 파라미터, 즉 객체의 위치 및 스케일에 대한 예측이 이루어진다(27단계).
여기서, 은 (k-1)번째 프레임의 측정벡터 에 의해 예측되는 k번째 프레임에서의 객체의 위치가 일 확률, 는 프레임의 변화에 따른 위치 변화 확률, 는 (k-1)번째 프레임의 측정벡터 에 대해 객체의 위치가 일 확률이다.
비주얼 큐 측정부(14)는 예측에 따른 객체의 위치 추정을 위해 분할지역에 대한 비주얼 큐를 측정한다(28단계). 여기서, 비주얼 큐는 객체에 대한 깊이 정보, 칼라 정보, 움직임 정보 또는 윤곽(shape) 정보를 포함하고, 보다 정확하게는 k시간의 객체의 위치 에서 각 정보를 가질 확률을 말한다. 이 때 확률은, 각 분할 지역이 갖는 스케일에 의해 정규화된 값을 의미한다.
깊이 확률 은 측정된 깊이와 초기 분할지역에서의 기준 깊이(reference depth)의 차를 평균한 값으로 계산된다. 움직임 확률 은 영상의 픽셀 분산(pixel variance)에 대해 관찰된 픽셀과 배경 영상의 기준 픽셀과의 거리를 평균한 값으로 계산된다. 칼라 확률 은 칼라 히스토그램이 적용될 수 있다. 윤곽 확률 은 분할지역(41)에 대해 2차 미분(Laplacian) 연산을 수행하여 얻은 객체의 윤곽 정보와 데이터베이스(13)에 저장된 객체의 윤곽 정보의 유사도(similarity)를 구함으로써 얻어진다.
추적부(15)는 비주얼 큐 측정부(14)에서 출력되는 깊이 확률, 움직임 확률, 윤곽 확률 및 칼라 확률을 이용하여 각 입자에 대해 k번째 프레임에서의 위치와 스케일을 다음 식과 같이 갱신한다(29단계).
모든 입자에 대해 수학식 2에 따라 객체의 위치 및 스케일이 갱신되면, 갱신된 확률중 가장 큰 값에 해당하는 위치 및 스케일이 객체의 현재 프레임에서 객체의 위치 및 스케일이 되고, 이는 다음 프레임에서 이전 프레임의 객체의 위치 및 스케일이 된다.
객체의 위치 및 스케일이 갱신되면, 객체에 대해 마스킹 과정이 더 수행될 수 있다.(30단계). 마스킹은 탑-다운 뷰로부터 객체를 추적하는 동안 객체들이 동시에 동일한 위치를 점유하지 않으므로 추적 대상의 객체가 다른 객체에 의해 가리워지는 경우가 없다는 점에 착안하여 현재 추적중인 객체를 마스킹하는 것을 말한다.
따라서 다른 객체에 의해 점유된 지역을 지원 마스크(support mask)라고 명명한 이진 마스크(binary mask)를 이용하여 마스킹한다. 그 과정은, 먼저, 영상과 동일한 크기의 맵(map)을 1로 설정한다. 추적대상의 객체와 해당 객체에 의해 점유된 것으로 추정되는 지역을 0으로 마스킹한다. 다음 객체를 추적하는 경우, 마스킹된 지역은 고려대상에서 제외한다. 단, 단일 객체를 추적하는 동안 추정 오차(estimation error)를 허용하기위해서 객체간의 작은 중첩(overlap)은 허용할 수도 있다. 도 5는 깊이 영상(depth image)에 중첩된 지원 마스크의 예를 도시한 것이다.
도 5(a)는 탑-다운 뷰를 갖는 깊이 영상을 나타내고, 도 5(b) 내지 도 5(d)는 각각 추적되는 첫번째, 두번째, 세번째 객체를 각각 마스킹한 결과를 도시한 것이다.
현재 추적중인 객체에 대해 마스킹이 완료되면, 현재 프레임의 모든 객체에 대한 추적이 완료되었는지를 점검하여(30단계), 다른 객체가 더 남아있다면 마스킹된 지역이외의 다른 지역의 객체로 이동하여(32단계) 22단계 내지 30단계를 수행한다. 모든 객체를 처리하였다면, 이전 프레임과 비교하여 화면밖으로 이동한 객체가 있는지를 점검하고(33단계), 그러한 경우라면 데이터베이스에서 삭제한다(34단계).
본 발명에 따르면, 영상에서 객체에 대한 지역을 분할하고 스토캐스틱 탐색 방법을 이용하여 분할된 지역의 비주얼 큐를 예측하고, 예측된 값을 기반으로하여 분할된 지역의 위치 및 스케일을 갱신함으로써 보다 정확한 객체 추적이 가능하다. 또한 지원 마스크를 사용함으로써 다른 객체를 추적하는 경우 마스킹된 지역을 제외함으로써 빠른 탐색이 가능하고, 보다 정확한 추적이 가능하다.
도 1은 본 발명에 따른 객체 추적 장치에 대한 블록도이다.
도 2는 본 발명에 따른 객체 추적 방법에 대한 흐름도이다.
도 3a는 객체 추적을 위해 특정 장소에 카메라가 설치된 모습을 도시한 것이다.
도 3b는 도 3a에 도시된 카메라에서 출력되는 영상을 개략적으로 도시한 것이다.
도 4는 도 3a에 도시된 카메라로부터 얻은 영상에서 분할되는 지역과 해당 지역에서 어느 한 방향의 일직선을 따라 1차원 깊이 정보를 얻는 과정을 개략적으로 도시한 것이다.
도 5는 도 3a의 카메라로부터 얻은 깊이 영상에서 중첩된 지원 마스크의 예를 도시한 것이다.
*도면의 주요부분에 대한 부호의 설명
10: 영상 입력부 11: 영상 분할부 12:초기화부
13:데이터베이스 14: 비주얼 큐 측정부 15: 추적부
41: 영상의 분할지역 42: 분할지역에서 어느 한 방향에 따른 일직선

Claims (11)

  1. 입력되는 영상으로부터 객체가 위치하는 지역을 분할하는 단계;
    복수의 입자들에 대해 상기 분할지역에 대한 소정 파라미터들을 예측하는 단계;
    상기 분할지역에 대한 비주얼 큐를 측정하는 단계; 및
    측정된 비주얼 큐와 예측된 파라미터들을 이용하여 각 입자에 대해 상기 파라미터들을 갱신하고, 갱신 결과들중 가장 큰 값을 갖는 입자의 파라미터들을 상기 객체의 파라미터들로 선택하는 단계를 포함함을 특징으로하는 객체 추적 방법.
  2. 제1항에 있어서,
    상기 분할지역에 대한 소정 정보로부터 상기 객체가 새로운 객체인지를 판별하는 단계; 및
    상기 객체가 새로운 객체이면, 상기 객체와 분할지역에 대한 정보를 데이터베이스에 저장하고 초기화하는 단계를 더 포함함을 특징으로하는 객체 추적 방법.
  3. 제2항에 있어서, 상기 새로운 객체인지에 대한 판별은
    상기 분할지역에 대한 깊이 정보 및 칼라 정보를 포함하는 화상 정보를 구하는 단계; 및
    상기 깊이 정보 및 칼라 정보를 상기 데이터베이스에 저장된 값들과 비교하여 실질적으로 동일한 값이 없다면 새로운 객체로 판별하는 단계를 포함함을 특징으로하는 객체 추적 방법.
  4. 제2항에 있어서, 상기 초기화는
    상기 새로운 객체의 ID, 상기 분할지역의 영상으로부터 얻은 화상 정보, 상기 분할된 지역의 중심의 위치 및 스케일을 포함하는 정보를 저장하는 것을 특징으로하는 객체 추적 방법.
  5. 제1항에 있어서,
    상기 입자들은 상기 분할지역의 소정 반경이내에서 생성되는 것을 특징으로하는 객체 추적 방법.
  6. 제1항에 있어서, 상기 파라미터들은
    상기 분할지역의 중심의 위치 및 스케일임을 특징으로하는 객체 추적 방법.
  7. 제1항에 있어서, 상기 비주얼 큐들은
    상기 분할지역의 칼라 히스토그램, 깊이 정보, 움직임 정보 및 윤곽 정보에 대한 확률들중 적어도 하나를 포함함을 특징으로하는 객체 추적 방법.
  8. 제1항에 있어서,
    현재 추적중인 객체에 해당하는 분할 지역을 마스킹하는 단계; 및
    마스킹된 지역이외의 지역을 탐색하여 다른 객체를 탐색하는 단계를 더 포함함을 특징으로하는 객체 추적 방법.
  9. 제8항에 있어서,
    상기 영상에 나타난 모든 객체를 추적하였다면, 상기 객체들에 대한 정보를 저장하는 데이터베이스를 참조하여 상기 데이터베이스에 저장된 객체들중에서 현재 영상에 나타나지않은 객체를 찾고, 해당 객체를 상기 데이터베이스에서 삭제하는 단계를 더 포함함을 특징으로하는 객체 추적 방법.
  10. 스테레오 영상을 입력하는 영상 입력부;
    상기 영상에서 객체가 위치하는 지역을 판별하고 분할하는 영상 분할부;
    분할지역에 대한 깊이 정보, 칼라 정보, 움직임 정보 및 윤곽 정보에 대한 확률들중 적어도 하나를 포함하는 비주얼 큐를 구하는 비주얼 큐 측정부; 및
    상기 비주얼 큐를 이용하여 상기 분할지역에 해당하는 객체의 이전 위치 및 스케일로부터 다음 위치 및 스케일을 추적하는 추적부를 포함함을 특징으로하는 객체 추적 장치.
  11. 제10항에 있어서,
    데이터베이스; 및
    상기 분할지역에 해당하는 객체가 새로운 객체이면 상기 분할지역에 해당하는 영상으로부터 깊이 정보 및 칼라 정보를 상기 새로운 객체의 ID와 함께 상기 데이터베이스에 저장하고, 상기 분할지역의 중심의 위치 및 스케일을 초기화하는 초기화부를 더 포함함을 특징으로하는 객체 추적 장치.
KR1020040005460A 2004-01-28 2004-01-28 객체 추적 방법 및 장치 KR20050077863A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040005460A KR20050077863A (ko) 2004-01-28 2004-01-28 객체 추적 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040005460A KR20050077863A (ko) 2004-01-28 2004-01-28 객체 추적 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20050077863A true KR20050077863A (ko) 2005-08-04

Family

ID=37265169

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040005460A KR20050077863A (ko) 2004-01-28 2004-01-28 객체 추적 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20050077863A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100920918B1 (ko) * 2008-12-29 2009-10-12 주식회사 넥스파시스템 Cb물체감지 알고리즘을 이용한 물체추적시스템 및 그 시스템을 사용한 물체추적방법
US9898650B2 (en) 2015-10-27 2018-02-20 Electronics And Telecommunications Research Institute System and method for tracking position based on multi sensors

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100920918B1 (ko) * 2008-12-29 2009-10-12 주식회사 넥스파시스템 Cb물체감지 알고리즘을 이용한 물체추적시스템 및 그 시스템을 사용한 물체추적방법
US9898650B2 (en) 2015-10-27 2018-02-20 Electronics And Telecommunications Research Institute System and method for tracking position based on multi sensors

Similar Documents

Publication Publication Date Title
KR100519781B1 (ko) 객체 추적 방법 및 그 장치
Fehr et al. TSDF-based change detection for consistent long-term dense reconstruction and dynamic object discovery
Park et al. 3D hand tracking using Kalman filter in depth space
Hu et al. Principal axis-based correspondence between multiple cameras for people tracking
Angah et al. Tracking multiple construction workers through deep learning and the gradient based method with re-matching based on multi-object tracking accuracy
RU2484531C2 (ru) Устройство обработки видеоинформации системы охранной сигнализации
Khan et al. Analyzing crowd behavior in naturalistic conditions: Identifying sources and sinks and characterizing main flows
Azevedo et al. Automatic vehicle trajectory extraction by aerial remote sensing
Ozyildiz et al. Adaptive texture and color segmentation for tracking moving objects
EA018349B1 (ru) Способ видеоанализа
Liu et al. A contrario comparison of local descriptors for change detection in very high spatial resolution satellite images of urban areas
Rivera et al. Background modeling through statistical edge-segment distributions
García et al. Tracking people motion based on extended condensation algorithm
KR101681104B1 (ko) 부분적 가림을 갖는 영상 객체 내의 주요 특징점 기반 다중 객체 추적 방법
Liu et al. Accelerating vanishing point-based line sampling scheme for real-time people localization
Arsic et al. Applying multi layer homography for multi camera person tracking
KR20120007850A (ko) 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법
Wientapper et al. Composing the feature map retrieval process for robust and ready-to-use monocular tracking
CN106033613B (zh) 目标跟踪方法及装置
KR101470367B1 (ko) 이중층 파티클 필터를 이용한 다중 객체 검출 및 추적 장치와 그 방법
Zhou et al. Computation and memory efficient image segmentation
Aziz et al. Head detection based on skeleton graph method for counting people in crowded environments
US20230091536A1 (en) Camera Placement Guidance
Agouris et al. Automated spatiotemporal change detection in digital aerial imagery
Totada et al. Detection of people from time-of-flight depth images using a cell-tracking methodology

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination