KR20090078982A - 영역 기반의 물체 계수 장치 및 방법 - Google Patents

영역 기반의 물체 계수 장치 및 방법 Download PDF

Info

Publication number
KR20090078982A
KR20090078982A KR1020080004873A KR20080004873A KR20090078982A KR 20090078982 A KR20090078982 A KR 20090078982A KR 1020080004873 A KR1020080004873 A KR 1020080004873A KR 20080004873 A KR20080004873 A KR 20080004873A KR 20090078982 A KR20090078982 A KR 20090078982A
Authority
KR
South Korea
Prior art keywords
image
area
pedestrian
camera
determining
Prior art date
Application number
KR1020080004873A
Other languages
English (en)
Other versions
KR101467847B1 (ko
Inventor
박현희
조성대
박민규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080004873A priority Critical patent/KR101467847B1/ko
Priority to US12/353,279 priority patent/US8331729B2/en
Publication of KR20090078982A publication Critical patent/KR20090078982A/ko
Application granted granted Critical
Publication of KR101467847B1 publication Critical patent/KR101467847B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M1/00Design features of general application
    • G06M1/08Design features of general application for actuating the drive
    • G06M1/10Design features of general application for actuating the drive by electric or magnetic means
    • G06M1/101Design features of general application for actuating the drive by electric or magnetic means by electro-optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 영역 기반의 물체 계수 장치 및 방법에 관한 것이다. 특히 본 발명의 영역 기반의 물체 계수 장치는 영상을 획득하는 카메라, 영상 영역별 물체의 평균 크기와 오차 범위를 저장하는 저장부, 상기 획득된 영상을 입력받는 데이터 획득부와, 현재 영상과 이전 영상을 비교하여 물체의 출현을 판단하고 물체의 크기를 결정하는 추출부와, 상기 물체가 위치한 영역을 결정하는 영역 확인부와, 상기 물체의 크기와 위치 데이터를 상기 저장부의 데이터와 비교하여 상기 물체를 계수하는 판단부를 구비하는 제어부를 포함할 수 있다.
또한 본 발명의 영역 기반의 물체 계수 방법은 카메라가 설치된 높이에 따라, 영상 영역별 물체의 평균 크기 및 오차가 결정되는 단계, 상기 카메라로부터 획득된 영상에서 물체를 추출하고, 상기 물체가 포함되는 영역을 확인하는 단계 및 상기 물체를 추적하여 계수를 확정하는 단계를 포함하는 것을 특징으로 한다.
보행자 추출, 보행자 추적, 보행자 계수

Description

영역 기반의 물체 계수 장치 및 방법{Apparatus and method for counting the number of object based on a block}
본 발명은 영역 기반의 물체 계수 장치 및 방법에 관한 것이다. 특히, 본 발명의 물체 계수 장치 및 방법은 물체 계수의 정확성을 높이기 위해 물체와 카메라와의 상대적 위치에 따른 크기의 변화를 고려하여, 영상을 설정된 영역으로 분할하고, 영역별 물체의 크기를 산출하여 관심 영역을 통과하는 물체를 정확하게 계수할 수 있다.
보행하는 사람이나 움직이는 물체를 정확하게 계수하는 것은 다양한 분야에서 필요로 한다. 예를 들어 쇼핑몰 혹은 대형 건물의 출입구나 엘리베이터, 에스컬레이터 등과 같은 곳에서는 보행자가 어떤 방향으로 얼마만큼 이동하는지 여부는 매우 중요한 요소이다. 즉 쇼핑몰에서는 상기 정보를 이용하여 보행자의 동선을 파악하고 통행량을 분석함으로써 별도 공간의 추가 없이 상품을 효과적으로 광고할 수 있을 뿐만 아니라 상품이나 매장을 더욱 효율적으로 배치할 수 있다.
기존의 보행자 또는 물체의 계수 시스템은 센서 등을 이용하여 단순하게 특정한 도어를 통행하는 사람이나 물체를 계수하였으나, 센서의 특성상 다수의 인원 이나 물체가 동시에 통과하는 경우 많은 계수의 오류를 발생하는 경우가 빈번하게 일어났다.
이에 따라, 최근에는 카메라로부터 획득한 영상을 이용하여 영상 처리 기법을 적용하여 다수의 보행자나 물체를 보다 정확하게 계수하는 방법이 주류를 이루고 있다. 이러한 방법은 높은 곳에 설치되어 있는 카메라의 시야각 안에 들어오는 물체를 추적하고 추출하는 방법을 적용하여 계수하게 된다. 이 경우 카메라와 물체와의 상대적 위치에 따른 물체 크기의 변화를 고려하지 않았고 또한 대부분의 카메라들이 넓은 시야각 확보를 위하여 시야각이 넓은 렌즈를 사용하여 보다 넓은 영역을 감시할 수 있도록 설계되어 있는 점을 고려하지 않아 왜곡된 영상을 획득하게 된다. 따라서 이와 같은 카메라와 물체와의 위치에 따른 크기 변화와 왜곡 현상을 고려하지 않고 보행자 또는 물체를 계수하여 계수의 오차를 일으키는 원인이 되었다. 따라서 보행자 또는 물체와 카메라와의 상대적 위치에 따른 크기의 변화를 고려하고, 렌즈 왜곡으로 발생될 수 있는 오차를 보정하여 관심 영역을 통과하는 다수의 보행자 또는 물체를 보다 정확하게 계수할 필요성이 대두된다.
본 발명이 이루고자 하는 기술적 과제는 영역 기반의 물체 계수 장치 및 방법은 카메라로부터 획득한 영상을 물체와 카메라와의 상대적 위치에 따른 크기의 변화를 고려하여 설정된 영역으로 분할하고, 영역별 물체의 크기를 산출하여 관심 영역을 통과하는 물체를 계수하여 물체를 보다 정확하게 계수하도록 한다.
이와 같은 목적을 달성하기 위한 본 발명의 영역 기반의 물체 계수 방법은 카메라가 설치된 높이에 따라, 영상 영역별 물체의 평균 크기 및 오차가 결정되는 단계, 상기 카메라로부터 획득된 영상에서 물체를 추출하고, 상기 물체가 포함되는 영역을 확인하는 단계 및 상기 물체를 추적하여 계수를 확정하는 단계를 포함하는 것을 특징으로 한다.
또한 상기의 목적을 달성하기 위한 본 발명의 영역 기반의 물체 계수 장치는 영상을 획득하는 카메라, 영상 영역별 물체의 평균 크기와 오차 범위를 저장하는 저장부, 상기 획득된 영상을 입력받는 데이터 획득부와, 현재 영상과 이전 영상을 비교하여 물체의 출현을 판단하고 물체의 크기를 결정하는 추출부와, 상기 물체가 위치한 영역을 결정하는 영역 확인부와, 상기 물체의 크기와 위치 데이터를 상기 저장부의 데이터와 비교하여 상기 물체를 계수하는 판단부를 구비하는 제어부를 포함할 수 있다.
본 발명의 물체 계수 장치 및 방법은 카메라로부터 획득된 영상을 물체와 카메라와의 상대적 위치에 따른 크기의 변화를 고려하여 설정된 영역으로 분할하고, 영역별 물체의 크기를 산출하여 이를 기초로 관심 영역을 통과하는 물체를 계수함으로써 물체를 보다 정확하게 계수할 수 있다.
본 발명의 실시예에서 보행자 계수란 카메라 영상의 특정 영역에 포함된 보행자의 크기(픽셀 수)를 고려하여 보행자가 몇 명인지 여부를 결정하는 것을 말한다. 반면, 보행자 계수의 확정이란 보행자가 설정된 라인을 통과하는 경우 상기 계수된 보행자를 관심 계수 대상으로서 확정하는 것을 말한다.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.
본 발명의 계수의 대상이 되는 물체는 자동차, 보행자뿐만 아니라 움직이는 모든 물체가 될 수 있다. 이하에서는 계수의 대상이 되는 물체를 보행자라고 가정하고 기술하도록 한다.
도 1a 및 1-B는 본 발명의 실시예에 따른 영역 기반 보행자 계수 장치 및 방법에서 사용하는 영역별 보행자의 크기를 산출하기 위한 영상 영역 분할 방법을 나타내는 도면이다
종래의 보행자 계수 시스템에서는 카메라와 보행자와의 위치에 따른 크기의 변화와 왜곡 현상을 고려하지 않고, 영상 전체의 동일한 보행자의 경우 영상 내 어 느 곳에 위치하든지 동일한 크기를 적용하여 관심 영역을 통과하는 보행자를 계수하여 계수의 오차를 일으키는 원인이 되었다. 따라서 본 발명의 영역 기반 보행자 계수 장치 및 방법은 상기와 같은 문제점을 해결하기 위해 도 1a 에 도시된 바와 같이 카메라로부터 획득한 영상을 설정된 길이를 기준으로 가로, 세로 방향의 격자 모양(Grid)으로 분할한다. 그리고 분할된 각각의 영역에서 한 명의 보행자가 차지하는 평균 크기를 계산하여, 영역별로 렌즈의 왜곡으로 인해 발생할 수 있는 계수 오차를 보정할 수 있다. 이하 본 발명의 실시예에서는 도 1a 에 도시된 바와 같이 가로, 세로 방향으로 9*7의 영역으로 분할되었음을 가정하고 기술하도록 한다.
이 경우 각각의 분할된 영역에서 발생되는 왜곡 현상은 영상의 중심 영역을 기준으로 상하 좌우가 서로 대칭을 이루어 발생하게 된다. 따라서 분할된 각각의 영역에서 한 명의 보행자가 차지하는 평균 크기를 계산하기 위하여, 분할된 모든 영역에 대하여 계산할 필요 없이 도 1a 에 도시된 카메라 영상의 빗금 친 영역만을 고려함으로써 계산의 편의를 도모할 수 있다. 본 발명의 실시예에서는 도 1a 에 도시된 카메라 영상은 9*7 의 영역이 A 영역, B 영역, C 영역, D 영역의 네 개의 5*4 영역으로 분할된 것으로 가정한다. 그리고 본 발명의 실시예에서는 상기 D 영역을 기준으로 설명할 것이고 이를 샘플링 영역 S 영역이라 한다. 이 경우, 상기 S 영역의 좌측에서 우측의 열(column) 방향으로 순서대로 ① 내지 ⑤의 열 번호를 지정하고, 상에서 하의 행(row) 방향으로 순서대로 ① 내지 ④의 행 번호를 지정하기로 한다. 그리고 빗금 친 L 영역은 가로 ①, 세로 ① 영역이라고 정의하기로 한다.
도 1b는 카메라에 의해 획득한 영상 중 특정 영역에 보행자가 추출되었음을 나타내는 도면이다. 이 경우, 보행자가 추출된 영역은 카메라 영상의 A 영역에 해당함을 알 수 있고, 이는 샘플링 영역인 S 영역의 보행자가 표시된 영역과 서로 대칭되는 영역임을 알 수 있다.
도 2는 도 1에서 분할된 각각의 영역에서 한 명의 보행자가 차지하는 평균 크기를 계산하기 위해 보행자를 직육면체로 근사화하여 모델링한 것을 나타내는 도면이다.
도 2에 도시된 바에 따라, 본 발명의 실시예에서 카메라 영상에 입력되는 보행자의 크기는 가로 40cm, 세로 20cm, 높이 170cm 인 직육면체로 모델링 되었다. 그리고 상기 모델링된 보행자를 이용하여 도 1에 도시된 카메라의 분할된 각각의 영역에서 측정되는 보행자의 크기는 표 1 및 표 2와 같다. 이 경우 보행자의 크기는 보행자가 상기 카메라의 분할된 각각의 영역에서 차지하는 픽셀(pixel)의 수를 기준으로 한다.
[표 1]
Figure 112008003651377-PAT00001
상기 표 1은 카메라 설치 높이에 따른 분할된 영역별 보행자의 평균 크기(픽 셀 수)를 나타낸다. 이 경우 상기 표 1의 좌측에서 우측의 열(column) 방향으로 ① 내지 ⑤의 열 번호를 지정하고, 상에서 하의 행(row) 방향으로 ① 내지 ④의 행 번호를 지정하였다. 이는 도 1에서 도시된 가로, 세로 방향의 5*4의 영역의 ① 내지 ⑤의 열(column) 번호 및 ① 내지 ④의 행 번호와 매칭된다. 상기 표 1에 대해 예를 들어 설명하면, 카메라가 지상으로부터 250cm의 높이에 설치되어 있는 경우, 도 1에서 도시된 분할된 카메라 영상 영역의 가로 ①, 세로 ① 영역에서 측정되는 보행자 한 명의 크기는 평균 1622.936 개의 픽셀 수로 나타남을 알 수 있다. 즉, 본 발명의 실시예에 따른 보행자 계수 장치의 카메라가 지상으로부터 250cm의 높이에 설치되어 있는 경우, 가로 ①, 세로 ① 영역에서 약 1622개의 픽셀 수를 차지하는 보행자는 한 명으로 카운트 하고, 약 3244(1622*2)개의 픽셀 수를 차지하는 보행자는 두 명으로 카운트 하게 된다.
이 경우 상기 표 1에 나타난 카메라 높이에 따른 분할된 영역별 보행자의 평균 크기는 수식화 하여 다항식으로 근사하여 표현할 수 있고, 이는 아래의 식 1과 같다.
[식 1]
m=a1*x3+a2*x2+a3*x+a4
그리고, 상기 식 1에 대한 개별의 m 값과 그에 다른 계수 a1 내지 a4에 대한 결과 값은 아래와 같다.
[표 2]
Figure 112008003651377-PAT00002
상기 표 2에서, a1 내지 a4는 식 1의 다항식의 계수 a1 내지 a4를 나타내고, x 값은 카메라가 설치된 높이를 의미한다. 그리고 m(a) 내지 m(t) 은 도 1a 에 도시된 5*4 영역의 각 영역(a 내지 t 영역)에 대한 보행자 크기의 평균 값을 의미한다.
[표 3]
Figure 112008003651377-PAT00003
상기 표 3는 카메라 설치 높이에 따른 분할된 영역별 보행자의 평균 크기의 오차(픽셀 수)를 나타낸다.이 경우 상기 표 3의 좌측에서 우측의 열(column) 방향으로 ① 내지 ⑤의 열 번호를 지정하고, 상에서 하의 행(row) 방향으로 ① 내지 ④의 행 번호를 지정하였다. 이는 도 1에서 도시된 가로, 세로 방향의 5*4의 영역의 ① 내지 ⑤의 열(column) 번호 및 ① 내지 ④의 행 번호와 매칭된다. 상기 표 3에 대해 설명하면, 카메라가 지상으로부터 250cm의 높이에 설치되어 있고, 도 1에서 도시된 분할된 카메라 영상 영역의 가로 ①, 세로 ① 영역에서 측정되는 한 명의 보행자 크기의 오차는 평균 66 개의 픽셀 수로 나타남을 알 수 있다. 즉 상기 표 1과 표 2를 동시에 참고하면, 본 발명의 실시예에 따른 보행자 계수 장치의 카메라가 지상으로부터 250cm의 높이에 설치되어 있는 경우, 가로 ①, 세로 ① 영역에서 약 1556(1622-66)개 내지 1684(1622+62)개의 범위의 픽셀 수를 차지하는 보행자는 그 크기를 1로 판단한다.
이 경우 상기 표 3에 나타난 카메라 높이에 따른 분할된 영역별 보행자의 평균 크기의 오차는 수식화되어 다항식으로 근사하여 표현될 수 있고, 이는 아래의 식 2와 같다.
[식 2]
v=b1*x3+b2*x2+b3*x+b4
[표 4]
Figure 112008003651377-PAT00004
상기 표 4에서, b1 내지 b4는 식 2의 다항식의 계수 b1 내지 b4를 나타내고, x 값은 카메라가 설치된 높이를 의미한다. 그리고 v(a) 내지 v(t)는 도 1a 에 도시된 5*4 영역의 각 영역(a 내지 t 영역)에 대한 보행자 크기의 평균 오차 값을 의미한다.
도 3는 본 발명의 실시예에 따른 영역 기반 보행자 계수 장치의 내부 구조를 나타내는 내부 구조도이다. 상기 영역 기반 보행자 계수 장치는 카메라(310), 저장부(320), 제어부(380)를 포함할 수 있고, 상기 제어부(380)는 데이터 획득부(330), 보정부(340), 추출부(350), 영역 확인부(360), 판단부(370)를 포함할 수 있다.
카메라(310)는 원하는 위치에 설치되어 카메라 영상을 획득하는데 사용될 수 있다. 기존에는 보행자를 계수하기 위하여 센서를 사용하여 특정 지역을 통과하는 보행자를 계수하는 시스템이 대부분이었고, 센서를 이용한 방법이 다수의 보행자가 동시에 센서를 통과하게 되면 계수에 오차가 발생하였다. 본 발명에서는 센서를 사용하는 기존의 보행자 계수 시스템의 문제점을 보완하기 위해 카메라를 사용하였고, 카메라로부터 획득한 영상을 이용하여 영상 처리 기법을 적용하여 보행자를 보다 정확하게 계수하고자 하였다.
저장부(320)는 본 발명의 보행자 계수 장치의 전반적인 동작에 필요한 프로그램들과 데이터들을 저장한다. 특히 본 발명의 저장부(320)는 상기 저장부(320)는 카메라 높이에 따른 영역별 보행자의 평균 크기(표 1)와 각 영역의 오차 범위(표 3)를 나타내는 테이블 또는 상기 테이블을 수식화한 다항식(식 1, 표2, 식 2 및 표4)을 저장할 수 있다. 또한 상기 저장부(320)는 카메라(310)를 통하여 획득한 영상에서 보행자를 추출하고 추적하며 또한 추적한 보행자를 계수하기 위해 필요한 프로그램, 레퍼런스 영상 및 이전 영상을 저장할 수 있다. 상기 레퍼런스 영상이란 보행자의 출현 또는 배경의 변화 등을 감지하기 위해 필요한 기준 영상이라 정의할 수 있다. 그리고 상기 이전 영상이란 카메라로부터 현재 영상이 획득되기 전에 획득된 영상이라 정의할 수 있다.
데이터 획득부(330)는 카메라(310)로부터 획득되어 전달되는 영상 정보를 수신하여 신호처리 한다.
보정부(340)는 상기 데이터 획득부(330)에서 전달되는 카메라 영상를 전달받 아 보정 툴 박스(calibration toolbox)를 이용하거나 정의 알고리즘(Jung's Algorithm) 등을 이용하여 왜곡된 영상을 보정할 수 있다. 본 발명의 일 실시예에 따르면 상기 데이터 획득부(330)에서 전달되는 왜곡된 영상은 상기 보정부(340)에 의해 보정되는 것이 가능하지만, 본 발명의 또 다른 실시예에 따르면 상기 보정부(340)의 왜곡된 영상의 보정은 생략하는 것도 가능하다.
상기 보정부(340)는 왜곡된 영상을 보정하기 위해 상기 보정 툴 박스와 정의 알고리즘 모두 이용할 수 있지만, 본 발명의 또 다른 실시예에 따르면 상기 보정 툴 박스와 정의 알고리즘 중 어느 하나만을 사용하여 왜곡된 영상을 보정하는 것 역시 가능하다. 상기 보정 툴 박스(calibration toolbox)는 매틀랩(Matlab), C++ 등의 응용 프로그램에서 제공하는 것일 수 있다. 또한 상기 정의 알고리즘(Jung's Algorithm)은 "Radial Distortion Refinement by Inverse Mapping-Based Extrapolation"[Jung H.G., Yun H. L., Pal J. Y., and Jaihie K., "Radial Distortion Refinement by Inverse Mapping-Based Extrapolation", 18th International Conference on Pattern Recognition. August 20-24. 2006, Hong Kong, P.675-678]에 상세히 기술되어 있어, 이하 생략하기로 한다.
추출부(350)는 데이터 획득부(330) 또는 보정부(340)로부터 전달되는 카메라 영상을 전달 받고 이를 분석하여 획득한 현재 영상과 저장된 이전 영상을 비교한다. 그리고 현재 영상과 이전 영상의 비교 결과 현재 영상이 설정된 범위 이상으로 변화한 경우에는 보행자가 출현한 것으로 판단하고 보행자를 추출한다. 그리고 상기 추출부(350)는 상기 추출된 보행자가 카메라 영상에서 차지하는 크기(픽셀 수) 를 결정할 수 있다.
영역 확인부(360)는 상기 추출부(350)에서 추출된 보행자가 도 1a 에 도시된 A 영역, B 영역, C 영역, D 영역 중 어느 영역에 해당하는지 결정한다. 그리고 영역 확인부(360)는 상기 결정된 영역에서 보행자가 위치한 영역이 도 1a 에 도시된 S 영역 중 어느 영역(a 내지 t 영역)에 해당하는 것인지 매칭시킨다.
판단부(370)는 추출부(350)가 추출한 보행자의 크기(픽셀 수)와 영역 확인부(360)에서 확인한 보행자의 위치 영역을 전달받고, 저장부(320)에 저장된 영역별 보행자의 평균 크기 및 오차에 관한 수식을 참고하여 추출된 보행자를 계수한다. 예를 들어 설명하면, 보행자의 크기(픽셀 수)는 1610 이었고 상기 보행자가 위치한 영역이 S 영역 중 a 영역에 매칭된다면, 상기 판단부(370)는 상기 보행자를 한 명으로 계수한다.
그리고 상기 판단부(370)는 상기 추출된 보행자의 움직임 벡터(motion vector)를 검출하여 보행자를 추적할 수 있다. 또한 상기 판단부(370)는 획득한 카메라 영상에 제1 카운트 라인 및 제2 카운트 라인을 설정하고, 상기 제1 카운트 라인 및 제2 카운트 라인을 동시에 통과하는 보행자에 대하여 계수를 확정할 수 있다.
도 4는 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 카메라로부터 영상을 획득하여 움직이는 보행자를 추출, 추적, 계수하는 방법을 나타내는 순서도이다.
우선, S410 단계에서 카메라(310)가 원하는 위치의 설정된 높이에 설치되면, 상기 식 1 및 식 2에 의하여 높이에 따른 분할된 영역별 보행자의 평균 크기(픽셀 수) 및 오차(픽셀 수)가 결정된다. 본 발명의 물체 계수 장치 및 방법은 상기 정해진 영역별 보행자의 평균 크기 및 평균 크기의 오차에 따라 보행자를 계수하고 확정하게 된다. 그리고 제어부(380)는 S420 단계에서 카메라(310)로부터 획득된 영상을 전달받아 이를 인식한다. 이 경우 상기 전달 받은 영상은 카메라와 물체와의 상대적 위치와 시야각 확보를 위한 렌즈의 사용으로 인해 왜곡이 발생한 상태이다. 따라서 상기 제어부(380)는 S430 단계에서 카메라(310)로부터 획득한 영상의 왜곡을 줄이기 위한 영상 보정(calibration)을 수행할 수 있다. 본 발명의 일 실시예에서는 상기 S430 단계의 영상 보정 단계가 실시될 수 있지만, 본 발명의 또 다른 실시예에서는 상기 S430 단계의 영상 보정 단계가 생략되는 것도 가능하다. 그리고 상기 제어부(380)는 S440 단계에서 상기 보정된 영상에서 보행자를 추출하고, 획득된 카메라 영상에서 상기 추출된 보행자를 포함하는 영역을 확인한다. 그리고 상기 제어부(380)는 S450 단계에서 이전 단계에서 추출된 보행자를 추적하여 S460 단계에서 상기 보행자를 계수하게 된다.
도 5는 본 발명의 바람직한 실시예에 따른 영역 기반 물체 계수 장치에서 카메라로부터 획득한 영상의 왜곡 현상을 제거하기 위해 영상 보정을 수행하는 S430 단계의 구체화된 과정을 나타내는 순서도이다.
제어부(380)는 S510 단계에서 보정 툴 박스(calibration toolbox)를 이용하여 왜곡된 영상에 대한 제1 보정을 수행한다. 상기 보정 툴 박스(calibration toolbox)는 매틀랩(Matlab), C++ 등의 응용 프로그램에서 제공하는 것일 수 있지 만, 반드시 이에 한정되는 것은 아니다.
그리고 상기 제어부(380)는 S520 단계에서 상기 제1 보정이 수행된 영상에 대해, 저장부(310)에 저장된 정의 알고리즘(Jung's Algorithm)을 이용하여 제2 보정을 수행한다. 또한 상기 정의 알고리즘(Jung's Algorithm)은 "Radial Distortion Refinement by Inverse Mapping-Based Extrapolation"[Jung H.G., Yun H. L., Pal J. Y., and Jaihie K., "Radial Distortion Refinement by Inverse Mapping-Based Extrapolation", 18th International Conference on Pattern Recognition. August 20-24. 2006, Hong Kong, P.675-678]에 상세히 기술되어 있어, 이하 생략하기로 한다. 상기 제1 보정 및 제2 보정이 수행된 보정된 영상은 보행자를 계수하기 위한 영상으로 이용될 수 있다.
도 6은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 획득한 영상으로부터 보행자를 추출하고, 상기 추출된 보행자가 해당하는 영역을 결정하는 S440 단계의 구체화된 과정을 나타내는 순서도이다.
우선 제어부(380)는 S610 단계에서 영역 기반 물체 계수 장치가 작동하고 최초로 얻어진 영상을 레퍼런스 영상으로서 저장부(320)에 저장할 수 있다. 상기 레퍼런스 영상은 본 발명의 영역 기반 물체 계수 장치가 보행자를 추출, 추적, 계수하는데 필요한 기준 영상으로 사용될 수 있다. 그리고 상기 제어부(380)는 S620 단계에서 현재 획득된 영상과 이전에 획득된 영상을 비교하여 차이 영상을 산출한다. 제어부(380)가 S630 단계에서 현재 영상과 이전 영상의 차이 영상을 분석한 결과, 현재 영상이 이전 영상에 비하여 설정된 범위 이내의 변화라고 판단한 경우에는 보 행자가 출현하지 않은 것으로 판단한다. 이 경우 상기 설정된 범위는 바람직하게는 0~5% 이내일 수 있다(이하 동일하다).
그리고 상기 제어부(380)는 S640 단계에서, 배경 영상을 업데이트 할지 여부를 판단하기 위해 현재 영상과, S610 단계에서 저장된 레퍼런스 영상의 차이 영상을 산출하여 분석한다. 상기 분석 결과 상기 제어부(380)가 S650 단계에서 현재 영상이 설정된 범위 이내의 변화라고 판단한 경우에는 배경 영상을 업데이트 할 필요가 없다고 판단하여 배경 영상을 업데이트 하지 않는다. 그러나 S650 단계에서 현재 영상과 레퍼런스 영상의 차이 영상을 분석한 결과, 설정된 범위 이상으로 변화가 감지된 경우, 상기 제어부(380)는 이를 배경이 변화한 것으로 판단하고 S670 단계에서 배경 영상을 업데이트 한다. 상기 배경 영상의 업데이트 방법은 현재 영상을 새로운 레퍼런스 영상으로 업데이트 하는 방법일 수 있다.
한편, S630 단계에서 상기 제어부(380)가 현재 영상이 설정된 범위 이내의 변화가 아니라고 판단한 경우에는(즉, 5%이상의 변화가 감지된 경우) 이를 보행자가 출현한 것으로 판단하고 S660 단계에서 보행자를 추출한다. 그리고 상기 제어부(380)는 S662 단계에서 상기 추출된 보행자가 영상에서 차지하는 크기(픽셀 수)를 결정할 수 있다. 그리고 상기 제어부(380)는 S665 단계에서 상기 추출된 보행자가 카메라 영상의 영역 중 어느 영역에 해당하는지 확인하고, S667 단계에서 상기 추출된 보행자를 계수한다. 상기 추출된 보행자를 계수하기 위하여 상기 제어부(380)는 추출된 보행자의 크기(픽셀 수), 보행자 위치 영역, 저장부(320)에 저장된 영역별 보행자의 평균 크기 및 오차에 관한 수식을 참고하여 보행자를 계수한 다. 예를 들어, 카메라가 250cm의 높이에 설치되어 있고, 추출된 보행자의 위치 영역이 도 1a의 D 영역 중 가로 ①, 세로 ① 영역이었고, 그 크기가 3250(픽셀 수) 이었다면 상기 제어부(380)는 이를 보행자 두 명으로 계수한다. 그리고 상기 제어부(380)는 S670 단계에서 배경 영상을 업데이트 한다. 상기 배경 영상의 업데이트 방법은 추출된 보행자를 제외한 현재 영상을 새로운 레퍼런스 영상으로 업데이트 하는 방법일 수 있다.
도 7은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 추출한 보행자를 추적하는 S450 단계의 구체화된 과정을 나타내는 순서도이다.
추출된 보행자를 추적하기 위해서는, 추적하는 보행자가 동일 보행자임을 전제로 해야 한다. 따라서 제어부(380)는 S710 단계에서 이전 영상과 현재 영상의 동일 보행자끼리 매칭시킨다. 이는 이전 영상과 현재 영상에서 추출된 보행자들의 특징을 분석한 후 이전 영상에서 추출된 특정 보행자가, 현재 영상의 보행자들 중 어느 보행자에 해당하는지 매칭시키는 것을 말한다. 매칭이 이루어지면 제어부(380)는 S720 단계에서 각 보행자의 중심 좌표를 파악하고, S730 단계에서 각 보행자에 대하여 현재 영상의 보행자 중심 좌표와 이전 영상의 보행자 중심 좌표의 차이 값을 구한다. 그러면 상기 제어부(380)는 S740 단계에서 각 보행자에 대한 움직임 벡터(motion vector)를 검출할 수 있다. 상기 추출된 각 보행자에 대한 움직임 벡터를 이용하면 보행자를 추적하는 것이 가능하다.
도 8은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 특정 영역을 통과하는 보행자를 계수하는 S460 단계의 구체화된 과정을 나타내는 순서도이다.
우선, 제어부(380)는 S810 단계에서 보행자를 계수를 확정하기 위해 획득한 영상 내에 계수 판단을 위한 제1 카운트 라인과 제2 카운트 라인을 설정한다. 보행자 계수가 확정되기 위해서는 보행자가 제1 카운트 라인을 통과한 후 제2 카운트 라인을 통과하거나, 반대로 제2 카운트 라인을 통과한 후 제1 카운트 라인을 통과하여야 한다. 따라서 제1 카운트 라인을 통과한 보행자가 되돌아와 제1 카운트 라인을 다시 통과하거나, 제2 카운트 라인을 통과한 보행자가 되돌아와 제2 카운트 라인을 다시 통과하게 되면 보행자 계수가 확정되지 않는다.
상기 제어부(380)는 움직임 벡터(motion vector)를 이용하여, 보행자가 상기 설정된 카운트 라인을 통과하게 되면 발생하게 되는 통과 감지 신호를 전달받아 S820 단계에서 이를 인식할 수 있다. 이 경우, 상기 제어부(380)가 S830 단계에서 전달 받은 통과 감지 신호가 제1 카운트 라인에 대한 통과 감지 신호라 판단한 경우, S840 단계에서 제2 카운트 라인 통과 감지 신호가 감지되는지 여부를 판단한다. 그리고 상기 제어부(380)가 S840 단계에서 상기 제1 카운트 라인을 통과한 보행자가 제2 카운트 라인을 통과하였다는 통과 감지 신호를 감지하면, S850 단계에서 보행자 계수를 확정한다.
만약 S830 단계에서 제어부(380)가 전달 받은 통과 감지 신호가 제2 카운트 라인에 대한 것이라 판단한 경우, S860 단계에서 제1 카운트 라인 통과 감지 신호가 감지되는지 여부를 판단한다. 그리고 상기 제어부(380)가 S860 단계에서 상기 제2 카운트 라인을 통과한 보행자가 제1 카운트 라인을 통과하였다는 통과 감지 신호를 감지하면, 마찬가지로 S850 단계에서 보행자 계수를 확정한다.
도 9는 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 보행자의 크기를 고려하여 특정 영역을 통과하는 보행자 계수를 확정하는 예를 나타내는 예시도이다.
보행자 A는 분할된 영역별 보행자의 평균 크기 및 오차를 고려하여 한 명의 보행자로 계수되었으며, 제1 카운트 라인을 먼저 통과하고 제2 카운트 라인을 나중에 통과하여 한 명의 보행자 계수를 확정한다. 반면, 보행자 B는 분할된 영역별 보행자의 평균 크기 및 오차를 고려하여 두 명의 보행자로 계수되었으며, 제1 카운트 라인을 먼저 통과하고 제2 카운트 라인을 나중에 통과하여 두 명의 보행자 계수를 확정한다.
도 10은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 보행자의 이동 방향을 고려하여 특정 영역을 통과하는 보행자의 계수를 확정하는 예를 나타내는 예시도이다.
보행자 C는 분할된 영역별 보행자의 평균 크기 및 오차를 고려하여 한 명의 보행자로 계수되었으며, 제1 카운트 라인을 먼저 통과하고 제2 카운트 라인을 나중에 통과하여 한 명의 보행자의 카운트를 확정한다. 반면, 보행자 D는 마찬가지로 한명의 보행자로 계수되었으며, 제2 카운트 라인을 먼저 통과하고 제1 카운트 라인을 나중에 통과하여 한 명의 보행자 계수를 확정한다.
도 11은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 보행자의 이동 방향을 고려하여 특정 영역을 통과하는 보행자의 계수를 확정하는 또 다른 예를 나타내는 예시도이다.
보행자 E는 분할된 영역별 보행자의 평균 크기 및 오차를 고려하여 한 명의 보행자로 계수되었으며, 제1 카운트 라인을 먼저 통과하고 제2 카운트 라인을 나중에 통과하여 한 명의 보행자의 카운트를 확정한다. 반면, 보행자 F는 마찬가지로 한명의 보행자로 계수되었으며, 제2 카운트 라인을 먼저 통과하지만 이동 방향을 바꾸어 다시 제2 카운트 라인을 나중에 통과한다. 이 경우 상기 보행자 F에 대해서는 보행자 계수를 확정하지 않는다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
도 1a 및 1-B는 본 발명의 실시예에 따른 영역 기반 보행자 계수 장치 및 방법에서 사용하는 영역별 보행자의 크기를 산출하기 위한 영상 분할 방법을 나타내는 도면.
도 2는 도 1에서 분할된 각각의 영역에서 한 명의 보행자가 차지하는 평균 크기를 계산하기 위해 보행자를 직육면체로 근사화하여 모델링한 것을 나타내는 도면.
도 3는 본 발명의 실시예에 따른 영역 기반 보행자 계수 장치의 내부 구조를 나타내는 내부 구조도.
도 4는 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 카메라로부터 영상을 획득하여 움직이는 보행자를 추출, 추적, 계수하는 방법을 나타내는 순서도.
도 5는 본 발명의 바람직한 실시예에 따른 영역 기반 물체 계수 장치에서 카메라로부터 획득한 영상의 왜곡 현상을 제거하기 위해 영상 보정을 수행하는 S430 단계의 구체화된 과정을 나타내는 순서도.
도 6은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 획득한 영상으로부터 보행자를 추출하고, 상기 추출된 보행자가 해당하는 영역을 결정하는 S440 단계의 구체화된 과정을 나타내는 순서도.
도 7은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 추출한 보행자를 추적하는 S450 단계의 구체화된 과정을 나타내는 순서도.
도 8은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 특정 영역을 통과하는 보행자를 계수하는 S460 단계의 구체화된 과정을 나타내는 순서도.
도 9는 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 보행자의 크기를 고려하여 특정 영역을 통과하는 보행자 계수를 확정하는 예를 나타내는 예시도.
도 10은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 보행자의 이동 방향을 고려하여 특정 영역을 통과하는 보행자의 계수를 확정하는 예를 나타내는 예시도.
도 11은 본 발명의 실시예에 따른 영역 기반 물체 계수 장치가 보행자의 이동 방향을 고려하여 특정 영역을 통과하는 보행자의 계수를 확정하는 또 다른 예를 나타내는 예시도.

Claims (17)

  1. 영상을 획득하는 카메라;
    영상 영역별 물체의 평균 크기와 오차 범위 데이터를 저장하는 저장부; 및
    상기 획득된 영상을 입력받는 데이터 획득부와, 현재 영상과 이전 영상을 비교하여 물체의 출현을 판단하고 물체의 크기를 결정하는 추출부와, 상기 물체가 위치한 영역을 결정하는 영역 확인부와, 상기 물체의 크기와 위치 데이터를 상기 저장부의 데이터와 비교하여 상기 물체를 계수하는 판단부를 구비하는 제어부를 포함하는 것을 특징으로 하는 영역 기반의 물체 계수 장치.
  2. 제1항에 있어서,
    상기 영상 영역은 적어도 두 개의 영역으로 분할되며, 상기 영상 영역 내의 분할된 영역들은 상하좌우 방향으로 서로 대칭인 것을 특징으로 하는 영역 기반의 물체 계수 장치.
  3. 제1항에 있어서,
    상기 데이터 획득부에 입력되는 영상을 전달받아 왜곡된 영상을 보정하는 보정부를 더 포함하는 것을 특징으로 하는 영역 기반의 물체 계수 장치.
  4. 제3항에 있어서,
    상기 왜곡된 영상의 보정은 보정 툴 박스 또는 정의 알고리즘 중 어느 하나를 이용하는 것을 특징으로 하는 영역 기반의 물체 계수 장치.
  5. 제3항에 있어서,
    상기 왜곡된 영상의 보정은 보정 툴 박스 및 정의 알고리즘을 이용하는 것을 특징으로 하는 영역 기반의 물체 계수 장치.
  6. 제1항에 있어서,
    상기 판단부는 상기 물체의 움직임 벡터(motion vector)를 검출하여 물체를 추적하는 것을 특징으로 하는 영역 기반의 물체 계수 장치.
  7. 제6항에 있어서,
    상기 판단부는 상기 현재 영상과 상기 이전 영상의 동일 물체끼리 매칭시키고, 상기 물체의 중심 좌표를 구한 후, 상기 현재 영상의 물체의 중심 좌표와 상기 이전 영상의 물체의 중심 좌표의 차이 값을 계산하여 상기 물체의 움직임 벡터를 검출하는 것을 특징으로 하는 영역 기반의 물체 계수 장치.
  8. 제1항에 있어서,
    상기 판단부는 상기 영상에 제1 카운트 라인 및 제2 카운트 라인을 설정하고, 제1 카운트 라인 통과 신호 및 제2 카운트 라인 통과 신호가 모두 감지 시, 계 수를 확정하는 것을 특징으로 하는 영역 기반의 물체 계수 장치.
  9. 영상 영역별 물체의 평균 크기 및 오차가 결정되는 단계;
    카메라로에서 획득된 영상에서 물체를 추출하고, 상기 물체를 포함하는 영역을 결정하는 단계; 및
    상기 물체를 추적하여 계수를 확정하는 단계를 포함하는 것을 특징으로 하는 영역 기반의 물체 계수 방법.
  10. 제9항에 있어서,
    상기 영상 영역은 적어도 두 개의 영역으로 분할되며, 상기 영상 영역 내의 분할 영역들은 상하좌우 방향으로 대칭인 것을 특징으로 하는 영역 기반의 물체 계수 방법.
  11. 제9항에 있어서,
    상기 카메라로부터 획득된 영상의 왜곡을 보정하는 단계를 더 포함하는 것을 특징으로 하는 영역 기반의 물체 계수 방법.
  12. 제11항에 있어서,
    상기 획득된 영상의 왜곡을 보정하는 단계는 보정 툴 박스 또는 정의 알고리즘을 이용하는 것을 특징으로 하는 영역 기반의 물체 계수 방법.
  13. 제11항에 있어서,
    상기 획득된 영상의 왜곡을 보정하는 단계는 보정 툴 박스 및 정의 알고리즘을 이용하는 것을 특징으로 하는 영역 기반의 물체 계수 방법.
  14. 제9항에 있어서, 상기 물체를 추출하고 상기 물체를 포함하는 영역을 결정하는 단계는,
    레퍼런스 영상을 저장하는 단계;
    현재 영상과 이전 영상을 비교하여 분석하는 단계;
    상기 분석 결과 설정된 범위 이상의 변화가 감지되면 물체가 출현한 것으로 판단하고 상기 물체를 추출하는 단계;
    상기 물체의 크기와, 위치 영역을 확인하는 단계; 및
    상기 물체를 계수하는 단계를 포함하는 것을 특징으로 하는 영역 기반의 물체 계수 방법.
  15. 제14항에 있어서,
    상기 설정된 범위는 5% 이내인 것을 특징으로 하는 영역 기반의 물체 계수 방법.
  16. 제9항에 있어서, 상기 물체를 추적하는 단계는,
    현재 영상과 이전 영상의 동일 물체끼리 매칭 시키는 단계;
    상기 물체의 중심 좌표를 구하는 단계; 및
    상기 현재 영상의 물체의 중심 좌표와 상기 이전 영상의 물체의 중심 좌표의 차이 값을 구하여 상기 물체의 움직임 벡터를 검출하는 단계를 포함하는 것을 특징으로 하는 영역 기반의 물체 계수 방법.
  17. 제9항에 있어서, 상기 계수를 확정하는 단계는,
    상기 획득된 영상에 제1 카운트 라인 및 제2 카운트 라인을 설정하는 단계; 및
    제1 카운트 라인 통과 신호 및 제2 카운트 라인 통과 신호를 모두 감지하면 계수를 확정하는 단계를 포함하는 것을 특징으로 하는 영역 기반의 물체 계수 방법.
KR1020080004873A 2008-01-16 2008-01-16 영역 기반의 물체 계수 장치 및 방법 KR101467847B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080004873A KR101467847B1 (ko) 2008-01-16 2008-01-16 영역 기반의 물체 계수 장치 및 방법
US12/353,279 US8331729B2 (en) 2008-01-16 2009-01-14 Block-based object counting apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080004873A KR101467847B1 (ko) 2008-01-16 2008-01-16 영역 기반의 물체 계수 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20090078982A true KR20090078982A (ko) 2009-07-21
KR101467847B1 KR101467847B1 (ko) 2014-12-03

Family

ID=40850615

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080004873A KR101467847B1 (ko) 2008-01-16 2008-01-16 영역 기반의 물체 계수 장치 및 방법

Country Status (2)

Country Link
US (1) US8331729B2 (ko)
KR (1) KR101467847B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012176953A1 (ko) * 2011-06-23 2012-12-27 (주)유디피 설정 인터페이스를 구비한 피플 카운터 및 그 설정 방법
US8699750B2 (en) 2010-08-06 2014-04-15 Samsung Techwin Co., Ltd. Image processing apparatus
US9160784B2 (en) 2010-10-15 2015-10-13 Hanwha Techwin Co., Ltd. Remote management system, remote management method, and monitoring server

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101666397B1 (ko) * 2010-12-21 2016-10-14 한국전자통신연구원 객체 영상 획득 장치 및 방법
US9019367B2 (en) * 2011-06-10 2015-04-28 Wuerth Elektronik Ics Gmbh & Co. Kg Method for dynamically detecting the fill level of a container, container therefor, and system for dynamically monitoring the fill level of a plurality of containers
TWI448977B (zh) 2011-12-08 2014-08-11 Ind Tech Res Inst 基於視訊分析的物件計數方法與裝置
US9064176B2 (en) * 2012-01-31 2015-06-23 Industry-University Cooperation Foundation Hanyang University Apparatus for measuring traffic using image analysis and method thereof
CN103049788B (zh) * 2012-12-24 2015-11-18 南京航空航天大学 基于计算机视觉的待过行人数目的检测系统及方法
US9129157B2 (en) * 2013-04-30 2015-09-08 Qualcomm Incorporated Method for image-based status determination
TWI604416B (zh) * 2015-10-01 2017-11-01 晶睿通訊股份有限公司 影像流量分析方法及具有影像流量分析功能的攝影機
CN108238313B (zh) * 2016-12-26 2020-03-27 航天信息股份有限公司 一种关联产品信息和包装箱信息的方法及系统
JP7143661B2 (ja) * 2018-07-24 2022-09-29 トヨタ自動車株式会社 情報処理システム、プログラム、及び制御方法
TWI790187B (zh) * 2021-09-22 2023-01-11 日商不二輸送機工業股份有限公司 計數裝置以及計數方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136219A (ja) * 1994-11-09 1996-05-31 Nabco Ltd 移動物体検出装置
JP2001175868A (ja) * 1999-12-22 2001-06-29 Nec Corp 人物検出方法及び装置
KR20030018487A (ko) 2001-08-29 2003-03-06 주식회사 하나엘 영상을 이용한 출입 이동 물체 계수 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8699750B2 (en) 2010-08-06 2014-04-15 Samsung Techwin Co., Ltd. Image processing apparatus
US9160784B2 (en) 2010-10-15 2015-10-13 Hanwha Techwin Co., Ltd. Remote management system, remote management method, and monitoring server
WO2012176953A1 (ko) * 2011-06-23 2012-12-27 (주)유디피 설정 인터페이스를 구비한 피플 카운터 및 그 설정 방법
KR101222482B1 (ko) * 2011-06-23 2013-01-15 브이씨에이 테크놀러지 엘티디 설정 인터페이스를 구비한 피플 카운터 및 그 설정 방법
US8897492B2 (en) 2011-06-23 2014-11-25 UDP Technology Ltd. People counter including setting interface and method for setting the same

Also Published As

Publication number Publication date
US8331729B2 (en) 2012-12-11
KR101467847B1 (ko) 2014-12-03
US20090180583A1 (en) 2009-07-16

Similar Documents

Publication Publication Date Title
KR20090078982A (ko) 영역 기반의 물체 계수 장치 및 방법
JP6554169B2 (ja) 物体認識装置及び物体認識システム
US10733751B2 (en) Displacement detecting apparatus and displacement detecting method
US20130128034A1 (en) Real-Time Player Detection From A Single Calibrated Camera
JP2017526082A (ja) 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体
JP6844235B2 (ja) 距離測定装置および距離測定方法
US20060215881A1 (en) Distance measurement apparatus, electronic device, distance measurement method, distance measurement control program and computer-readable recording medium
JP5756709B2 (ja) 身長推定装置、身長推定方法、及び身長推定プログラム
WO2014002692A1 (ja) ステレオカメラ
US10235579B2 (en) Vanishing point correction apparatus and method
JP5027758B2 (ja) 画像監視装置
CN113015884B (zh) 图像处理装置和图像处理方法
JPWO2015015542A1 (ja) 車載ステレオカメラシステム及びそのキャリブレーション方法
Guido et al. Vehicle tracking system based on videotaping data
US20100246905A1 (en) Person identifying apparatus, program therefor, and method thereof
CN116777950B (zh) 基于相机参数的多目标视觉跟踪方法、装置、设备及介质
JP2006236025A (ja) 人物検出方法
JP2007188269A (ja) 画像上移動物体追跡方法及び装置
US11704815B2 (en) Tracking device, tracking method, and tracking system
CN105513193A (zh) 一种矫正红外图像的方法及装置
KR101640563B1 (ko) 달리기 감지 방법 및 시스템
KR100835906B1 (ko) 로봇 전역 위치 추정 방법 및 로봇 전역 위치 추정 장치
EP3879810A1 (en) Imaging device
JPWO2020175085A1 (ja) 画像処理装置、及び画像処理方法
KR101934317B1 (ko) 선형정보의 연관분석을 이용한 영상의 자동등록 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171030

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee