KR102055276B1 - Method and Apparatus for Counting People - Google Patents

Method and Apparatus for Counting People Download PDF

Info

Publication number
KR102055276B1
KR102055276B1 KR1020180091555A KR20180091555A KR102055276B1 KR 102055276 B1 KR102055276 B1 KR 102055276B1 KR 1020180091555 A KR1020180091555 A KR 1020180091555A KR 20180091555 A KR20180091555 A KR 20180091555A KR 102055276 B1 KR102055276 B1 KR 102055276B1
Authority
KR
South Korea
Prior art keywords
model
camera
tilt
dimensional
image
Prior art date
Application number
KR1020180091555A
Other languages
Korean (ko)
Other versions
KR20180091792A (en
Inventor
임재균
조영관
박병관
박태서
조동찬
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020180091555A priority Critical patent/KR102055276B1/en
Publication of KR20180091792A publication Critical patent/KR20180091792A/en
Application granted granted Critical
Publication of KR102055276B1 publication Critical patent/KR102055276B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M1/00Design features of general application
    • G06M1/08Design features of general application for actuating the drive
    • G06M1/10Design features of general application for actuating the drive by electric or magnetic means
    • G06M1/101Design features of general application for actuating the drive by electric or magnetic means by electro-optical means
    • G06K9/00362
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M7/00Counting of objects carried by a conveyor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G07C9/00126
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

사람계수 장치 및 방법을 개시한다.
카메라의 주축이 바닥과 수직이 되도록 설치되어야 하는 카메라의 설치상 제약에서 벗어나 사람계수를 하고자 하는 장소의 특성에 맞게 카메라를 설치하되, 겹침 현상(Occlusion)을 최소화할 수 있는 사람계수 장치 및 방법을 제공한다.
Disclosed are a human counting device and method.
The human counting device and method for installing the camera in accordance with the characteristics of the place where the human counting is to be freed from the limitation of the installation of the camera that the main axis of the camera should be perpendicular to the floor, and minimizing the occlusion to provide.

Description

사람계수 장치 및 방법{Method and Apparatus for Counting People}Person and Apparatus for Counting People

본 실시예는 영상을 분석하여 사람들을 계수하는 장치 및 방법에 관한 것이다.This embodiment relates to an apparatus and method for counting people by analyzing an image.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute a prior art.

종래의 일반적인 계수 시스템(People Counting System)은 기계적인 게이트(Gate)를 방문자가 통과하면, 사람이 게이트를 수동으로 제어하여 방문자를 계수하는 방식이다. 또한, 종래의 계수 시스템으로는 적외선 센서를 이용하여 출입자를 감지하는 계수 방식, 열 화상 센서를 이용하여 사람의 체온 분포를 분석하는 계수 방식, 영상처리기술을 이용하여 영상 정보를 분석한 후 특정 형태 또는 특징이 검출되면 이벤트로 간주하는 계수 방식 등이 존재한다.The conventional general counting system (People Counting System) is a way that when a visitor passes through a mechanical gate (Gate), a person manually controls the gate to count the visitor. In addition, a conventional counting system includes a counting method for detecting a person using an infrared sensor, a counting method for analyzing a temperature distribution of a person using a thermal image sensor, and a specific form after analyzing image information using an image processing technology. Alternatively, when a feature is detected, there is a counting method that is regarded as an event.

일반적으로 기 설정된 특정 영역 내에 진입하는 사람의 수를 계수하는 것은 마케팅의 중요한 요소 중 하나인 수렴 비율(Convergence Ratio)을 측정하는 중요한 지표이다. 하지만, 현재 수작업으로 기 설정된 특정 영역 내에 진입하는 사람의 수를 계수하고 있다. 수작업으로 계수를 수행하면, 사람의 눈으로 계수를 수행하는 데에 많은 시간이 소요될 뿐만 아니라, 많은 인건비가 발생하는 반면, 계수의 정확성을 보장할 수 없는 문제점이 존재한다.In general, counting the number of people entering a predetermined area is an important measure of the convergence ratio, which is one of the important factors of marketing. However, it is currently counting the number of people entering a specific area manually set. Performing the counting by hand, not only takes a lot of time to perform the counting with human eyes, but also generates a lot of labor costs, but there is a problem that can not guarantee the accuracy of the counting.

전술한 문제점을 해결하기 위한 종래의 계수 기술로는 객체의 움직임 정보를 이용하여 영상의 전경과 배경을 분리하고, 분리된 전경에서 사람으로 판단되는 객체를 추적하여 추적된 객체의 수와 방향성을 판단하는 방식이었다. 종래의 사람 계수 기술은 비교적 통행량이 적거나 배경이 단순한 경우에 안정적으로 동작한다. 하지만, 다수의 사람이 통행하는 복잡한 환경 또는 넓은 지역을 감시하는 시스템에서는 많은 변수들이 작용하기 때문에, 정확도가 감소하는 문제가 있다.Conventional counting techniques for solving the above problems are to separate the foreground and background of the image by using the motion information of the object, and to determine the number and direction of the tracked objects by tracking the object that is determined to be a person in the separated foreground It was the way. Conventional human counting techniques operate reliably in the case of relatively low traffic or simple background. However, in a complex environment where a large number of people pass or a system that monitors a large area, many variables operate, which causes a problem of decreasing accuracy.

전술한 문제점을 해결하기 위한 종래의 사람계수 기술로 단일 카메라로부터 획득한 2차원 영상을 분석하여 계수하는 방법이 있었으나, 그림자를 사람으로 인식하는 등 야외 환경에서의 한계점이 드러났다. 이에 따라, 최근에는 3D 카메라로부터 획득한 3차원 영상을 분석하여 사람을 계수하는 방법이 활발히 연구되고 있다.In order to solve the above-mentioned problems, there has been a method of analyzing and counting two-dimensional images obtained from a single camera as a conventional human counting technique. However, limitations in an outdoor environment have been revealed, such as recognizing a shadow as a human. Accordingly, recently, methods for counting people by analyzing three-dimensional images acquired from a 3D camera have been actively studied.

3차원 영상을 분석하여 계수하는 종래의 방법은 영상 내에 존재하는 사람들 사이의 가려짐(Occlusion)을 최소화하기 위하여 카메라를 천장 등에 설치한다. 카메라의 주축(Principal Axis)이 바닥과 수직이 되도록 하여 오버헤드 뷰(Overhead View) 영상을 생성함으로써, 영상 내에 존재하는 사람들 간의 신체 일부가 가려지거나 겹치는 현상을 줄이는 것이다.Conventional methods of analyzing and counting three-dimensional images have cameras mounted on the ceiling, etc. to minimize occlusion between people present in the images. By creating an overhead view image by making the principal axis of the camera perpendicular to the floor, the body part between people existing in the image is blocked or overlapped.

그러나 이러한 방식은 카메라를 바닥과 수직이 되도록 설치해야 하는 환경적 제약이 있다.However, this method is environmentally limited to install the camera perpendicular to the floor.

본 발명의 실시예들은, 카메라의 주축이 바닥과 수직이 되도록 설치되어야 하는 카메라의 설치상 제약에서 벗어나 사람계수를 하고자 하는 장소의 특성에 맞게 카메라를 설치하되, 겹침 현상(Occlusion)을 최소화할 수 있는 사람계수 장치 및 방법을 제공하는 데 주된 목적이 있다.Embodiments of the present invention, while the camera is installed in accordance with the characteristics of the place to be a person count to escape from the installation constraints of the camera to be installed so that the main axis of the camera perpendicular to the floor, it can minimize the overlap (Occlusion) The main purpose is to provide a person counting device and method.

본 발명의 실시예에 의하면, 입체영상(3D) 카메라를 이용하여 촬영된 영상으로부터 3차원 모델을 생성하는 3차원 모델 생성부, 상기 3D 카메라의 기울기를 추정하는 기울기 추정부, 상기 3차원 모델을 상기 3D 카메라의 기울기에 상응하도록 회전시켜 탑 뷰 (Top View) 기반 3차원 모델을 얻는 3차원 모델 복원부, 상기 복원된 탑 뷰 기반 3차원 모델을 수평면에 투영하여 2차원 투영 영상을 생성하는 투영부, 및 상기 2차원 투영 영상을 이용하여 사람영역을 검출하여 사람을 계수하는 계수부를 포함하는 영상 분석 장치를 제공한다.According to an embodiment of the present invention, a three-dimensional model generator for generating a three-dimensional model from an image photographed using a three-dimensional (3D) camera, a tilt estimator for estimating the tilt of the 3D camera, the three-dimensional model A 3D model reconstructor which obtains a Top View based 3D model by rotating it according to the tilt of the 3D camera, and generates a 2D projection image by projecting the restored Top View based 3D model onto a horizontal plane And a counting unit for counting a person by detecting a person region using the 2D projection image.

본 발명의 실시예에 의하면, 하드웨어와 결합되어, 하나 이상의 입력영상들로부터 획득한 깊이정보에 기초하여 3차원 모델을 생성하는 과정, 카메라에 장착된 기울기 센서로부터 센싱정보를 획득하여 수평면을 기준으로 상기 카메라가 기울어진 기울기를 추정하는 과정, 상기 3차원 모델을 상기 기울기에 상응하도록 회전시켜 복원된 3차원 모델을 얻는 과정, 상기 복원된 3차원 모델을 상기 수평면에 수직인 방향으로 투영하여 3차원 좌표계 상의 수직방향의 밀도정보를 나타내는 2차원 투영 영상을 생성하는 과정, 및 상기 2차원 투영 영상을 이용하여 사람영역을 검출하고 추적하여, 기 설정된 관심영역을 통과하는 사람을 계수하는 과정을 실행시키기 위하여 기록매체에 저장된 컴퓨터프로그램을 제공한다.According to an exemplary embodiment of the present invention, a process of generating a 3D model based on depth information obtained from one or more input images by combining with hardware, and obtaining sensing information from a tilt sensor mounted on a camera, based on a horizontal plane A process of estimating an inclined tilt of the camera, a process of obtaining a restored 3D model by rotating the 3D model to correspond to the tilt, and projecting the restored 3D model in a direction perpendicular to the horizontal plane Generating a two-dimensional projection image representing density information in a vertical direction on a coordinate system; and detecting and tracking a human region using the two-dimensional projection image, and counting a person passing through a predetermined region of interest. In order to provide a computer program stored in a recording medium.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 카메라의 주축이 바닥과 수직이 되도록 설치되어야 하는 카메라의 설치상 제약에서 벗어나 사람계수를 하고자 하는 장소의 특성에 맞게 카메라를 설치하되, 겹침 현상(Occlusion)을 최소화하여 사람을 정확하게 계수할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, the camera is installed in accordance with the characteristics of the place where the human factor is to be freed from the limitation of the installation of the camera, which should be installed so that the main axis of the camera is perpendicular to the floor. It has the effect of minimizing occlusion and accurately counting people.

본 실시예에 의하면, 카메라에 장착된 센서를 이용하여 카메라의 기울기를 추정하고, 카메라의 기울기에 따라 3차원 모델을 복원함으로써 카메라의 기울어짐에 의해 발생할 수 있는 사람 검출 오류를 줄일 수 있는 효과가 있다.According to this embodiment, by using the sensor mounted on the camera to estimate the inclination of the camera, and by restoring the three-dimensional model according to the inclination of the camera to reduce the human detection error that can occur due to the tilting of the camera has an effect have.

본 실시예에 의하면, 카메라로부터 획득한 영상을 분석하여 사람의 수를 보다 정확하게 계수하여 침입 또는 이상 상황 탐지 등의 영상 보안 분야에 적용할 수 있을 뿐만 아니라 BI(Business Intelligence) 분야에 적용하여 백화점 등 소매점에서 매장 내 유동 인구나 혼잡도 등을 빠르고 정확하게 분석할 수 있는 효과가 있다.According to the present embodiment, the image obtained from the camera is analyzed to more accurately count the number of people, which can be applied to the field of video security such as intrusion or abnormal situation detection and also applied to the field of business intelligence (BI). Retailers can quickly and accurately analyze the floating population and congestion in stores.

도 1은 종래 기술의 문제점을 설명하기 위한 예시도이다.
도 2는 본 발명의 실시예에 따른 영상 분석 장치의 개략적인 구성도이다.
도 3은 본 발명의 실시예에 따른 영상 분석 장치의 기울기 추정부를 설명하기 위한 개념도이다.
도 4a 내지 도 4c는 본 발명의 실시예에 따른 영상 분석 장치의 3차원 모델 복원부 및 투영부를 설명하기 위한 예시도이다.
도 5는 본 발명의 실시예에 따른 영상 분석 장치에 의해 수행되는 사람계수 방법을 나타내는 흐름도이다.
1 is an exemplary view for explaining a problem of the prior art.
2 is a schematic structural diagram of an image analyzing apparatus according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a tilt estimation unit of an image analyzing apparatus according to an exemplary embodiment of the present invention.
4A to 4C are exemplary diagrams for describing a 3D model reconstructor and a projection unit of an image analyzing apparatus according to an exemplary embodiment of the present invention.
5 is a flowchart illustrating a person counting method performed by an image analyzing apparatus according to an exemplary embodiment of the present invention.

이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, the present embodiment will be described in detail with reference to the accompanying drawings.

도 1은 종래 기술의 문제점을 설명하기 위한 예시도이다.1 is an exemplary view for explaining a problem of the prior art.

도 1(a)는 주축이 바닥면과 수직이 되도록 특정 공간의 천장에 카메라(10-1)가 설치된 경우를 나타낸다. 이와 같은 경우, 영상 내에 존재하는 사람들 사이의 가려짐(Occlusion)이 작아 비교적 정확하게 각각의 사람을 검출하여 추적한 뒤 계수(Counting)를 할 수 있다.FIG. 1 (a) shows a case where the camera 10-1 is installed on the ceiling of a specific space so that the main axis is perpendicular to the floor surface. In such a case, occlusion between people existing in the image is small, so that each person can be detected and tracked relatively accurately.

그러나 카메라의 적절한 설치위치는 사람계수를 하고자 하는 공간의 환경적 특성 및 사람계수를 이용하는 응용 분야에 따라 달라질 수 있다. 경우에 따라서 카메라의 주축이 바닥면과 수직이 되도록 설치하는 것보다 바닥면과 비스듬하게 설치하는 것이 더 적절하거나 높이가 낮은 경우 비스듬하게 설치해야만 하는 경우가 있다.However, the proper installation position of the camera may vary depending on the environmental characteristics of the space where the human factor is to be applied and the application field using the human factor. In some cases, it is more appropriate to install the camera at an angle to the bottom surface than to install it so that the main axis of the camera is perpendicular to the floor.

도 1(b)는 주축이 바닥면과 경사지도록 카메라(10-2)가 설치된 경우를 나타낸다. 이러한 경우에도 도 1(a)와 동일한 계수 방법을 적용하면 영상 내 사람들 사이에 가려짐(Occlusion)이 증가하여 영상으로부터 사람들을 검출하는 데에 정확성이 떨어지게 된다.FIG. 1 (b) shows a case where the camera 10-2 is installed so that the main shaft is inclined with the bottom surface. Even in this case, if the same counting method as in FIG. 1 (a) is applied, occlusion between people in the image is increased, thereby reducing accuracy in detecting people from the image.

본 발명의 실시예들은 탑 뷰(Top View) 영상을 획득하도록 카메라가 설치되어야 한다는 설치상의 제약없이 정확하게 사람을 계수하는 영상 분석 장치 및 방법을 제공한다. 즉, 카메라가 천장에서 비스듬하게 설치되거나 벽면에 설치되는 등으로 인해 획득되는 슬랜티드 뷰(Slanted View) 영상에서도 가려짐(Occlusion) 현상에 강인하게(Robust) 사람을 계수할 수 있는 영상 분석 장치 및 방법을 제공한다.Embodiments of the present invention provide an image analysis apparatus and method for accurately counting people without installation restrictions that a camera must be installed to obtain a top view image. That is, an image analysis apparatus capable of counting a person robust to occlusion even in a slanted view image obtained by installing the camera obliquely from a ceiling or a wall, and Provide a method.

이하, 도 2를 참조하여 본 발명의 실시예에 따른 영상 분석 장치(100)에 대하여 구체적으로 설명한다.Hereinafter, an image analyzing apparatus 100 according to an exemplary embodiment of the present invention will be described in detail with reference to FIG. 2.

도 2는 본 발명의 실시예에 따른 영상 분석 장치(100)의 개략적인 구성도이다.2 is a schematic structural diagram of an image analyzing apparatus 100 according to an embodiment of the present invention.

본 실시예에 따른 영상 분석 장치(100)는 전처리부(210), 검출부(220) 및 계수부(230)를 포함한다. 검출부(220)는 3차원 모델 생성부(222), 기울기 추정부(224), 3차원 모델 복원부(226) 및 투영부(228)를 포함한다. 그러나, 영상 분석 장치(100)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니고 다른 구성요소를 더 포함할 수 있다.The image analyzing apparatus 100 according to the present exemplary embodiment includes a preprocessor 210, a detector 220, and a counter 230. The detector 220 includes a 3D model generator 222, a tilt estimator 224, a 3D model reconstructor 226, and a projection unit 228. However, the components included in the image analyzing apparatus 100 are not necessarily limited thereto, and may further include other components.

영상 분석 장치(100)에 포함된 각 구성요소는 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작할 수 있다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Each component included in the image analyzing apparatus 100 may be connected to a communication path connecting a software module or a hardware module inside the apparatus to operate organically with each other. These components communicate using one or more communication buses or signal lines.

또한, 도 2에서는 각각의 구성요소가 별개의 모듈로 존재하는 것으로 도시하였으나, 이에 한정되지 않고 각각의 기능을 모두 포함하는 하나의 통합된 모듈로 구현될 수도 있다.In addition, although FIG. 2 illustrates that each component exists as a separate module, the present invention is not limited thereto and may be implemented as one integrated module including all of the functions.

영상 분석 장치(100)는 (i) 각종 기기 또는 유무선 네트워크와 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, (ii) 각종 프로그램과 데이터를 저장하기 위한 메모리, (iii) 각종 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치이다. 적어도 일 실시예에 따르면, 메모리는 램(Random Access Memory: RAM), 롬(Read Only Memory: ROM), 플래시 메모리, 광 디스크, 자기 디스크, 솔리드 스테이트 디스크(Solid State Disk: SSD) 등의 컴퓨터로 판독 가능한 기록/저장매체일 수 있다. 적어도 일 실시예에 따르면, 마이크로프로세서는 명세서상에 기재된 동작과 기능을 하나 이상 선택적으로 수행하도록 프로그램될 수 있다. 적어도 일 실시예에 따르면, 마이크로프로세서는 전체 또는 부분적으로 특정한 구성의 주문형반도체(Application Specific Integrated Circuit: ASIC) 등의 하드웨어로써 구현될 수 있다.The image analyzing apparatus 100 executes (i) a communication device such as a communication modem for performing communication with various devices or a wired / wireless network, (ii) a memory for storing various programs and data, and (iii) executes various programs for operation. And a microprocessor for controlling and the like. According to at least one embodiment, the memory may be a computer such as random access memory (RAM), read only memory (ROM), flash memory, optical disk, magnetic disk, solid state disk (SSD), or the like. It may be a readable recording / storage medium. According to at least one embodiment, the microprocessor may be programmed to selectively perform one or more of the operations and functions described in the specification. According to at least one embodiment, the microprocessor may be implemented as hardware, such as an Application Specific Integrated Circuit (ASIC), in whole or in part.

전처리부(210)는 카메라(미도시)로부터 입력된 하나 이상의 입력영상들에 대하여 전처리(Preprocessing)을 수행한다. 여기서, 카메라는 스테레오 카메라와 같은 깊이 카메라를 포함한 3차원 거리 정보를 측정할 수 있는 장비를 통칭한다. 이하, 설명의 편의를 위하여 스테레오 카메라를 예로 들어 전처리부(210)에 대하여 설명한다.The preprocessor 210 performs preprocessing on one or more input images input from a camera (not shown). Here, the camera is a generic name for equipment capable of measuring three-dimensional distance information including a depth camera such as a stereo camera. Hereinafter, the preprocessor 210 will be described using the stereo camera as an example for convenience of description.

구체적으로 전처리부(210)는 스테레오 영상들에 대한 노이즈 리덕션(Noise Reduction), 렉티피케이션(Rectification), 캘리브레이션(Calibration), 색상 강화(Color Enhancement), 색상 공간 변환(Color Space Conversion;CSC), 인터폴레이션(Interpolation), 카메라 게인 컨트롤(Camera Gain Control) 등을 수행할 수 있다. 이에 따라, 스테레오 카메라에서 촬영된 스테레오 영상보다 선명한 스테레오 영상을 획득할 수 있다.In detail, the preprocessing unit 210 includes noise reduction, rectification, calibration, color enhancement, color space conversion (CSC), and the like for stereo images. Interpolation, camera gain control, and the like can be performed. Accordingly, a clearer stereo image may be obtained than the stereo image photographed by the stereo camera.

전처리부(210)는 스테레오 영상들에 대한 스테레오 매칭(Stereo Matching)을 수행하여 디스패러티(Disparity) 정보를 획득할 수 있다. 여기서 디스패러티 정보는 스테레오 영상 즉, 좌·우 이미지의 시차정보(Binocular Parallax Information)를 수치로 나타낸 맵을 의미할 수 있다.The preprocessor 210 may obtain disparity information by performing stereo matching on the stereo images. In this case, the disparity information may refer to a map representing numerically parallax information of a stereo image, that is, left and right images.

전처리부(210)는 디스패러티 정보에 기초하여 스테레오 영상 중 적어도 하나에 대하여 배경과 전경을 분리할 수 있다.The preprocessor 210 may separate the background and the foreground from at least one of the stereo images based on the disparity information.

검출부(220)는 전처리부(210)로부터 수신한 하나 이상의 입력영상들로부터 사람을 검출한다. 전술한 바와 같이 검출부(220)는 3차원 모델 생성부(222), 기울기 추정부(224), 3차원 모델 복원부(226) 및 투영부(228)를 포함한다. 이하, 구성요소 각각에 대하여 구체적으로 설명한다.The detector 220 detects a person from one or more input images received from the preprocessor 210. As described above, the detector 220 includes a 3D model generator 222, a tilt estimator 224, a 3D model reconstructor 226, and a projection unit 228. Hereinafter, each component is demonstrated concretely.

3차원 모델 생성부(222)는 하나 이상의 입력영상들로부터 획득한 깊이정보에 기초하여 3차원 모델을 생성한다. 여기서 3차원 모델은 3차원 좌표계에 속한 복수의 점들의 집합 형태일 수 있다. 본 실시예에 따른 3차원 모델을 구성하는 점들(P)은 3차원 좌표계에서 X좌표, Y좌표, Z좌표로 정의될 수 있으며, 예컨대 [수학식 1]과 같이 표시할 수 있다.The 3D model generator 222 generates a 3D model based on depth information obtained from one or more input images. Here, the 3D model may be in the form of a set of a plurality of points belonging to the 3D coordinate system. The points P constituting the 3D model according to the present exemplary embodiment may be defined as X coordinates, Y coordinates, and Z coordinates in the 3D coordinate system, and may be expressed as shown in Equation 1, for example.

Figure 112018077721210-pat00001
Figure 112018077721210-pat00001

기울기 추정부(224)는 카메라에 장착된 센서로부터 센싱정보를 획득하여 카메라의 기울기(Tilt)를 추정한다. 이는 카메라가 지면과 수직으로 설치되지 않고 기울어져 설치된 경우, 사람영역을 검출하기 위해 3차원 모델을 2차원 평면에 투영(Projection)할 때 겹치는 부분(Occlusion)이 발생하게 되는 문제를 해결하기 위함이다. 즉, 카메라의 기울기만큼 3차원 모델을 보정하여 복원(Reconstruction)함으로써 탑 뷰(Top View) 영상 기반 3차원 모델에 상응하는 3차원 모델을 획득하기 위해 센서를 이용하여 카메라의 기울기를 추정하는 것이다. 본 실시예는 탑 뷰 영상 기반 3차원 모델에 상응하는 3차원 모델을 이용함으로써, 가려짐(Occlusion)이 최소화된 2차원 투영 영상을 생성하여 사람 검출의 정확도를 향상시킬 수 있다.The tilt estimator 224 estimates the tilt of the camera by obtaining sensing information from a sensor mounted in the camera. This is to solve the problem of overlapping when the 3D model is projected on the 2D plane to detect the human area when the camera is installed at an angle rather than perpendicular to the ground. . That is, the inclination of the camera is estimated using a sensor to obtain a three-dimensional model corresponding to the top view image-based three-dimensional model by correcting and reconstructing the three-dimensional model as much as the inclination of the camera. In this embodiment, by using a three-dimensional model corresponding to the top-view image-based three-dimensional model, it is possible to improve the accuracy of human detection by generating a two-dimensional projection image minimized occlusion (Occlusion).

카메라에 장착된 센서는 예를 들어, 기울기 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며 카메라의 기울기를 감지할 수 있는 다양한 형태의 센서를 포함할 수 있다. 가속도 센서를 이용하는 경우, 센싱정보는 중력방향을 기준으로 X축, Y축, Z축 방향의 가속도 값이 될 수 있다.The sensor mounted on the camera may include, for example, at least one of a tilt sensor, an acceleration sensor, or a gyro sensor. However, the present invention is not limited thereto and may include various types of sensors capable of detecting the tilt of the camera. In the case of using the acceleration sensor, the sensing information may be acceleration values in the X, Y, and Z directions based on the gravity direction.

기울기 추정부(224)는 센싱정보를 이용하여 카메라의 기울기를 추정한다. 도 3을 참조하여 본 실시예에 따른 기울기 추정방법에 대하여 설명한다.The tilt estimator 224 estimates the tilt of the camera using the sensing information. A tilt estimation method according to the present embodiment will be described with reference to FIG. 3.

도 3은 본 발명의 실시예에 따른 영상 분석 장치(100)의 기울기 추정부(224)를 설명하기 위한 개념도이다.3 is a conceptual diagram for describing a tilt estimator 224 of the image analysis apparatus 100 according to an exemplary embodiment.

카메라가 설치된 3차원 좌표공간의 X축, Y축, Z축을 기준으로 카메라의 기울어진 정도를 카메라 본체의 좌표계(Xcam, Ycam, Zcam)로 나타내면 도 3와 같이 표시할 수 있다. 여기서

Figure 112018077721210-pat00002
는 X축 방향으로 카메라가 기울어진 각도,
Figure 112018077721210-pat00003
는 Y축 방향으로 카메라가 기울어진 각도,
Figure 112018077721210-pat00004
는 Z축 방향으로 카메라가 기울어진 각도를 의미한다.The tilt of the camera based on the X-axis, Y-axis, and Z-axis of the three-dimensional coordinate space where the camera is installed can be displayed as shown in FIG. 3 by the coordinate system (Xcam, Ycam, Zcam) of the camera body. here
Figure 112018077721210-pat00002
Is the angle at which the camera is tilted in the x-axis direction,
Figure 112018077721210-pat00003
Is the angle at which the camera is tilted in the Y-axis direction,
Figure 112018077721210-pat00004
Is the angle of inclination of the camera in the Z-axis direction.

카메라의 기울기는 [수학식 2]에 따라 추정될 수 있다.The tilt of the camera can be estimated according to [Equation 2].

Figure 112018077721210-pat00005
Figure 112018077721210-pat00005

Figure 112018077721210-pat00006
Figure 112018077721210-pat00006

Figure 112018077721210-pat00007
Figure 112018077721210-pat00007

여기서,

Figure 112018077721210-pat00008
,
Figure 112018077721210-pat00009
,
Figure 112018077721210-pat00010
는 카메라에 장착된 센서로부터 획득된 센싱정보로서 각각 X축, Y축, Z축 방향의 센싱값을 의미한다.here,
Figure 112018077721210-pat00008
,
Figure 112018077721210-pat00009
,
Figure 112018077721210-pat00010
Is sensing information obtained from a sensor mounted in a camera, and means sensing values in X, Y, and Z-axis directions, respectively.

3차원 모델 복원부(226)는 3차원 모델 생성부(222)에서 생성한 3차원 모델을 기울기 추정부(224)에서 추정한 카메라 기울기에 상응하도록 회전시켜 복원한다. 즉, 3차원 모델 복원부(226)는 3차원 모델을 카메라 기울기의 반대 방향으로 카메라가 기울어진 각도만큼 회전시켜 복원할 수 있다.The 3D model restorer 226 rotates and restores the 3D model generated by the 3D model generator 222 to correspond to the camera tilt estimated by the tilt estimator 224. That is, the 3D model restoring unit 226 may restore the 3D model by rotating the 3D model by the angle in which the camera is inclined in the opposite direction to the camera tilt.

구체적으로 3차원 모델 복원부(226)는 센싱정보에 기초하여 회전 행렬(Rotation Matrix)을 생성하고, 3차원 모델을 구성하는 복수의 점들의 3차원 좌표 각각에 회전 행렬을 적용하여 좌표를 변환할 수 있다.In detail, the 3D model reconstructor 226 generates a rotation matrix based on the sensing information, and converts the coordinates by applying the rotation matrix to each of the 3D coordinates of the plurality of points constituting the 3D model. Can be.

기울기 추정부(224)가 추정한 카메라 기울기(

Figure 112018077721210-pat00011
,
Figure 112018077721210-pat00012
,
Figure 112018077721210-pat00013
)에 기초한 회전 행렬(R)은 [수학식 3]과 같다.Camera tilt estimated by the tilt estimator 224 (
Figure 112018077721210-pat00011
,
Figure 112018077721210-pat00012
,
Figure 112018077721210-pat00013
) Is based on Equation (3).

Figure 112018077721210-pat00014
Figure 112018077721210-pat00014

3차원 모델 복원부(226)에 의해 복원된 3차원 모델(P')은 [수학식 4]로 나타낼 수 있다.The 3D model P ′ reconstructed by the 3D model reconstructor 226 may be represented by Equation 4.

Figure 112018077721210-pat00015
Figure 112018077721210-pat00015

여기서, P는 전술한 [수학식 1]을 의미한다.Here, P means [Equation 1] described above.

본 발명의 일 실시예에서 3차원 모델 생성부(222)는 입력영상으로부터 획득한 깊이정보를 이용하여 가상의 3차원 공간에 복수의 점들을 분산(Scattering)시킴으로써 3차원 모델을 생성할 수 있다. 이와 같은 과정으로 생성된 3차원 모델은 알고리즘에 의해 획득되는 것이므로 센싱정보에 의해 추정되는 카메라 기울기에 따른 시점(View)에서의 3차원 정보와 오차가 있을 수 있다.In an embodiment of the present invention, the 3D model generator 222 may generate a 3D model by scattering a plurality of points in a virtual 3D space by using depth information obtained from an input image. Since the three-dimensional model generated by the above process is obtained by an algorithm, there may be an error with the three-dimensional information in the view according to the camera tilt estimated by the sensing information.

다시 말해, 기울기 추정부(224)로부터 추정된 카메라 기울기(

Figure 112018077721210-pat00016
,
Figure 112018077721210-pat00017
,
Figure 112018077721210-pat00018
)를 3차원 모델 복원 시 그대로 적용할 경우, 오차가 발생하여 탑 뷰(Top View)의 3차원 모델로 복원되지 않을 수 있다. 따라서 센싱정보를 기반으로 3차원 모델을 복원함에 있어서, 해당 오차를 최소화할 필요가 있다.In other words, the camera tilt (estimated from the tilt estimation unit 224)
Figure 112018077721210-pat00016
,
Figure 112018077721210-pat00017
,
Figure 112018077721210-pat00018
) Is applied as it is when restoring the 3D model, an error may occur and may not be restored to the 3D model of the top view. Therefore, in restoring the 3D model based on the sensing information, it is necessary to minimize the corresponding error.

이에 따라 3차원 모델 복원부(226)는 카메라의 기울기 변화에 대응하여 기울기 추정부(224)가 추정한 카메라 기울기의 오차 정보와 관련된 기 저장된 오차 테이블에 기초하여 3차원 모델을 복원할 수 있다.Accordingly, the 3D model reconstructor 226 may reconstruct the 3D model based on a previously stored error table related to error information of the camera tilt estimated by the tilt estimator 224 in response to the change in the tilt of the camera.

본 실시예에 따른 오차 테이블은 다음과 같은 과정을 통해 정의될 수 있다. 실제로 카메라를 다양한 각도(기울기)로 기울여 해당 각도에 따른 3차원 모델들을 생성하고, 해당 각도에서의 센싱정보로부터 카메라의 각도들을 추정한다. 이후, 해당 각도에 따라 생성된 3차원 모델의 기하(Geometry) 정보와 해당 각도에서 추정된 카메라의 각도를 비교함으로써, 각도의 오차를 확인한다. 확인된 각도(기울기)의 오차를 기반으로 생성된 오차 테이블은 영상 분석 장치(100)에 미리 저장될 수 있다.The error table according to the present embodiment may be defined through the following process. In fact, the camera is inclined at various angles (tilts) to generate three-dimensional models according to the angle, and the angles of the camera are estimated from the sensing information at the angle. Then, the error of the angle is checked by comparing the geometry information of the 3D model generated according to the angle with the angle of the camera estimated from the angle. The error table generated based on the error of the checked angle (tilt) may be stored in advance in the image analyzing apparatus 100.

센싱정보 기반으로 추정된 카메라 기울기를 오차 테이블을 이용하여 보정한 뒤, 3차원 모델 복원에 적용하는 경우, 사람 검출을 보다 정확히 수행할 수 있는 효과가 있다.When the camera tilt estimated based on the sensing information is corrected using an error table and applied to reconstructing the 3D model, it is possible to more accurately detect a person.

투영부(228)는 3차원 모델 복원부(226)에서 복원된 3차원 모델을 수평면(지표면)에 수직인 방향으로 투영하여 3차원 좌표계 상의 수직방향(Z축 방향)의 밀도정보를 나타내는 2차원 투영 영상을 생성한다.The projection unit 228 projects the three-dimensional model reconstructed by the three-dimensional model reconstructor 226 in a direction perpendicular to the horizontal plane (surface) to display two-dimensional density information in the vertical direction (Z-axis direction) on the three-dimensional coordinate system. Create a projected image.

구체적으로, 3차원 모델을 3차원 좌표계의 X-Y 평면에 투영하면 X-Y 평면에 평행한 3차원 모델의 단면들이 누적되어 투영된다고 볼 수 있다. 이에 따라 X-Y 평면 상에는 투영점들이 중첩되는 영역이 나타날 수 있고, 중첩되는 영역은 주변 영역보다 밀도가 높게 나타난다. 즉, 2차원 투영 영상은 3차원 모델의 수직방향(Z축 방향)의 밀도정보를 나타내게 된다. 이때, 3차원 모델의 Z축 방향 높이가 높을수록 2차원 투영 영상에서 밀도가 크게 나타난다.Specifically, when the three-dimensional model is projected on the X-Y plane of the three-dimensional coordinate system, it can be seen that the cross-sections of the three-dimensional model parallel to the X-Y plane are accumulated and projected. Accordingly, an area in which projection points overlap may appear on the X-Y plane, and the overlapping area is denser than the surrounding area. That is, the two-dimensional projection image represents density information in the vertical direction (Z-axis direction) of the three-dimensional model. At this time, the higher the Z-axis height of the three-dimensional model, the greater the density in the two-dimensional projection image.

예를 들어 설명하면, 2차원 투영 영상은 픽셀 밝기가 높이에 대응하는 2차원 그레이 스케일 영상일 수 있다. 이 경우, 투영점들의 밀도가 높을수록 픽셀 밝기는 어둡게 나타나고, 픽셀 밝기가 어두울수록 Z축 방향의 높이에 의해서 복수의 점들의 밀도가 크게 나타날 수 있다. 즉, 밀도정보는 그레이 레벨로써 표시될 수 있다.For example, the 2D projection image may be a 2D gray scale image in which the pixel brightness corresponds to the height. In this case, the higher the density of the projection points, the darker the pixel brightness, and the darker the pixel brightness, the greater the density of the plurality of points by the height in the Z-axis direction. In other words, the density information can be displayed as a gray level.

이하, 도 4a 내지 도 4c를 참조하여 구체적으로 설명한다.Hereinafter, a detailed description will be given with reference to FIGS. 4A to 4C.

도 4a 내지 도 4c는 본 발명의 실시예에 따른 영상 분석 장치의 3차원 모델 복원부 및 투영부를 설명하기 위한 예시도이다.4A to 4C are exemplary diagrams for describing a 3D model reconstructor and a projection unit of an image analyzing apparatus according to an exemplary embodiment of the present invention.

도 4a는 카메라의 주축이 수평면(지표면)에 수직인 경우의 (a) 3차원 모델과 (b) 2차원 투영 영상을 나타낸다. 일반적으로 3차원 모델에서 사람영역에 해당하는 점들은 2차원 투영시 누적되어 쌓이기 때문에 2차원 투영 영상에서 주변보다 어둡게 나타날 수 있다. 따라서 2차원 투영 영상의 픽셀 밝기를 이용하여 사람영역을 검출할 수 있다.4A shows (a) the three-dimensional model and (b) the two-dimensional projection image when the main axis of the camera is perpendicular to the horizontal plane (surface). In general, the points corresponding to the human area in the 3D model may accumulate in the 2D projection and may appear darker than the surroundings in the 2D projection image. Therefore, the human area can be detected using the pixel brightness of the 2D projection image.

도 4b는 카메라의 주축이 수평면에 대하여 기울어진 경우의 (a) 3차원 모델과 (b) 2차원 투영 영상을 나타낸다. 이 경우는 본 발명의 실시예와 같이 센싱정보를 이용하여 3차원 모델을 복원하지 않고 바로 2차원 평면에 투영한 경우를 나타낸다. 도 4b의 (b)에서 알 수 있듯이 복원없이 3차원 모델을 2차원 평면에 투영하면, 객체들 간의 겹침(Occlusion)에 의하여 사람영역을 잘못 검출할 수 있다.4B shows (a) the three-dimensional model and (b) the two-dimensional projection image when the main axis of the camera is inclined with respect to the horizontal plane. In this case, as in the embodiment of the present invention, the sensing information is used to directly project the 2D plane without restoring the 3D model. As shown in (b) of FIG. 4B, when the 3D model is projected onto the 2D plane without restoration, the human area may be incorrectly detected by the overlap between the objects.

도 4c는 카메라의 주축이 수평면에 대하여 기울어진 경우, 본 발명의 실시예에 따른 (a) 3차원 모델, (b) 복원된 3차원 모델, 및 (c) 2차원 투영 영상을 나타낸다. 본 실시예에 의하면 3차원 모델을 카메라에 장착된 센서의 센싱정보를 이용하여 추정한 카메라 기울기에 따라 복원함으로써 사람영역 검출의 정확도를 향상시킬 수 있다.4C illustrates (a) a three-dimensional model, (b) a restored three-dimensional model, and (c) a two-dimensional projection image when the main axis of the camera is inclined with respect to the horizontal plane. According to the present embodiment, the accuracy of the detection of the human region can be improved by restoring the 3D model according to the camera tilt estimated using the sensing information of the sensor mounted in the camera.

계수부(230)는 2차원 투영 영상을 이용하여 사람영역을 검출하고 추적하여, 기 설정된 관심영역을 통과하는 사람을 계수한다.The counting unit 230 counts a person passing through the preset ROI by detecting and tracking a human area using the 2D projection image.

도 5는 본 발명의 실시예에 따른 영상 분석 장치(100)에 의해 수행되는 사람계수 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a person counting method performed by the image analyzing apparatus 100 according to an exemplary embodiment of the present invention.

영상 분석 장치(100)는 하나 이상의 입력영상으로부터 획득한 깊이정보에 기초하여 3차원 모델을 생성한다(S510). 여기서 3차원 모델은 3차원 좌표계에 속한 복수의 점들의 집합 형태일 수 있다. 본 실시예에 따른 3차원 모델을 구성하는 점들(P)은 3차원 좌표계에서 X좌표, Y좌표, Z좌표로 정의될 수 있으며, 전술한 [수학식 1]과 같이 표시할 수 있다.The image analysis apparatus 100 generates a 3D model based on depth information obtained from at least one input image (S510). Here, the 3D model may be in the form of a set of a plurality of points belonging to the 3D coordinate system. The points P constituting the 3D model according to the present exemplary embodiment may be defined as X coordinates, Y coordinates, and Z coordinates in the 3D coordinate system, and may be expressed as shown in Equation 1 above.

과정 S520에서는 카메라에 장착된 기울기 센서로부터 센싱정보를 획득하여 카메라의 기울기를 추정한다(S520). 이는 카메라가 지면과 수직으로 설치되지 않고 기울어져 설치된 경우, 사람영역을 검출하기 위해 3차원 모델을 2차원 평면에 투영(Projection)할 때 겹치는 부분(Occlusion)이 발생하게 되는 문제를 해결하기 위함이다. 즉, 카메라의 기울기만큼 3차원 모델을 보정하여 복원(Reconstruction)함으로써 탑 뷰(Top View) 영상 기반 3차원 모델에 상응하는 3차원 모델을 획득하기 위해 센서를 이용하여 카메라의 기울기를 추정하는 것이다. 본 실시예는 탑 뷰 영상 기반 3차원 모델에 상응하는 3차원 모델을 이용함으로써, 가려짐(Occlusion)이 최소화된 2차원 투영 영상을 생성하여 사람 검출의 정확도를 향상시킬 수 있다.In operation S520, sensing information is obtained from an inclination sensor mounted on the camera to estimate the tilt of the camera (S520). This is to solve the problem of overlapping when the 3D model is projected on the 2D plane to detect the human area when the camera is installed at an angle rather than perpendicular to the ground. . That is, the inclination of the camera is estimated using a sensor to obtain a three-dimensional model corresponding to the top view image-based three-dimensional model by correcting and reconstructing the three-dimensional model as much as the inclination of the camera. In this embodiment, by using a three-dimensional model corresponding to the top-view image-based three-dimensional model, it is possible to improve the accuracy of human detection by generating a two-dimensional projection image minimized occlusion (Occlusion).

카메라에 장착된 센서는 예를 들어, 기울기 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며 카메라의 기울기를 감지할 수 있는 다양한 형태의 센서를 포함할 수 있다. 가속도 센서를 이용하는 경우, 센싱정보는 중력방향을 기준으로 X축, Y축, Z축 방향의 가속도 값이 될 수 있다.The sensor mounted on the camera may include, for example, at least one of a tilt sensor, an acceleration sensor, or a gyro sensor. However, the present invention is not limited thereto and may include various types of sensors capable of detecting the tilt of the camera. In the case of using the acceleration sensor, the sensing information may be acceleration values in the X, Y, and Z directions based on the gravity direction.

카메라 기울기를 추정하는 구체적인 방법은 도 3을 참조하여 설명한 것과 같다.A detailed method of estimating the camera tilt is as described with reference to FIG. 3.

이후, 영상 분석 장치(100)는 과정 S510에서 생성한 3차원 모델을 과정 S520에서 추정된 카메라 기울기에 상응하도록 회전시켜 복원한다(S530). 즉, 3차원 모델을 카메라 기울기의 반대 방향으로 카메라가 기울어진 각도만큼 회전시켜 복원할 수 있다.Thereafter, the image analyzing apparatus 100 rotates and restores the 3D model generated in step S510 to correspond to the camera tilt estimated in step S520 (S530). That is, the 3D model may be restored by rotating the 3D model by the tilt angle of the camera in a direction opposite to the tilt of the camera.

구체적으로 센싱정보에 기초하여 회전 행렬(Rotation Matrix)을 생성하고, 3차원 모델을 구성하는 복수의 점들의 3차원 좌표 각각에 회전 행렬을 적용하여 좌표를 변환할 수 있다. 이에 대한 구체적인 설명은 전술한 바와 같다.In detail, a rotation matrix may be generated based on sensing information, and coordinates may be converted by applying a rotation matrix to each of three-dimensional coordinates of a plurality of points constituting the three-dimensional model. Detailed description thereof is as described above.

한편, 과정 S510에서 생성되는 3차원 모델은 알고리즘에 의해 획득되는 것이므로 센싱정보에 의해 추정되는 카메라 기울기에 따른 시점(View)에서의 3차원 정보와 오차가 있을 수 있다.On the other hand, since the three-dimensional model generated in step S510 is obtained by the algorithm, there may be an error with the three-dimensional information in the view (View) according to the camera tilt estimated by the sensing information.

다시 말해, 과정 S520에서 추정된 카메라 기울기(

Figure 112018077721210-pat00019
,
Figure 112018077721210-pat00020
,
Figure 112018077721210-pat00021
)를 3차원 모델 복원 시 그대로 적용할 경우, 오차가 발생하여 탑 뷰(Top View)의 3차원 모델로 복원되지 않을 수 있다. 따라서 센싱정보를 기반으로 3차원 모델을 복원함에 있어서, 해당 오차를 최소화할 필요가 있다.In other words, the camera tilt estimated in step S520 (
Figure 112018077721210-pat00019
,
Figure 112018077721210-pat00020
,
Figure 112018077721210-pat00021
) Is applied as it is when restoring the 3D model, an error may occur and may not be restored to the 3D model of the top view. Therefore, in restoring the 3D model based on the sensing information, it is necessary to minimize the corresponding error.

이에 따라 과정 S530은 카메라의 기울기 변화에 대응하여 추정된 카메라 기울기의 오차 정보와 관련된 기 저장된 오차 테이블에 기초하여 3차원 모델을 복원하는 과정을 포함할 수 있다.Accordingly, the process S530 may include restoring the 3D model based on a previously stored error table related to the error information of the camera tilt estimated in response to the change in the tilt of the camera.

본 실시예에 따른 오차 테이블은 다음과 같은 과정을 통해 정의될 수 있다. 실제로 카메라를 다양한 각도(기울기)로 기울여 해당 각도에 따른 3차원 모델들을 생성하고, 해당 각도에서의 센싱정보로부터 카메라의 각도들을 추정한다. 이후, 해당 각도에 따라 생성된 3차원 모델의 기하(Geometry) 정보와 해당 각도에서 추정된 카메라의 각도를 비교함으로써, 각도의 오차를 확인한다. 확인된 각도(기울기)의 오차를 기반으로 생성된 오차 테이블은 영상 분석 장치(100)에 미리 저장될 수 있다.The error table according to the present embodiment may be defined through the following process. In fact, the camera is inclined at various angles (tilts) to generate three-dimensional models according to the angle, and the angles of the camera are estimated from the sensing information at the angle. Then, the error of the angle is checked by comparing the geometry information of the 3D model generated according to the angle with the angle of the camera estimated from the angle. The error table generated based on the error of the checked angle (tilt) may be stored in advance in the image analyzing apparatus 100.

이와 같이 센싱정보 기반으로 추정된 카메라 기울기를 오차 테이블을 이용하여 보정한 뒤, 3차원 모델 복원에 적용하는 경우, 사람 검출을 보다 정확히 수행할 수 있는 효과가 있다.As such, when the camera tilt estimated based on the sensing information is corrected using an error table and then applied to the 3D model reconstruction, it is possible to more accurately detect a person.

과정 S540에서는 복원된 3차원 모델을 수평면(지표면)에 수직인 방향으로 투영하여 3차원 좌표계 상의 수직방향(Z축 방향)의 밀도정보를 나타내는 2차원 투영 영상을 생성한다.In step S540, the restored three-dimensional model is projected in a direction perpendicular to a horizontal plane (surface) to generate a two-dimensional projection image representing density information in a vertical direction (Z-axis direction) on the three-dimensional coordinate system.

구체적으로, 3차원 모델을 3차원 좌표계의 X-Y 평면에 투영하면 X-Y 평면에 평행한 3차원 모델의 단면들이 누적되어 투영된다고 볼 수 있다. 이에 따라 X-Y 평면 상에는 투영점들이 중첩되는 영역이 나타날 수 있고, 중첩되는 영역은 주변 영역보다 밀도가 높게 나타난다. 즉, 2차원 투영 영상은 3차원 모델의 수직방향(Z축 방향)의 밀도정보를 나타내게 된다. 이때, 3차원 모델의 Z축 방향 높이가 높을수록 2차원 투영 영상에서 밀도가 크게 나타난다.Specifically, when the three-dimensional model is projected on the X-Y plane of the three-dimensional coordinate system, it can be seen that the cross-sections of the three-dimensional model parallel to the X-Y plane are accumulated and projected. Accordingly, an area in which projection points overlap may appear on the X-Y plane, and the overlapping area is denser than the surrounding area. That is, the two-dimensional projection image represents density information in the vertical direction (Z-axis direction) of the three-dimensional model. At this time, the higher the Z-axis height of the three-dimensional model, the greater the density in the two-dimensional projection image.

예를 들어 설명하면, 2차원 투영 영상은 픽셀 밝기가 높이에 대응하는 2차원 그레이 스케일 영상일 수 있다. 이 경우, 투영점들의 밀도가 높을수록 픽셀 밝기는 어둡게 나타나고, 픽셀 밝기가 어두울수록 Z축 방향의 높이에 의해서 복수의 점들의 밀도가 크게 나타날 수 있다. 즉, 밀도정보는 그레이 레벨로써 표시될 수 있다.For example, the 2D projection image may be a 2D gray scale image in which the pixel brightness corresponds to the height. In this case, the higher the density of the projection points, the darker the pixel brightness, and the darker the pixel brightness, the greater the density of the plurality of points by the height in the Z-axis direction. In other words, the density information can be displayed as a gray level.

과정 S540에서 생성된 2차원 투영 영상을 이용하여 영상 분석 장치(100)는 사람영역을 검출하고 추적하여, 기 설정된 관심영역을 통과하는 사람을 계수한다(S550).Using the two-dimensional projection image generated in step S540, the image analysis apparatus 100 detects and tracks a human area, and counts a person passing through a preset ROI (S550).

도 5에서는 단계 S510 내지 단계 S550을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 5에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 5는 시계열적인 순서로 한정되는 것은 아니다.In FIG. 5, steps S510 to S550 are sequentially executed, but the present disclosure is not limited thereto. In other words, since the steps described in FIG. 5 may be applied by changing the execution or performing one or more steps in parallel, FIG. 5 is not limited to the time series order.

도 5에 기재된 본 실시예에 따른 사람계수 방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 사람계수 방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.The person counting method according to the present embodiment described in FIG. 5 may be implemented in a program and recorded in a computer-readable recording medium. The computer-readable recording medium having recorded thereon a program for implementing the person counting method according to the present embodiment includes all kinds of recording devices storing data that can be read by a computer system.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those skilled in the art to which the present embodiment belongs may make various modifications and changes without departing from the essential characteristics of the present embodiment. Therefore, the present embodiments are not intended to limit the technical idea of the present embodiment but to describe the present invention, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of the present embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

이상에서 설명한 바와 같이 본 실시예는 영상 보안 분야 또는 BI(Business Intelligence) 분야에 적용되어, 카메라에 장착된 센서를 이용하여 사람을 정확하게 계수할 수 있는 효과를 발생하는 유용한 발명이다.As described above, this embodiment is a useful invention that is applied to the field of video security or business intelligence (BI) to generate an effect of accurately counting a person using a sensor mounted on a camera.

100: 영상 분석 장치 210: 전처리부
220: 검출부 222: 3차원 모델 생성부
224: 기울기 추정부 226: 3차원 모델 복원부
228: 투영부 230: 계수부
100: image analysis device 210: preprocessor
220: detection unit 222: 3D model generation unit
224: slope estimation unit 226: 3D model restoration unit
228 projection unit 230 counting unit

Claims (5)

입체영상(3D) 카메라를 이용하여 촬영된 영상으로부터 3차원 모델을 생성하는 3차원 모델 생성부;
상기 3D 카메라의 기울기를 추정하는 기울기 추정부;
상기 3차원 모델을 상기 3D 카메라의 기울기에 상응하도록 회전시켜 탑 뷰 (Top View) 기반 3차원 모델을 얻는 3차원 모델 복원부;
상기 복원된 탑 뷰 기반 3차원 모델을 수평면에 투영하여 2차원 투영 영상을 생성하는 투영부; 및
상기 2차원 투영 영상을 이용하여 사람영역을 검출하여 사람을 계수하는 계수부
를 포함하는 영상 분석 장치.
A three-dimensional model generator for generating a three-dimensional model from an image photographed using a stereoscopic image (3D) camera;
A tilt estimator estimating a tilt of the 3D camera;
A 3D model reconstructing unit which obtains a Top View based 3D model by rotating the 3D model to correspond to the tilt of the 3D camera;
A projection unit configured to project the restored top view-based three-dimensional model to a horizontal plane to generate a two-dimensional projection image; And
Counting unit for counting people by detecting the human area using the two-dimensional projection image
Image analysis device comprising a.
제1항에 있어서,
상기 3차원 모델 복원부는,
상기 3차원 모델을 상기 기울기 추정부에서 추정한 상기 기울기에 대응되도록 상기 카메라가 기울어진 각도만큼 회전시켜 복원하는 것을 특징으로 하는 영상 분석 장치.
The method of claim 1,
The 3D model reconstruction unit,
And restore the 3D model by rotating the camera by an inclined angle so as to correspond to the inclination estimated by the inclination estimator.
제1항에 있어서,
상기 3차원 모델 복원부는,
상기 카메라의 기울기 변화에 대응하여 상기 기울기 추정부가 추정한 카메라 기울기의 오차 정보와 관련된 기 저장된 오차 테이블에 기초하여 상기 복원된 3차원 모델을 얻는 것을 특징으로 하는 영상 분석 장치.
The method of claim 1,
The 3D model reconstruction unit,
And a reconstructed three-dimensional model based on a previously stored error table associated with error information of a camera tilt estimated by the tilt estimator in response to a tilt change of the camera.
제1항에 있어서,
상기 2차원 투영 영상은,
상기 3차원 모델을 구성하는 복수의 점들이 투영된 투영점들의 밀도에 대응하여 상기 복수의 점들의 3차원 좌표계 상의 Z축 방향에 대한 밀도를 나타내는 것을 특징으로 하는 영상 분석 장치.
The method of claim 1,
The two-dimensional projection image,
And a plurality of points constituting the three-dimensional model represent the density of the plurality of points in the Z-axis direction on the three-dimensional coordinate system corresponding to the density of the projected points.
하드웨어와 결합되어,
입체영상(3D) 카메라를 이용하여 촬영된 영상으로부터 3차원 모델을 생성하는 과정;
상기 3D 카메라의 기울기를 추정하는 과정;
상기 3차원 모델을 상기 상기 3D 카메라의 기울기에 상응하도록 회전시켜 탑 뷰(Top View) 기반 3차원 모델을 얻는 과정;
상기 탑 뷰 기반 3차원 모델을 수평면에 투영하여 2차원 투영 영상을 생성하는 과정; 및
상기 2차원 투영 영상을 이용하여 사람영역을 검출하여 사람을 계수하는 과정
을 실행시키기 위하여 기록매체에 저장된 컴퓨터프로그램.
Combined with hardware,
Generating a 3D model from an image photographed using a 3D camera;
Estimating the tilt of the 3D camera;
Obtaining a Top View based 3D model by rotating the 3D model to correspond to the tilt of the 3D camera;
Generating a 2D projection image by projecting the top view based 3D model onto a horizontal plane; And
Counting people by detecting a human area using the 2D projection image
A computer program stored on a recording medium to execute the program.
KR1020180091555A 2018-08-07 2018-08-07 Method and Apparatus for Counting People KR102055276B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180091555A KR102055276B1 (en) 2018-08-07 2018-08-07 Method and Apparatus for Counting People

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180091555A KR102055276B1 (en) 2018-08-07 2018-08-07 Method and Apparatus for Counting People

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160034792A Division KR101889028B1 (en) 2016-03-23 2016-03-23 Method and Apparatus for Counting People

Publications (2)

Publication Number Publication Date
KR20180091792A KR20180091792A (en) 2018-08-16
KR102055276B1 true KR102055276B1 (en) 2019-12-12

Family

ID=63443969

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180091555A KR102055276B1 (en) 2018-08-07 2018-08-07 Method and Apparatus for Counting People

Country Status (1)

Country Link
KR (1) KR102055276B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101380628B1 (en) * 2013-10-18 2014-04-02 브이씨에이 테크놀러지 엘티디 Method and apparatus for object tracking using multiple cameras

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100519782B1 (en) * 2004-03-04 2005-10-07 삼성전자주식회사 Method and apparatus for detecting people using a stereo camera
KR101416574B1 (en) * 2012-12-11 2014-07-07 영남대학교 산학협력단 Apparatus and method for smart lighting control

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101380628B1 (en) * 2013-10-18 2014-04-02 브이씨에이 테크놀러지 엘티디 Method and apparatus for object tracking using multiple cameras

Also Published As

Publication number Publication date
KR20180091792A (en) 2018-08-16

Similar Documents

Publication Publication Date Title
CN109084746B (en) Monocular mode for autonomous platform guidance system with auxiliary sensor
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101708659B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
US10260862B2 (en) Pose estimation using sensors
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
EP3016071B1 (en) Estimating device and estimation method
CN109298629B (en) System and method for guiding mobile platform in non-mapped region
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
TWI536318B (en) Depth measurement quality enhancement
US9519968B2 (en) Calibrating visual sensors using homography operators
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
US20150243035A1 (en) Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest
Burschkal et al. Stereo-based obstacle avoidance in indoor environments with active sensor re-calibration
BR112016010089B1 (en) moving body position estimating device and moving body position estimating method
KR102001636B1 (en) Apparatus and method of processing a depth image using a relative angle between an image sensor and a target object
Essmaeel et al. Comparative evaluation of methods for filtering kinect depth data
US11282180B1 (en) Object detection with position, pose, and shape estimation
CN112015170A (en) Moving object detection and intelligent driving control method, device, medium and equipment
Stommel et al. Inpainting of missing values in the Kinect sensor's depth maps based on background estimates
WO2020237675A1 (en) Target detection method, target detection apparatus and unmanned aerial vehicle
KR102055276B1 (en) Method and Apparatus for Counting People
JP6163732B2 (en) Image processing apparatus, program, and method
KR101889028B1 (en) Method and Apparatus for Counting People
KR102025696B1 (en) Apparatus for visual odometry using stereo image and method for the same
JP6780639B2 (en) Image analysis device, image analysis method, and image analysis program

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right