KR20140096910A - Apparatus and method for counting the number of object - Google Patents

Apparatus and method for counting the number of object Download PDF

Info

Publication number
KR20140096910A
KR20140096910A KR1020130010090A KR20130010090A KR20140096910A KR 20140096910 A KR20140096910 A KR 20140096910A KR 1020130010090 A KR1020130010090 A KR 1020130010090A KR 20130010090 A KR20130010090 A KR 20130010090A KR 20140096910 A KR20140096910 A KR 20140096910A
Authority
KR
South Korea
Prior art keywords
space
coefficient information
outdoor
counting
camera
Prior art date
Application number
KR1020130010090A
Other languages
Korean (ko)
Other versions
KR101426418B1 (en
Inventor
김혁래
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020130010090A priority Critical patent/KR101426418B1/en
Publication of KR20140096910A publication Critical patent/KR20140096910A/en
Application granted granted Critical
Publication of KR101426418B1 publication Critical patent/KR101426418B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a device and a method for counting objects which can accurately count objects of each subspace by dividing the entire space into a plurality of subspaces and applying different counting algorithms to the divided subspaces. The method for counting objects comprises: a space division step of dividing any entire space into one or more indoor spaces and one or more outdoor spaces; an entire space counting step of generating object counting information by counting entering/leaving objects using a camera or a sensor arranged around an entrance of the entire space; an indoor space counting step of generating object counting information by counting entering/leaving objects using a camera or a sensor arranged around an entrance of the indoor space; and an outdoor space counting step of generating object counting information by counting objects of the outdoor space using a sensor or a camera arranged in the outdoor space.

Description

객체 계수 장치 및 방법{Apparatus and method for counting the number of object}[0001] APPARATUS AND METHOD FOR COUNTING [0002]

본 발명은 특정 시간에 특정 공간 내의 객체를 계수하는 객체 계수 장치 및 방법에 관한 것이다.The present invention relates to an object counting apparatus and method for counting objects in a specific space at a specific time.

일반적으로 특정 공간에 존재하는 객체를 계수하는 방법으로는, 별도의 인력을 활용하여 객체를 수동으로 계수하는 방식, 적외선 센서나 열화상 센서를 이용하여 객체의 움직임이나 온도 등을 이용하여 객체를 계수하는 방식 또는 촬영 영상에 영상 처리 기법을 적용하여 객체를 계수하는 방식 등이 있다.Generally, a method of counting an object existing in a specific space includes a method of manually counting an object using a separate work force, a method of counting an object by using an infrared sensor or a thermal image sensor, Or a method of counting an object by applying an image processing technique to a captured image.

별도의 인력을 활용하여 객체를 수동으로 계수하는 방식의 경우, 정기적으로 수동 계수 및 합산 결과를 통합 관제 센터로 전송해야 하고, 정보의 신뢰성에 문제가 발생할 수 있으며, 자동화가 어려운 문제점이 있다.In the case of manually counting objects using a separate manpower, there is a problem that the manual counting and summation results must be transmitted to the integrated control center regularly, and there is a problem in reliability of information and automation is difficult.

센서를 이용하여 객체를 계수하는 방식의 경우, 센서 설치 비용 소요 및 특히 카운팅 대상(객체)을 센싱 할 수 있도록 별도의 장치가 추가되어야 하는 불편한 문제점이 있다.In the case of a method of counting an object using a sensor, there is a problem that it is inconvenient that a separate device should be added in order to sense the installation cost of the sensor and especially the object to be counted.

영상을 이용하여 객체를 계수하는 방식의 경우, 전적으로 영상 분석 결과에 의존해야 하며, 영상 내에 대규모 인력이 존재할 경우 카운팅이 불가능한 문제점이 있다.In the case of a method of counting an object using an image, it has to be totally dependent on the result of the image analysis, and there is a problem that counting can not be performed when a large-scale human exists in the image.

국내 공개특허공보 제2010-0093797호Korean Patent Publication No. 2010-0093797

본 발명이 해결하고자 하는 기술적인 과제는 전체공간을 복수개의 부분공간으로 분할하고, 분할된 각 부분공간 별로 다른 계수 알고리즘을 적용하여 부분공간 별로 정확하게 객체를 계수할 수 있는 객체 계수 장치 및 방법을 제공하는데 있다.The technical problem to be solved by the present invention is to provide an object counting apparatus and method capable of dividing an entire space into a plurality of partial spaces and accurately counting objects by partial space by applying different coefficient algorithms to the divided partial spaces .

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 객체 계수 장치는 임의의 공간을 촬영한 영상으로부터 객체 계수 정보를 생성하는 카메라; 상기 공간과 다른 임의의 공간을 통과하는 객체를 감지하는 센서부; 및 전체공간을 복수개의 부분공간으로 분할하고, 상기 분할된 부분공간에 배치된 상기 카메라 및 상기 센서부로부터 신호를 수신하며, 상기 복수개의 부분공간 각각에 대하여, 상기 카메라로부터 객체 계수 정보를 수신하거나 또는/및 상기 센서부를 통해 수신한 감지신호에 의해 객체 계수 정보를 생성하는 통합 관제 센터;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an object counting apparatus comprising: a camera for generating object count information from an image of an arbitrary space; A sensor unit for sensing an object passing through an arbitrary space different from the space; And means for dividing the entire space into a plurality of subspaces, receiving signals from the camera and the sensor portion disposed in the subspaces, receiving, for each of the plurality of subspaces, object count information from the camera And / or an integrated control center for generating object coefficient information by a sensing signal received through the sensor unit.

본 발명에 있어서, 상기 통합 관제 센터는, 상기 전체공간을 입장/퇴장할 수 있는 출입문을 포함하여, 출입문을 포함하는 적어도 하나 이상의 실내공간 및 적어도 하나 이상의 실외공간으로 분할하는 공간 모델링부;를 포함하는 것을 특징으로 한다.In the present invention, the integrated control center may include a space modeling unit that divides the door into at least one indoor space including a door and at least one outdoor space including an entrance door for entering / exiting the entire space .

본 발명에 있어서, 상기 공간 모델링부는, 상기 실외공간에 대하여, 2분면이 막힌 적어도 하나 이상의 제1 실외공간, 1분면이 막힌 적어도 하나 이상의 제2 실외공간 및 막힘 없이 열린 적어도 하나 이상의 제3 실외 공간으로 분할하는 것을 특징으로 한다.In the present invention, the spatial modeling unit may include at least one or more first outdoor spaces blocked in two quadrants, at least one second outdoor space cloghed in one quadrant, and at least one third outdoor space .

본 발명에 있어서, 상기 통합 관제 센터는, 상기 전체공간의 출입문 주변에 배치된 상기 카메라 또는 상기 센서부를 통하여 상기 전체공간을 입장/퇴장하는 객체를 계수하여 객체 계수 정보를 생성하는 전체공간 계수부; 상기 실내공간의 출입문 주변에 배치된 상기 카메라 또는 상기 센서부를 통하여 상기 실내공간을 입장/퇴장하는 객체를 계수하여 객체 계수 정보를 생성하는 실내공간 계수부; 및 상기 전체공간 계수정보 및 상기 실내공간 계수정보와, 상기 실외공간에 배치된 상기 카메라 또는/및 상기 센서부를 통하여 상기 실외공간 내의 객체를 계수하여 객체 계수 정보를 생성하는 실외공간 계수부;를 포함하는 것을 특징으로 한다.In the present invention, the integrated control center may include an entire space counting unit for counting objects entering / exiting the entire space through the camera or the sensor unit disposed around the door of the entire space to generate object coefficient information; An indoor space counting unit for counting an object entering / leaving the indoor space through the camera or the sensor unit disposed around the door of the indoor space to generate object coefficient information; And an outdoor space counting unit for counting the total space count information, the indoor space coefficient information, the objects in the outdoor space through the camera and / or the sensor unit disposed in the outdoor space, and generating object coefficient information .

본 발명에 있어서, 상기 실외공간 계수부는, 상기 실외공간 중 2분면이 막힌 제1 실외공간에 배치된 카메라로부터 수신한 객체 계수 정보에 제1 오차를 적용하여 객체 계수 정보를 생성하는 제1 계수부; 상기 실외공간 중 1분면이 막힌 제2 실외공간에 배치된 카메라로부터 수신한 객체 계수정보에 상기 제1 오차와는 다른 제2 오차를 적용하여 객체 계수 정보를 생성하는 제2 계수부; 및 상기 실외공간 중 막힘 없이 열린 제3 실외공간에 대해, 상기 전체 객체 계수 정보로부터 상기 실내공간 객체 계수 정보, 상기 제1 실외공간 계수정보 및 상기 제2 실외공간 계수정보를 감산하여 객체 계수 정보로 생성하는 제3 계수부;를 포함하는 것을 특징으로 한다.In the present invention, the outdoor space counting unit may include a first coefficient unit for generating object coefficient information by applying a first error to the object coefficient information received from the camera disposed in the first outdoor space, ; A second coefficient unit for generating object coefficient information by applying a second error different from the first error to the object coefficient information received from the camera disposed in the second outdoor space in which one side of the outdoor space is blocked; And subtracting the indoor space coefficient information, the first outdoor space coefficient information, and the second outdoor space coefficient information from the total object coefficient information for the third outdoor space opened without clogging in the outdoor space, And a third coefficient unit for generating a third coefficient.

본 발명에 있어서, 상기 공간 모델링부는, 상기 제3 실외공간을 둘 이상의 공간으로 분할하고, 각 공간에 상기 카메라를 배치하며, 상기 공간분할 경계면에 상기 센서부를 배치하는 것을 특징으로 한다.In the present invention, the spatial modeling unit may divide the third outdoor space into two or more spaces, arrange the cameras in the respective spaces, and arrange the sensor unit on the space-dividing boundary surface.

본 발명에 있어서, 상기 제3 계수부는, 상기 카메라로부터 수신한 객체 계수 정보 및 상기 센서부로부터 감지신호를 수신하여 생성한 객체 계수 정보를 이용하여 상기 제3 실외공간 중 어느 한 공간 및 나머지 공간의 객체 계수 정보를 생성하는 것을 특징으로 한다.In the present invention, the third coefficient unit may calculate the object coefficient information received from the camera and the object coefficient information generated by receiving the sensing signal from the sensor unit, And generates object coefficient information.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 객체 계수 방법은 임의의 전체공간을 적어도 하나 이상의 실내공간 및 적어도 하나 이상의 실외공간으로 분할하는 공간 분할 단계; 상기 전체공간의 출입문 주변에 배치된 카메라 또는 센서를 이용하여 입장/퇴장하는 객체를 계수하여 객체 계수 정보를 생성하는 전체공간 계수 단계; 상기 실내공간의 출입문 주변에 배치된 카메라 또는 센서를 이용하여 입장/퇴장하는 객체를 계수하여 객체 계수 정보를 생성하는 실내공간 계수 단계; 및 상기 전체공간 계수 정보 및 상기 실내공간 계수 정보와, 실외공간에 배치된 카메라 또는 센서를 이용하여 상기 실외공간의 객체를 계수하고 객체 계수 정보를 생성하는 실외공간 계수단계;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an object counting method including dividing an entire space into at least one indoor space and at least one outdoor space; An overall space counting step of counting an object entering / leaving using a camera or a sensor disposed around the door of the entire space to generate object count information; An indoor space counting step of counting an entry / exit object using a camera or a sensor disposed around the door of the indoor space to generate object coefficient information; And an outdoor space counting step of counting the objects in the outdoor space using the total space count information, the indoor space coefficient information, and a camera or a sensor disposed in the outdoor space, and generating the object count information. do.

본 발명에 있어서, 상기 공간 분할 단계는, 상기 실외공간에 대하여, 2분면이 막힌 적어도 하나 이상의 제1 실외공간, 1분면이 막힌 적어도 하나 이상의 제2 실외공간 및 막힘 없이 열린 적어도 하나 이상의 제3 실외 공간으로 분할하는 것을 특징으로 한다.In the present invention, the space dividing step may include at least one first outdoor space with two clams blocked, at least one second outdoor space with one clamshed closure, and at least one third outdoor space without clogs And is divided into spaces.

본 발명에 있어서, 상기 실외공간 계수단계는, 상기 2분면이 막힌 제1 실외공간에 배치된 카메라로부터 수신한 객체 계수정보에 제1 오차를 적용하여 객체를 계수하고 객체 계수 정보를 생성하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the outdoor space counting step may include: counting an object and generating object count information by applying a first error to the object count information received from the camera disposed in the first outdoor space with the 2-quadrant closed; And a control unit.

본 발명에 있어서, 상기 실외공간 계수단계는, 상기 1분면이 막힌 제2 실외공간에 배치된 카메라로부터 수신한 객체 계수정보에 상기 제1 오차와는 다른 제2 오차를 적용하여 객체를 계수하고 객체 계수 정보를 생성하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the outdoor space counting step may include counting an object by applying a second error different from the first error to the object coefficient information received from the camera disposed in the second outdoor space with the one- And generating coefficient information.

본 발명에 있어서, 상기 실외공간 계수단계는, 상기 막힘 없이 열린 제3 실외공간에 대해, 상기 전체 객체 계수 정보로부터 상기 실내공간 객체 계수 정보, 상기 제1 실외공간 객체 계수 정보 및 상기 제2 실외공간 객체 계수 정보를 감산하여 객체 계수 정보로 생성하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the outdoor space counting step may further include, for the third outdoor space without the clogging, the indoor space object coefficient information, the first outdoor space object coefficient information, and the second outdoor space And generating object coefficient information by subtracting the object coefficient information.

본 발명에 있어서, 상기 공간 분할 단계는, 상기 제3 실외공간을 둘 이상의 공간으로 분할하고, 각 공간에 상기 카메라를 배치하며, 상기 공간분할 경계면에 상기 센서를 배치하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the spatial division step may include: dividing the third outdoor space into two or more spaces, placing the camera in each space, and disposing the sensors on the space division boundary surface .

본 발명에 있어서, 상기 실외공간 계수단계는, 상기 카메라로부터의 상기 공간별로 계수된 객체 정보를 수신하는 단계; 상기 센서의 감지신호 의해 객체의 이동량을 계수하여 이동 객체 계수 정보를 생성하는 단계; 및 상기 카메라로부터 수신한 객체 계수 정보 및 상기 이동 객체 계수 정보를 이용하여 상기 제3실외공간 중 어느 한 공간 및 나머지 공간의 객체 계수 정보를 생성하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the outdoor space counting step may include: receiving object information counted by the space from the camera; Generating movement object coefficient information by counting a movement amount of the object by the sensing signal of the sensor; And generating object coefficient information of a space and a remaining space of the third outdoor space by using the object coefficient information and the moving object coefficient information received from the camera.

상술한 바와 같이 본 발명에 따르면, 전체공간을 복수개의 부분공간으로 분할하고, 분할된 각 부분공간 별로 다른 알고리즘을 적용하여 부분공간별로 정확하게 객체를 계수할 수 있다.As described above, according to the present invention, an entire space can be divided into a plurality of partial spaces, and different algorithms can be applied to each of the divided partial spaces, thereby accurately counting objects by partial space.

도 1은 본 발명의 일 실시 예에 따른 객체 계수 장치의 구성을 보이는 블록도 이다.
도 2는 도 1 중 카메라의 상세 블록도 이다.
도 3은 도 1 중 일 실시 예에 따른 전체 공간의 분할 결과를 보이는 조감도 이다.
도 4 내지 도 6은 도 1 중 출입문이 배치된 공간에서의 객체 계수를 설명하기 위한 도면이다.
도 7은 도 1 중 실외공간에서의 객체 계수를 설명하기 위한 도면이다.
도 8은 도 1 중 열린 실외공간에서의 객체 계수를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 객체 계수 방법의 동작을 보이는 흐름도 이다.
도 10은 도 9 중 실외공간에서의 객체 계수 방법의 동작을 보이는 흐름도 이다.
도 11은 도 9 중 분할된 열린 실외공간에서의 객체 계수 방법의 동작을 보이는 흐름도 이다.
1 is a block diagram illustrating a configuration of an object counting apparatus according to an embodiment of the present invention.
2 is a detailed block diagram of the camera of FIG.
FIG. 3 is a bird's-eye view showing the division result of the entire space according to the embodiment of FIG.
Figs. 4 to 6 are views for explaining object coefficients in a space where doors and doors are arranged in Fig. 1. Fig.
FIG. 7 is a view for explaining object coefficients in an outdoor space in FIG. 1. FIG.
FIG. 8 is a diagram for explaining object coefficients in an open outdoor space in FIG. 1. FIG.
9 is a flowchart illustrating an operation of an object counting method according to an embodiment of the present invention.
10 is a flowchart showing the operation of the object counting method in the outdoor space in FIG.
FIG. 11 is a flowchart showing the operation of the object counting method in the divided open outdoor space in FIG.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 잇는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.The present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in a wide variety of hardware and / or software configurations that perform particular functions. For example, the present invention may include integrated circuit configurations, such as memory, processing, logic, look-up tables, etc., that may perform various functions by control of one or more microprocessors or other control devices Can be adopted. Similar to the components of the present invention that may be implemented with software programming or software components, the present invention may be implemented as a combination of C, C ++, and C ++, including various algorithms implemented with data structures, processes, routines, , Java (Java), assembler, and the like. Functional aspects may be implemented with algorithms running on one or more processors. Further, the present invention can employ conventional techniques for electronic environment setting, signal processing, and / or data processing. Terms such as mechanisms, elements, means, and configurations are widely used and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

이하, 본 발명의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, do.

도 1은 본 발명의 일 실시 예에 따른 객체 계수 장치의 구성을 보이는 블록도 이다.1 is a block diagram illustrating a configuration of an object counting apparatus according to an embodiment of the present invention.

도 1을 참조하면, 객체 계수 장치는 카메라(100), 센서부(200) 및 통합 관제 센터(300)를 포함한다.Referring to FIG. 1, an object counting apparatus includes a camera 100, a sensor unit 200, and an integrated control center 300.

카메라(100)는 특정 공간의 고정된 위치에 배치되는 스피드 돔 카메라일 수 있다. 그리고 카메라(100)는 팬(pan)/틸트(tilt)/줌(zoom) 기능을 구비한 PTZ 카메라 일 수 있다. 카메라(100)는 PTZ 기능에 의해 얻은 특정 장소에 대한 영상인 라이브 영상을 생성한다. 그리고 카메라(100)는 0~360도 패닝 및 -5~185도 틸팅에 의해, 고정된 위치에서 몸체를 회전시켜 가면서 연속적으로 영상을 획득하여 네트워크 또는 유선통신 또는 무선통신에 의해 통합 관제 센터(300)로 전송한다.The camera 100 may be a speed dome camera disposed at a fixed position in a specific space. The camera 100 may be a PTZ camera having a pan / tilt / zoom function. The camera 100 generates a live image which is an image of a specific place obtained by the PTZ function. The camera 100 continuously captures an image while rotating the body at a fixed position by panning from 0 to 360 degrees and tilting from -5 to 185 degrees so that the integrated control center 300 ).

카메라(100)는 통합 관제 센터(300)로부터 PTZ 제어신호를 수신하고, PTZ 제어신호에 따라 패닝(panning), 틸팅(tilting) 및 주밍(zooming)을 수행한다. 패닝이란 카메라(100)가 수평방향으로 회전하는 것이고, 틸팅이란 카메라(100)가 수직 방향으로 회전하는 것이다.The camera 100 receives the PTZ control signal from the integrated control center 300 and performs panning, tilting, and zooming in accordance with the PTZ control signal. The panning means that the camera 100 rotates in the horizontal direction, and the tilting means that the camera 100 rotates in the vertical direction.

본 실시 예에서 카메라(100)는 제1 카메라(100_1) 내지 제N 카메라(100_N)를 포함할 수 있다. 제1 카메라(100_1) 내지 제N 카메라(100_N) 각각은 통합 관제 센터(300)의 제어 하에 후술하는 전체공간 및 실내공간의 출입문 주변에 배치되어 출입문에 대한 객체의 입장/퇴장 영상을 촬영하고, 촬영 영상으로부터 객체 계수 정보를 생성 할 수 있다. 또한 제1 카메라(100_1) 내지 제N 카메라(100_N) 각각은 통합 관제 센터(300)의 제어 하에 후술하는 실외공간의 임의의 영역에 배치되어 영상을 촬영하고, 촬영 영상으로부터 객체를 계수 정보를 생성할 수 있다. In this embodiment, the camera 100 may include a first camera 100_1 to an Nth camera 100_N. Each of the first camera 100_1 to the Nth camera 100_N is disposed around the door of the entire space and the indoor space to be described later under the control of the integrated control center 300 to photograph the entry / Object coefficient information can be generated from the photographed image. Each of the first camera 100_1 to the Nth camera 100_N is disposed in an arbitrary area of an outdoor space to be described later under the control of the integrated control center 300 to capture an image, can do.

도 2에는 이러한 카메라(100)의 상세 블록도가 도시되어 있다. 도 2a에는 일 실시 예에 따른 카메라(100)의 상세블록도가, 도 2b에는 다른 실시 예에 따른 카메라(100)의 상세 블록도가 도시되어 있다. A detailed block diagram of such a camera 100 is shown in Fig. FIG. 2A is a detailed block diagram of a camera 100 according to an embodiment, and FIG. 2B is a detailed block diagram of a camera 100 according to another embodiment.

도 2a를 참조하면, 카메라(100)는 제1 영상 획득부(110), 전경/배경 분리부(120), 객체 추출부(130) 및 제1 객체 계수부(140)를 포함한다. 제1 영상 획득부(110)는 CCD(charge coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서로 구성된 촬상소자를 이용하여 카메라(100)가 배치된 공간의 영상 프레임을 획득한다. 전경/배경 분리부(120)는 획득한 영상 프레임들로부터 전경영역과 배경영역을 분리한다. 영상 프레임으로부터 전경영역과 배경영역을 분리하는 방법은 여러 가지가 있다. 예를 들어 연속된 두 영상 프레임을 비교하여 그 차이로부터 전경영역을 찾는 프레임 차이법(frame difference)이 있다. 다른 방법으로, 각 화소의 색 분포를 한 개의 가우시안 함수로 모델링하거나 여러 개의 가우시안 함수를 사용하여 모델링 할 수 있다. 또한 색 분포를 특정 함수로 모델링 하지 않고 확률 분포로만 표현하여 화소를 전경영역 또는 배경영역으로 분리하는 방법도 있다. 일반적으로 전경/배경 분리에는 색을 이용하지만, 색 이외에 에지(edge) 또는 텍스쳐(texture)를 이용하기도 한다. 텍스쳐를 이용하는 방법에는 “local binary pattern” 이나 “mixture of dynamic texture”를 사용하는 방법 등이 있다. 객체 추출부(130)는 분리된 전경영역으로부터 SVM(support vector machine) 학습기를 적용하여 객체들을 중요 영역 후보군과 비중요 영역 후보군으로 분류하고, 중요 영역 후보군으로부터 객체 즉, 객체를 추출한다. 제1 객체 계수부(140)는 추출된 객체를 계수하여 객체 계수 정보를 생성한다.2A, the camera 100 includes a first image acquiring unit 110, a foreground / background separating unit 120, an object extracting unit 130, and a first object counting unit 140. The first image acquiring unit 110 acquires an image frame of a space in which the camera 100 is disposed using an image pickup device composed of a CCD (charge coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor. The foreground / background separator 120 separates the foreground region and the background region from the acquired image frames. There are various methods for separating the foreground region and the background region from the image frame. For example, there is a frame difference method in which two consecutive image frames are compared and a foreground region is searched from the difference. Alternatively, the color distribution of each pixel can be modeled as a single Gaussian function or multiple Gaussian functions. Also, there is a method of separating a pixel into a foreground region or a background region by expressing only the probability distribution without modeling the color distribution with a specific function. Generally, foreground / background separations use color, but edges or textures are used in addition to colors. One way to use a texture is to use a "local binary pattern" or a "mixture of dynamic textures". The object extracting unit 130 classifies the objects into the important region candidate group and the non-critical region candidate group by applying a support vector machine (SVM) learning unit from the separated foreground region, and extracts the object or object from the important region candidate group. The first object counting unit 140 generates the object counting information by counting the extracted object.

도 2b를 참조하면, 카메라(100)는 제2 영상 획득부(150), 차영상 획득부(160), 객체 추출부(170), 객체 추적부(180) 및 제2 객체 계수부(190)를 포함한다. 제2 영상 획득부(150)는 CCD 센서 또는 CMOS 센서로 구성된 촬상소자를 이용하여 카메라(100)가 배치된 공간의 영상 프레임을 획득한다. 차영상 획득부(160)는 전 영상 프레임과 후 영상 프레임의 차이 영상을 산출한다. 객체 추출부(170)는 차영상으로부터 객체를 추출한다. 객체 추출 시에, SVM 학습기를 적용할 수 있고, 또한 차영상으로부터 설정된 기준 객체를 스캔하여 유사한 크기를 갖는 객체를 추출할 수 있다. 객체 추적부(180)는 추출한 객체의 이동 방향을 추적한다. 제2 객체 계수부(190)는 이동하는 객체를 계수하여 객체 계수 정보를 생성한다.2B, the camera 100 includes a second image acquiring unit 150, a difference image acquiring unit 160, an object extracting unit 170, an object tracking unit 180, a second object counting unit 190, . The second image acquiring unit 150 acquires an image frame of a space in which the camera 100 is arranged using an image pickup device composed of a CCD sensor or a CMOS sensor. The difference image obtaining unit 160 calculates a difference image between the previous image frame and the previous image frame. The object extracting unit 170 extracts an object from the difference image. The SVM learning machine can be applied at the time of extracting the object, and the object having the similar size can be extracted by scanning the set reference object from the difference image. The object tracking unit 180 tracks the direction of the extracted object. The second object counting unit 190 counts a moving object to generate object count information.

더 나아가 카메라(100)는 획득한 공간영상 내에 가상의 선을 설정하고, 추출된 객체가 상기 가상의 선을 통과하는 경우 이를 객체 수로 계수하여 객체 계수 정보를 생성할 수 있다. 이하에서는 설명의 편의상 제1 카메라(100_1) 내지 제N 카메라(100_N)를 카메라(100)로 설명하기로 한다.Furthermore, the camera 100 sets a virtual line in the acquired spatial image, and when the extracted object passes through the virtual line, it can be counted as the number of objects to generate the object coefficient information. Hereinafter, the first camera 100_1 to the N-th camera 100_N will be described as a camera 100 for convenience of explanation.

센서부(200)는 카메라(100)가 배치된 공간 이외의 공간에 배치되어 객체를 감지하고, 감지신호를 네트워크 또는 유선통신 또는 무선통신에 의해 통합 관제 센터(300)로 전송한다. 본 실시 예에서 센서부(200)는 제1 센서(200_1) 내지 제N 센서(200_N)를 포함할 수 있다. 제1 센서(200_1) 내지 제N 센서(200_N) 각각은 통합 관제 센터(300)의 제어 하에 후술하는 전체공간, 실내공간 및 실외공간에 배치되어 객체를 감지한 후 감지신호를 통합 관제 센터(300)로 전송한다. 기본적으로 제1 센서(200_1) 내지 제N 센서(200_N)의 배치는 제1 카메라(100_1) 내지 제N 카메라(100_N)의 배치와 중복되지 않는다. 그러나, 공간의 특성상 제1 센서(200_1) 내지 제N 센서(200_N)와 제1 카메라(100_1) 내지 제N 카메라(100_N)의 배치는 중복될 수도 있다. The sensor unit 200 is disposed in a space other than the space in which the camera 100 is disposed, detects the object, and transmits the sensing signal to the integrated control center 300 through a network, wired communication, or wireless communication. In this embodiment, the sensor unit 200 may include the first sensor 200_1 to the Nth sensor 200_N. Each of the first sensor 200_1 to the Nth sensor 200_N is disposed in an entire space, an indoor space, and an outdoor space to be described later under the control of the integrated control center 300 to detect an object, ). Basically, the arrangement of the first sensor 200_1 to the Nth sensor 200_N does not overlap the arrangement of the first camera 100_1 to the Nth camera 100_N. However, the first sensor 200_1 to the Nth sensor 200_N and the first camera 100_1 to the Nth camera 100_N may overlap with each other due to the characteristics of the space.

이러한 센서부(200)는 적외선 센서, 압력 센서 또는 온도센서를 포함할 수 있으며, 공간의 특성에 따라 다른 센서가 배치될 수 있다. 센서부(200)를 상기에 개시된 바와 같이 적외선 센서, 압력 센서, 또는 온도센서로 한정하였으나, 이에 국한되지 않고 다양한 센서가 사용될 수 있다.The sensor unit 200 may include an infrared sensor, a pressure sensor, or a temperature sensor, and other sensors may be disposed depending on the characteristics of the space. Although the sensor unit 200 is limited to the infrared sensor, the pressure sensor, or the temperature sensor as described above, various sensors may be used.

센서부(200)가 적외선 센서인 경우, 적외선 발광부(미도시) 및 적외선 수광부(미도시)를 구비하고, 발광된 적외선이 기준시간 내에 수신되는 경우 제1값을 출력하고, 발광된 적외선이 기준시간을 초과하여 수신되는 경우 제2 값을 출력할 수 있다. 여기서 제1 값은 객체가 적외선 센서를 통과하지 않은 경우로 계수의 대상이 아니지만, 제2 값은 객체가 적외선 센서를 통과한 경우로 계수의 대상이 된다.When the sensor unit 200 is an infrared sensor, it includes an infrared ray emitting unit (not shown) and an infrared ray receiving unit (not shown), and outputs a first value when the emitted infrared rays are received within the reference time, And can output the second value when it is received in excess of the reference time. Here, the first value is a case where the object does not pass through the infrared sensor, and the second value is the object when the object passes the infrared sensor.

센서부(200)가 압력 센서인 경우, 객체가 보행하는 바닥에 설치되며, 압력 감지 값이 기준 압력 이하인 경우 제1 값을 출력하고, 압력 감지 값이 기준 압력을 초과하는 경우 제2 값을 출력할 수 있다. 여기서 제1 값은 객체가 압력 센서를 밟지 않은 경우로 계수의 대상이 아니지만, 제2 값은 객체가 압력 센서를 밟은 경우로 계수의 대상이 된다.When the sensor unit 200 is a pressure sensor, the sensor unit 200 is installed on the floor on which the object is walking, outputs a first value when the pressure sensing value is equal to or lower than the reference pressure, and outputs a second value when the pressure sensing value exceeds the reference pressure can do. Here, the first value is the case where the object is not pressed by the pressure sensor, and the second value is the object of counting when the object is pressed on the pressure sensor.

센서부(200)가 온도 센서인 경우, 객체의 기준온도를 36.5도로 설정한 상태에서 일정 범위 오차를 초과하거나 미만인 기준온도가 감지되면 제1 값을 출력하고, 일정 범위 오차 내의 기준온도가 감지되면 제2 값을 출력한다. 여기서 제1 값은 객체가 아닌 경우로 계수의 대상이 아니지만, 제2 값은 객체인 경우 계수의 대상이 된다. 이하에서는 설명의 편의상 제1 센서(200_1) 내지 제N 센서(200_N)를 센서부(200)로 설명하기로 한다.When the sensor unit 200 is a temperature sensor, when the reference temperature of the object is set to 36.5 degrees and a reference temperature exceeding or less than a certain range error is detected, the first value is output. When the reference temperature within a predetermined range error is detected And outputs a second value. Here, the first value is not an object but an object, and the second value is an object of an object if it is an object. Hereinafter, the first sensor 200_1 to the Nth sensor 200_N will be described as the sensor unit 200 for convenience of explanation.

통합 관제 센터(300)는 전체공간을 복수개의 부분공간으로 분할하고, 분할된 부분공간에 카메라(100) 또는 센서부(200)의 배치를 제어하고, 카메라(100) 및 센서부(200)로부터 신호를 수신하며, 복수개의 부분공간 각각에 대하여, 카메라(100)로부터 객체 계수 정보를 수신하거나 또는/및 센서부(200)를 통해 수신한 감지신호에 의해 객체 계수 정보를 생성한다. 이러한 통합 관제 센터(300)는 제어부(310), 공간 모델링부(320), 전체공간 계수부(330), 실내공간 계수부(340), 제1 내지 제3 실외공간 계수부(351-353)를 포함하는 실외공간 계수부(350) 및 저장부(360)를 포함한다.The integrated control center 300 divides the entire space into a plurality of partial spaces and controls the arrangement of the camera 100 or the sensor unit 200 in the divided partial spaces and controls the camera 100 and the sensor unit 200 And receives object count information from the camera 100 for each of the plurality of subspaces, or / and generates object count information based on the detection signal received through the sensor unit 200. [ The integrated control center 300 includes a control unit 310, a spatial modeling unit 320, an overall space counting unit 330, an indoor space counting unit 340, first to third outdoor space counting units 351 to 353, And an outdoor space counting unit 350 and a storage unit 360. [

제어부(310)는 통합 관제 센터(300) 전체 동작을 제어하며, 전체 공간의 공간 모델링 및 공간 모델링에 따른 카메라(100) 또는 센서부(200)의 배치를 제어하며, 특히, 카메라(100)로부터 객체 계수 정보를 수신하여 이를 각 공간별 객체 계수 정보로 생성하거나, 센서부(200)로부터의 감지신호를 수신하여 각 공간별 객체 계수 정보를 생성하도록 제어한다. 각 공간의 객체 계수 정보 생성 시에 발생하는 오차를 결정하여 각 계수부로 출력한다.The control unit 310 controls the overall operation of the integrated control center 300 and controls the arrangement of the camera 100 or the sensor unit 200 according to spatial modeling and spatial modeling of the entire space, Receives the object count information, generates the object count information for each space, or receives the sensing signal from the sensor unit 200 to generate object count information for each space. And determines an error that occurs when object coefficient information of each space is generated, and outputs the result to each coefficient unit.

공간 모델링부(320)는 임의의 전체공간을 입장/퇴장할 수 있는 출입문을 포함하여, 출입문을 포함하는 적어도 하나 이상의 실내공간 및 적어도 하나 이상의 실외공간으로 분할한다. 도 3에는 일 실시 예에 따른 전체 공간의 분할 결과를 보이는 조감도가 도시되어 있다.The space modeling unit 320 divides the space into at least one indoor space including the entrance door and at least one outdoor space including an entrance door capable of entering / exiting any entire space. FIG. 3 shows a bird's-eye view showing the division result of the entire space according to an embodiment.

도 3을 참조하면, 공간 모델링부(320)는 전체공간(400)을 적어도 하나 이상의 실내공간(500), 적어도 하나 이상의 실외공간(600)으로 분할한다. 여기서, 공간 모델링부(320)는 실외공간(600)을 2분면이 막힌 제1 실외공간(610), 1분면이 막힌 제2 실외공간(620) 및 막힘 없이 열린 제3 실외공간(630)으로 다시 분할한다. 또한 공간 모델링부(320)는 전체공간(400) 및 실내공간(500)에 객체가 입장/퇴장할 수 있는 출입문(700: 710-750)을 배치한다.3, the spatial modeling unit 320 divides the entire space 400 into at least one or more indoor spaces 500 and at least one outdoor space 600. The space modeling unit 320 converts the outdoor space 600 into a first outdoor space 610 with a two-sided closure, a second outdoor space 620 with a first floor closed, and a third outdoor space 630 with no clogging Again. In addition, the space modeling unit 320 arranges an entrance 700 / 710-750 where the object can enter / leave the entire space 400 and the indoor space 500.

도 3에서는 일 실시 예로, 실내공간(500)은 총 4개의 실내공간(510-540)으로 분할되고, 제1 실외공간(610)은 총 3개의 제1 실외공간(611-613)으로 분할되고, 제2 실외공간(620)은 총 3개의 제2 실외공간(621-623)으로 분할되고, 제3 실외공간(630)은 총 2개의 제3 실외공간(631,632)로 분할되었다. 본 실시 예에서는 공간 모델링부(320)가 도 3과 같이 전체공간(400)을 분할하였으나, 이에 국한하지 않고 다양한 분할이 가능하다. 3, the indoor space 500 is divided into a total of four indoor spaces 510 to 540, and the first outdoor space 610 is divided into three first outdoor spaces 611 to 613 The second outdoor space 620 is divided into three second outdoor spaces 621-623 and the third outdoor space 630 is divided into two third outdoor spaces 631 and 632 in total. In this embodiment, the spatial modeling unit 320 divides the entire space 400 as shown in FIG. 3. However, the present invention is not limited to this, and various dividing operations are possible.

도 3에 도시되지는 않았으나, 전체공간(400) 및 실내공간(500)의 출입문(700: 710-750) 주변에는 각각 카메라(100) 또는 센서부(200)가 배치될 수 있다. 또한 제1 실외공간(610) 및 제2 실외공간(620)에는 각각 카메라(100)가 배치될 수 있다. 더 나아가 제3 실외공간(630)에는 각각 카메라(100) 또는 센서부(200)가 배치될 수 있다. 이상은 도 3을 국한하여 설명한 것이며, 카메라(100) 및 센서부(200)의 배치는 변경이 가능하다. 또한 공간의 특성상 카메라(100) 및 센서부(200)를 둘 다 배치할 수도 있다. 예를 들어 후술하는 제3-1 실외공간(631) 및 제3-2 실외공간(632) 각각에는 카메라(100)가 배치되고, 제3-1 실외공간 및 제3-2 실외공간의 공간 분할 경계면에는 센서부(200)가 배치될 수 있다.Although not shown in FIG. 3, the camera 100 or the sensor unit 200 may be disposed around the doors 700 and 710-750 of the entire space 400 and the indoor space 500, respectively. The first outdoor space 610 and the second outdoor space 620 may each have a camera 100 disposed thereon. Furthermore, the camera 100 or the sensor unit 200 may be disposed in the third outdoor space 630, respectively. The above description is limited to FIG. 3, and the arrangement of the camera 100 and the sensor unit 200 can be changed. In addition, both the camera 100 and the sensor unit 200 may be disposed in the space. For example, the camera 100 is disposed in each of the 3-1 outdoor space 631 and the 3-2 outdoor space 632, which will be described later, and the camera 100 is disposed in each of the 3-1 outdoor space and the 3-2 outdoor space The sensor unit 200 may be disposed at the interface.

이하, 각 공간별로 객체의 계수를 설명하고자 한다. 본 실시 예에 따른 객체 계수를 실현하기 위해 몇 가지 전제조건이 요구되는데, 그 전제조건이라 함은, 카메라(100) 및 센서부(200)의 신호는 통합 관제 센터(300)에 동시에 전송되고, 카메라(100)의 계수 오차 범위는 고정되어 있고, 공간 분할 격자는 서로 중첩되지 않는다.Hereinafter, the coefficients of the objects are described for each space. Several preconditions are required for realizing the object coefficient according to the present embodiment. The precondition is that the signals of the camera 100 and the sensor unit 200 are simultaneously transmitted to the integrated control center 300, The counting error range of the camera 100 is fixed, and the space division gratings do not overlap each other.

전체공간 계수부(330)는 전체공간(400)으로의 입장 및 퇴장하는 객체를 계수하여 전체공간의 객체 계수 정보를 생성한다. 전체공간 계수부(330)는 출입문(710)이 구비된 전체공간(400)에 대해 카메라(100)로부터 수신한 객체 계수 정보를 전체공간(400)의 객체 계수 정보로 생성하거나, 센서부(200)로부터 수신된 감지신호 중 제2값을 계수하여 전체공간(400)의 객체 계수 정보로 생성할 수 있다.The total space counting unit 330 generates object count information of the entire space by counting the objects entering and leaving the entire space 400. The total space counting unit 330 generates object count information received from the camera 100 for the entire space 400 having the door 710 as object count information of the entire space 400, The second value of the sensing signal received from the first sensor 200 may be generated as object coefficient information of the entire space 400. [

도 4에는 전체공간(400)의 출입문(710)을 입장 또는 퇴장하는 객체를 계수하는 카메라(100)를 보여주고 있다. 도 4를 참조하면, 카메라(100)는 도 2에 도시된 바와 같은 구성 및 설명에 의해, 획득한 영상으로부터 객체를 추출 및 계수하여, 객체 계수 정보를 생성하고 이를 전체공간 계수부(330)로 전송할 수 있다.FIG. 4 shows a camera 100 that counts an object entering or exiting a door 710 of the entire space 400. Referring to FIG. 4, the camera 100 extracts and counts an object from the acquired image according to the configuration and description as shown in FIG. 2, generates object coefficient information, and outputs the object coefficient information to the overall space counting unit 330 Lt; / RTI >

도 5에는 전체공간(400)의 출입문(710)을 입장 또는 퇴장하는 객체를 계수하는 카메라(100)를 보여주고 있다. 도 5를 참조하면, 카메라(100)는 획득한 공간영상 내에 가상의 선(370)을 설정하고, 도 2의 구성에 의해 추출된 객체가 가상의 선(370)을 통과하는 경우 이를 객체 수로 계수하여 객체 계수 정보를 생성한 후 전체공간 계수부(330)로 전송할 수 있다.FIG. 5 shows a camera 100 that counts an object entering or exiting a door 710 of the entire space 400. 5, the camera 100 sets a virtual line 370 in the acquired spatial image, and when the object extracted by the configuration of FIG. 2 passes through the virtual line 370, it is multiplied by the number of objects And then transmits the generated object coefficient information to the total space counting unit 330.

도 6에는 전체공간(400)의 출입문(710)을 입장 또는 퇴장하는 객체를 감지하는 센서부(200)를 보여주고 있다. 도 6을 참조하면, 센서부(200)가 적외선 센서로 구성되고, 전체공간 계수부(330)는 적외선 센서로부터 제1값 및 제2값을 수신한 후, 이로부터 발광된 적외선이 기준시간을 초과하여 수신되는 경우의 제2값을 계수하여 전체공간의 객체 계수 정보로 생성할 수 있다.6 shows a sensor unit 200 for detecting an object entering or exiting a door 710 of the entire space 400. As shown in FIG. 6, the sensor unit 200 is configured by an infrared sensor, and the total spatial coefficient unit 330 receives the first value and the second value from the infrared sensor, The second value in the case of being received excessively can be counted and generated as the object count information of the whole space.

이 밖에 도면에 도시되지는 않았으나, 센서부(200)가 압력 센서로 구성된 경우, 전체공간 계수부(330)는 압력 센서로부터 제1값 및 제2값을 수신한 후, 이로부터 압력 감지 값이 기준 압력을 초과하는 경우의 제2 값을 계수하여 전체공간의 객체 계수 정보로 생성할 수 있다. 더 나아가 센서부(200)가 온도 센서로 구성된 경우, 전체공간 계수부(330)는 적외선 센서로부터 제1값 및 제2값을 수신한 후, 이로부터 일정 범위 오차 내의 기준온도가 감지되는 경우의 제2값을 계수하여 전체공간의 객체 계수 정보로 생성할 수 있다.In addition, when the sensor unit 200 is configured as a pressure sensor, the total space counting unit 330 receives the first and second values from the pressure sensor, It is possible to generate the object coefficient information of the whole space by counting the second value when the reference pressure is exceeded. When the sensor unit 200 is constituted by a temperature sensor, the total space counting unit 330 receives the first value and the second value from the infrared sensor, and when the reference temperature within a certain range of error is detected, It is possible to generate the object coefficient information of the whole space by counting the second value.

실내공간 계수부(340)는 실내공간(500)으로의 입장 및 퇴장하는 객체를 계수하여 객체 계수 정보를 생성한다. 실내공간 계수부(340)는 출입문(720-750)이 구비된 실내공간(510-540) 각각에 대하여 카메라(100)로부터 수신한 객체 계수 정보를 실내공간(500)의 객체 계수 정보로 생성하거나, 센서부(200)로부터 수신된 감지신호 중 제2값을 계수하여 실내공간(510-540) 각각의 객체 계수 정보로 생성할 수 있다. 실내공간 계수부(340)의 동작은 전체공간 계수부(330)의 동작과 동일하므로 상세한 설명은 생략하기로 한다.The indoor space counting unit 340 counts the objects entering and leaving the indoor space 500 to generate object coefficient information. The indoor space counting unit 340 generates object coefficient information received from the camera 100 for each of the indoor spaces 510 to 540 having the doors 720 to 750 as object coefficient information of the indoor space 500 , The second value of the sensing signals received from the sensor unit 200 may be counted and may be generated as the object coefficient information of each of the indoor spaces 510-540. Since the operation of the indoor space counting unit 340 is the same as that of the total space counting unit 330, detailed description thereof will be omitted.

실외공간 계수부(350)는 실외공간(230-250)에 존재하는 객체수를 계수하여 객체 계수 정보를 생성한다. 실외공간 계수부(350)는 전체공간의 객체 계수 정보에서 전체 실내공간의 객체 계수 정보의 합을 감산하여 생성할 수 있다. 다음에 각 실외공간(610-630)의 객체 계수 정보 생성을 설명하기로 한다.The outdoor space counting unit 350 generates the object counting information by counting the number of objects existing in the outdoor space 230-250. The outdoor space counting unit 350 may generate the object space by subtracting the sum of the object space information of the entire indoor space from the object space information of the entire space. Next, object coefficient information generation in each of the outdoor spaces 610 to 630 will be described.

제1 실외공간 계수부(351)는 제1 실외공간(611-613) 각각에 배치된 카메라(100)로부터 객체 계수 정보를 수신하고, 수신한 객체 계수 정보에 제1 오차, 예를 들어 1%를 적용한 결과를 제1 실외공간(611-613) 각각의 객체 계수 정보로 생성할 수 있다.The first outdoor space counting unit 351 receives the object count information from the camera 100 disposed in each of the first outdoor spaces 611 to 613, and adds a first error, for example, 1% Can be generated as the object coefficient information of each of the first outdoor spaces 611-613.

도 7에는 제1 실외공간(611-613) 각각에 존재하는 객체를 계수하는 카메라(100)를 보여주고 있다. 도 7을 참조하면, 카메라(100)는 도 2에 도시된 바와 같은 구성 및 설명에 의해, 획득한 영상으로부터 객체 추출 및 계수하여 객체 계수 정보를 생성한 후 제1 실외공간 계수부(351)로 전송할 수 있다. 이 밖에 카메라(100)는 획득한 공간영상 내에 가상의 선(370)을 설정하고, 도 2의 구성에 의해 추출된 객체가 가상의 선(370)을 통과하는 경우 이를 객체 수로 계수하여 객체 계수 정보를 생성한 후 제1 실외공간 계수부(351)로 전송할 수 있다. 더 나아가 제1 실외공간(611-613) 각각에 센서부(200)를 배치하고, 실외공간 계수부(351)가 센서부(200)로부터 수신한 제2값을 계수하여 이를 객체 계수 정보로 생성할 수 있다.FIG. 7 shows a camera 100 for counting objects existing in the first outdoor spaces 611 to 613, respectively. Referring to FIG. 7, the camera 100 generates object coefficient information by extracting and counting an object from the acquired image according to the configuration and description as shown in FIG. 2, and then outputs the object coefficient information to the first outdoor space counting unit 351 Lt; / RTI > In addition, the camera 100 sets a virtual line 370 in the acquired spatial image. When the object extracted by the configuration of FIG. 2 passes through the virtual line 370, the camera 100 counts the number of objects, And then transmits it to the first outdoor space counting unit 351. Furthermore, the sensor unit 200 is disposed in each of the first outdoor spaces 611 to 613, the outdoor space counting unit 351 counts the second value received from the sensor unit 200, can do.

제2 실외공간 계수부(352)는 제2 실외공간(621-623) 각각에 배치된 카메라(100)로부터 객체 계수 정보를 수신하고, 수신한 객체 계수 정보에 제1 오차와 다른 제2 오차, 예를 들어 2%를 적용한 결과를 제2 실외공간(621-623) 각각의 객체 계수 정보로 생성할 수 있다. 이하 제2 실외공간(621-623)의 객체 계수 정보 생성은 제1 실외공간(611-613)의 객체 계수 정보 생성과 동일하므로 상세한 설명은 생략하기로 한다.The second outdoor space counting unit 352 receives object count information from the camera 100 disposed in each of the second outdoor spaces 621 to 623 and outputs a second error to the received object count information different from the first error, For example, the result of applying 2% can be generated as the object coefficient information of each of the second outdoor spaces 621 - 623. Hereinafter, the object coefficient information generation of the second outdoor spaces 621-623 is the same as the object coefficient information generation of the first outdoor spaces 611-613, and thus a detailed description thereof will be omitted.

제3 실외공간 계수부(353)는 전체공간의 객체 계수 정보에서 전체 실내공간의 객체 계수 정보의 합과, 제1 실외공간(611-613)의 객체 계수 정보의 합과, 제2 실외공간(621-623)의 객체 계수 정보의 합을 감산하여 생성할 수 있다. The third outdoor space counting unit 353 calculates the sum of the object coefficient information of the entire indoor space and the sum of the object coefficient information of the first outdoor space 611-613 and the second outdoor space 621 - 623) by subtracting the sum of the object coefficient information from the object coefficient information.

그러나, 도 3과 같이 제3 실외공간(630)이 복수 개로 분할된 경우, 도 8을 참조하여 각 분할된 제3 실외공간의 객체 계수 정보 생성을 설명하면 다음과 같다. 설명의 편의 상 분할된 제3 실외 공간을 제3-1 실외공간(631) 및 제3-2 실외공간(632)으로 가정하고 설명하기로 한다. 또한 공간 모델링부(320)는 제3-1 실외공간(631) 및 제3-2 실외공간(632) 각각에 카메라(100)를 배치하고, 제3-1 실외공간(631) 및 제3-2 실외공간(632)의 분할 경계면에 센서부(200)를 배치할 수 있다. However, when the third outdoor space 630 is divided into a plurality of pieces as shown in FIG. 3, the generation of the object coefficient information of each divided third outdoor space will be described with reference to FIG. For convenience of explanation, it will be assumed that the divided third outdoor space is assumed as the 3-1 outdoor space 631 and the 3-2 outdoor space 632. The space modeling unit 320 also arranges the camera 100 in each of the 3-1 outdoor space 631 and the 3-2 outdoor space 632 and the 3-1 outdoor space 631 and the 3- The sensor unit 200 can be disposed on the divided boundary surface of the two outdoor spaces 632.

제3 실외공간 계수부(353)는 제3-1 실외공간(631)에 대해 카메라(100)로부터 객체 계수 정보를 수신하고, 제3-2 실외공간(632)에 대해 카메라(100)로부터 객체 계수 정보를 수신한다.The third outdoor space counting unit 353 receives the object count information from the camera 100 for the 3-1 outdoor space 631 and the object count information for the 3-2 outdoor space 632 from the camera 100 And receives coefficient information.

제3 실외공간 계수부(353)는 센서부(200)로부터 수신한 제2값으로부터 제3-1 실외공간(631)에서 제3-2 실외공간(632)으로 이동한 이동 객체 계수 정보 또는 제3-2 실외공간(632)에서 제3-1 실외공간(631)으로 이동한 이동 객체 계수 정보를 생성할 수 있다. 예를 들어 센서부(200)가 압력 센서로 구성된 경우, 제3-1 실외공간(631) 및 제3-2 실외공간(632)의 분할 경계면에 두 줄의 압력 센서를 배치하고, 동일한 압력을 갖는 제2값의 감지신호를 수신한 제3 실외공간 계수부(353)는 이로부터 객체의 이동 방향을 판단하고, 이동 객체 계수 정보를 생성할 수 있다. 또는 센서부(200)가 온도 센서로 구성된 경우 동일한 온도를 갖는 제2값의 감지신호를 수신한 제3 실외공간 계수부(353)는 이로부터 객체의 이동 방향을 판단하고, 이동 객체 계수 정보를 생성할 수 있다.The third outdoor space counting unit 353 counts the moving object coefficient information that has moved from the third -1 outdoor space 631 to the third 3-2 outdoor space 632 from the second value received from the sensor unit 200, 3-2 The moving object coefficient information moved from the outdoor space 632 to the 3-1 outdoor space 631 can be generated. For example, when the sensor unit 200 is constituted by a pressure sensor, two rows of pressure sensors are disposed at the boundary surfaces of the 3-1th outdoor space 631 and the 3-2th outdoor space 632, The third outdoor space counting unit 353 receiving the sensing signal of the second value having the second value may generate the moving object coefficient information by determining the moving direction of the object. Alternatively, when the sensor unit 200 is configured as a temperature sensor, the third outdoor space counting unit 353 receiving the sensing signal of the second value having the same temperature determines the moving direction of the object therefrom, Can be generated.

제3 실외공간 계수부(353)는 제3-1 실외공간(631)의 객체 계수 정보 생성 시에, 제3-1 실외공간(631)의 객체 계수 정보에서 제3-2 실외공간(632)으로 이동한 이동 객체 계수 정보를 감산하여 제3-1 실외공간(631)의 객체 계수 정보를 생성할 수 있다. 또한 제3 실외공간 계수부(353)는 전체 제3 실외공간(630)의 객체 계수 정보에서, 제3-2 실외공간(632)의 객체 계수 정보를 감산하여, 제3-1 실외공간(631)의 객체 계수 정보를 생성하고, 제3-1 실외공간(631)의 객체 계수 정보에서 제3-2 실외공간(632)으로 이동한 이동 객체 계수 정보를 감산하여, 제3-1 실외공간(631)의 객체 계수 정보를 생성할 수 있다. The third outdoor space counting unit 353 calculates the object coefficient information of the third-first outdoor space 631 from the object coefficient information of the third-first outdoor space 631, The object coefficient information of the third-first outdoor space 631 can be generated by subtracting the moving object coefficient information moved to the third-first outdoor space 631. The third outdoor space counting unit 353 subtracts the object coefficient information of the third-second outdoor space 632 from the object coefficient information of the entire third outdoor space 630, And subtracts the moving object coefficient information moved from the object coefficient information of the third-first outdoor space 631 to the third-second outdoor space 632 to obtain the object coefficient information of the third- 631). ≪ / RTI >

제3 실외공간 계수부(353)는 제3-2 실외공간(632)의 객체 계수 정보 생성 시에, 제3-2 실외공간(632)의 객체 계수 정보에서 제3-1 실외공간(631)으로 이동한 이동 객체 계수 정보를 감산하여 제3-2 실외공간(632)의 객체 계수 정보를 생성할 수 있다. 또한 제3 실외공간 계수부(353)는 전체 제3 실외공간(630)의 객체 계수 정보에서, 제3-1 실외공간(631)의 객체 계수 정보를 감산하여, 제3-2 실외공간(632)의 객체 계수 정보를 생성하고, 제3-2 실외공간(632)의 객체 계수 정보에서 제3-1 실외공간(631)으로 이동한 이동 객체 계수 정보를 감산하여, 제3-2 실외공간(632)의 객체 계수 정보를 생성할 수 있다.The third outdoor space counting unit 353 calculates the object coefficient information of the third-second outdoor space 632 from the object coefficient information of the third-second outdoor space 632, The object coefficient information of the third-second outdoor space 632 can be generated by subtracting the moving object coefficient information moved to the third- The third outdoor space counting unit 353 subtracts the object coefficient information of the third-first outdoor space 631 from the object coefficient information of the entire third outdoor space 630, And subtracts the moving object coefficient information moved from the object coefficient information of the 3-2 outdoor space 632 to the 3-1 outdoor space 631 to obtain the object coefficient information of the 3-2 outdoor space 632). ≪ / RTI >

저장부(360)는 공간 모델링 정보 및 각 공간별 객체 계수 정보를 저장한다. The storage unit 360 stores spatial modeling information and object coefficient information for each space.

이와 같이 본 발명에 따르면, 전체공간을 복수개의 부분공간으로 분할하고, 분할된 각 부분공간 별로 다른 알고리즘을 적용하여 부분공간별로 정확하게 객체를 계수할 수 있다.As described above, according to the present invention, an entire space can be divided into a plurality of partial spaces, and different algorithms can be applied to each of the divided partial spaces, thereby accurately counting objects by partial space.

이하, 도 9 내지 도 11을 참조하여 본 발명에 따른 객체 계수 방법을 설명하기로 한다. 본 발명에 따른 객체 계수 방법은 도 1에 도시된 바와 같이 객체 계수 장치 내의 주변 구성 요소들의 도움을 받아 통합 관제 센터(300) 내부에서 수행될 수 있다. 이하의 설명에서, 도 1 내지 도 8에 대한 설명과 중복되는 부분은 그 설명을 생략하기로 한다.Hereinafter, an object counting method according to the present invention will be described with reference to FIGS. 9 to 11. FIG. The object counting method according to the present invention can be performed within the integrated control center 300 with the help of peripheral components in the object counting device as shown in FIG. In the following description, the description of the parts overlapping with those of FIGS. 1 to 8 will be omitted.

도 9은 본 발명의 일 실시 예에 따른 객체 계수 방법의 동작을 보이는 흐름도 이다. 도 9를 참조하면, 통합 관제 센터(300)는 임의의 전체공간을 적어도 하나 이상의 실내공간 및 적어도 하나 이상의 실외공간으로 분할하는 단계(S100)를 수행한다.9 is a flowchart illustrating an operation of an object counting method according to an embodiment of the present invention. Referring to FIG. 9, the integrated control center 300 performs step S100 of dividing any entire space into at least one indoor space and at least one outdoor space.

여기서 통합 관제 센터(300) 실외공간을 적어도 하나 이상의 2분면이 막힌 제1 실외공간, 적어도 하나 이상의 1분면이 막힌 제2 실외공간 및 적어도 하나 이상의 막힘 없이 열린 제3 실외공간으로 다시 분할한다. 또한 통합 관제 센터(300)는 제3 실외공간에 대해 적어도 하나 이상의 실외공간으로 다시 분할할 수 있으며, 본 실시 예에서는 설명의 편의상 제3 실외공간을 제3-1 실외공간 및 제3-2 실외공간으로 분할하여 설명하기로 한다. 더 나아가 통합 관제 센터(300)는 전체공간 및 실내공간 각각에 객체가 입장/퇴장할 수 있는 출입문을 배치한다.Here, the integrated control center 300 divides the outdoor space into at least one closed first outdoor space, at least one second closed second outdoor space, and at least one open third outdoor space. In addition, the integrated control center 300 may divide the third outdoor space into at least one outdoor space again. In the present embodiment, the third outdoor space is divided into the third-first outdoor space and the third-second outdoor space Space will be described below. Furthermore, the integrated control center 300 places a door in which the object can enter / leave the entire space and the indoor space, respectively.

전체공간의 공간 분할이 완료되면, 통합 관제 센터(300)는 출입문이 구비된 전체공간에 대해 카메라(100)로부터 수신한 객체 계수 정보를 전체공간의 객체 계수 정보로 생성하거나, 센서부(200)로부터 수신된 감지신호 중 제2값을 계수하여 전체공간의 객체 계수 정보로 생성하는 단계(S200)를 수행한다.When the spatial division of the entire space is completed, the integrated control center 300 generates the object coefficient information received from the camera 100 for the entire space provided with the door or the object coefficient information for the entire space, (S200) of generating the object coefficient information of the whole space by counting the second value of the sensing signals received from the sensor module.

카메라(100)는 획득한 영상으로부터 객체를 추출 및 계수하여, 객체 계수 정보를 생성하고 이를 통합 관제 센터(300)로 전송할 수 있다. 또한 카메라(100)는 획득한 공간영상 내에 가상의 선을 설정하고, 도 2의 구성에 의해 추출된 객체가 가상의 선을 통과하는 경우 이를 객체 수로 계수하여 객체 계수 정보를 생성한 후 통합 관제 센터(300)로 전송할 수 있다. 통합 관제 센터(300)는 적외선 센서로 구성된 센서부(200)로부터 발광된 적외선이 기준시간을 초과하여 수신되는 경우의 제2값을 계수하여 전체공간의 객체 계수 정보로 생성할 수 있다. 또한 통합 관제 센터(300)는 압력 센서로 구성된 센서부(200)로부터 압력 감지 값이 기준 압력을 초과하는 경우의 제2 값을 계수하여 전체공간의 객체 계수 정보로 생성할 수 있다. 더 나아가 통합 관제 센터(300)는 온도 센서로 구성된 센서부(200)로부터 일정 범위 오차 내의 기준온도가 감지되는 경우의 제2값을 계수하여 전체공간의 객체 계수 정보로 생성할 수 있다.The camera 100 extracts and counts objects from the acquired images, generates object count information, and transmits the object count information to the integrated control center 300. In addition, the camera 100 sets a virtual line in the acquired spatial image, and when the object extracted by the configuration of FIG. 2 passes through a virtual line, it is counted as the number of objects to generate object coefficient information, (300). The integrated control center 300 can generate the object coefficient information of the whole space by counting the second value when the infrared ray emitted from the sensor unit 200 composed of the infrared sensor is received over the reference time. Also, the integrated control center 300 can generate the object coefficient information of the whole space by counting the second value when the pressure sensing value exceeds the reference pressure from the sensor unit 200 constituted by the pressure sensor. Furthermore, the integrated control center 300 may generate the object coefficient information of the whole space by counting the second value when the reference temperature within a certain range error is detected from the sensor unit 200 constituted by the temperature sensor.

전체공간의 객체 계수 정보 생성과 동시에, 통합 관제 센터(300)는 출입문이 구비된 실내공간 각각에 대하여 카메라(100)로부터 수신한 객체 계수 정보를 실내공간의 객체 계수 정보로 생성하거나, 센서부(200)로부터 수신된 감지신호 중 제2값을 계수하여 실내공간 각각의 객체 계수 정보로 생성하는 단계(S300)를 수행한다. 통합 관제 센터(300)의 실내공간의 객체 계수 정보 생성 동작은 전체공간의 객체 계수 정보 생성 동작과 동일하므로 상세한 설명은 생략하기로 한다.At the same time as the object count information of the entire space is generated, the integrated control center 300 generates object coefficient information received from the camera 100 for each indoor space provided with the door as object coefficient information of the indoor space, 200) to generate object coefficient information of each of the indoor spaces (S300). The operation of generating the object count information of the indoor space of the integrated control center 300 is the same as the operation of generating the object count information of the entire space, and thus a detailed description thereof will be omitted.

전체공간의 객체 계수 정보 생성 및 실내공간의 객체 계수 정보 생성과 동시에, 통합 관제 센터(300)는 전체공간의 객체 계수 정보 및 실내공간의 객체 계수 정보와 함께, 실외공간에 배치된 카메라(100) 또는 센서부(200)를 이용하여 실외공간의 객체 계수 정보를 생성하는 단계(S400)를 수행한다.The integrated control center 300 generates the object coefficient information of the entire space and the object coefficient information of the indoor space together with the object coefficient information of the entire space and the object coefficient information of the indoor space, Or the object unit information of the outdoor space using the sensor unit 200 (S400).

도 10에는 실외공간에서의 객체 계수 방법의 동작을 보이는 흐름도가 도시되어 있다. 도 10을 참조하면, 통합 관제 센터(300)는 제1 실외공간 각각에 배치된 카메라(100)로부터 객체 계수 정보를 수신하고, 수신한 객체 계수 정보에 제1 오차, 예를 들어 1%를 적용한 결과를 제1 실외공간 각각의 객체 계수 정보로 생성하는 단계(S410)를 수행한다. 10 is a flowchart showing the operation of the object counting method in the outdoor space. Referring to FIG. 10, the integrated control center 300 receives object count information from a camera 100 disposed in each of the first outdoor spaces, and applies a first error, for example, 1% to the received object count information (S410) of generating the result as the object coefficient information of each of the first outdoor spaces.

카메라(100)는 제1 실외공간 각각에 배치되어, 획득한 영상으로부터 객체 추출 및 계수하여 객체 계수 정보를 생성한 후 통합 관제 센터(300)로 전송할 수 있다. 이 밖에 카메라(100)는 획득한 공간영상 내에 가상의 선을 설정하고, 추출된 객체가 가상의 선을 통과하는 경우 이를 객체 수로 계수하여 객체 계수 정보를 생성한 후 통합 관제 센터(300)로 전송할 수 있다. 더 나아가 제1 실외공간 각각에 센서부(200)를 배치하고, 통합 관제 센터(300)가 센서부(200)로부터 수신한 제2값을 계수하여 이를 객체 계수 정보로 생성할 수 있다.The camera 100 is disposed in each of the first outdoor spaces, extracts and counts objects from the acquired images, generates object coefficient information, and transmits the object coefficient information to the integrated control center 300. In addition, the camera 100 sets a virtual line in the acquired spatial image, and when the extracted object passes through a virtual line, it counts the number of objects as the number of objects to generate object count information, and then transmits the object count information to the integrated control center 300 . Furthermore, the sensor unit 200 may be disposed in each of the first outdoor spaces, and the second control unit 300 may count the second value received from the sensor unit 200 and generate the object coefficient information.

제1 실외공간의 객체 계수 정보 생성과 동시에, 통합 관제 센터(300)는 제2 실외공간 각각에 배치된 카메라(100)로부터 객체 계수 정보를 수신하고, 수신한 객체 계수 정보에 제1 오차와 다른 제2 오차, 예를 들어 2%를 적용한 결과를 제2 실외공간 각각의 객체 계수 정보로 생성하는 단계(S420)를 수행한다. 통합 관제 센터(300)의 제2 실외공간의 객체 계수 정보 생성 동작은 제1 실외공간의 객체 계수 정보 생성 동작과 동일하므로 상세한 설명은 생략하기로 한다.At the same time as the object coefficient information of the first outdoor space is generated, the integrated control center 300 receives the object coefficient information from the camera 100 disposed in each of the second outdoor spaces, (S420) of generating a result of applying the second error, for example, 2%, as the object coefficient information of each of the second outdoor spaces. The operation of generating the object coefficient information of the second outdoor space of the integrated control center 300 is the same as the operation of generating the object coefficient information of the first outdoor space, and thus the detailed description thereof will be omitted.

제1 실외공간의 객체 계수 정보 생성 및 제2 실외공간의 객체 계수 정보 생성과 동시에, 통합 관제 센터(300)는 제3 실외공간에 대해, 전체 객체 계수 정보로부터 실내공간 객체 계수 정보, 제1 실외공간 객체 계수 정보 및 제2 실외공간 객체 계수 정보를 감산하여 객체 계수 정보를 생성하는 단계(S430)를 수행한다.At the same time as the object coefficient information of the first outdoor space and the object coefficient information of the second outdoor space are generated, the integrated control center 300 calculates indoor space coefficient information from the total object coefficient information, The spatial object coefficient information, and the second outdoor spatial object coefficient information to generate object coefficient information (S430).

도 11에는 분할된 열린 실외공간 즉, 제3-1 실외공간 및 제3-2 실외공간에서의 객체 계수 방법의 동작을 보이는 흐름도가 도시되어 있다. 도 11을 참조하면, 통합 관제 센터(300)는 카메라(100)로부터 제3-1 실외공간의 객체 계수 정보 및 제3-2 실외공간의 객체 계수 정보를 수신하는 단계(S431)를 수행한다.FIG. 11 is a flowchart showing the operation of the object counting method in the divided open outdoor spaces, that is, the 3-1 outdoor space and the 3-2 outdoor space. Referring to FIG. 11, the integrated control center 300 performs step S431 of receiving object coefficient information of the 3-1 outdoor space and object coefficient information of the 3-2 outdoor space from the camera 100. FIG.

제3-1 실외공간의 객체 계수 정보 및 제3-2 실외공간의 객체 계수 정보를 수신이 완료되면, 통합 관제 센터(300)는 센서부(200)로부터 수신한 제2값으로부터 제3-1 실외공간에서 제3-2 실외공간으로 이동한 이동 객체 계수 정보 또는 제3-2 실외공간에서 제3-1 실외공간으로 이동한 이동 객체 계수 정보를 생성하는 단계(S432)를 수행한다.When the reception of the object coefficient information of the 3-1 outdoor space and the object coefficient information of the 3-2 outdoor space is completed, the integrated control center 300 reads the second coefficient from the second value received from the sensor unit 200, (Step S432) the moving object coefficient information moved to the third outdoor space from the outdoor space or the moving object coefficient information moved to the third outdoor space from the third outdoor space.

여기서, 압력 센서로 구성된 센서부(200)는 제3-1 실외공간 및 제3-2 실외공간의 분할 경계면에 두 줄로 배치될 수 있고, 동일한 압력을 갖는 제2값을 감지신호로 출력하고, 통합 관제 센터(300)는 이 감지신호를 수신하여 객체의 이동 방향을 판단하고, 이동 객체 계수 정보를 생성할 수 있다. 또는 온도 센서로 구성된 센서부(200)는 제3-1 실외공간 및 제3-2 실외공간의 분할 경계면에 배치되어 동일한 온도를 갖는 제2값을 감지신호로 출력하고, 통합 관제 센터(300)는 이 감지신호를 수신하여 객체의 이동 방향을 판단하고, 이동 객체 계수 정보를 생성할 수 있다.Here, the sensor unit 200 constituted by the pressure sensor may be arranged in two lines on the division boundary surfaces of the 3-1 outdoor space and the 3-2 outdoor space, outputting a second value having the same pressure as a sensing signal, The integrated control center 300 can receive the detection signal to determine the moving direction of the object and generate the moving object coefficient information. Or the temperature sensor outputs a second value having the same temperature as a sensing signal by being disposed at the boundary interface between the 3-1 outdoor space and the 3-2 outdoor space, Can receive the detection signal, determine the moving direction of the object, and generate moving object coefficient information.

이동 객체 계수 정보 생성이 완료되면, 통합 관제 센터(300)는 카메라(100)로부터 수신한 객체 계수 정보 및 이동 객체 계수 정보를 이용하여 제3-1실외공간 및 제3-2실외공간 각각의 객체 계수 정보를 생성하는 단계(S433)를 수행한다.When the generation of the moving object coefficient information is completed, the integrated control center 300 uses the object coefficient information and moving object coefficient information received from the camera 100 to calculate the object of each of the 3-1 outdoor space and the 3-2 outdoor space Step S433 of generating coefficient information is performed.

통합 관제 센터(300)는 제3-1 실외공간의 객체 계수 정보 생성 시에, 제3-1 실외공간의 객체 계수 정보에서 제3-2 실외공간으로 이동한 이동 객체 계수 정보를 감산하여 제3-1 실외공간의 객체 계수 정보를 생성할 수 있다. 또한 통합 관제 센터(300)는 전체 제3 실외공간의 객체 계수 정보에서, 제3-2 실외공간의 객체 계수 정보를 감산하여, 제3-1 실외공간의 객체 계수 정보를 생성하고, 제3-1 실외공간의 객체 계수 정보에서 제3-2 실외공간으로 이동한 이동 객체 계수 정보를 감산하여 제3-1 실외공간의 객체 계수 정보를 생성할 수 있다. 통합 관제 센터(300)는 제3-2 실외공간의 객체 계수 정보 생성 시에, 제3-2 실외공간의 객체 계수 정보에서 제3-1 실외공간으로 이동한 이동 객체 계수 정보를 감산하여 제3-2 실외공간의 객체 계수 정보를 생성할 수 있다. 또한 통합 관제 센터(300)는 전체 제3 실외공간의 객체 계수 정보에서, 제3-1 실외공간의 객체 계수 정보를 감산하여, 제3-2 실외공간의 객체 계수 정보를 생성하고, 제3-2 실외공간의 객체 계수 정보에서 제3-1 실외공간으로 이동한 이동 객체 계수 정보를 감산하여, 제3-2 실외공간의 객체 계수 정보를 생성할 수 있다.The integrated control center 300 subtracts the moving object coefficient information moved from the object coefficient information of the 3-1 outdoor space to the 3-2 outdoor space at the time of generating the object coefficient information of the 3-1 outdoor space, -1 The object coefficient information of the outdoor space can be generated. In addition, the integrated control center 300 generates the object coefficient information of the third-first outdoor space by subtracting the object coefficient information of the third-second outdoor space from the object coefficient information of the entire third outdoor space, The object coefficient information of the third-first outdoor space can be generated by subtracting the moving object coefficient information moved to the third-second outdoor space from the object coefficient information of the first outdoor space. The integrated control center 300 subtracts the moving object coefficient information moved from the object coefficient information of the 3-2 outdoor space to the 3-1 outdoor space when generating the object coefficient information of the 3-2 outdoor space, -2 It is possible to generate object coefficient information of outdoor space. Also, the integrated control center 300 generates the object coefficient information of the third-second outdoor space by subtracting the object coefficient information of the third-first outdoor space from the object coefficient information of the third outdoor space, The object coefficient information of the third-second outdoor space can be generated by subtracting the moving object coefficient information moved to the third-first outdoor space from the object coefficient information of the second outdoor space.

한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the present invention can be embodied in computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also a carrier wave (for example, transmission via the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the above-described embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

100: 카메라 200: 센서부
300: 통합 관제 센터 310: 제어부
320: 공간 모델링부 330: 전체공간 계수부
340: 실내공간 계수부 350: 실외공간 계수부
351: 제1 실외공간 계수부 352: 제2 실외공간 계수부
353: 제3 실외공간 계수부 360: 저장부
370: 가상의 선 400: 전체공간
500: 실내공간 600: 실외공간
610: 제1 실외공간 620: 제2 실외공간
630: 제3 실외공간 700: 출입문
100: camera 200:
300: Integrated control center 310: Control unit
320: space modeling unit 330: total spatial coefficient unit
340: indoor space counting unit 350: outdoor space counting unit
351: first outdoor space counting unit 352: second outdoor space counting unit
353: third outdoor space counting section 360: storage section
370: virtual line 400: total space
500: Indoor space 600: Outdoor space
610: first outdoor space 620: second outdoor space
630: Third outdoor space 700: Entrance

Claims (14)

임의의 공간을 촬영한 영상으로부터 객체 계수 정보를 생성하는 카메라;
상기 공간과 다른 임의의 공간을 통과하는 객체를 감지하는 센서부; 및
전체공간을 복수개의 부분공간으로 분할하고, 상기 분할된 부분공간에 배치된 상기 카메라 및 상기 센서부로부터 신호를 수신하며, 상기 복수개의 부분공간 각각에 대하여, 상기 카메라로부터 객체 계수 정보를 수신하거나 또는/및 상기 센서부를 통해 수신한 감지신호에 의해 객체 계수 정보를 생성하는 통합 관제 센터;를 포함하는 것을 특징으로 하는 객체 계수 장치.
A camera for generating object coefficient information from an image of an arbitrary space;
A sensor unit for sensing an object passing through an arbitrary space different from the space; And
Receiving a signal from the camera and the sensor unit disposed in the divided subspace, receiving object count information from the camera for each of the plurality of subspaces, And an integrated control center for generating object coefficient information based on a sensing signal received through the sensor unit.
제 1항에 있어서, 상기 통합 관제 센터는,
상기 전체공간을 입장/퇴장할 수 있는 출입문을 포함하여, 출입문을 포함하는 적어도 하나 이상의 실내공간 및 적어도 하나 이상의 실외공간으로 분할하는 공간 모델링부;를 포함하는 것을 특징으로 하는 객체 계수 장치.
The integrated control center according to claim 1,
And a space modeling unit for dividing the object into at least one or more indoor spaces including an entrance door and at least one outdoor space including an entrance door for entering / exiting the entire space.
제 2항에 있어서, 상기 공간 모델링부는,
상기 실외공간에 대하여, 2분면이 막힌 적어도 하나 이상의 제1 실외공간, 1분면이 막힌 적어도 하나 이상의 제2 실외공간 및 막힘 없이 열린 적어도 하나 이상의 제3 실외 공간으로 분할하는 것을 특징으로 하는 객체 계수 장치.
3. The apparatus according to claim 2,
Wherein at least one of the first outdoor space, the second outdoor space, and the third outdoor space is divided into at least one first outdoor space, a second outdoor space and a second outdoor space, .
제 2항에 있어서, 상기 통합 관제 센터는,
상기 전체공간의 출입문 주변에 배치된 상기 카메라 또는 상기 센서부를 통하여 상기 전체공간을 입장/퇴장하는 객체를 계수하여 객체 계수 정보를 생성하는 전체공간 계수부;
상기 실내공간의 출입문 주변에 배치된 상기 카메라 또는 상기 센서부를 통하여 상기 실내공간을 입장/퇴장하는 객체를 계수하여 객체 계수 정보를 생성하는 실내공간 계수부; 및
상기 전체공간 계수정보 및 상기 실내공간 계수정보와, 상기 실외공간에 배치된 상기 카메라 또는/및 상기 센서부를 통하여 상기 실외공간 내의 객체를 계수하여 객체 계수 정보를 생성하는 실외공간 계수부;를 포함하는 것을 특징으로 하는 객체 계수 장치.
The integrated control center according to claim 2,
An overall space counting unit for counting an object entering / leaving the entire space through the camera or the sensor unit disposed around the door of the entire space to generate object coefficient information;
An indoor space counting unit for counting an object entering / leaving the indoor space through the camera or the sensor unit disposed around the door of the indoor space to generate object coefficient information; And
And an outdoor space counting unit for counting the total space coefficient information, the indoor space coefficient information, the object in the outdoor space through the camera and / or the sensor unit arranged in the outdoor space, and generating object coefficient information The object counting device comprising:
제 4항에 있어서, 상기 실외공간 계수부는,
상기 실외공간 중 2분면이 막힌 제1 실외공간에 배치된 카메라로부터 수신한 객체 계수 정보에 제1 오차를 적용하여 객체 계수 정보를 생성하는 제1 계수부;
상기 실외공간 중 1분면이 막힌 제2 실외공간에 배치된 카메라로부터 수신한 객체 계수정보에 상기 제1 오차와는 다른 제2 오차를 적용하여 객체 계수 정보를 생성하는 제2 계수부; 및
상기 실외공간 중 막힘 없이 열린 제3 실외공간에 대해, 상기 전체 객체 계수 정보로부터 상기 실내공간 객체 계수 정보, 상기 제1 실외공간 계수정보 및 상기 제2 실외공간 계수정보를 감산하여 객체 계수 정보로 생성하는 제3 계수부;를 포함하는 것을 특징으로 하는 객체 계수 장치.
5. The outdoor unit according to claim 4,
A first counting unit for generating object coefficient information by applying a first error to object coefficient information received from a camera disposed in a first outdoor space in which the second half of the outdoor space is blocked;
A second coefficient unit for generating object coefficient information by applying a second error different from the first error to the object coefficient information received from the camera disposed in the second outdoor space in which one side of the outdoor space is blocked; And
The indoor space coefficient information, the first outdoor space coefficient information, and the second outdoor space coefficient information are subtracted from the total object coefficient information for the third outdoor space opened without clogging in the outdoor space to generate object coefficient information And a third coefficient unit for performing a third coefficient calculation.
제 5항에 있어서, 상기 공간 모델링부는,
상기 제3 실외공간을 둘 이상의 공간으로 분할하고, 각 공간에 상기 카메라를 배치하며, 상기 공간분할 경계면에 상기 센서부를 배치하는 것을 특징으로 하는 객체 계수 장치.
6. The apparatus of claim 5,
Wherein the third outdoor space is divided into two or more spaces, the camera is arranged in each space, and the sensor unit is arranged on the space division boundary surface.
제 6항에 있어서, 상기 제3 계수부는,
상기 카메라로부터 수신한 객체 계수 정보 및 상기 센서부로부터 감지신호를 수신하여 생성한 객체 계수 정보를 이용하여 상기 제3 실외공간 중 어느 한 공간 및 나머지 공간의 객체 계수 정보를 생성하는 것을 특징으로 하는 객체 계수 장치.
7. The apparatus of claim 6, wherein the third coefficient unit comprises:
And object coefficient information of a space and a remaining space of the third outdoor space is generated using object coefficient information received from the camera and object coefficient information generated by receiving a sensing signal from the sensor unit Counting device.
임의의 전체공간을 적어도 하나 이상의 실내공간 및 적어도 하나 이상의 실외공간으로 분할하는 공간 분할 단계;
상기 전체공간의 출입문 주변에 배치된 카메라 또는 센서를 이용하여 입장/퇴장하는 객체를 계수하여 객체 계수 정보를 생성하는 전체공간 계수 단계;
상기 실내공간의 출입문 주변에 배치된 카메라 또는 센서를 이용하여 입장/퇴장하는 객체를 계수하여 객체 계수 정보를 생성하는 실내공간 계수 단계; 및
상기 전체공간 계수 정보 및 상기 실내공간 계수 정보와, 실외공간에 배치된 카메라 또는 센서를 이용하여 상기 실외공간의 객체를 계수하고 객체 계수 정보를 생성하는 실외공간 계수단계;를 포함하는 것을 특징으로 하는 객체 계수 방법.
A space dividing step of dividing an arbitrary entire space into at least one indoor space and at least one outdoor space;
An overall space counting step of counting an object entering / leaving using a camera or a sensor disposed around the door of the entire space to generate object count information;
An indoor space counting step of counting an entry / exit object using a camera or a sensor disposed around the door of the indoor space to generate object coefficient information; And
And an outdoor space counting step of counting the objects in the outdoor space by using the total space coefficient information, the indoor space coefficient information, and a camera or a sensor disposed in the outdoor space, and generating object coefficient information Method of object counting.
제 8항에 있어서, 상기 공간 분할 단계는,
상기 실외공간에 대하여, 2분면이 막힌 적어도 하나 이상의 제1 실외공간, 1분면이 막힌 적어도 하나 이상의 제2 실외공간 및 막힘 없이 열린 적어도 하나 이상의 제3 실외 공간으로 분할하는 것을 특징으로 하는 객체 계수 방법.
9. The method according to claim 8,
Wherein at least one of the first outdoor space and the second outdoor space is divided into at least one first outdoor space and at least one second outdoor space with two clams blocked and at least one third outdoor space closed without clogging, .
제 9항에 있어서, 상기 실외공간 계수단계는,
상기 2분면이 막힌 제1 실외공간에 배치된 카메라로부터 수신한 객체 계수정보에 제1 오차를 적용하여 객체를 계수하고 객체 계수 정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 객체 계수 방법.
10. The method according to claim 9,
And counting the object by applying a first error to the object coefficient information received from the camera disposed in the first outdoor space in which the two-dimensional plane is blocked, and generating the object coefficient information.
제 9항에 있어서, 상기 실외공간 계수단계는,
상기 1분면이 막힌 제2 실외공간에 배치된 카메라로부터 수신한 객체 계수정보에 상기 제1 오차와는 다른 제2 오차를 적용하여 객체를 계수하고 객체 계수 정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 객체 계수 방법.
10. The method according to claim 9,
And a step of counting the object and generating the object coefficient information by applying a second error different from the first error to the object coefficient information received from the camera disposed in the second outdoor space with the first half closed, .
제 9항에 있어서, 상기 실외공간 계수단계는,
상기 막힘 없이 열린 제3 실외공간에 대해, 상기 전체 객체 계수 정보로부터 상기 실내공간 객체 계수 정보, 상기 제1 실외공간 객체 계수 정보 및 상기 제2 실외공간 객체 계수 정보를 감산하여 객체 계수 정보로 생성하는 단계;를 포함하는 것을 특징으로 하는 객체 계수 방법.
10. The method according to claim 9,
The indoor spatial object coefficient information, the first outdoor spatial object coefficient information, and the second outdoor spatial object coefficient information are subtracted from the total object coefficient information for the third outdoor space without clogging to generate the object coefficient information The method comprising the steps of:
제 9항에 있어서, 상기 공간 분할 단계는,
상기 제3 실외공간을 둘 이상의 공간으로 분할하고, 각 공간에 상기 카메라를 배치하며, 상기 공간분할 경계면에 상기 센서를 배치하는 단계;를 포함하는 것을 특징으로 하는 객체 계수 방법.
10. The method according to claim 9,
Dividing the third outdoor space into two or more spaces, placing the camera in each space, and arranging the sensors on the space-divided boundary surface.
제 13항에 있어서, 상기 실외공간 계수단계는,
상기 카메라로부터의 상기 공간별로 계수된 객체 정보를 수신하는 단계;
상기 센서의 감지신호 의해 객체의 이동량을 계수하여 이동 객체 계수 정보를 생성하는 단계; 및
상기 카메라로부터 수신한 객체 계수 정보 및 상기 이동 객체 계수 정보를 이용하여 상기 제3실외공간 중 어느 한 공간 및 나머지 공간의 객체 계수 정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 객체 계수 방법.
14. The method of claim 13, wherein the outdoor space-
Receiving the counted object information by the space from the camera;
Generating movement object coefficient information by counting a movement amount of the object by the sensing signal of the sensor; And
And generating object coefficient information of a space and a remaining space of the third outdoor space using the object coefficient information received from the camera and the moving object coefficient information.
KR1020130010090A 2013-01-29 2013-01-29 Apparatus and method for counting the number of object KR101426418B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130010090A KR101426418B1 (en) 2013-01-29 2013-01-29 Apparatus and method for counting the number of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130010090A KR101426418B1 (en) 2013-01-29 2013-01-29 Apparatus and method for counting the number of object

Publications (2)

Publication Number Publication Date
KR20140096910A true KR20140096910A (en) 2014-08-06
KR101426418B1 KR101426418B1 (en) 2014-09-23

Family

ID=51744665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130010090A KR101426418B1 (en) 2013-01-29 2013-01-29 Apparatus and method for counting the number of object

Country Status (1)

Country Link
KR (1) KR101426418B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160089166A (en) * 2015-01-19 2016-07-27 한화테크윈 주식회사 Apparatus for counting the number of people
US11428795B2 (en) 2018-01-02 2022-08-30 Industry-University Cooperation Foundation Hanyang University Method and device for counting people by using UWB radar

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101824203B1 (en) * 2016-03-29 2018-01-31 세종대학교산학협력단 Apparatus and method for calculation of target object
KR102511569B1 (en) * 2021-01-15 2023-03-17 주식회사 비트코퍼레이션 Unmanned store coming and going customer monitoring apparatus to monitor coming and going customer in unmanned store and operating method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3076982B2 (en) * 1997-12-19 2000-08-14 技研トラステム株式会社 Moving object counting device
JP3607653B2 (en) * 2001-09-12 2005-01-05 技研トラステム株式会社 Separation counting device
KR101171281B1 (en) * 2010-08-17 2012-08-06 주식회사 유니온커뮤니티 People Counting System and Method by Image Analysis

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160089166A (en) * 2015-01-19 2016-07-27 한화테크윈 주식회사 Apparatus for counting the number of people
US11428795B2 (en) 2018-01-02 2022-08-30 Industry-University Cooperation Foundation Hanyang University Method and device for counting people by using UWB radar

Also Published As

Publication number Publication date
KR101426418B1 (en) 2014-09-23

Similar Documents

Publication Publication Date Title
US9973741B2 (en) Three-dimensional image sensors
TWI405150B (en) Video motion detection method and non-transitory computer-readable medium and camera using the same
KR101223046B1 (en) Image segmentation device and method based on sequential frame imagery of a static scene
KR101426418B1 (en) Apparatus and method for counting the number of object
KR102199094B1 (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
KR101747214B1 (en) Muliti-channel image analyzing method and system
AU2013260753A1 (en) Rapid shake detection using a cascade of quad-tree motion detectors
JP2017117244A (en) Image analysis device for detecting a person displayed in photographic image of camera
JPWO2008035411A1 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
US10937124B2 (en) Information processing device, system, information processing method, and storage medium
KR20190099216A (en) RGBD detection based object detection system and method
KR101214858B1 (en) Moving object detecting apparatus and method using clustering
JP2010262527A (en) Passing person counting device, passing person counting method and passing person counting program
JP6516646B2 (en) Identification apparatus for identifying individual objects from images taken by a plurality of cameras, identification method and program
Low et al. Frame Based Object Detection--An Application for Traffic Monitoring
JP6301202B2 (en) Shooting condition setting device and shooting condition setting method
US10943103B2 (en) Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium
KR100695128B1 (en) Method for determining color of illuminant
Dhaief People counting technology
KR101320864B1 (en) External object trespass recognition method in monitoring region by shape pattern
KR20190048072A (en) A method for determining noise level of image
KR101637637B1 (en) Method and apparatus for local auto exposure in video sensor systems
US11887309B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20130223729A1 (en) Identifying points of interest in an image
Watanabe et al. Event detection for a visual surveillance system using stereo omni-directional system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180627

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190626

Year of fee payment: 6