KR20220155700A - People counting method and apparatus using artificial intelligence - Google Patents

People counting method and apparatus using artificial intelligence Download PDF

Info

Publication number
KR20220155700A
KR20220155700A KR1020210063245A KR20210063245A KR20220155700A KR 20220155700 A KR20220155700 A KR 20220155700A KR 1020210063245 A KR1020210063245 A KR 1020210063245A KR 20210063245 A KR20210063245 A KR 20210063245A KR 20220155700 A KR20220155700 A KR 20220155700A
Authority
KR
South Korea
Prior art keywords
image
camera module
objects
area
comparison
Prior art date
Application number
KR1020210063245A
Other languages
Korean (ko)
Other versions
KR102631983B1 (en
Inventor
이재준
Original Assignee
(주)케이아이오티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)케이아이오티 filed Critical (주)케이아이오티
Priority to KR1020210063245A priority Critical patent/KR102631983B1/en
Publication of KR20220155700A publication Critical patent/KR20220155700A/en
Application granted granted Critical
Publication of KR102631983B1 publication Critical patent/KR102631983B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a people counting method and device using artificial intelligence. More specifically, the present invention relates to the people counting method and device using artificial intelligence, which quickly and accurately detects the number of people by using a pattern of a part where people are located. According to the present invention, the people counting method using artificial intelligence may comprise: a photographing step in which a camera module photographs an image of surroundings; and a detection step of detecting the number of objects included in the target image by analyzing a target image photographed by the camera module.

Description

인공지능을 이용한 군중 계수 장치 및 방법{PEOPLE COUNTING METHOD AND APPARATUS USING ARTIFICIAL INTELLIGENCE}Crowd counting device and method using artificial intelligence {PEOPLE COUNTING METHOD AND APPARATUS USING ARTIFICIAL INTELLIGENCE}

본 발명은 인공지능을 이용한 군중 계수 장치 및 방법에 관한 것이다. 보다 자세하게는, 본 발명은 군중이 위치하는 부분의 패턴을 이용하여 신속하고 정확하게 군중의 수를 검출하는 인공지능을 이용한 군중 계수 장치 및 방법에 관한 것이다.The present invention relates to a crowd counting device and method using artificial intelligence. More specifically, the present invention relates to a crowd counting apparatus and method using artificial intelligence for quickly and accurately detecting the number of crowds using a pattern of a part where the crowd is located.

최근 들어 뮤직 콘서트 또는 경기장에서의 스포츠 경기뿐만 아니라 특정 장소에서의 다양한 군중 집회, 모임이 증가하고 있다.Recently, not only music concerts or sporting events at stadiums, but also various crowd rallies and gatherings in specific places are increasing.

그 모임을 주최하거나 그 모임에 대한 정보를 수집하고 분석하는 언론기관 등에서는 그 군중 집회에 모인 인원수를 정확하게 파악할 필요가 있다.Media organizations that host the gathering or collect and analyze information about the gathering need to accurately determine the number of people gathered at the rally.

종래에는 인력이 직접 계수하거나, 운집한 군중들에서 샘플을 추출해서 그 샘플의 인원수를 카운팅해서 전체 인원수를 유추하는 통계적 방법을 이용하였다.Conventionally, a statistical method of inferring the total number of people by directly counting manpower or by extracting a sample from a crowded crowd and counting the number of people in the sample was used.

이러한 방법은 인력을 이용할 경우 적지 않은 인건비가 필요하고, 군중의 수를 검출하는데 과도하게 긴 시간이 필요하다는 문제점이 있다.This method has a problem in that a considerable amount of labor cost is required when using manpower and an excessively long time is required to detect the number of the crowd.

이러한 문제점을 해결하기 위한 종래기술로서 대한민국 공개특허공보 제10-2013-0065234호(발명의 명칭 : 객체 자동 카운팅 방법, 2013.06.19.)(문헌 1)에서는 촬영한 영상에서 객체의 특정한 색상의 픽셀을 추출하고, 추출한 픽셀의 수를 카운팅하여 객체의 수를 검출하는 기술을 게시하고 있다.As a prior art for solving these problems, Korean Patent Laid-open Publication No. 10-2013-0065234 (title of invention: object automatic counting method, 2013.06.19.) (Document 1) discloses pixels of a specific color of an object in a captured image. A technique for detecting the number of objects by extracting and counting the number of extracted pixels is disclosed.

그러나 문헌 1에 따른 기술에서는 객체가 특정한 색상을 갖지 않는 경우에 객체의 수를 정확하게 검출하는 것이 어렵다는 문제점이 있다.However, the technique according to Document 1 has a problem in that it is difficult to accurately detect the number of objects when the objects do not have a specific color.

아울러, 문헌 1에 따른 기술에서는 특정 색상의 픽셀을 일일이 카운팅하기 때문에 객체의 수를 검출하는데 상당한 시간이 소요되며, 계산이 복잡하다는 문제점이 있다.In addition, in the technique according to Document 1, since each pixel of a specific color is counted, it takes a considerable amount of time to detect the number of objects, and the calculation is complicated.

[문헌 1] 대한민국 공개특허공보 제10-2013-0065234호[Document 1] Republic of Korea Patent Publication No. 10-2013-0065234

본 발명은 군중이 위치하는 부분의 패턴을 이용하여 군중의 수를 검출하는 인공지능을 이용한 군중 계수 장치 및 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a crowd counting device and method using artificial intelligence for detecting the number of crowds by using a pattern of a part where the crowd is located.

본 발명에 따른 인공지능을 이용한 군중 계수 방법은 카메라 모듈(Camera Module)이 주변 영상을 촬영하는 촬영단계 및 상기 카메라 모듈이 촬영한 대상 영상(Target Image)을 분석하여 상기 대상 영상에 포함된 객체의 수를 검출하는 검출단계를 포함할 수 있다.In the crowd counting method using artificial intelligence according to the present invention, a camera module captures a surrounding image and analyzes the target image captured by the camera module to determine the number of objects included in the target image. A detection step of detecting the number may be included.

또한, 상기 카메라 모듈은 제 1 카메라부(First Camera Part)와 제 2 카메라(Second Camera Part)를 포함하고, 상기 제 1 카메라부와 상기 제 2 카메라부의 촬영 영역은 적어도 일부가 서로 다를 수 있다.In addition, the camera module may include a first camera part and a second camera part, and at least a portion of a photographing area of the first camera part and the second camera part may be different from each other.

또한, 상기 카메라 모듈의 촬영 영역에 대한 위치 정보를 판별하여 저장하는 단계, 상기 카메라 모듈의 설치 위치에 대한 정보를 판별하여 저장하는 단계 및 상기 대상 영상에서 적어도 하나의 상기 객체를 판별하는 단계를 더 포함하고, 상기 검출단계에서는 상기 대상 영상에서 객체의 위치 정보 및 상기 객체의 위치에서의 상기 객체의 기준 정보를 근거로 하여 상기 객체의 수를 검출할 수 있다.In addition, the step of determining and storing positional information on the photographing area of the camera module, the step of determining and storing information on the installation position of the camera module, and the step of determining at least one object in the target image are further performed. In the detecting step, the number of the objects may be detected based on location information of the object in the target image and reference information of the object at the location of the object.

또한, 상기 카메라 모듈이 주변의 비교 영상(Comparison Image)을 촬영하여 저장하는 단계 및 상기 비교 영상에 대해 객체의 수를 검출하는 단계를 더 포함하고, 상기 검출단계에서는 상기 대상 영상을 적어도 하나의 상기 비교 영상과 비교하여 상기 객체의 수를 검출할 수 있다.The camera module may further include taking and storing a comparison image of the surroundings and detecting the number of objects in the comparison image, and in the detecting step, the target image is converted into at least one of the objects. The number of objects may be detected by comparing with a comparison image.

본 발명에 따른 인공지능을 이용한 군중 계수 장치는 주변 영상을 촬영하는 카메라 모듈(Camera Module) 및 상기 카메라 모듈이 촬영한 대상 영상(Target Image)을 분석하여 상기 대상 영상에 포함된 객체의 수를 검출하는 검출부를 포함할 수 있다.Crowd counting device using artificial intelligence according to the present invention detects the number of objects included in the target image by analyzing a camera module for capturing a surrounding image and a target image captured by the camera module. It may include a detection unit that does.

본 발명에 따른 인공지능을 이용한 군중 계수 장치 및 방법은 군중이 모여 있는 부분의 패턴을 이용하여 군중의 수를 검출하기 때문에 신속한 군중 계수가 가능하다는 효과가 있다.The crowd counting apparatus and method using artificial intelligence according to the present invention has an effect of enabling rapid crowd counting because the number of crowds is detected using a pattern of a part where crowds gather.

도 1 내지 도 3은 본 발명에 따른 인공지능을 이용한 군중 계수 장치에 대해 설명하기 위한 도면이다.
도 4 내지 도 7은 기준 정보를 설정하고 이용하는 방법에 대해 설명하기 위한 도면이다.
도 8 내지 도 20은 비교 영상 및 기준 영상에 대해 설명하기 위한 도면이다.
도 21 내지 도 23은 군준 계수 모드에 대해 설명하기 위한 도면이다.
도 24 내지 도 29는 카메라 모듈에 대해 설명하기 위한 도면이다.
도 30 내지 도 32는 카메라 모듈을 전동차에 설치하는 경우에 대해 설명하기 위한 도면이다.
1 to 3 are views for explaining a crowd counting device using artificial intelligence according to the present invention.
4 to 7 are diagrams for explaining a method of setting and using reference information.
8 to 20 are diagrams for explaining a comparison image and a reference image.
21 to 23 are diagrams for explaining the canonical coefficient mode.
24 to 29 are views for explaining a camera module.
30 to 32 are diagrams for explaining a case in which a camera module is installed in an electric train.

이하, 첨부된 도면을 참조하여 본 발명에 따른 인공지능을 이용한 군중 계수 장치 및 방법에 대해 상세히 설명한다.Hereinafter, a crowd counting device and method using artificial intelligence according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. This is not intended to limit the present invention to specific embodiments, and it can be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.

본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. The terms may only be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The terms and/or may include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. can be understood On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it may be understood that no other element exists in the middle.

본 문서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this document are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.

본 문서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this document, the terms "include" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features It may be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries may be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, interpreted in an ideal or excessively formal meaning. It may not be.

아울러, 본 문서에 개시된 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the embodiments disclosed in this document are provided to more completely explain the embodiments to those skilled in the art, and the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.

본 문서에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 수 있다.In describing the present invention in this document, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description may be omitted.

본 문서에서 설명되는 다양한 실시예들은 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described in this document may be implemented in a recording medium readable by a computer or similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 본 발명의 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다.According to hardware implementation, embodiments of the present invention are ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, processors It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions.

한편, 소프트웨어적인 구현에 의하면, 본 발명에서 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다.Meanwhile, according to software implementation, embodiments such as procedures or functions in the present invention may be implemented together with a separate software module that performs at least one function or operation.

도 1 내지 도 3은 본 발명에 따른 인공지능을 이용한 군중 계수 장치에 대해 설명하기 위한 도면이다.1 to 3 are views for explaining a crowd counting device using artificial intelligence according to the present invention.

도 1을 살펴보면, 본 발명에 따른 인공지능을 이용한 군중 계수 장치(1, 이하 "계수 장치"라 칭할 수 있다.)는 카메라 모듈(Camera Module, 10) 및 서버(Server, 20)를 포함할 수 있다.1, a crowd counting device (1, hereinafter referred to as "counting device") using artificial intelligence according to the present invention may include a camera module (Camera Module, 10) and a server (Server, 20) have.

카메라 모듈(10)은 주변의 영상을 촬영할 수 있다. 여기서, 주변은 카메라 모듈(10)의 촬영이 가능한 영역, 즉 촬영 영역을 의미할 수 있다.The camera module 10 may capture images of the surroundings. Here, the periphery may mean an area where the camera module 10 can take pictures, that is, a picture area.

서버(20)는 적어도 하나의 카메라 모듈(10)과 유선 및/또는 무선 방식으로 통신을 수행할 수 있다.The server 20 may perform communication with at least one camera module 10 in a wired and/or wireless manner.

서버(20)는 적어도 하나의 카메라 모듈(10)로부터 카메라 모듈(10)이 촬영한 영상을 전송받고, 전송받은 영상을 분석할 수 있다.The server 20 may receive an image captured by the camera module 10 from at least one camera module 10 and analyze the transmitted image.

서버(20)는 인공지능을 이용하여 카메라 모듈(10)이 촬영한 영상에서 객체(OB)의 수를 판별할 수 있다.The server 20 may determine the number of objects OB in the image captured by the camera module 10 using artificial intelligence.

아울러, 서버(20)는 적어도 하나의 카메라 모듈(10)을 관리할 수 있다.In addition, the server 20 may manage at least one camera module 10 .

카메라 모듈(10)이 촬영한 영상은 대상 영상(Target Image), 비교 영상(Comparison Image) 및 샘플 영상(Sample Image)을 포함할 수 있다.The image captured by the camera module 10 may include a target image, a comparison image, and a sample image.

샘플 영상은 부분 영상(Part Image)이라고도 할 수 있다.The sample image may also be referred to as a partial image.

대상 영상은 군중의 수를 검출하기 위해 촬영한 영상일 수 있다. 예를 들어, 20xx년 xx월 xx일 aa시에 AA광장에 모인 군중의 수를 판별하는 경우, 카메라 모듈(10)이 20xx년 xx월 xx일 aa시에 AA광장을 촬영한 영상이 대상 영상이 될 수 있다.The target image may be an image captured to detect the number of crowds. For example, in the case of determining the number of crowds gathered at AA Plaza at aa: xx/xx/xx/20xx, the camera module 10 captures AA Plaza at aa: xx/xx/xx/20xx at aa: the target image. It can be.

비교 영상은 대상 영상에서 군중의 수를 신속하고 정확하게 검출하기 위한 목적으로 대상 영상과 비교하는데 사용하는 영상이라고 할 수 있다.The comparison image may be an image used for comparison with a target image for the purpose of quickly and accurately detecting the number of crowds in the target image.

비교 영상은 비교 패턴 블록(Comparison Pattern Block)을 포함하는 것이 가능하다.The comparison image may include a comparison pattern block.

비교 패턴 블록은 대상 영상에서 군중의 수를 신속하고 정확하게 검출하기 위한 목적으로 대상 영상과 비교하는데 사용하는 영상 블록의 일종이라고 할 수 있다. 이하에서는 비교 패턴 블록을 비교 블록이라고 칭할 수 있다.The comparison pattern block is a type of image block used for comparison with a target image for the purpose of quickly and accurately detecting the number of crowds in the target image. Hereinafter, the comparison pattern block may be referred to as a comparison block.

서버(20)는 주기적 또는 비주기적으로 적어도 하나의 비교 영상(혹은 비교 블록)을 추가하거나, 변경하거나, 삭제하는 것이 가능하다.The server 20 may periodically or non-periodically add, change, or delete at least one comparison image (or comparison block).

샘플 영상은 기준 영상을 생성하기 위해 사용되는 영상일 수 있다.The sample image may be an image used to generate a reference image.

대상 영상, 비교 영상, 샘플 영상, 비교 블록은 이하의 설명을 통해 보다 명확히 설명될 것이다.The target image, comparison image, sample image, and comparison block will be more clearly described through the following description.

도 2를 살펴보면, 카메라 모듈(10)은 제 1 제어부(100), 제 1 통신부(110), 제 1 인터페이스부(120), 메모리부(130), 카메라 위치 정보부(140), 제 1 카메라부(11), 제 1 조정부(160), 제 2 카메라부(12) 및 제 2 조정부(180)를 포함할 수 있다.Referring to FIG. 2 , the camera module 10 includes a first control unit 100, a first communication unit 110, a first interface unit 120, a memory unit 130, a camera location information unit 140, and a first camera unit. (11), a first adjusting unit 160, a second camera unit 12, and a second adjusting unit 180 may be included.

도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 카메라 모듈(10)을 구현하는 것도 가능하다.Since the components shown in FIG. 2 are not essential, it is also possible to implement the camera module 10 having more components or fewer components.

제 1 제어부(100), 제 1 통신부(110) 및 제 1 인터페이스부(120)에 관련해서 "제 1"이라는 용어를 사용한 이유는 이후에 설명할 서버(20)의 구성 부분과 구분하기 위함이다.The reason for using the term “first” in relation to the first control unit 100, the first communication unit 110, and the first interface unit 120 is to distinguish them from the components of the server 20 to be described later. .

예를 들면, 제 1 통신부(110)에서 "제 1"이라는 용어를 사용한 이유는 이후에 설명할 서버(20)의 통신부(210), 즉 제 2 통신부(210)와 구분하기 위함이다.For example, the reason why the term "first" is used in the first communication unit 110 is to distinguish it from the communication unit 210 of the server 20, that is, the second communication unit 210, which will be described later.

제 1 제어부(100)는 카메라 모듈(10)의 전반적인 기능 및 동작을 제어할 수 있다. 예를 들면, 제 1 제어부(100)는 카메라 모듈(10)의 영상 촬영을 제어할 수 있으며, 서버(20)와의 통신을 제어할 수 있다.The first controller 100 may control overall functions and operations of the camera module 10 . For example, the first controller 100 may control image capture of the camera module 10 and may control communication with the server 20 .

제 1 통신부(110)는 제 1 제어부(100)의 제어에 따라 유선 및/또는 무선 방식으로 다른 기기, 예컨대 서버(20)와 통신을 수행할 수 있다.The first communication unit 110 may perform communication with other devices, for example, the server 20, in a wired and/or wireless manner under the control of the first control unit 100.

제 1 인터페이스부(120)는 제 1 제어부(100)의 제어에 따라 다른 기기와의 연결을 위한 통로를 제공할 수 있다.The first interface unit 120 may provide a passage for connection with other devices under the control of the first controller 100 .

메모리부(130)는 제 1 제어부(100)의 제어에 따라 카메라 모듈(10)의 동작 및/또는 기능 구현에 필요한 다양한 프로그램, 데이터 등을 저장할 수 있다.The memory unit 130 may store various programs, data, etc. required for operation and/or function implementation of the camera module 10 under the control of the first controller 100 .

카메라 위치 정보부(140)는 제 1 제어부(100)의 제어에 따라 카메라 모듈(10)의 위치 정보를 판별할 수 있다. 예를 들면, 카메라 위치 정보부(140)는 카메라 모듈(10)의 GPS 좌표 정보를 판별할 수 있다.The camera location information unit 140 may determine location information of the camera module 10 under the control of the first controller 100 . For example, the camera location information unit 140 may determine GPS coordinate information of the camera module 10 .

카메라 위치 정보부(140)는, 카메라 모듈(10)이 차량 또는 건물 내부에 설치되는 경우에, 차량 또는 건물 내에서의 카메라 모듈(10)의 위치에 대한 정보를 판별할 수 있다. 예를 들면, 카메라 모듈(10)이 지하철 등에 사용되는 전동차 내에 설치되는 경우에, 카메라 위치 정보부(140)는 카메라 모듈(10)이 설치된 전동차의 고유 번호 등의 고유 정보, 전동차 내에서의 카메라 모듈(10)의 위치에 대한 정보 등을 판별할 수 있다.When the camera module 10 is installed inside a vehicle or building, the camera location information unit 140 may determine information about the location of the camera module 10 within the vehicle or building. For example, when the camera module 10 is installed in a train used in a subway or the like, the camera location information unit 140 includes unique information such as a unique number of the train in which the camera module 10 is installed, and the camera module in the train. Information about the location of (10) can be determined.

제 1 카메라부(11)는 제 1 제어부(100)의 제어에 따라 주변의 영상을 촬영할 수 있다. 예를 들면, 제 1 카메라부(11)는 주변의 영상을 동영상 및/또는 사진 등의 정지 영상 타입으로 촬영할 수 있다.The first camera unit 11 may capture an image of the surroundings under the control of the first controller 100 . For example, the first camera unit 11 may capture an image of the surroundings in a still image type such as a video and/or a photo.

제 1 조정부(160)는 제 1 제어부(100)의 제어에 따라 제 1 카메라부(11)를 회전시키거나 스윙(Swing)시키는 등의 방법으로 촬영 각도를 조절할 수 있다.The first adjusting unit 160 may adjust the photographing angle by rotating or swinging the first camera unit 11 under the control of the first controller 100 .

제 2 카메라부(12)는 제 1 제어부(100)의 제어에 따라 주변의 영상을 촬영할 수 있다. 예를 들면, 제 2 카메라부(12)는 주변의 영상을 동영상 및/또는 사진 등의 정지 영상 타입으로 촬영할 수 있다.The second camera unit 12 may capture an image of the surroundings under the control of the first controller 100 . For example, the second camera unit 12 may capture an image of the surroundings in a still image type such as a video and/or a photo.

제 2 조정부(180)는 제 1 제어부(100)의 제어에 따라 제 2 카메라부(12)를 회전시키거나 스윙시키는 등의 방법으로 촬영 각도를 조절할 수 있다.The second adjusting unit 180 may adjust the photographing angle by rotating or swinging the second camera unit 12 under the control of the first controller 100 .

도 3을 살펴보면, 서버(20)는 제 2 제어부(200), 제 2 통신부(210), 제 2 인터페이스부(220), 데이터 베이스부(DB, 230), 촬영 영역 위치 정보부(240), 기준 정보부(250), 비교 영상부(260), 기준 영상부(270) 및 검출부(280)를 포함할 수 있다.Referring to FIG. 3 , the server 20 includes a second control unit 200, a second communication unit 210, a second interface unit 220, a database unit (DB, 230), a photographing area location information unit 240, a standard It may include an information unit 250, a comparison image unit 260, a reference image unit 270, and a detection unit 280.

도 3에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 서버(20)를 구현하는 것도 가능하다.Since the components shown in FIG. 3 are not essential, it is also possible to implement the server 20 with more or fewer components.

제 2 제어부(200)는 서버(20)의 전반적인 기능 및 동작을 제어할 수 있다. 예를 들면, 제 2 제어부(200)는 군중 계수를 위한 설정을 제어할 수 있으며, 군중 계수 과정을 제어할 수 있다.The second controller 200 may control overall functions and operations of the server 20 . For example, the second controller 200 may control settings for crowd counting and may control a crowd counting process.

제 2 통신부(210)는 제 2 제어부(200)의 제어에 따라 유선 및/또는 무선 방식으로 다른 기기, 예컨대 카메라 모듈(10)과 통신을 수행할 수 있다.The second communication unit 210 may perform communication with other devices, for example, the camera module 10, in a wired and/or wireless manner under the control of the second control unit 200.

제 2 인터페이스부(220)는 제 2 제어부(200)의 제어에 따라 다른 기기와의 연결을 위한 통로를 제공할 수 있다.The second interface unit 220 may provide a passage for connection with other devices under the control of the second control unit 200 .

데이터 베이스부(DB, 230)는 제 2 제어부(200)의 제어에 따라 서버(20)의 운용에 필요한 다양한 프로그램, 데이터 등을 저장할 수 있다.The database unit (DB, 230) may store various programs, data, etc. required for operation of the server 20 under the control of the second control unit 200.

예를 들면, 데이터 베이스부(DB, 230)는 각각의 카메라 모듈(10)의 설치 위치(카메라 모듈(10)의 위치 정보)에 대한 정보 및 카메라 모듈(10)에 대응되는 영역(촬영 영역)에 대한 정보를 저장하고 관리할 수 있다.For example, the database unit (DB, 230) provides information on the installation position of each camera module 10 (location information of the camera module 10) and an area (photographing area) corresponding to the camera module 10. information can be stored and managed.

데이터 베이스부(DB, 230)는 미리 설정한 기준 정보, 비교 영상 및 기준 영상을 저장하고 관리할 수 있다.The database unit (DB, 230) may store and manage preset reference information, comparison images, and reference images.

아울러, 데이터 베이스부(DB, 230)는 미리 설정된 다양한 영상 패턴, 비교 블록 등에 대한 정보를 저장하고 관리할 수 있다.In addition, the database unit (DB, 230) may store and manage information on various preset image patterns, comparison blocks, and the like.

촬영 영역 위치 정보부(240)는 제 2 제어부(200)의 제어에 따라 카메라 모듈(10)에 대응하는 영역, 즉 촬영 영역의 위치 정보를 판별할 수 있다.The capturing area location information unit 240 may determine location information of an area corresponding to the camera module 10 , that is, a capturing area, under the control of the second controller 200 .

여기서, 촬영 영역은 카메라 모듈(10)이 촬영한 영상에 포함되는 영역이라고 할 수 있다. 또는, 촬영 영역은 카메라 모듈(10)의 촬영 가능 영역이라고도 할 수 있다.Here, the capturing area may be referred to as an area included in an image captured by the camera module 10 . Alternatively, the capturing area may also be referred to as a capturing area of the camera module 10 .

기준 정보부(250)는 제 2 제어부(200)의 제어에 따라 객체를 판별하기 위해 기준이 되는 정보, 즉 기준 정보를 생성 및/또는 판별하고 관리할 수 있다.The standard information unit 250 may generate,/or determine, and manage standard information, that is, standard information, to determine an object under the control of the second controller 200 .

여기서, 객체는 군중에 포함되는 사람을 의미할 수 있다. 예를 들면, 객체는 남성, 여성, 성인, 어린이, 유아, 장애인, 노약자 등을 포함할 수 있다.Here, the object may mean a person included in the crowd. For example, the objects may include men, women, adults, children, infants, the disabled, the elderly, and the like.

기준 정보는 객체의 형태에 대한 정보, 객체의 위치에 따른 사이즈(키 등)에 대한 정보 등을 포함할 수 있다.The reference information may include information about the shape of the object, information about the size (key, etc.) according to the location of the object, and the like.

기준 정보에 대해서는 이하에서 보다 상세히 설명하기로 한다.Reference information will be described in more detail below.

비교 영상부(260)는 제 2 제어부(200)의 제어에 따라 비교 영상 및/또는 비교 블록을 생성, 저장, 관리할 수 있다.The comparison image unit 260 may create, store, and manage comparison images and/or comparison blocks under the control of the second controller 200 .

비교 영상은 군중의 수를 판별하기 위해 대상 영상과 비교하는 영상일 수 있다.The comparison image may be an image compared with a target image to determine the number of crowds.

비교 블록은 군중의 수를 판별하기 위해 대상 블록과 비교하는 영상으로서, 비교 영상의 일부일 수 있다.The comparison block is an image compared with a target block to determine the number of crowds, and may be a part of the comparison image.

이러한 비교 영상부(260)는 색상 정보부(261) 및 형태 정보부(262)를 포함할 수 있다.The comparison image unit 260 may include a color information unit 261 and a shape information unit 262 .

색상 정보부(261)는 비교 영상의 색상에 대한 정보를 생성, 저장, 관리할 수 있다.The color information unit 261 may generate, store, and manage color information of the comparison image.

예를 들어, 카메라 모듈(10)이 비교 영상을 촬영하는 시간, 계절, 날씨 등에 따라 영상의 색상이 달라질 수 있다.For example, the color of the image may vary depending on the time, season, weather, etc. at which the camera module 10 captures the comparison image.

색상 정보부(261)는 비교 영상을 촬영하는 시간, 계절, 날씨 등의 변수와 색상에 대한 정보를 매칭시킬 수 있다.The color information unit 261 may match variables such as time, season, and weather at which the comparison image is taken and information on color.

형태 정보부(262)는 비교 영상에 포함되는 군중 그룹 및/또는 객체의 다양한 형태에 대한 정보를 생성, 저장, 관리할 수 있다.The shape information unit 262 may create, store, and manage information on various shapes of crowd groups and/or objects included in the comparison image.

예를 들어, 카메라 모듈(10)이 비교 영상을 촬영하는 각도, 객체의 포즈, 모자 등의 의상, 군중이 모여있는 타입 등에 따라 객체 또는 군중 그룹의 형태가 달라질 수 있다.For example, the shape of an object or crowd group may vary depending on an angle at which the camera module 10 captures a comparison image, a pose of the object, clothing such as a hat, and a type of crowd gathering.

이러한 객체 및/또는 군중 그룹의 형태에 대한 정보를 형태 정보부(262)가 생성, 저장, 관리할 수 있다.The shape information unit 262 may create, store, and manage information about the shape of the object and/or crowd group.

비교 영상에 대해서는 이하에서 보다 상세히 설명하기로 한다.The comparison image will be described in more detail below.

검출부(280)는 제 2 제어부(200)의 제어에 따라 카메라 모듈(10)이 촬영한 대상 영상을 분석하거나, 대상 영상과 비교 영상을 비교하는 방법으로 대상 영상에 포함된 객체의 수(군중의 수)를 검출할 수 있다.The detection unit 280 analyzes the target image captured by the camera module 10 under the control of the second controller 200 or compares the target image with the comparison image, and the number of objects included in the target image (of the crowd) number) can be detected.

이러한 검출부(280)는 객체 검출부(281), 객체 수 검출부(282) 및 합산부(283)를 포함할 수 있다.The detection unit 280 may include an object detection unit 281, an object number detection unit 282, and a summing unit 283.

객체 검출부(281)는 카메라 모듈(10)이 촬영한 영상에서 사이즈에 대한 기준 정보 및 형태에 대한 기준 정보를 이용하여 객체(사람)을 검출할 수 있다.The object detection unit 281 may detect an object (person) by using standard information on size and standard information on shape in an image captured by the camera module 10 .

객체 수 검출부(282)는 카메라 모듈(10)이 촬영한 영상에서 객체의 수를 검출할 수 있다. 이를 위해, 객체 수 검출부(282)는 객체 검출부(281)가 검출한 정보를 이용하거나, 비교 영상과 대상 영상을 이용하는 것이 가능하다.The object count detection unit 282 may detect the number of objects in the image captured by the camera module 10 . To this end, the object count detector 282 may use information detected by the object detector 281 or a comparison image and a target image.

합산부(283)는 객체 수 검출부(282)가 검출한 정보를 근거로 하여 카메라 모듈(10)이 촬영한 대상 영상에서 객체의 수의 총 합(군중의 총 수)을 검출할 수 있다.The summing unit 283 may detect the total sum of the number of objects (the total number of crowds) in the target image captured by the camera module 10 based on the information detected by the object count detection unit 282 .

군중의 수를 검출하는 방법은 이하의 설명을 통해 보다 명확히될 것이다.A method of detecting the number of crowds will become clearer through the following description.

도 4 내지 도 7은 기준 정보를 설정하고 이용하는 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.4 to 7 are diagrams for explaining a method of setting and using reference information. Hereinafter, description of the parts described in detail above may be omitted.

도 4에 나타나 있는 바와 같이, 설정 모드(Setting Mode)에서 카메라 모듈(10)이 주변의 영상을 촬영할 수 있다(S100).As shown in FIG. 4 , in the setting mode, the camera module 10 may capture an image of the surroundings (S100).

여기서, 설정 모드는 기준 정보, 비교 영상 및/또는 기준 영상 등을 생성하고, 군중 계수를 위해 준비하는 모드라고 할 수 있다.Here, the setting mode may be referred to as a mode in which reference information, comparison images, and/or reference images are generated and prepared for crowd counting.

카메라 모듈(10)이 촬영한 영상은 제 1 통신부(110)를 통해 서버(20)로 송신될 수 있다.An image captured by the camera module 10 may be transmitted to the server 20 through the first communication unit 110 .

그러면 서버(20)의 기준 정보부(250)에서는 제 2 제어부(200)의 제어에 따라 카메라 모듈(10)로부터 수신한 영상을 분석할 수 있다(S200).Then, the reference information unit 250 of the server 20 may analyze the image received from the camera module 10 according to the control of the second control unit 200 (S200).

기준 정보부(250)는, 분석 결과를 근거로 하여, 촬영 영역의 위치 정보를 판별할 수 있다(S210).Based on the analysis result, the reference information unit 250 may determine location information of the imaging area (S210).

촬영 영역의 위치 정보는 GPS 좌표 정보를 포함할 수 있다.Location information of the capturing area may include GPS coordinate information.

또는, 촬영 영역의 위치 정보는 카메라 모듈(10)을 기준으로 하는 상대적인 위치 정보를 포함할 수 있다.Alternatively, the location information of the capturing area may include relative location information with respect to the camera module 10 .

예를 들면, 촬영 영역의 제 1 지점은 카메라 모듈(10)로부터 얼마만큼 떨어져 있고, 제 1 지점에 대응하는 카메라 모듈(10)의 촬영 각도는 어느 정도이고, 카메라 모듈(10)을 기준으로 제 1 지점이 위치하는 방향은 어느 방향인지에 대한 정보가 촬영 영역의 위치 정보로서 이용될 수 있다.For example, how far is the first point of the photographing area from the camera module 10, what is the photographing angle of the camera module 10 corresponding to the first point, and the camera module 10 is the reference point. Information about the direction in which one point is located may be used as location information of the imaging area.

아울러, 서버(20)는 카메라 모듈(10)의 위치 정보, 측 카메라 모듈(10)이 설치된 지점의 위치 정보를 판별할 수 있다(S220).In addition, the server 20 may determine the location information of the camera module 10 and the location information of the point where the side camera module 10 is installed (S220).

여기서, 카메라 모듈(10)의 위치 정보는 카메라 모듈(10)의 GPS 좌표 정보, 카메라 모듈(10)의 수직방향(Vertical Direction)으로의 위치 정보, 즉 고도 정보(높이 정보)를 포함할 수 있다.Here, the location information of the camera module 10 may include GPS coordinate information of the camera module 10 and location information in a vertical direction of the camera module 10, that is, altitude information (height information). .

이후, 기준 정보부(250)는 촬영 영역에 대한 위치 정보와 카메라 모듈(10)의 위치 정보를 이용하여 촬영 영역 상의 위치에 따른 기준 사이즈 정보를 판별할 수 있다(S230).Thereafter, the reference information unit 250 may determine standard size information according to a location on the imaging area by using location information of the imaging area and location information of the camera module 10 (S230).

카메라 모듈(10)이 도 5에 나타나 있는 바와 같은 영역(촬영 영역)을 촬영하는 경우를 가정하여 보자.Assume that the camera module 10 captures an area (photographing area) as shown in FIG. 5 .

기준 정보부(250)는 카메라 모듈(10)이 촬영한 영상(도 5의 영상)으로부터 촬영 영역의 제 1 지점(P1), 제 2 지점(P2), 제 3 지점(P3) 및 제 4 지점(P4)의 위치 정보를 판별할 수 있다.The reference information unit 250 determines a first point P1, a second point P2, a third point P3, and a fourth point (P1), a second point (P2), and a fourth point ( The location information of P4) can be determined.

여기서는, 이해를 돕기 위해 촬영 영역에서 총 4개의 지점에 대한 위치 정보를 판별하고 이를 이용하는 경우를 설명하고 있으나, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 본 발명에서는 촬영 영역의 모든 지점에 대한 위치 정보를 판별하고 이를 이용하는 것이 가능하다.Here, a case of determining and using location information for a total of four points in a photographing area is described for better understanding, but the present invention may not be limited thereto. For example, in the present invention, it is possible to determine and use location information for all points in the imaging area.

위치 정보는 해당 지점의 GPS 좌표 정보, 카메라 모듈(10)로부터의 거리에 대한 정보, 해당 지점에 대응하는 카메라 모듈(10)의 촬영 각도에 대한 정보, 카메라 모듈(10)을 기준으로 하는 방향에 대한 정보 등을 포함할 수 있다.The location information includes GPS coordinate information of a corresponding point, information about a distance from the camera module 10, information about a photographing angle of the camera module 10 corresponding to the corresponding point, and a direction relative to the camera module 10. information may be included.

기준 정보부(250)는 판별한 촬영 영역의 위치 정보를 근거로 하여 위치에 따른 기준 정보를 생성 및 판별할 수 있다.The reference information unit 250 may generate and determine reference information according to the location based on the determined location information of the capturing area.

보통 사람의 경우 키가 50cm(유아 등)~200cm(성인 등)인 경우를 가정하여 보자.Let's assume that the height of an average person is 50 cm (such as infants) to 200 cm (such as adults).

이러한 경우, 제 2 지점(P2)에 대응하는 객체(사람)의 키에 대한 기준 정보를 [10m, 0.5cm~2.0cm, 50cm~200cm]로 설정할 수 있다.In this case, reference information about the height of the object (person) corresponding to the second point P2 may be set to [10m, 0.5cm~2.0cm, 50cm~200cm].

예를 들어, 도 6에 나타나 있는 바와 같이, 카메라 모듈(10)이 촬영한 영상에서 카메라 모듈(10)로부터(Pc) 10m떨어진 제 2 지점(P2)에 위치하는 사람의 키가 0.5cm~2.0cm(L1)로 나타나 있는 경우에, 그 사람의 실제 키는 100배인 50cm~200cm인 것을 의미할 수 있다.For example, as shown in FIG. 6, in the image taken by the camera module 10, the height of a person located at the second point P2 10 m away from the camera module 10 (Pc) is 0.5 cm to 2.0 cm. If it is expressed as cm (L1), it may mean that the person's actual height is 100 times 50 cm to 200 cm.

제 2 지점(P2)보다 카메라 모듈(10)로부터 더 멀리 떨어진 제 1 지점(P1)에 대응하는 객체(사람)의 키에 대한 기준 정보는 [50m, 0.1cm~0.4cm, 50cm~200cm]로 설정하는 것이 가능하다.The reference information on the height of the object (person) corresponding to the first point P1 farther from the camera module 10 than the second point P2 is [50m, 0.1cm~0.4cm, 50cm~200cm]. it is possible to set

예를 들어, 도 6에 나타나 있는 바와 같이, 카메라 모듈(10)이 촬영한 영상에서 카메라 모듈(10)로부터(Pc) 50m떨어진 지점(P1)에 위치하는 사람의 키가 0.1cm~0.4cm(L2)로 나타나 있는 경우에, 그 사람의 실제 키는 500배인 50cm~200cm인 것을 의미할 수 있다.For example, as shown in FIG. 6, in the image taken by the camera module 10, the height of a person located at a point P1 50 m away from the camera module 10 (Pc) is 0.1 cm to 0.4 cm ( L2), it may mean that the actual height of the person is 50 cm to 200 cm, which is 500 times.

카메라 모듈(10)이 촬영한 영상에서 카메라 모듈(10)로부터 10m떨어진 위치(P2)에 키가 1.8cm인 물체가 검출되는 위치하는 경우를 가정하여 보자.Assume that an object with a height of 1.8 cm is detected at a position P2 10 m away from the camera module 10 in an image captured by the camera module 10 .

이러한 경우에는, 위에서 언급한 객체의 키에 대한 기준 정보를 적용하면 해당 물체의 키는 대략 180cm이고, 이에 따라 해당 물체의 키는 보통 사람에 대응되는 것으로 판단할 수 있다.In this case, if the reference information on the height of the object mentioned above is applied, the height of the object is approximately 180 cm, and accordingly, it can be determined that the height of the object corresponds to a normal person.

물론, 키가 충분히 작은 영유아 또는 농구 선수 등 키가 유별나게 큰 사람의 경우에는 키에 대한 다른 기준 정보를 적용하는 것이 가능하다.Of course, in the case of an unusually tall person such as a sufficiently short infant or basketball player, it is possible to apply other reference information about height.

이후, 검출된 물체의 형태를 근거로 하여 검출된 물체가 객체(사람)인 것으로 판단하는 것이 가능할 수 있다.Then, it may be possible to determine that the detected object is an object (person) based on the shape of the detected object.

도 7에 나타나 있는 바와 같이, 카메라 모듈(10)이 촬영한 영상에서 제 1 지점(P1)에 과도하게 큰 키, 예컨대 1.8cm의 키를 갖는 물체가 위치하는 경우를 가정하여 보자.As shown in FIG. 7 , suppose an object having an excessively tall height, for example, 1.8 cm, is located at the first point P1 in the image captured by the camera module 10 .

이러한 경우에는 기준 정보를 근거로 판단한 물체의 실제 키는 대략 9m일 수 있다.In this case, the actual height of the object determined based on the reference information may be approximately 9 m.

사람이 9m의 키를 갖는 경우는 충분히 드물거나 불가능하기 때문에 해당 물체는 객체(사람)가 아닌 동상, 마네킹, 간판, 벽화 또는 영상 등으로 판단할 수 있다.Since it is sufficiently rare or impossible for a person to have a height of 9m, the object can be judged as a statue, mannequin, signboard, mural, or video rather than an object (person).

이러한 경우에는 해당 물체를 카운팅하지 않을 수 있다.In this case, the object may not be counted.

기준 정보를 생성 및/또는 판별하기 위해 카메라 모듈(10)로부터의 거리 뿐 아니라, 촬영 영역에서 위치에 따른 촬영 각도를 함께 고려하는 것이 가능하다.In order to generate and/or determine reference information, it is possible to consider not only the distance from the camera module 10 but also the shooting angle according to the position in the shooting area.

예를 들어, 카메라 모듈(10)이 고층 건물 등에 설치되는 경우에 촬영 영상 상의 위치에 따라 촬영 각도는 다를 수 있다.For example, when the camera module 10 is installed in a high-rise building or the like, a photographing angle may be different depending on a location on a photographed image.

기준 정보는 객체의 형태 정보를 포함하는 것이 가능하다.Reference information may include object shape information.

예를 들어, 보통 사람의 경우 머리, 팔, 다리 및 몸통 부분을 갖고, 긴 형태를 갖는 것이 가능하다. 이러한 보통 사람의 형태 정보가 기준 정보로서 이용될 수 있다.For example, in the case of a normal person, it is possible to have a long shape with a head, arms, legs and torso. Such information on the shape of a normal person may be used as reference information.

만약, 카메라 모듈(10)이 촬영한 영상에서 지면을 네 개의 발로 지지하고, 꼬리를 갖는 형태를 갖는 물체가 나타나 있는 경우에는, 해당 물체는 객체(사람)이 아닌 개, 말 등의 동물일 가능성이 높다.If an object supporting the ground with four feet and having a tail appears in the image captured by the camera module 10, the object may be an animal such as a dog or horse rather than an object (human) is high

따라서 이러한 경우에는 카운팅하지 않을 수 있다.Therefore, in this case, it may not be counted.

이상에서와 같이, 기준 정보부(250)가 촬영 영역의 위치에 따른 기준 정보를 생성 및/또는 판별하는 경우에는, 촬영 영상의 환경에 무관하게 객체와 객체의 수를 신속하고 정밀하게 판별하는 것이 가능할 수 있다.As described above, when the standard information unit 250 generates and/or determines reference information according to the location of the capturing area, it is possible to quickly and precisely determine the number of objects regardless of the environment of the captured image. can

예를 들어, 촬영 영역에 대응하여 기준 정보를 각각 설정하지 않고, 모든 카메라 모듈(10)에 대응하여 동일한 기준을 설정한 경우를 가정하여 보자.For example, let's assume a case where the same criterion is set corresponding to all the camera modules 10 without setting the criterion information corresponding to the photographing area.

이러한 경우에는 촬영 영역의 바닥의 굴곡 또는 경사도, 주변 건물의 배치 등의 주변 환경적 요인으로 인해 객체 또는 객체의 수의 검출 과정에서 오류가 발생할 가능성이 상대적으로 높을 수 있다.In this case, the possibility of an error occurring in the process of detecting an object or the number of objects may be relatively high due to environmental factors such as the curvature or slope of the floor of the imaging area and the arrangement of surrounding buildings.

반면에, 카메라 모듈(10)에 따라 촬영 영역에 대응하여 기준 정보를 판별하고 생성하는 경우에는, 해당 촬영 영역의 주변 환경적 요인을 고려하여 기준 정보를 생성하기 때문에 보다 정밀하게 신속한 객체 또는 객체의 수의 검출이 가능할 수 있다.On the other hand, when the camera module 10 determines and generates reference information corresponding to a capturing area, the reference information is generated in consideration of surrounding environmental factors of the corresponding capturing area, so that a more precise and rapid object or object can be detected. Detection of numbers may be possible.

서버(20)는 기준 정보는 주기적 혹은 비주기적으로 갱신하거나, 업데이트 하거나, 추가하거나 삭제하는 것이 가능하다.The server 20 may periodically or non-periodically update, update, add, or delete the reference information.

예를 들어, 서버(20)는 카메라 모듈(10)이 촬영한 영상을 분석하여 객체가 아닌 다른 부분, 예컨대 건물, 도로 등 배경이 되는 부분이 변경되는 것으로 판단하는 경우에, 기준 정보를 새롭게 생성 및/또는 판별할 수 있다.For example, when the server 20 analyzes an image captured by the camera module 10 and determines that a part other than an object, for example, a part that becomes a background such as a building or a road, is changed, new reference information is generated. and/or can be identified.

자세하게는, 기준 영상을 변경하는 경우에 기준 정보도 새롭게 생성 및/또는 판별하여 변경하는 것이 가능할 수 있다.In detail, when changing the reference image, it may be possible to newly generate and/or determine and change the reference information as well.

기준 영상을 변경하는 방법은 이하의 도 19에서 상세히 설명하기로 한다.A method of changing the reference image will be described in detail with reference to FIG. 19 below.

서버(20)의 기준 정보부(250)는 이상에서 설명한 기준 정보를 이용하여 카메라 모듈(10)이 촬영한 영상에서 객체(사람)를 판별할 수 있다.The reference information unit 250 of the server 20 may determine an object (person) from an image captured by the camera module 10 using the reference information described above.

이하에서는 첨부된 도면을 참조하여 비교 영상 및 기준 영상에 대해 설명하기로 한다.Hereinafter, a comparison image and a reference image will be described with reference to the accompanying drawings.

도 8 내지 도 20은 비교 영상 및 기준 영상에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.8 to 20 are diagrams for explaining a comparison image and a reference image. Hereinafter, description of the parts described in detail above may be omitted.

도 8을 살펴보면, 설정 모드에서 카메라 모듈(10)이 주변 영상을 촬영(S100)하면, 비교 영상부(260)는 촬영한 영상을 비교 영상으로 설정할지의 여부를 판단할 수 있다(S110).Referring to FIG. 8 , when the camera module 10 captures a surrounding image in the setting mode (S100), the comparison image unit 260 may determine whether to set the captured image as a comparison image (S110).

S110 단계에서 판단결과, 촬영한 영상을 비교 영상으로 설정하지 않는 경우에는 미리 설정된 제 1 기능(Default 1)을 수행할 수 있다(S120).As a result of the determination in step S110, when the captured image is not set as a comparison image, a preset first function (Default 1) may be performed (S120).

제 1 기능은 다음 영상을 비교 영상으로 설정할지의 여부를 판단하는 기능, 비교 영영 설정을 종료하는지의 여부를 판단하는 기능 등을 예로 들 수 있다.The first function may include, for example, a function of determining whether to set the next image as a comparison image, a function of determining whether to end setting of a comparison region, and the like.

반면에, S110 단계에서 판단결과, 촬영한 영상을 비교 영상으로 설정하는 경우에는 비교 영상부(260)는 해당 영상에서 객체의 수를 검출할 수 있다(S130).On the other hand, as a result of the determination in step S110, when the captured image is set as a comparison image, the comparison image unit 260 may detect the number of objects in the corresponding image (S130).

이후, 비교 영상부(260)는 해당 영상을 비교 영상으로 저장할 수 있다(S140).Thereafter, the comparison image unit 260 may store the corresponding image as a comparison image (S140).

한편, 카메라 모듈(10)이 주변 영상을 촬영(S100)한 이후에 기준 영상을 설정하는 것이 가능하다.Meanwhile, it is possible to set the reference image after the camera module 10 captures the surrounding image (S100).

기준 영상에 대한 내용은 도 17 이후에 보다 상세히 설명하기로 한다.Contents of the reference image will be described in more detail after FIG. 17 .

도 9의 (A), (B)에 나타나 있는 바와 같은 영상을 비교 영상으로 설정하는 경우를 가정하여 보자.Assume that the images shown in (A) and (B) of FIG. 9 are set as comparison images.

도 9의 (A)의 경우에는 카메라 모듈(10)이 촬영한 영상에서 객체(OB)들이 촬영 영역 내에서 단독으로 흩어져 있는 상태라고 할 수 있다.In the case of (A) of FIG. 9 , it can be said that the objects OB are scattered singly within the photographing area in the image captured by the camera module 10 .

이러한 경우에는, 미리 설정된 기준 정보를 근거로 하여 영상에 포함되어 있는 객체의 수, 즉 군중의 수를 검출할 수 있다.In this case, the number of objects included in the image, that is, the number of crowds, may be detected based on preset reference information.

예를 들면, 도 9의 (A)의 영상에서 객체(OB)의 위치 정보(객체(OB)가 위치한 지점의 위치 정보) 및 객체(OB)의 위치에서의 객체(OB)의 키, 형태 등의 기준 정보를 근거로 하여 객체의 수를 검출할 수 있다. 이는 서버(20)의 검출부(280)의 객체 검출부(281) 및 객체 수 검출부(282)가 기준 정보를 이용하여 수행할 수 있다.For example, in the image of (A) of FIG. 9, the location information of the object OB (the location information of the point where the object OB is located) and the key, shape, etc. of the object OB at the location of the object OB The number of objects can be detected based on the reference information of This can be performed by the object detection unit 281 and the object number detection unit 282 of the detection unit 280 of the server 20 using reference information.

이후, 도 9의 (A)의 영상의 패턴을 저장하고, 도 9의 (A)의 영상에 포함된 객체의 수에 대한 정보를 해당 패턴에 매칭시켜 저장할 수 있다.Thereafter, the pattern of the image of FIG. 9(A) may be stored, and information on the number of objects included in the image of FIG. 9(A) may be matched to the corresponding pattern and stored.

예를 들면, 도 10에 나타나 있는 바와 같이, 도 9의 (A)의 패턴에 대응하는 영상을 제 1 비교 영상으로 설정하여 저장할 수 있다.For example, as shown in FIG. 10 , an image corresponding to the pattern of FIG. 9 (A) may be set as a first comparison image and stored.

아울러, 제 1 비교 영상에 포함된 객체의 수(인원 수), 제 1 비교 영상을 촬영한 시간, 제 1 비교 영상에 대응하는 날씨 또는 시야에 대한 정보를 제 1 비교 영상에 매칭시켜 저장할 수 있다.In addition, information on the number of objects (number of people) included in the first comparison image, the time at which the first comparison image was taken, and the weather or field of view corresponding to the first comparison image may be matched and stored with the first comparison image. .

도 9의 (B)의 경우에는 카메라 모듈(10)이 촬영한 영상에서 객체(OB)들이 촬영 영역 내에서 소정 지점에 무리지어 모여있는 상태라고 할 수 있다.In the case of (B) of FIG. 9 , it can be said that the objects OB in the image captured by the camera module 10 are gathered in groups at a predetermined point within the capturing area.

이러한 경우에도, 미리 설정된 기준 정보를 근거로 하여 영상에 포함되어 있는 객체의 수, 즉 군중의 수를 검출할 수 있다.Even in this case, the number of objects included in the image, that is, the number of crowds, can be detected based on preset reference information.

이후, 도 9의 (B)의 영상의 패턴을 저장하고, 도 9의 (B)의 영상에 포함된 객체의 수에 대한 정보를 해당 패턴에 매칭시켜 저장할 수 있다.Thereafter, the pattern of the image of FIG. 9 (B) may be stored, and information on the number of objects included in the image of FIG. 9 (B) may be matched to the corresponding pattern and stored.

예를 들면, 도 10에 나타나 있는 바와 같이, 도 9의 (B)의 패턴에 대응하는 영상을 제 2 비교 영상으로 설정하여 저장할 수 있다.For example, as shown in FIG. 10 , an image corresponding to the pattern of FIG. 9 (B) may be set as a second comparison image and stored.

아울러, 제 2 비교 영상에 포함된 객체의 수(인원 수), 제 2 비교 영상을 촬영한 시간, 제 2 비교 영상에 대응하는 날씨 또는 시야에 대한 정보를 제 2 비교 영상에 매칭시켜 저장할 수 있다.In addition, information on the number of objects (number of people) included in the second comparison image, the time at which the second comparison image was taken, and the weather or field of view corresponding to the second comparison image may be matched and stored with the second comparison image. .

비교 영상부(260)는 주기적 및/또는 비주기적으로 비교 영상을 추가하거나, 업데이트하는 것이 가능하다.The comparison image unit 260 may periodically and/or non-periodically add or update comparison images.

비교 영상의 수는 많을수록 정밀한 군중 계수가 가능할 수 있기 때문에 비교 영상부(260)는 미리 설정된 주기마다 새로운 비교 영상을 추가하는 것이 가능하다.As the number of comparison images increases, precise crowd counting may be possible, and thus the comparison image unit 260 may add new comparison images at preset intervals.

만약, 추가하려는 비교 영상과 충분히 유사한 경우(유사도가 미리 설정된 임계 유사도보다 더 큰 경우)에는 이전 영상을 삭제하는 것이 가능하다.If it is sufficiently similar to the comparison image to be added (if the similarity is greater than a preset threshold similarity), it is possible to delete the previous image.

제 1 비교 영상이 저장되어 있는 상태에서 비교 영상부(260)가 새로운 제 10 비교 영상을 생성한 경우를 가정하여 보자.Assume that the comparison image unit 260 generates a new 10th comparison image while the first comparison image is stored.

여기서, 제 1 비교 영상과 제 10 비교 영상의 유사도가 미리 설정된 임계 유사도보다 더 큰 경우에 제 1 비교 영상을 삭제하고, 제 10 비교 영상을 새롭게 저장할 수 있다.Here, when the similarity between the first comparison image and the tenth comparison image is greater than a preset threshold similarity, the first comparison image may be deleted, and the tenth comparison image may be newly stored.

물론, 보다 정밀한 군중 계수를 위해 유사도가 충분히 높은 제 1 비교 영상과 제 10 비교 영상을 함께 저장하는 것도 가능할 수 있다.Of course, it may be possible to store the 1st comparison image and the 10th comparison image having a sufficiently high degree of similarity together for more accurate crowd counting.

비교 영상의 개수가 많다는 것(비교 블록의 개수가 많다는 것)은 서버(20)의 인공지능의 학습이 더 심화되었음을 나타낼 수 있다.The fact that the number of comparison images is large (the number of comparison blocks is large) may indicate that the learning of the artificial intelligence of the server 20 is more intensified.

아울러, 비교 영상의 개수(비교 블록의 개수)가 많으면 많을수록 보다 정밀한 군중 계수가 가능할 수 있다.In addition, as the number of comparison images (the number of comparison blocks) increases, more precise crowd counting may be possible.

서버(20)의 인공지능의 학습의 심화를 위해 주기적 및/또는 비주기적으로 비교 영역(비교 블록)을 생성, 업데이트, 추가하는 것이 가능할 수 있다.It may be possible to periodically and/or non-periodically create, update, and add a comparison area (comparison block) to deepen the learning of the artificial intelligence of the server 20 .

군중 계수 모드에서 카메라 모듈(10)이 소정의 제 1 영상을 촬영한 경우를 가정하여 보자. 여기서, 군중 계수 모드는 카메라 모듈(10)이 촬영한 영상에 포함된 객체의 수를 검출하는 모드라고 할 수 있다. 이러한 군중 계수 모드에서 대해서는 도 21의 이후에 상세히 설명하기로 한다.Assume that the camera module 10 captures a predetermined first image in the crowd counting mode. Here, the crowd counting mode may be referred to as a mode for detecting the number of objects included in an image captured by the camera module 10 . This crowd counting mode will be described in detail later in FIG. 21 .

카메라 모듈(10)이 제 1 영상을 촬영하여 서버(20)로 전송하면, 서버(20)의 비교 영상부(260)는 전송받은 제 1 영상의 패턴을 분석할 수 있다.When the camera module 10 captures the first image and transmits it to the server 20, the comparison image unit 260 of the server 20 may analyze a pattern of the received first image.

아울러, 비교 영상부(260)는 제 1 영상의 패턴을 미리 저장되어 있는 비교 영상들과 비교하여 유사한 영상 패턴을 판별할 수 있다.In addition, the comparison image unit 260 may compare the pattern of the first image with pre-stored comparison images to determine a similar image pattern.

예를 들어, 제 1 영상의 패턴이 미리 저장된 제 1 비교 영상과 가장 유사하다고 판단한 경우에는 비교 영상부(260)는 제 1 비교 영상이 제 1 영상의 패턴과 가장 유사하다는 판별결과를 검출부(280)로 전송할 수 있다.For example, when it is determined that the pattern of the first image is most similar to the first comparison image stored in advance, the comparison image unit 260 determines that the first comparison image is most similar to the pattern of the first image, and the detection unit 280 ) can be transmitted.

그러면 검출부(280)의 객체 수 검출부(282)는 제 1 비교 영상에 포함된 객체의 수에 대한 정보를 판별하고, 판별한 정보를 제 1 영상에 포함된 객체의 수로서 검출할 수 있다.Then, the object number detection unit 282 of the detection unit 280 may determine information about the number of objects included in the first comparison image, and detect the determined information as the number of objects included in the first image.

이상에서는 카메라 모듈(10)이 촬영한 영상을 전체적으로 비교 영상으로 설정하는 방법을 설명하였으나, 본 발명은 이에 한정되지 않을 수 있다.In the above, the method of setting the image taken by the camera module 10 as a comparison image as a whole has been described, but the present invention may not be limited thereto.

예를 들면, 카메라 모듈(10)이 촬영한 영상, 즉 비교 영상에서 객체(OB)가 포함된 일부 영역을 추출하고, 추출한 일부 영역의 객체(OB)에 대응되는 영상의 패턴을 비교 블록으로 설정하는 것이 가능하다.For example, a partial area including an object OB is extracted from an image captured by the camera module 10, that is, a comparison image, and a pattern of the image corresponding to the object OB in the extracted partial area is set as a comparison block. It is possible.

여기서, 비교 블록은 다른 타입의 비교 영상이라고도 할 수 있다.Here, the comparison block may also be referred to as a comparison image of another type.

이러한 관점에서는, 비교 블록은 앞선 도 9의 (A), (B)에서 설명한 비교 영상과 비교하여 사이즈가 상대적으로 작은 영상이라고 할 수 있다. 이를 고려하여 블록이라는 용어를 사용할 수 있다.From this point of view, the comparison block can be said to be an image having a relatively small size compared to the comparison images described above in (A) and (B) of FIG. 9 . Considering this, the term block can be used.

카메라 모듈(10)이 도 11의 (A)와 같은 영상을 촬영하고, 촬영한 영상을 비교 영상부(260)가 비교 영상으로 설정하는 경우를 가정하여 보자.Assume that the camera module 10 captures an image as shown in (A) of FIG. 11 and the comparison image unit 260 sets the captured image as a comparison image.

비교 영상부(260)는 도 11의 (A)의 영상에서 객체(OB)가 위치하는 영역, 즉 제 1 영역(AR1)과 제 2 영역(AR2)을 각각 관심 영역으로 설정할 수 있다.The comparison imaging unit 260 may set the region where the object OB is located in the image of FIG. 11 (A), that is, the first region AR1 and the second region AR2, respectively, as regions of interest.

이후, 도 11의 (B)에 나타나 있는 바와 같이, 관심 영역에 포함된 객체(OB)들의 외곽을 둘러싸도록 영상 블록을 설정하는 것이 가능하다.Then, as shown in (B) of FIG. 11 , it is possible to set image blocks to surround the periphery of the objects OB included in the region of interest.

예를 들면, 제 1 영역(AR1)에 포함된 객체(OB)들을 둘러싸도록 영상 블록을 설정하고, 설정한 영상 블록을 제 1 비교 블록(PT1)으로서 설정하여 저장하는 것이 가능하다. 다르게 표현하면, 비교 영상의 일부를 제 1 비교 블록(PT1)으로 설정하는 것이 가능하다.For example, it is possible to set an image block to surround the objects OB included in the first area AR1, set the set image block as the first comparison block PT1, and store the set image block. In other words, it is possible to set a part of the comparison image as the first comparison block PT1.

제 1 영역(AR1)에서 제 1 비교 블록(PT1)을 설정한 이후에 제 1 비교 블록(PT1)에 포함된 객체의 수를 검출할 수 있다.After setting the first comparison block PT1 in the first area AR1, the number of objects included in the first comparison block PT1 may be detected.

예를 들면, 서버(20)의 검출부(280)가 제 1 비교 블록(PT1)에 포함된 객체의 수를 검출할 수 있다.For example, the detection unit 280 of the server 20 may detect the number of objects included in the first comparison block PT1.

제 1 비교 블록(PT1)에 복수의 객체(OB)가 겹쳐져서(Overlap) 위치할 수 있다. 이러한 경우에는 검출부(280)는 다른 방식으로 제 1 비교 블록(PT1)에 포함된 객체의 수를 검출할 수 있다. 이에 대해서는 추후에 상세히 설명하기로 한다.A plurality of objects OB may overlap and be positioned in the first comparison block PT1. In this case, the detector 280 may detect the number of objects included in the first comparison block PT1 in a different way. This will be described in detail later.

여기서, 비교 블록은 단수 혹은 복수의 객체(OB)들이 위치하는 부분에 대응될 수 있다.Here, the comparison block may correspond to a part where one or more objects OB are located.

다른 관점에서 보면, 비교 블록은 단수 혹은 복수의 객체(OB)에 대응되는 영상의 패턴을 의미할 수 있다.From another point of view, the comparison block may mean a pattern of an image corresponding to a single object or a plurality of objects OB.

다수의 객체(OB)가 소정 위치에 모여 있는 경우를 가정하자.Assume that a plurality of objects OB are gathered at a predetermined location.

이러한 경우에는 객체(OB)의 수를 일일이 카운팅하는 것보다는 다수의 객체(OB)가 모여 있는 패턴을 분석하여 객체의 수를 검출하는 것이 빠를 수 있다.In this case, it may be faster to detect the number of objects by analyzing a pattern in which a plurality of objects OB are gathered rather than counting the number of objects OB one by one.

이러한 비교 블록의 종류는 많을수록 군중 계수의 정밀도가 향상될 수 있다.As the number of comparison blocks increases, the accuracy of the crowding coefficient can be improved.

비교 영상부(260)는 비교 블록의 패턴 정보를 저장하고, 해당 비교 블록에 대응되는 객체의 수(인원 수)에 대한 정보도 매칭시켜 서버(20)의 데이터 베이스(DB, 230)에 저장할 수 있다.The comparison image unit 260 may store pattern information of the comparison block, match information on the number of objects (number of people) corresponding to the comparison block, and store it in the database (DB, 230) of the server 20. have.

도 11의 (A)의 제 2 영역(AR2)을 제 1 영역(AR1)과 비교하면, 제 2 영역(AR2)의 사이즈는 상대적으로 작지만, 제 2 영역(AR2)에도 제 1 비교 블록(PT1)이 포함될 수 있다. 아울러, 카메라 모듈(10)과 제 2 영역(AR2) 사이의 거리(D2)는 카메라 모듈(10)과 제 1 영역(AR1) 사이의 거리(D1)보다 더 클 수 있다.When the second area AR2 of FIG. 11(A) is compared with the first area AR1, the size of the second area AR2 is relatively small, but the first comparison block PT1 is also included in the second area AR2. ) may be included. In addition, the distance D2 between the camera module 10 and the second area AR2 may be greater than the distance D1 between the camera module 10 and the first area AR1.

이는 카메라 모듈(10)이 촬영한 영상에서 제 2 영역(AR2)의 사이즈는 제 1 영역(AR1)의 사이즈보다 작지만, 제 1 영역(AR1)에 포함된 객체의 수와 제 2 영역(AR2)에 포함된 객체의 수는 동일 혹은 유사할 수 있음을 나타낼 수 있다.In the image captured by the camera module 10, the size of the second area AR2 is smaller than that of the first area AR1, but the number of objects included in the first area AR1 and the size of the second area AR2 It may indicate that the number of objects included in may be the same or similar.

이를 고려할 때, 비교 블록에 대한 정보는 비교 블록의 패턴에 대한 정보, 비교 블록에 포함된 객체의 수에 대한 정보, 비교 블록의 사이즈에 대한 정보, 카메라 모듈(10)과 비교 블록 사이의 거리에 대한 정보, 카메라 모듈(10)을 기준으로 비교 블록이 위치하는 방향에 대한 정보 등을 포함할 수 있다.Considering this, the information on the comparison block is information about the pattern of the comparison block, information about the number of objects included in the comparison block, information about the size of the comparison block, and the distance between the camera module 10 and the comparison block. information, information on a direction in which the comparison block is located with respect to the camera module 10, and the like.

이러한 비교 블록에 대한 정보는 서로 매칭되어 서버(20)의 데이터 베이스(230)에 저장될 수 있다.Information on these comparison blocks may be matched with each other and stored in the database 230 of the server 20 .

도 12의 제 1 영역(AR1)과 제 3 영역(AR3)을 비교하면 제 1 영역(AR1)과 제 3 영역(AR3)의 사이즈는 서로 유사하고, 제 1 영역(AR1)과 제 3 영역(AR3) 모두 제 1 비교 블록(PT1)을 포함할 수 있다. 아울러, 카메라 모듈(10)과 제 3 영역(AR3) 사이의 거리(D3)는 카메라 모듈(10)과 제 1 영역(AR1) 사이의 거리(D1)보다 더 클 수 있다.Comparing the first area AR1 and the third area AR3 of FIG. 12 , the sizes of the first area AR1 and the third area AR3 are similar to each other, and the first area AR1 and the third area ( AR3) may all include the first comparison block PT1. In addition, the distance D3 between the camera module 10 and the third area AR3 may be greater than the distance D1 between the camera module 10 and the first area AR1.

이를 고려하면, 카메라 모듈(10)이 촬영한 영상에서 제 3 영역(AR3)의 사이즈는 제 1 영역(AR1)의 사이즈와 유사 혹은 동일하지만, 제 3 영역(AR3)에 포함된 객체의 수는 제 1 영역(AR1)에 포함된 객체의 수보다 더 많을 수 있음을 나타낼 수 있다.Considering this, the size of the third area AR3 in the image captured by the camera module 10 is similar to or equal to the size of the first area AR1, but the number of objects included in the third area AR3 is It may indicate that the number of objects included in the first area AR1 may be greater than the number of objects included in the first area AR1.

이를 고려하면, 비교 블록의 패턴 형태와 카메라 모듈(10)로부터의 거리도 군중 계수에 대한 주요 변수라고 할 수 있다.Considering this, the pattern shape of the comparison block and the distance from the camera module 10 can also be said to be important variables for crowd counting.

도 13에 다양한 비교 블록에 대한 정보를 나타내었다.13 shows information on various comparison blocks.

도 13을 살펴보면, 제 1 비교 블록(PT1)에 관련해서는 기본 객체수(기본 인원수)가 5명이고, 카메라 모듈(10)과의 거리에 따른 가중치(거리 가중치)가 미터당 1.2이고, 넓이 가중치가 제곱미터당 1.02일 수 있다.Referring to FIG. 13, in relation to the first comparison block PT1, the basic number of objects (basic number of people) is 5, the weight according to the distance to the camera module 10 (distance weight) is 1.2 per meter, and the width weight is It may be 1.02 per square meter.

거리 가중치는 제 1 비교 블록(PT1)과 카메라 모듈(10) 사이의 거리가 미리 설정된 기본 거리(예컨대 10m)에서 단위 거리(예컨대 5m) 만큼 증가할 때마다 가중치가 1.2만큼 증가함을 나타낼 수 있다.The distance weight may indicate that the weight increases by 1.2 whenever the distance between the first comparison block PT1 and the camera module 10 increases by a unit distance (eg, 5m) from a preset basic distance (eg, 10m). .

넓이 가능치는 제 1 비교 블록(PT1)의 넓이가 기본 넓이(예컨대 2제곱미터)에서 단위 넓이(예컨대 1제곱미터) 만큼 증가할 때마다 가중치가 1.02만큼 증가함을 나타낼 수 있다.The possible area may indicate that the weight is increased by 1.02 whenever the area of the first comparison block PT1 increases by the unit area (eg, 1 square meter) from the basic area (eg, 2 square meters).

제 1 비교 블록(PT1)의 기본 객체수는 제 1 비교 블록(PT1)의 넓이가 기본 넓이를 갖고, 제 1 비교 블록(PT1)과 카메라 모듈(10)의 사이의 거리가 기본 거리인 경우에 제 1 비교 블록(PT1)에 포함되는 객체의 수를 나타낼 수 있다.The number of basic objects of the first comparison block PT1 is determined when the area of the first comparison block PT1 has the basic area and the distance between the first comparison block PT1 and the camera module 10 is the basic distance. The number of objects included in the first comparison block PT1 may be indicated.

예를 들어, 제 1 비교 블록(PT1)의 넓이가 기본 넓이(예컨대 2제곱미터)이고, 제 1 비교 블록(PT1)과 카메라 모듈(10) 사이의 거리가 기본 거리(예컨대 10m)인 경우에, 제 1 비교 블록(PT1)에 포함되는 객체의 수는 기본 객체수에 대응되는 5명일 수 있다.For example, when the area of the first comparison block PT1 is the basic area (eg, 2 square meters) and the distance between the first comparison block PT1 and the camera module 10 is the basic distance (eg, 10 m), The number of objects included in the first comparison block PT1 may be 5 corresponding to the basic number of objects.

만약, 제 1 비교 블록(PT1)의 넓이가 기본 넓이보다 단위 넓이 만큼 더 넓고(예컨대 3제곱미터), 제 1 비교 블록(PT1)과 카메라 모듈(10) 사이의 거리가 기본 거리보다 단위 거리 만큼 더 큰 경우(예컨대 15m), 제 1 비교 블록(PT1)에 포함되는 객체의 수는 6.12명(5ㅧ1.2ㅧ1.02)일 수 있다.If the area of the first comparison block PT1 is wider than the basic area by a unit area (for example, 3 square meters), and the distance between the first comparison block PT1 and the camera module 10 is larger than the basic distance by a unit distance, If it is large (for example, 15 m), the number of objects included in the first comparison block PT1 may be 6.12 (5 × 1.2 × 1.02).

여기서는, 거리 가중치를 1.2로 설정하고, 넓이 가중치를 1.02로 설정하는 경우를 설명하였지만, 이는 이해를 돕기 위해 임의로 설정한 것으로서 본 발명이 이에 한정되지 않을 수 있다.Here, the case where the distance weight is set to 1.2 and the width weight is set to 1.02 has been described, but these are arbitrarily set for easy understanding, and the present invention may not be limited thereto.

이처럼, 비교 블록의 패턴의 형태 정보, 비교 블록에 포함되는 객체의 수에 대한 정보, 비교 블록의 카메라 모듈(10)과의 거리에 대한 정보, 비교 블록의 사이즈(넓이)에 대한 정보를 매칭시켜 저장하는 경우에는, 카메라 모듈(10)이 촬영한 영상에서 객체(OB)들을 일일이 카운팅하지 않고, 유사한 비교 블록을 찾아서 그에 대응하는 객체의 수에 대한 정보를 확인하는 방법으로 신속하고 정밀한 군중 계수를 수행할 수 있다.In this way, the pattern shape information of the comparison block, information on the number of objects included in the comparison block, information on the distance of the comparison block to the camera module 10, and information on the size (width) of the comparison block are matched. In the case of storage, quick and precise crowd counting is performed by finding similar comparison blocks and checking information on the number of objects corresponding to them without counting objects OB in the image captured by the camera module 10 one by one. can be done

한편, 비교 블록은 다양한 형태를 가질 수 있다.Meanwhile, the comparison block may have various forms.

예를 들어, 도 14의 (A), (B)와 같이 제 2 비교 블록(PT2)은 중앙이 비어 있는 도넛 형태인 경우도 가능할 수 있다.For example, as shown in (A) and (B) of FIG. 14 , the second comparison block PT2 may have a donut shape with an empty center.

복수의 객체(OB)들이 모여 강강술래 놀이 등을 하는 경우에 도 14의 (A)와 같은 타입의 제 2 비교 블록(PT2)이 형성될 수 있다.When a plurality of objects OB gather to play Ganggangsullae, a second comparison block PT2 of the type shown in (A) of FIG. 14 may be formed.

도 14의 (B)의 경우는 (A)와 비교하여 동일하게 제 2 비교 블록(PT2)을 형성하지만, 비교 블록에 포함되는 객체(OB)의 수는 상대적으로 더 많을 수 있다.In the case of (B) of FIG. 14, the second comparison block PT2 is formed identically to that of (A), but the number of objects OB included in the comparison block may be relatively greater.

복수의 객체(OB)들이 캠프 파이어 등을 하는 경우에 도 14의 (B)와 같은 타입의 제 2 비교 블록(PT2)을 형성될 수 있다.When a plurality of objects OB have a campfire or the like, a second comparison block PT2 of the type shown in (B) of FIG. 14 may be formed.

도 14의 (A)와 (B)의 객체 수의 차이는 앞서 설명한 거리 가중치 및/또는 넓이 가중치를 이용하여 판별할 수 있다.The difference in the number of objects in (A) and (B) of FIG. 14 can be determined using the above-described distance weight and/or area weight.

이와 같이, 적어도 하나의 객체(OB)를 포함하는 비교 블록에 대응하여 패턴의 형태에 대한 정보, 비교 블록에 포함된 객체의 수에 대한 정보, 거리에 대한 정보, 넓이에 대한 정보 등을 매칭시켜 저장하게 되면, 군중 계수를 보다 신속하게 정밀하게 수행할 수 있다.In this way, information on the shape of the pattern, information on the number of objects included in the comparison block, information on distance, information on area, etc. are matched in response to the comparison block including at least one object OB. When stored, crowd counting can be performed more quickly and precisely.

한편, 비교 영상 혹은 비교 블록에서 복수의 객체(OB)가 겹쳐져서 위치하는 경우에는 정밀한 객체의 수의 판별이 어려울 수 있다.On the other hand, when a plurality of objects (OB) overlap each other in the comparison image or comparison block, it may be difficult to accurately determine the number of objects.

이러한 경우에는 미리 저장한 동영상 타입의 영상을 역재생하여 충분히 정확한 객체의 수를 판별하는 것이 가능하다. 복수의 객체(OB)가 중첩되는 영상 패턴을 갖는 비교 블록을 중첩 블록(Overlapping Block)이라고 할 수 있다.In this case, it is possible to determine the number of objects sufficiently accurately by replaying previously stored video type images in reverse. A comparison block having an image pattern in which a plurality of objects OB overlap may be referred to as an overlapping block.

도 15에 나타나 있는 바와 같이, 객체수를 검출하는 과정(S130)에서는 먼저 비교 영상 혹은 비교 블록에 복수의 객체(OB)가 겹쳐져 있는지의 여부를 판단할 수 있다(S131).As shown in FIG. 15, in the process of detecting the number of objects (S130), it may first be determined whether or not a plurality of objects OB overlap a comparison image or a comparison block (S131).

S131단계에서 판단결과, 복수의 객체(OB)가 겹쳐져 있지 않은 경우에 검출부(280)의 객체 검출부(281)와 객체 수 검출부(282)가 비교 영상 혹은 비교 블록에 포함되어 있는 객체의 수를 카운팅하여 판별할 수 있다(S134).As a result of determination in step S131, when the plurality of objects OB do not overlap, the object detection unit 281 and the number of objects detection unit 282 of the detection unit 280 count the number of objects included in the comparison image or comparison block. It can be determined by doing (S134).

반면에, S131단계에서 판단결과, 복수의 객체(OB)가 겹쳐져 있는 경우에는 검출부(280)는 미리 저장되어 있는 영상을 역재생할 수 있다(S132).On the other hand, as a result of the determination in step S131, when a plurality of objects OB overlap, the detection unit 280 may reversely reproduce the previously stored image (S132).

이를 위해, 서버(20)는 데이터 베이스(DB, 230)에 카메라 모듈(10)이 촬영한 영상을 동영상 형태로 저장하는 것이 가능하다.To this end, the server 20 can store the image captured by the camera module 10 in the database (DB, 230) in the form of a video.

카메라 모듈(10)이 촬영한 영상에서 aaa시점의 영상의 일부의 패턴을 비교 블록으로 저장하는 경우를 가정하여 보자. 이러한 aaa시점의 영상의 일부의 패턴이 비교 블록의 일종인 중첩 블록이라고 할 수 있다.Let's assume a case where a pattern of a part of an image at a point of aaa is stored as a comparison block in an image captured by the camera module 10 . A pattern of a part of the image at the aaa point of view may be referred to as an overlapping block, which is a kind of comparison block.

이러한 경우, 검출부(280)는 카메라 모듈(10)이 촬영한 영상을 aaa시점부터 역재생할 수 있다.In this case, the detection unit 280 may reversely reproduce the image captured by the camera module 10 from the point aaa.

아울러, 영상을 역재생하면서 해당 비교 블록에 포함된 각각의 객체(OB)의 동선을 추적(S133)하고, 추적한 객체(OB)의 수를 카운팅하여 객체 수를 판별할 수 있다.In addition, the number of objects may be determined by tracking the movement of each object OB included in the corresponding comparison block (S133) and counting the number of tracked objects OB while replaying the video in reverse.

예를 들어, 비교 영상부(260)가 도 16의 (A)와 같은 형태를 갖는 패턴을 제 3 비교 블록(PT3)으로 저장하는 경우를 가정하자.For example, assume a case where the comparison image unit 260 stores a pattern having a shape as shown in (A) of FIG. 16 as a third comparison block PT3.

도 16의 (A)의 비교 블록은 다수의 객체(OB)가 겹쳐진 영상 패턴을 갖는 것으로 볼 수 있다. 도 16의 (A)는 중첩 블록의 일종이라고 볼 수 있다.The comparison block of FIG. 16 (A) can be viewed as having an image pattern in which a plurality of objects OB overlap. 16(A) can be regarded as a kind of overlapping block.

이러한 경우, 검출부(280)는 카메라 모듈(10)이 촬영한 동영상 타입의 영상을 역재생할 수 있다.In this case, the detection unit 280 may reversely reproduce a video type image captured by the camera module 10 .

그러면, 도 16의 (B), (C)와 같이 카메라 모듈(10)이 촬영한 영상을 거꾸로 재생하는 과정에서 이동하거나 무리(제 3 비교 블록(PT3))로부터 분리되는 각각의 객체(OB)들의 동선(움직임, 이동)을 추적하고, 객체(OB)의 수를 카운팅할 수 있다.Then, as shown in (B) and (C) of FIG. 16, each object OB moved or separated from the group (third comparison block PT3) in the process of reproducing the image taken by the camera module 10 backwards. It is possible to track the movement (movement, movement) of the objects and count the number of objects (OB).

각각의 객체(OB)들의 움직임을 추적하면 영상의 데이터의 변화가 발생하는데, 이러한 영상 데이터의 변화를 감지하여 객체(OB)의 수를 검출할 수 있다.When the movement of each object OB is tracked, a change in image data occurs, and the number of objects OB can be detected by detecting the change in image data.

이러한 방법을 사용하면, 다수의 객체(OB)가 겹치듯이 모여있는 비교 블록(제 3 비교 블록(PT3))에서도 객체의 수를 충분히 정밀하게 판별할 수 있다.If this method is used, the number of objects can be accurately determined even in a comparison block (third comparison block PT3) in which a large number of objects OB are gathered like overlapping.

서버(20)에서는 제 3 비교 블록(PT3)에 대한 패턴 형태, 사이즈 등의 정보 및 제 3 비교 블록(PT3)에 대응하는 객체(OB)의 수에 대한 정보를 데이터 베이스(DB, 230)에 저장할 수 있다.The server 20 stores information such as pattern shape and size of the third comparison block PT3 and information on the number of objects OB corresponding to the third comparison block PT3 to the database (DB, 230). can be saved

한편, 카메라 모듈(10)이 촬영한 영상에서 객체(OB)를 용이하게 검출하기 위해 기준 영상을 설정하고, 설정한 기준 영상을 이용하는 것이 가능하다. 기준 영상은 앞서 설명한 기준 정보의 일종이라고 할 수 있다.Meanwhile, in order to easily detect the object OB in an image captured by the camera module 10, it is possible to set a reference image and use the set reference image. The reference image may be referred to as a kind of reference information described above.

기준 영상은 카메라 모듈(10)에 대응되는 촬영 영역에 객체(OB)가 존재하지 않는 상태의 영상이라고 할 수 있다.The reference image may be referred to as an image in a state in which the object OB does not exist in the capturing area corresponding to the camera module 10 .

기준 영상을 설정하기 위해, 도 8의 S100단계에서와 같이 카메라 모듈(10)이 주변의 영상을 촬영할 수 있다. 이러한 경우, 카메라 모듈(10)이 촬영한 영상은 일종의 샘플 영상이라고 할 수 있다.In order to set a reference image, the camera module 10 may capture an image of the surroundings as in step S100 of FIG. 8 . In this case, the image captured by the camera module 10 may be referred to as a kind of sample image.

이하에서는 기준 영상을 생성하기 위해 카메라 모듈(10)이 촬영한 영상을 샘플 영상이라고 칭할 수 있다.Hereinafter, an image captured by the camera module 10 to generate a reference image may be referred to as a sample image.

아울러, 샘플 영상은 빈 영역(Vacancy Area)(혹은 빈 공간)을 포함하는 영상이라고 할 수 있다. 여기서, 빈 영역은 카메라 모듈(10)이 촬영한 영상에서 객체(OB)가 위치하지 않아서 촬영 영역의 적어도 일부가 노출된 영역이라고 할 수 있다.In addition, the sample image may be referred to as an image including a vacancy area (or vacancy area). Here, the blank area may be referred to as an area where at least a part of the capturing area is exposed because the object OB is not located in the image captured by the camera module 10 .

도 8의 S100단계에서 카메라 모듈(10)이 영상, 즉 샘플 영상을 촬영하면, 촬영한 샘플 영상은 서버(20)로 전송될 수 있다.When the camera module 10 captures an image, ie, a sample image, in step S100 of FIG. 8 , the captured sample image may be transmitted to the server 20 .

그러면, 서버(20)의 기준 정보부(250)에서는 카메라 모듈(10)로부터 전송받은 샘플 영상을 분석하여 샘플 영상에 빈 영역이 포함되어 있는지의 여부를 판단할 수 있다(S150).Then, the reference information unit 250 of the server 20 may analyze the sample image transmitted from the camera module 10 to determine whether the sample image includes a blank area (S150).

S150단계에서 판단결과, 카메라 모듈(10)로부터 전송받은 영상에 빈 영역이 포함되지 않은 경우에는 미리 설정된 제 2 기능(Default 2)을 수행할 수 있다.As a result of determination in step S150, when the blank area is not included in the image transmitted from the camera module 10, a preset second function (Default 2) may be performed.

여기서, 제 2 기능은 해당 영상이 빈 영역을 포함하는 샘플 영상이 아니라는 것을 알리는 기능 등을 예로 들 수 있다.Here, the second function may be, for example, a function of notifying that the corresponding image is not a sample image including a blank area.

반면에, S150단계에서 판단결과, 카메라 모듈(10)로부터 전송받은 영상에 빈 영역이 포함된 경우에는 해당 영상을 샘플 영상으로 설정할 수 있다.On the other hand, as a result of determination in step S150, if the image transmitted from the camera module 10 includes a blank area, the image may be set as a sample image.

아울러, 샘플 영상에서 검출한 빈 영역에 대한 영상을 조합(S170)하여 기준 영상을 설정하고, 설정한 기준 영상을 저장할 수 있다(S180).In addition, a base image may be set by combining images of blank areas detected from sample images (S170), and the set base image may be stored (S180).

도 17의 (A)에 나타나 있는 바와 같이, 카메라 모듈(10)이 촬영한 영상에서 촬영 영역의 적어도 일부에 객체(OB)가 존재하지 않는 영역, 즉 제 1 빈 영역(First Vacancy Area, VA1)이 포함되는 경우를 가정하자.As shown in (A) of FIG. 17 , in the image captured by the camera module 10, an area in which the object OB does not exist in at least a part of the captured area, that is, a first empty area (First Vacancy Area, VA1) Suppose that includes

이러한 경우, 도 17의 (A)와 같은 영상을 제 1 샘플 영상이라고 할 수 있다.In this case, the image shown in (A) of FIG. 17 may be referred to as a first sample image.

도 17의 (B)의 제 2 샘플 영상은 카메라 모듈(10)을 기준으로 촬영 영상에서 촬영 영역의 좌측 부분에 제 2 빈 영역(Second Vacancy Area, VA2)을 포함할 수 있다.The second sample image of FIG. 17 (B) may include a second blank area (VA2) in the left portion of the captured area in the captured image based on the camera module 10 .

도 17의 (C)의 제 3 샘플 영상은 카메라 모듈(10)을 기준으로 촬영 영상에서 촬영 영역의 상단 부분에 제 3 빈 영역(Third Vacancy Area, VA3)을 포함할 수 있다.The third sample image of FIG. 17 (C) may include a third empty area (VA3) at an upper portion of the captured area in the captured image based on the camera module 10 .

도 17의 (D)의 제 4 샘플 영상은 카메라 모듈(10)을 기준으로 촬영 영상에서 촬영 영역의 좌상단 부분에 제 4 빈 영역(Fourth Vacancy Area, VA4)을 포함할 수 있다.The fourth sample image of FIG. 17 (D) may include a fourth empty area (VA4) at the upper left portion of the captured area in the captured image based on the camera module 10 .

서버(20)의 기준 정보부(250)에서는 적어도 하나의 샘플 영상, 바람직하게는 복수의 샘플 영상을 분석하여, 각각의 샘플 영상에서 빈 영역을 검출할 수 있다.The reference information unit 250 of the server 20 may analyze at least one sample image, preferably a plurality of sample images, and detect a blank area in each sample image.

이후, 샘플 영상에서 검출한 빈 영역에 대한 영상을 조합하여 기준 영상을 생성할 수 있다.Thereafter, a reference image may be generated by combining images of blank areas detected from sample images.

기준 영상의 일례가 도 18에 나타나 있다.An example of a reference image is shown in FIG. 18 .

도 18의 기준 영상은 도 17의 (A), (B), (C), (D)의 제 1 샘플 영상, 제 2 샘플 영상, 제 3 샘플 영상 및 제 4 샘플 영상의 제 1 빈 영역(VA1), 제 2 빈 영역(VA2), 제 3 빈 영역(VA3) 및 제 4 빈 영역(VA4)의 영상을 조합한 영상이라고 할 수 있다.The reference image of FIG. 18 is the first blank area of the first sample image, the second sample image, the third sample image, and the fourth sample image of (A), (B), (C), and (D) of FIG. 17 ( VA1), the second blank area VA2, the third blank area VA3, and the fourth blank area VA4 may be combined images.

이처럼, 각각의 카메라 모듈(10)에 대응하여 기준 영상을 설정하게 되면, 카메라 모듈(10)의 주변 환경, 설치 환경 등에 관계없이 충분히 정밀한 군중 계수가 가능할 수 있다.In this way, if the reference image is set corresponding to each camera module 10, sufficiently accurate crowd counting may be possible regardless of the surrounding environment and installation environment of the camera module 10.

예를 들면, 카메라 모듈(10)의 설치 위치에 따라, 빛의 양, 빛의 각도, 촬영 영역의 바닥의 굴곡 상태, 카메라 모듈(10)의 시야 등이 변할 수 있다.For example, depending on the installation position of the camera module 10, the amount of light, the angle of the light, the curved state of the floor of the photographing area, the field of view of the camera module 10, and the like may change.

이를 고려하여 본 발명에서는 카메라 모듈(10)을 설치 이후에 촬영 영역 상에 객체(OB)가 존재하지 않는 기준 영상을 각각의 카메라 모듈(10)에 대응하여 독립적으로 설정할 수 있다. 이러한 경우에는, 각각의 카메라 모듈(10)의 주변 환경 또는 설치 환경에 대응하여 효과적이고 정밀하게 군중 계수를 수행할 수 있다.In consideration of this, in the present invention, after installing the camera module 10 , a reference image in which an object OB does not exist in the photographing area may be independently set corresponding to each camera module 10 . In this case, crowd counting may be performed effectively and precisely in response to the surrounding environment or installation environment of each camera module 10 .

한편, 기준 영상은 주기적 및/또는 비주기적으로 갱신, 추가, 삭제 또는 업데이트되는 것이 가능하다. 자세하게는, 서버(20)에서 인공지능을 이용하여 주기적 및/또는 비주기적으로 기준 영상을 갱신, 추가, 삭제 또는 업데이터를 하는 것이 가능할 수 있다.Meanwhile, the reference image may be updated, added, deleted, or updated periodically and/or non-periodically. In detail, it may be possible to periodically and/or non-periodically update, add, delete, or update the reference image by using artificial intelligence in the server 20 .

이에 대해, 첨부된 도 19를 참조하여 살펴보면 아래와 같다.In this regard, referring to the attached FIG. 19, it will be described below.

도 19를 살펴보면, 기준 영상을 설정한 이후에 카메라 모듈(10)은 주변의 영상을 촬영할 수 있다(S300).Referring to FIG. 19 , after setting a reference image, the camera module 10 may capture an image of the surroundings (S300).

여기서, 카메라 모듈(10)이 촬영한 영상은 대상 영상이라고도 할 수 있고, 샘플 영상이라고도 할 수 있다.Here, the image captured by the camera module 10 may be referred to as a target image or a sample image.

이후, 카메라 모듈(10)이 촬영한 영상은 서버(20)로 전송되고, 서버(20)에서는 카메라 모듈(10)로부터 수신한 영상에서 미리 설정된 기준 영상과는 다르게 변화되는 부분이 있는지의 여부를 판단할 수 있다(S310).Thereafter, the image captured by the camera module 10 is transmitted to the server 20, and the server 20 determines whether or not there is a part that is changed differently from the preset reference image in the image received from the camera module 10. It can be judged (S310).

자세하게는, 서버(20)는 카메라 모듈(10)이 일정 주기에 따라 연속적으로 촬영한 복수의 영상을 미리 설정되어 저장되어 있는 기준 영상과 비교하여 변화되는 부분이 있는지의 여부를 판단할 수 있다.In detail, the server 20 may compare a plurality of images continuously photographed by the camera module 10 according to a predetermined period with a preset and stored reference image to determine whether there is a changed part.

여기서, 서버(20)가 기준 영상과 비교하기 위해 사용하는 영상들은 카메라 모듈(10)의 촬영 각도 및 촬영 영역이 기준 영상과 비교하여 동일한 상태에서 촬영된 영상이라고 할 수 있다.Here, the images used by the server 20 for comparison with the reference image may be images captured in a state in which the photographing angle and photographing area of the camera module 10 are the same as those of the reference image.

S310단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분이 없는 경우에는 미리 설정된 기준 영상을 변경하지 않고 유지할 수 있다(S350).As a result of the determination in step S310, when there is no change in the image captured by the camera module 10, the preset reference image may be maintained without being changed (S350).

반면에, S310단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분이 있는 경우에는 변화된 부분의 데이터 변화율이 미리 설정된 기준 변화율 이하인지의 여부를 판단할 수 있다(S320).On the other hand, if there is a changed part in the image captured by the camera module 10 as a result of the determination in step S310, it may be determined whether the data change rate of the changed part is equal to or less than a preset reference change rate (S320).

S320단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분의 변화율이 미리 설정된 기준 변화율보다 더 큰 경우에는 기준 영상을 변경하지 않고 유지할 수 있다(S350).As a result of determination in step S320, if the change rate of the changed part in the image captured by the camera module 10 is greater than the preset reference change rate, the reference image may be maintained without being changed (S350).

반면에, S320단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분의 변화율이 미리 설정된 기준 변화율 이하인 경우에는 변화된 부분이 유지되는 시간이 미리 설정된 기준 시간 이상인지의 여부를 판단할 수 있다(S330).On the other hand, as a result of the determination in step S320, if the change rate of the changed part in the image captured by the camera module 10 is less than the preset reference change rate, it is possible to determine whether the time for which the changed part is maintained is equal to or longer than the preset reference time. Yes (S330).

S330단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분의 유지 시간이 미리 설정된 기준 시간 이상인 경우에는 기준 영상을 변경하지 않고 유지할 수 있다(S350).As a result of the determination in step S330, if the holding time of the changed part in the image captured by the camera module 10 is equal to or longer than the preset reference time, the reference video may be maintained without being changed (S350).

반면에, S330단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분의 유지 시간이 미리 설정된 기준 시간 이상인 경우에는 기존의 기준 영상을 새로운 기준 영상으로 변경하여 설정할 수 있다(S340).On the other hand, as a result of the determination in step S330, if the holding time of the changed part in the image captured by the camera module 10 is longer than the preset reference time, the existing reference video can be changed to a new reference video and set (S340).

새로운 기준 영상을 설정하는 방법은 앞선 도 17 내지 도 18에서 상세히 설명한 바 있다.A method of setting a new reference image has been described in detail with reference to FIGS. 17 to 18 above.

도 20의 (A)에 나타나 있는 바와 같이, 카메라 모듈(10)의 촬영 영역에 동상(Statue)이 새롭게 세워지는 경우를 가정하여 보자.As shown in (A) of FIG. 20 , it is assumed that a statue is newly erected in the photographing area of the camera module 10 .

이러한 경우에는, 카메라 모듈(10)이 일정 주기에 따라 연속적으로 촬영한 영상들에는 공통적으로 동상이 포함될 수 있다.In this case, images continuously photographed by the camera module 10 at regular intervals may commonly include a statue.

아울러, 영상에서 동상에 대응하는 데이터의 변화율은 미리 설정된 기준 변화율보다 더 적을 수 있다. 아울러, 영상에서 동상은 미리 설정된 기준 시간 이상 영상에 포함될 수 있다. 이는 동상의 움직임이 거의 없기 때문이라고 할 수 있다.In addition, the rate of change of data corresponding to the phase in the image may be less than a preset reference rate of change. In addition, the statue in the image may be included in the image for a predetermined reference time or longer. This can be attributed to the fact that there is almost no movement of the statue.

이러한 경우, 서버(20)는 해당 동상을 새롭게 추가된 배경 객체(BOB)로 인식할 수 있다.In this case, the server 20 may recognize the statue as a newly added background object BOB.

이후, 서버(20)는 기준 영상에 배경 객체(BOB)가 포함되도록 새로운 기준 영상을 생성 및 설정할 수 있다.Thereafter, the server 20 may create and set a new reference image so that the background object BOB is included in the base image.

도 20의 (B)에는 도로의 경계석의 새롭게 설치되는 경우의 일례가 나타나 있다. 이러한 경우에도, 서버(20)는 도로의 경계석을 배경 객체(BOB)로 인식하는 것이 가능할 수 있다.20(B) shows an example of a case where a boundary stone on a road is newly installed. Even in this case, the server 20 may be able to recognize the boundary stone of the road as the background object BOB.

이와 같이, 서버(20)가 주기적 혹은 비주기적으로 기준 영상을 변경하는 경우에는 카메라 모듈(10)에 대응되는 촬영 영역의 환경 변화에 대응하여 보다 효과적이고 정밀하게 군중 계수를 수행할 수 있다.In this way, when the server 20 periodically or non-periodically changes the reference image, crowd counting can be performed more effectively and precisely in response to environmental changes in the photographing area corresponding to the camera module 10 .

이상에서 설명한 바와 같이, 서버(20)에서 기준 정보, 기준 영상, 비교 영상 등을 설정한 이후에 군중 계수 모드를 실행할 수 있다. 군중 계수 모드에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.As described above, the crowd counting mode may be executed after setting reference information, reference images, comparison images, and the like in the server 20 . Referring to the accompanying drawing for the crowd counting mode, it is as follows.

도 21 내지 도 23은 군준 계수 모드에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.21 to 23 are diagrams for explaining the canonical coefficient mode. Hereinafter, description of the parts described in detail above may be omitted.

여기서, 군중 계수 모드는 군중 계수를 위한 서버(20)의 설정이 완료된 이후에 소정의 영역에 위치하는 객체(OB)의 수를 검출하기 위해 카메라 모듈(10)이 촬영한 영상에서 군중의 수를 검출하는 모드라고 할 수 있다.Here, the crowd counting mode calculates the number of crowds in an image captured by the camera module 10 in order to detect the number of objects OB located in a predetermined area after the server 20 is set for crowd counting. It can be called detection mode.

다른 관점에서 보면, 군중 계수 모드에서는 카메라 모듈(10)이 소정의 촬영 영역의 영상(대상 영상)을 촬영하고, 서버(20)는 카메라 모듈(10)이 촬영한 영상(대상 영상)에서 객체(OB)의 수를 검출할 수 있다.From another point of view, in the crowd counting mode, the camera module 10 captures an image (target image) of a predetermined shooting area, and the server 20 captures an object (target image) in the image (target image) captured by the camera module 10. OB) can be detected.

도 21을 살펴보면, 군중 계수 모드에서는 카메라 모듈(10)이 주변, 즉 촬영 영역에 대응하여 영상을 촬영할 수 있다(S400).Referring to FIG. 21 , in the crowd counting mode, the camera module 10 may capture an image corresponding to a surrounding area, that is, a capturing area (S400).

이러한 군중 계수 모드에서 군중 계수를 위해 카메라 모듈(10)이 촬영하는 영상을 타깃 영상 혹은 대상 영상이라고 할 수 있다. 이하에서는 군중 계수 모드에서 군중 계수를 위해 촬영되는 영상을 대상 영상이라고 칭할 수 있다.In this crowd counting mode, an image captured by the camera module 10 for crowd counting may be referred to as a target image or a target image. Hereinafter, an image captured for crowd counting in the crowd counting mode may be referred to as a target image.

이후, 카메라 모듈(10)은 군중 계수를 위한 영상, 즉 대상 영상을 서버(20)로 전송할 수 있다.Thereafter, the camera module 10 may transmit an image for crowd counting, that is, a target image to the server 20 .

그러면, 서버(20)에는 카메라 모듈(10)로부터 수신한 대상 영상을 미리 설정된 기준 영상과 비교할 수 있다(S410).Then, the server 20 may compare the target image received from the camera module 10 with a preset reference image (S410).

이후, 서버(20)는 대상 영상에서 기준 영상과 다른 부분, 즉 변경 부분이 있는지의 여부를 판단할 수 있다(S420).Thereafter, the server 20 may determine whether there is a part different from the reference video, that is, a changed part in the target image (S420).

S420단계에서 판단결과, 대상 영상에서 기준 영상과 비교하여 다른 부분, 즉 변경된 부분이 없는 경우에는 미리 설정된 제 3 기능(Default 3)을 수행할 수 있다(S430).As a result of the determination in step S420, when a different part of the target image compared to the reference image, that is, there is no changed part, a preset third function (Default 3) may be performed (S430).

여기서, 제 3 기능은 대상 영상에 포함된 객체(OB)의 수가 0임을 알리는 기능, 즉 대상 영상에 객체(OB)가 포함되지 않음을 알리는 기능, 대상 영상을 다시 촬영하라는 것을 알리는 기능 등을 예로 들 수 있다.Here, the third function is a function of notifying that the number of objects (OB) included in the target image is 0, that is, a function of notifying that the object (OB) is not included in the target image, a function of notifying that the target image is to be captured again, and the like, for example. can be heard

반면에, S420단계에서 판단결과 대상 영상에서 기준 영상과 비교하여 다른 부분, 즉 변경된 부분이 있는 경우에는 서버(20)는 대상 영상에서 변경된 부분을 검출할 수 있다(S440).On the other hand, as a result of the determination in step S420, if there is a different part, that is, a changed part, in the target image compared to the reference image, the server 20 may detect the changed part in the target image (S440).

이후, 서버(20)는 검출한 변경된 부분에서 객체를 판별할 수 있다(S450).Thereafter, the server 20 may determine an object from the detected changed part (S450).

이후, 서버(20)는 검출한 변경된 부분을 객체에 대응하여 미리 설정된 적어도 하나의 비교 영상(혹은 비교 블록)과 비교하고(S460), 비교한 결과에 따라 검출한 변경된 부분에서 객체(OB)의 수를 판별할 수 있다(S470).Thereafter, the server 20 compares the detected changed part with at least one comparison image (or comparison block) previously set to correspond to the object (S460), and compares the object OB in the detected changed part according to the comparison result. The number can be determined (S470).

이후, 판별한 객체(OB)의 수를 합산하여 최종적인 결과값으로 출력하는 것이 가능하다. 여기서, 상황에 따라 최종적인 결과값에는 소정의 오차가 설정될 수 있다.Thereafter, it is possible to output the final result value by adding up the number of objects OB determined. Here, a predetermined error may be set in the final result value according to circumstances.

예를 들어, 카메라 모듈(10)이 도 22에 나타나 있는 바와 같은 영상을 촬영하였다고 가정하자.For example, assume that the camera module 10 captures an image as shown in FIG. 22 .

카메라 모듈(10)은 도 22의 영상에 포함된 객체(OB)의 수를 검출하기 위해 도 22의 영상을 서버(20)로 전송할 수 있다. 이러한 경우, 도 22의 영상을 대상 영상이라고 할 수 있다.The camera module 10 may transmit the image of FIG. 22 to the server 20 in order to detect the number of objects OB included in the image of FIG. 22 . In this case, the image of FIG. 22 may be referred to as a target image.

그러면, 서버(20)는 도 22의 영상을 대상 영상으로 설정하고, 대상 영상을 미리 설정된 기준 영상과 비교할 수 있다.Then, the server 20 may set the image of FIG. 22 as a target image and compare the target image with a preset reference image.

기준 영상의 일례가 앞선 도 18에 나타나 있다.An example of the reference image is shown in FIG. 18 above.

예를 들면, 서버(20)는 도 18과 같은 기준 영상과 도 22와 같은 대상 영상을 비교할 수 있다.For example, the server 20 may compare a base image as shown in FIG. 18 and a target image as shown in FIG. 22 .

아울러, 서버(20)는 비교의 결과로서 대상 영상에서 기준 영상과 다른 부분, 즉 변경된 부분을 검출할 수 있다.In addition, as a result of the comparison, the server 20 may detect a part different from the base image in the target image, that is, a changed part.

도 22에서는 변경된 부분을 제 4 영역(AR4), 제 5 영역(AR5), 제 6 영역(AR6), 제 7 영역(AR7), 제 8 영역(AR8) 및 제 9 영역(AR9)으로 표시하였다.In FIG. 22, the changed parts are indicated as a fourth area AR4, a fifth area AR5, a sixth area AR6, a seventh area AR7, an eighth area AR8, and a ninth area AR9. .

이러한 변경된 부분을 관심영역이라고 할 수 있다.Such a changed portion may be referred to as a region of interest.

서버(20)는 검출한 변경된 부분(관심 영역)에서 각각 객체(OB)를 검출할 수 있다. 객체(OB)를 검출하는 과정에서는 서버(20)는 미리 설정된 기준 정보를 이용할 수 있다.The server 20 may detect each object OB in the detected changed part (region of interest). In the process of detecting the object OB, the server 20 may use preset reference information.

예를 들면, 서버(20)는 촬영 영역에 대응하는 위치 정보, 카메라 모듈(10)의 위치 정보, 촬영 영역의 각 위치와 카메라 모듈(10) 사이의 거리 정보, 객체(OB)의 형태 및 키 등의 정보 등의 다양한 기준 정보를 이용하여 변경된 부분에서 객체(OB)를 검출할 수 있다.For example, the server 20 may include location information corresponding to the capturing area, location information of the camera module 10, distance information between each location of the capturing area and the camera module 10, shape and key of the object OB. It is possible to detect the object OB in the changed part using various reference information such as information such as etc.

기준 정보를 이용한 객체(OB) 검출 방법은 앞서 상세히 설명한 바 있다.The object OB detection method using reference information has been described in detail above.

여기서, 객체(OB)가 검출되지 않은 관심 영역(변경된 부분)은 제외하고, 객체(OB)가 검출된 각각의 관심 영역(변경된 부분)에서 객체(OB)들의 외곽을 둘러싸도록 영상 블록을 설정할 수 있다.Here, an image block may be set to surround the periphery of the objects OB in each region of interest (changed portion) in which the object OB is detected, except for the region of interest (changed portion) in which the object OB is not detected. have.

대상 영상의 관심 영역에서 설정한 영상 블록을 대상 블록(Target Block)이라고 칭할 수 있다.An image block set in the region of interest of the target image may be referred to as a target block.

예를 들면, 도 22에 나타나 있는 바와 같이, 제 4 영역(AR4)에서는 제 1 대상 블록(TB1)을 설정하고, 제 5 영역(AR5)에서는 제 2 대상 블록(TB2)을 설정하고, 제 6 영역(AR6)에서는 제 3 대상 블록(TB3)을 설정하는 것이 가능하다.For example, as shown in FIG. 22, the first target block TB1 is set in the fourth area AR4, the second target block TB2 is set in the fifth area AR5, and the sixth In the area AR6, it is possible to set the third target block TB3.

이후, 서버(20)의 비교 영상부(260)는 제 1 대상 블록(TB1)의 영상 패턴을 미리 저장되어 있는 적어도 하나의 비교 블록과 비교하여 유사 비율이 미리 설정된 임계 비율보다 더 높은 적어도 하나의 비교 블록을 검출할 수 있다. 여기서, 검출한 비교 블록을 후보 비교 블록이라고 할 수 있다.Thereafter, the comparison image unit 260 of the server 20 compares the image pattern of the first target block TB1 with at least one pre-stored comparison block, and obtains at least one image pattern having a similarity ratio higher than a preset threshold ratio. A comparison block can be detected. Here, the detected comparison block may be referred to as a candidate comparison block.

이후, 검출한 적어도 하나의 후보 비교 블록 중에서 제 1 대상 블록(TB1)의 영상 패턴과 가장 유사한 하나의 비교 블록을 검출할 수 있다. 여기서, 검출한 비교 블록을 매칭 비교 블록이라고 할 수 있다.Thereafter, one comparison block most similar to the image pattern of the first target block TB1 may be detected from among the at least one candidate comparison block detected. Here, the detected comparison block may be referred to as a matching comparison block.

이후, 매칭 비교 블록에 포함된 객체(OB)의 수를 파악하고, 파악한 객체(OB)의 수를 제 1 대상 블록(TB1)에 포함된 객체(OB)의 수로 판별할 수 있다. 제 1 대상 블록(TB1)에 포함된 객체(OB)의 수는 제 4 영역(AR4)에 포함된 객체(OB)의 수에 대응될 수 있다.Thereafter, the number of objects OB included in the matching comparison block may be determined, and the number of objects OB included in the matching comparison block may be determined as the number of objects OB included in the first target block TB1. The number of objects OB included in the first target block TB1 may correspond to the number of objects OB included in the fourth area AR4.

여기서, 후보 비교 블록 및 매칭 비교 블록은 비교 블록을 일종으로 이해를 돕기 위해 다른 용어를 사용한 것일 수 있다.Here, the candidate comparison block and the matching comparison block may be different terms used to help understand the comparison block as a type.

이러한 방법으로 제 5 영역(AR5), 제 6 영역(AR5), 제 7 영역(AR7), 제 8 영역(AR8) 및 제 9 영역(AR9)에 포함된 객체(OB)의 수를 검출하고, 검출한 객체(OB)의 수를 합산하여 대상 영상에 포함된 객체(OB)의 총 수에 대한 정보(최종 결과값)를 검출할 수 있다.In this way, the number of objects OB included in the fifth area AR5, the sixth area AR5, the seventh area AR7, the eighth area AR8, and the ninth area AR9 is detected, Information on the total number of objects OB included in the target image (final result value) may be detected by summing the number of detected objects OB.

아울러, 대상 영상에 포함된 객체(OB)의 총 수(최종 결과값)에 상황에 따라 오차가 부여될 수 있다.In addition, an error may be given to the total number of objects OB included in the target image (final result value) according to circumstances.

예를 들어, 대상 영상에 이상 패턴이 포함되는 경우에는 최종 결과값에 미리 설정된 소정의 오차가 부여될 수 있다. 이상 패턴에 대해서는 이하에서 설명하기로 한다.For example, when an abnormal pattern is included in the target image, a predetermined error may be given to the final result value. The abnormal pattern will be described below.

예를 들면, 100명(최종 결과값)ㅁ5명(오차)과 같이 오차가 부여될 수 있다. 혹은 오차는 비율로서 부여되는 것이 가능하다.For example, an error may be given, such as 100 people (final result value) ㅁ 5 people (error). Alternatively, it is possible that the error is given as a ratio.

제 7 영역(AR7), 제 8 영역(AR8) 및 제 9 영역(AR9)에서는 하나의 객체(OB)가 포함될 수 있다.One object OB may be included in the seventh area AR7 , the eighth area AR8 , and the ninth area AR9 .

제 7 영역(AR7), 제 8 영역(AR8) 및 제 9 영역(AR9)에 대응되는 대상 블록은 하나의 객체(OB)에 대응하는 비교 블록에 매칭되는 것이 가능하다.Target blocks corresponding to the seventh area AR7 , the eighth area AR8 , and the ninth area AR9 may match a comparison block corresponding to one object OB.

한편, 객체(OB)들의 이동속도가 상대적으로 빠른 경우에는 대상 영상에 포함된 대상 블록들도 그 형태가 빠르게 변경될 수 있다.Meanwhile, when the moving speed of the objects OB is relatively fast, the shapes of target blocks included in the target image may also be rapidly changed.

예를 들어, 소정의 제 1 시점에서 도 23의 (A)와 같은 대상 영상을 촬영하였다고 가정하자.For example, suppose that a target image as shown in (A) of FIG. 23 is captured at a first predetermined viewpoint.

여기서, 제 1 시점 이후의 제 2 시점에서는 도 23의 (B)와 같은 대상 영상이 촬영될 수 있다.Here, at a second viewpoint after the first viewpoint, a target image as shown in (B) of FIG. 23 may be captured.

도 23의 (A)와 (B)를 비교하면 객체(OB)들이 이동하여 대상 블록의 영상 패턴이 변경된 것을 확인할 수 있다.Comparing (A) and (B) of FIG. 23 , it can be confirmed that the image pattern of the target block is changed as the objects OB move.

이러한 현상은 객체(OB)들의 이동속도가 빠른 경우에 더욱 심화될 수 있다.This phenomenon may be further intensified when the moving speed of the objects OB is high.

이를 고려하면, 대상 영상의 대상 블록의 영상 패턴이 변경되는 정도에 따라 객체(OB)들의 이동속도를 검출하는 것이 가능하다. 여기서, 객체(OB)들의 이동속도는 일정 영역에서의 유동인구를 파악하는데 사용될 수 있다.Considering this, it is possible to detect the moving speed of the objects OB according to the degree to which the image pattern of the target block of the target image is changed. Here, the moving speed of the objects OB can be used to determine the floating population in a certain area.

이상에서 상세히 설명한 바와 같이, 객체(OB)의 수를 파악하고자 하는 대상 영상을 미리 설정되어 저장된 비교 영상과 비교하여 유사한 비교 영상을 검출하고, 검출한 비교 영상에 포함된 객체(OB)의 수를 대상 영상에 포함된 객체(OB)의 수로서 판별할 수 있다.As described in detail above, a similar comparison image is detected by comparing a target image for which the number of objects OB is to be determined with a previously set and stored comparison image, and the number of objects OB included in the detected comparison image is calculated. It can be determined as the number of objects (OB) included in the target image.

또는, 객체(OB)의 수를 파악하고자 하는 대상 영상에 포함된 대상 블록을 미리 설정되어 저장된 비교 블록과 비교하여 유사한 비교 블록을 검출하고, 검출한 비교 블록에 포함된 객체(OB)의 수를 대상 블록에 포함된 객체(OB)의 수로서 판별할 수 있다. 이후, 대상 영상에 포함된 모든 대상 블록의 객체(OB)의 수를 합산하여 대상 영상에 포함된 객체(OB)의 수로서 판별할 수 있다.Alternatively, a target block included in a target image to determine the number of objects OB is compared with a previously set and stored comparison block to detect a similar comparison block, and the number of objects OB included in the detected comparison block is calculated. It can be determined as the number of objects (OBs) included in the target block. Thereafter, the number of objects OB included in the target image may be determined as the number of objects OB included in the target image by summing the number of objects OB of all target blocks included in the target image.

이러한 본 발명에서는 대상 영상에 포함된 객체(OB)의 수를 보다 신속하게 판별할 수 있다.In the present invention, the number of objects OB included in the target image can be determined more quickly.

도 24 내지 도 29는 카메라 모듈에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.24 to 29 are views for explaining a camera module. Hereinafter, description of the parts described in detail above may be omitted.

도 24를 살펴보면, 카메라 모듈(10)은 제 1 카메라부(First Camera Part, 11)와 제 2 카메라(Second Camera Part, 12)를 포함할 수 있다.Referring to FIG. 24 , the camera module 10 may include a first camera part 11 and a second camera part 12 .

여기서, 제 1 카메라부(11)와 제 2 카메라부(12)의 촬영 영역은 적어도 일부가 서로 다를 수 있다.Here, at least a portion of the capturing areas of the first camera unit 11 and the second camera unit 12 may be different from each other.

예를 들면, 제 1 카메라부(11)에 대응하는 촬영 영역은 제 1 비중첩영역(First Non Overlap Area, NOVA1) 및 중첩영역(Overlap Area, OVA)을 포함하고, 제 2 카메라부(12)에 대응하는 촬영 영역은 제 2 비중첩영역(Second Non Overlap Area, NOVA2) 및 중첩영역(OVA)을 포함할 수 있다.For example, the photographing area corresponding to the first camera unit 11 includes a first non-overlap area (NOVA1) and an overlap area (OVA), and the second camera unit 12 The photographing area corresponding to may include a second non-overlap area (NOVA2) and an overlapping area (OVA).

여기서, 중첩영역(OVA)은 제 1 카메라부(11)에 대응하는 촬영 영역과 제 2 카메라부(12)에 대응하는 촬영 영역이 서로 중첩하는 영역일 수 있다.Here, the overlapping area OVA may be an area where a capturing area corresponding to the first camera unit 11 and a capturing area corresponding to the second camera unit 12 overlap each other.

제 1 비중첩영역(NOVA1)은 제 1 카메라부(11)에 대응하는 촬영 영역에서 중첩영역(OVA)을 제외한 나머지 영역일 수 있다.The first non-overlapping area NOVA1 may be a remaining area except for the overlapping area OVA in the capturing area corresponding to the first camera unit 11 .

제 2 비중첩영역(NOVA2)은 제 2 카메라부(12)에 대응하는 촬영 영역에서 중첩영역(OVA)을 제외한 나머지 영역일 수 있다.The second non-overlapping area NOVA2 may be an area remaining after excluding the overlapping area OVA from the capturing area corresponding to the second camera unit 12 .

여기서, 중첩영역(OVA)의 사이즈는 제 1 비중첩영역(NOVA1)의 사이즈와 제 2 비중첩영역(NOVA2)의 사이즈의 합보다 더 클 수 있다.Here, the size of the overlapping area OVA may be greater than the sum of the sizes of the first non-overlapping area NOVA1 and the size of the second non-overlapping area NOVA2.

자세하게는, 중첩영역(OVA)의 면적은 제 1 비중첩영역(NOVA1)의 면적과 제 2 비중첩영역(NOVA2)의 면적의 합보다 충분히 더 클 수 있다.In detail, the area of the overlapping area OVA may be sufficiently greater than the sum of the areas of the first non-overlapping area NOVA1 and the area of the second non-overlapping area NOVA2 .

제 1 카메라부(11)에 대응하는 촬영 영역과 제 2 카메라부(12)에 대응하는 촬영 영역이 충분히 중첩되는 경우에는 제 1 비중첩영역(NOVA1) 및 제 2 비중첩영역(NOVA2)을 무시하는 것이 가능할 수도 있다.When the capturing area corresponding to the first camera unit 11 and the capturing area corresponding to the second camera unit 12 overlap sufficiently, the first non-overlapping area NOVA1 and the second non-overlapping area NOVA2 are disregarded. It may be possible to do

이처럼, 카메라 모듈(10)이 복수의 카메라부를 포함하는 경우에는 객체(OB)의 수를 보다 정밀하게 보다 신속하게 검출하는 것이 가능할 수 있다.As such, when the camera module 10 includes a plurality of camera units, it may be possible to more precisely and quickly detect the number of objects OB.

여기서, 제 1 카메라부(11) 및 제 2 카메라부(12) 중 적어도 하나는 회전, 피봇 또는 이동이 가능할 수 있다.Here, at least one of the first camera unit 11 and the second camera unit 12 may rotate, pivot or move.

또는, 제 1 카메라부(11) 및 제 2 카메라부(12)는 각각 소정의 프레임에 고정되는 것이 가능할 수 있다.Alternatively, each of the first camera unit 11 and the second camera unit 12 may be fixed to a predetermined frame.

카메라 모듈(10)이 제 1 카메라부(11)와 제 2 카메라부(12)를 포함하는 경우에는 서버(20)는 제 1 카메라부(11)가 촬영한 대상 영상 및 제 2 카메라부(12)가 촬영한 대상 영상을 각각 분석하여 객체(OB)의 수를 각각 검출하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.When the camera module 10 includes the first camera unit 11 and the second camera unit 12, the server 20 stores the target image captured by the first camera unit 11 and the second camera unit 12. It is possible to detect the number of objects OB by analyzing each of the target images taken by ). In this regard, referring to the accompanying drawings, it will be described as follows.

도 25를 살펴보면, 제 1 카메라부(11)에 대응하여 객체(OB)의 수를 검출(S471)하고, 제 2 카메라부(12)에 대응하여 객체(OB)의 수를 검출(S472)할 수 있다.Referring to FIG. 25 , the number of objects OB corresponding to the first camera unit 11 is detected (S471), and the number of objects OB corresponding to the second camera unit 12 is detected (S472). can

다르게 표현하면, 제 1 카메라부(11)가 촬영한 영상(대상 영상)에서 객체(OB)의 수를 검출하고, 제 2 카메라부(12)가 촬영한 영상(대상 영상)에서 객체(OB)의 수를 검출할 수 있다.In other words, the number of objects OB is detected in the image (target image) captured by the first camera unit 11, and the number of objects OB is detected in the image (target image) captured by the second camera unit 12. number can be detected.

이하에서는 제 1 카메라부(11)가 촬영한 대상 영상을 제 1 대상 영상이라 하고, 제 2 카메라부(12)가 촬영한 영상을 제 2 대상 영상이라 칭할 수 있다.Hereinafter, a target image captured by the first camera unit 11 may be referred to as a first target image, and an image captured by the second camera unit 12 may be referred to as a second target image.

예를 들면, 서버(20)의 제 2 제어부(200)가 카메라 모듈(10)에 촬영 영역에 위치하는 객체(OB)의 수를 검출하라는 명령을 전송할 수 있다.For example, the second controller 200 of the server 20 may transmit a command to the camera module 10 to detect the number of objects OB located in the capturing area.

이러한 경우에는 군중 계수 모드가 발동된 경우라고 할 수 있다. 군중 계수 모드에 대해서는 앞서 상세히 설명한 바 있다.In this case, it can be said that the crowd counting mode is activated. The crowd counting mode has been described in detail above.

군중 계수 모드에서 카메라 모듈(10)의 제 1 카메라부(11)와 제 2 카메라부(12)가 각각 촬영 영역에 대해 영상(대상 영상)을 촬영할 수 있다.In the crowd counting mode, the first camera unit 11 and the second camera unit 12 of the camera module 10 may each capture an image (target image) for the capturing area.

제 1 카메라부(11)와 제 2 카메라부(12)가 각각 영상(대상 영상)을 촬영하면 각각의 영상에서 객체(OB)의 수를 각각 검출할 수 있다.When the first camera unit 11 and the second camera unit 12 respectively capture images (target images), it is possible to detect the number of objects OB in each image.

대상 영상에서 객체(OB)의 수를 검출하는 방법에 대해서는 앞선 도 21 및 그에 대응되는 설명에서 상세히 설명한 바 있다.The method of detecting the number of objects OB in the target image has been described in detail in the foregoing FIG. 21 and the corresponding description.

제 1 카메라부(11)와 제 2 카메라부(12)의 대상 영상에 대한 촬영 시점은 동일한 것이 가능하다.It is possible for the first camera unit 11 and the second camera unit 12 to capture the target image at the same time point.

예를 들어, 서버(20)가 카메라 모듈(10)로 제 10 시점에서 각각 대응하는 촬영 영역에 대한 대상 영상을 촬영하라는 명령을 전송할 수 있다.For example, the server 20 may transmit a command to capture a target image for each corresponding capturing area at the 10th viewpoint to the camera module 10 .

그러면 카메라 모듈(10)에서는 제 1 카메라부(11)와 제 2 카메라부(12)가 각각 제 10 시점에서 대상 영상을 촬영할 수 있다.Then, in the camera module 10, the first camera unit 11 and the second camera unit 12 may each capture a target image at the tenth viewpoint.

또는, 제 1 카메라부(11)의 촬영 시점과 제 2 카메라부(12)의 촬영 시점은 서로 다를 수 있다.Alternatively, a capturing time point of the first camera unit 11 and a capturing time point of the second camera unit 12 may be different from each other.

예를 들면, 서버(20)가 카메라 모듈(10)로 제 10 시점에서 각각 대응하는 촬영 영역에 대한 대상 영상을 촬영하라는 명령을 전송할 수 있다.For example, the server 20 may transmit a command to capture a target image for each corresponding capturing area at the 10th viewpoint to the camera module 10 .

그러면 카메라 모듈(10)에서는 제 1 카메라부(11)는 제 10 시점에서 대응되는 촬영 영역의 제 1 대상 영상을 촬영하고, 제 2 카메라부(12)는 제 10+△t 시점에서 대응되는 촬영 영역의 제 2 대상 영상을 촬영할 수 있다.Then, in the camera module 10, the first camera unit 11 captures the first target image of the corresponding capturing area at the 10th viewpoint, and the second camera unit 12 captures the corresponding photographing at the 10+Δt viewpoint. A second target image of the region may be captured.

사람인 객체(OB)는 무생물과 같이 완벽하게 정지한 상태를 유지하는 것은 충분히 어려울 수 있으며, 어느 정도의 움직임을 가질 수 있다. 예를 들면, △t의 시간 동안 적어도 하나의 객체(OB)는 이동하거나 포즈를 변경하거나 하는 등의 움직임을 수행할 수 있다.It may be difficult enough for the human object OB to maintain a perfectly still state like an inanimate object, and may have a certain degree of movement. For example, during a time period of Δt, at least one object OB may perform a movement such as moving or changing a pose.

이를 고려하면, 제 1 카메라부(11)가 촬영한 제 1 대상 영상과 제 2 카메라부(12)가 촬영한 제 2 대상 영상에서 적어도 하나의 객체(OB)의 위치, 포즈, 형태, 사이즈 등이 달라질 수 있다.Considering this, the position, pose, shape, size, etc. of at least one object OB in the first target image captured by the first camera unit 11 and the second target image captured by the second camera unit 12 this may vary.

혹은, 제 1 카메라부(11)가 촬영한 제 1 대상 영상과 제 2 카메라부(12)가 촬영한 제 2 대상 영상에서 복수의 객체(OB)들이 겹쳐진 패턴이 변경되는 것이 가능하다.Alternatively, the overlapping pattern of the plurality of objects OB may be changed in the first target image captured by the first camera unit 11 and the second target image captured by the second camera unit 12 .

이를 고려하면, 군중 계수 모드에서 제 1 카메라부(11)의 촬영 시점과 제 2 카메라부(12)의 촬영 시점을 다르게 하는 경우에는 촬영 영역에 위치하는 객체(OB)의 수를 보다 정밀하게 검출할 수 있다.Considering this, when the capturing time of the first camera unit 11 and the capturing time of the second camera unit 12 are different in the crowd counting mode, the number of objects OB located in the capturing area is more accurately detected. can do.

도 25에서 제 1 대상 영상에 대해 객체(OB)의 수를 검출하고 제 2 대상 영상에 대해 객체(OB)의 수를 검출한 이후에, 검출한 결과값이 동일한지의 여부를 판단할 수 있다(S473).25, after detecting the number of objects OB for the first target image and detecting the number of objects OB for the second target image, it is possible to determine whether the detected result values are the same ( S473).

여기서, 결과값은 제 1 대상 영상에 대해 검출한 객체(OB)의 수에 대한 결과값과 제 2 대상 영상에 대해 검출한 객체(OB)의 수에 대한 결과값을 의미할 수 있다.Here, the result value may mean a result value for the number of objects OB detected for the first target image and a result value for the number of objects OB detected for the second target image.

S473단계에서 판단결과, 결과값이 동일한 경우에는 제 1 카메라부(11) 및 제 2 카메라부(12) 중 어느 하나에 대응하는 결과값을 객체(OB)의 수에 대한 최종 결과값으로 출력할 수 있다(S474).As a result of the determination in step S473, if the result values are the same, the result value corresponding to either one of the first camera unit 11 and the second camera unit 12 is output as the final result value for the number of objects OB. It can (S474).

예를 들어, 서버(20)에서 제 1 카메라부(11)가 촬영한 제 1 대상 영상을 분석한 결과 제 1 대상 영상에 포함되어 있는 객체(OB)의 수를 20명이라고 판별할 수 있다. 아울러, 서버(20)에서 제 2 카메라부(12)가 촬영한 제 2 대상 영상을 분석한 결과 제 2 대상 영상에 포함되어 있는 객체(OB)의 수를 20명이라고 판별할 수 있다.For example, as a result of analyzing the first target image captured by the first camera unit 11 in the server 20, it may be determined that the number of objects OB included in the first target image is 20 people. In addition, as a result of analyzing the second target image captured by the second camera unit 12 in the server 20, it may be determined that the number of objects OB included in the second target image is 20 people.

이러한 경우에는, 서버(20)는 카메라 모듈(10)에 대응되는 촬영 영역에 위치하는 객체(OB)의 수를 20명으로 최종적으로 출력하는 것이 가능하다. 즉, 서버(20)는 제 1 카메라부(11) 및 제 2 카메라부(12) 중 어느 하나에 대응하는 결과값을 최종 결과값으로 출력하는 것이 가능할 수 있다.In this case, the server 20 can finally output the number of objects OB located in the photographing area corresponding to the camera module 10 to 20. That is, the server 20 may be able to output a result value corresponding to any one of the first camera unit 11 and the second camera unit 12 as a final result value.

한편, S473단계에서 판단결과, 결과값이 동일하지 않고 다른 경우에는 제 1 카메라부(11) 및 제 2 카메라부(12)에 대한 신뢰도를 평가할 수 있다(S475).On the other hand, as a result of the determination in step S473, if the result values are not the same and different, the reliability of the first camera unit 11 and the second camera unit 12 may be evaluated (S475).

이후, 제 1 카메라부(11)의 신뢰도 및 제 2 카메라부(12)의 신뢰도가 각각 미리 설정된 임계 신뢰도를 넘는지의 여부를 판단할 수 있다(S476).Then, it may be determined whether the reliability of the first camera unit 11 and the reliability of the second camera unit 12 each exceed preset threshold reliability (S476).

S476단계에서 판단결과, 제 1 카메라부(11)의 신뢰도 및 제 2 카메라부(12)의 신뢰도가 각각 미리 설정된 임계 신뢰도 이상인 경우에는 서버(20)에서는 제 1 카메라부(11)가 촬영한 제 1 대상 영상과 제 2 카메라부(12)가 촬영한 제 2 대상 영상에서 각각 객체(OB)의 수를 검출(객체(OB) 카운팅)할 수 있다(S477).As a result of determination in step S476, if the reliability of the first camera unit 11 and the reliability of the second camera unit 12 are each equal to or greater than the preset threshold reliability, the server 20 captures the first image taken by the first camera unit 11. The number of objects OB may be detected (object OB counting) in each of the first target image and the second target image captured by the second camera unit 12 (S477).

이후, 서버(20)는 제 1 대상 영상에 포함된 객체(OB)의 수와 제 2 대상 영상에 포함된 객체(OB)의 수를 합산하고, 합산한 값을 카메라부의 개수(2)로 나누어 평균값(중간값)을 구할 수 있다(S478).Thereafter, the server 20 sums the number of objects OB included in the first target image and the number of objects OB included in the second target image, and divides the summed value by the number of cameras (2). An average value (median value) can be obtained (S478).

이후, 서버(20)는 평균값(중간값)을 최종 결과값으로 출력하는 것이 가능할 수 있다.Then, the server 20 may be able to output the average value (median value) as the final result value.

예를 들어, 서버(20)에서 제 1 카메라부(11)가 촬영한 제 1 대상 영상을 분석한 결과 제 1 대상 영상에 포함되어 있는 객체(OB)의 수를 20명이라고 판별하고, 아울러 서버(20)에서 제 2 카메라부(12)가 촬영한 제 2 대상 영상을 분석한 결과 제 2 대상 영상에 포함되어 있는 객체(OB)의 수를 30명이라고 판별할 수 있다.For example, as a result of analyzing the first target image captured by the first camera unit 11 in the server 20, it is determined that the number of objects (OB) included in the first target image is 20, and the server As a result of analyzing the second target image captured by the second camera unit 12 in (20), it can be determined that the number of objects OB included in the second target image is 30 people.

여기서, 제 1 카메라부(11)의 신뢰도와 제 2 카메라부(12)의 신뢰도는 각각 임계 신뢰도 이상일 수 있다.Here, the reliability of the first camera unit 11 and the reliability of the second camera unit 12 may each be greater than or equal to the threshold reliability.

이러한 경우, 서버(20)의 검출부(280)는 카메라 모듈(10)에 대응되는 촬영 영역에 위치하는 객체(OB)의 수를 25명이라고 판별할 수 있다.In this case, the detection unit 280 of the server 20 may determine that the number of objects OB located in the photographing area corresponding to the camera module 10 is 25 people.

한편, S476단계에서 판단결과, 제 1 카메라부(11)의 신뢰도 및 제 2 카메라부(12) 중 적어도 하나의 신뢰도가 미리 설정된 임계 신뢰도보다 더 낮은 경우에는 서버(20)에서는 제 1 카메라부(11) 및 제 2 카메라부(12) 중 신뢰도가 더 높은 어느 하나에 대응하는 대상 영상을 선택할 수 있다(S479).Meanwhile, as a result of determination in step S476, if the reliability of at least one of the first camera unit 11 and the second camera unit 12 is lower than the preset threshold reliability, the server 20 determines the first camera unit ( 11) and the second camera unit 12, a target image corresponding to one of higher reliability may be selected (S479).

이후, 서버(20)는 선택한 대상 영상에 대응하는 객체(OB)의 수에 대한 정보를 최종적인 결과로서 출력할 수 있다(S480).Thereafter, the server 20 may output information on the number of objects OB corresponding to the selected target image as a final result (S480).

예를 들어, 서버(20)에서 제 1 카메라부(11)가 촬영한 제 1 대상 영상을 분석한 결과 제 1 대상 영상에 포함되어 있는 객체(OB)의 수를 20명이라고 판별하고, 아울러 서버(20)에서 제 2 카메라부(12)가 촬영한 제 2 대상 영상을 분석한 결과 제 2 대상 영상에 포함되어 있는 객체(OB)의 수를 30명이라고 판별할 수 있다.For example, as a result of analyzing the first target image captured by the first camera unit 11 in the server 20, it is determined that the number of objects (OB) included in the first target image is 20, and the server As a result of analyzing the second target image captured by the second camera unit 12 in (20), it can be determined that the number of objects OB included in the second target image is 30 people.

여기서, 제 1 카메라부(11)의 신뢰도는 미리 설정된 임계 신뢰도보다 더 높고, 제 2 카메라부(12)의 신뢰도는 임계 신뢰도보다 더 낮은 경우도 가능할 수 있다.Here, it may be possible that the reliability of the first camera unit 11 is higher than the preset threshold reliability and the reliability of the second camera unit 12 is lower than the threshold reliability.

또는, 제 1 카메라부(11)의 신뢰도 및 제 2 카메라부(12)의 신뢰도는 각각 임계 신뢰도보다 더 낮고, 여기서 제 1 카메라부(11)의 신뢰도는 제 2 카메라부(12)의 신뢰도보다 더 높을 수 있다.Alternatively, the reliability of the first camera unit 11 and the reliability of the second camera unit 12 are each lower than the threshold reliability, wherein the reliability of the first camera unit 11 is higher than the reliability of the second camera unit 12. could be higher

이러한 경우, 서버(20)는 신뢰도가 상대적으로 높은 제 1 카메라부(11)에 대응하는 제 1 대상 영상을 선택하고, 선택한 제 1 대상 영역에 포함된 객체(OB)의 수에 대한 정보(20명)를 최종적인 결과값으로 출력하는 것이 가능하다.In this case, the server 20 selects the first target image corresponding to the first camera unit 11 having a relatively high reliability, and information 20 on the number of objects OB included in the selected first target region. name) as the final result.

제 1 카메라부(11)와 제 2 카메라부(12)의 신뢰도에 대해 살펴보기로 한다.The reliability of the first camera unit 11 and the second camera unit 12 will be examined.

도 26의 (A)에 나타나 있는 바와 같이, 4명의 객체(OB1, OB2, OB3, OB4)가 일렬로 나란하게 위치하는 경우를 가정하여 보자.As shown in (A) of FIG. 26, it is assumed that four objects (OB1, OB2, OB3, and OB4) are located side by side in a row.

여기서, 제 1 객체(OB1)는 서 있는 상태이고, 제 1 객체(OB1)의 후방에 위치하는 제 2 객체(OB2)는 제 1 객체(OB1)보다 키가 더 작고, 제 2 객체(OB2)의 후방에 위치하는 제 3 객체(OB3)는 의자에 앉아 있는 타입이고, 제 3 객체(OB3)의 후방에 위치하는 제 4 객체(OB4)는 바닥에 앉아 있는 타입일 수 있다.Here, the first object OB1 is in a standing state, the second object OB2 located behind the first object OB1 is shorter than the first object OB1, and the second object OB2 is taller than the first object OB1. The third object OB3 located behind may be a type sitting on a chair, and the fourth object OB4 located behind the third object OB3 may be a type sitting on the floor.

이러한 경우에, 도 26의 (B)에 나타나 있는 바와 같이, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4) 사이의 간격이 각각 충분히 작고, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 제 1 카메라부(11)의 정면에 나란히 위치할 수 있다.In this case, as shown in (B) of FIG. 26, the distances between the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 are sufficiently small, respectively. , the first object OB1 , the second object OB2 , the third object OB3 , and the fourth object OB4 may be located side by side in front of the first camera unit 11 .

그러면 제 1 카메라부(11)의 관점에서는 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 겹쳐서 보이게 되고, 이에 따라 객체(OB)의 수를 정밀하게 파악하기 어려울 수 있다.Then, from the viewpoint of the first camera unit 11, the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 overlap each other, and accordingly, the object OB It can be difficult to pinpoint the exact number.

반면에, 제 2 카메라부(12)의 관점에서는 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)의 측면을 관찰할 수 있어서 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)를 상대적으로 정밀하게 구분할 수 있다.On the other hand, from the viewpoint of the second camera unit 12, the sides of the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 can be observed, so that the first object (OB1), the second object (OB2), the third object (OB3), and the fourth object (OB4) can be classified relatively precisely.

이를 고려하면, 도 26의 경우에는 제 2 카메라부(12)의 신뢰도는 제 1 카메라부(11)의 신뢰도보다 더 높을 수 있다.Considering this, in the case of FIG. 26 , the reliability of the second camera unit 12 may be higher than that of the first camera unit 11 .

다른 관점에서 보면, 도 26의 경우에는 제 2 카메라부(12)의 신뢰도는 미리 설정된 임계 신뢰도 이상이고, 제 1 카메라부(11)의 신뢰도는 임계 신뢰도보다 더 낮을 수 있다.From another point of view, in the case of FIG. 26 , the reliability of the second camera unit 12 may be greater than or equal to a preset threshold reliability, and the reliability of the first camera unit 11 may be lower than the threshold reliability.

도 26과 같은 경우에 제 1 카메라부(11)가 촬영한 대상 영상에는, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 중첩되기 때문에, 객체(OB)들의 외곽을 둘러싸도록 영상 블록을 설정하면 설정한 영상 블록의 패턴은 하나의 객체(OB)를 포함하는 영상 블록의 패턴과 유사할 수 있다.In the case of FIG. 26 , the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 overlap with the target image captured by the first camera unit 11. Therefore, if the image block is set to surround the outer periphery of the objects OB, the pattern of the set image block may be similar to the pattern of the image block including one object OB.

그러나 제 1 객체(OB1)의 후방에 위치하는 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 완전히 제 1 객체(OB1)와 중첩(Fully Overlap)되지 않는 경우에는, 제 1 객체(OB1)를 벗어나서 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4) 중 적어도 하나의 적어도 일부가 노출될 수 있다. 예를 들면, 제 1 객체(OB1)의 주변에 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4) 중 적어도 하나의 팔, 다리 등이 나타날 수 있다.However, when the second object OB2, the third object OB3, and the fourth object OB4 located behind the first object OB1 do not completely overlap with the first object OB1, , At least a part of at least one of the second object OB2, the third object OB3, and the fourth object OB4 may be exposed beyond the first object OB1. For example, at least one arm or leg among the second object OB2, the third object OB3, and the fourth object OB4 may appear around the first object OB1.

이처럼, 적어도 하나의 객체(OB)가 다른 객체(OB)에 충분히 가려지는 경우의 영상 패턴을 이상 패턴이라고 할 수 있다. 자세하게는, 적어도 하나의 객체(OB)가 다른 객체(OB)에 의해 미리 설정된 기준 비율 이상 가려지는 경우에 이상 패턴이라고 할 수 있다. 여기서, 기준 비율은 대략 95~99% 사이에서 정해질 수 있다.As such, an image pattern when at least one object OB is sufficiently covered by another object OB may be referred to as an abnormal pattern. In detail, a case where at least one object OB is obscured by another object OB at a predetermined reference rate or more may be referred to as an abnormal pattern. Here, the reference ratio may be determined between approximately 95 and 99%.

예를 들어, 도 26의 경우에 제 1 카메라부(11)의 관점에서 제 2 객체(OB2)가 제 1 객체(OB1)에 의해 대략 97%의 부분이 가려지는 경우에, 제 1 카메라부(11)가 촬영한 대상 영상에 이상 패턴이 포함되는 것으로 볼 수 있다.For example, in the case of FIG. 26 , when approximately 97% of the second object OB2 is covered by the first object OB1 from the viewpoint of the first camera unit 11, the first camera unit ( It can be seen that the target image captured by 11) includes an abnormal pattern.

이러한 이상 패턴은 객체(OB)의 수를 충분히 정밀하게 검출하기 어려울 가능성이 상대적으로 높을 수 있다.In such an abnormal pattern, a possibility that it is difficult to accurately detect the number of objects OB may be relatively high.

따라서 이상 패턴이 포함되는지의 여부를 근거로 하여 신뢰성을 판단하는 것이 가능할 수 있다.Therefore, it may be possible to determine reliability based on whether or not an abnormal pattern is included.

예를 들어, 도 26의 (B)의 경우와 같이, 제 1 카메라부(11)가 촬영한 영상(제 1 대상 영상)에 이상 패턴이 포함되고, 제 2 카메라부(12)가 촬영한 영상(제 2 대상 영상)에는 이상 패턴이 포함되지 않는 경우에는 제 2 카메라부(12)의 신뢰도가 제 1 카메라부(11)의 신뢰도보다 더 높은 것으로 판단할 수 있다. 또는, 제 2 카메라부(12)의 신뢰도가 미리 설정된 임계 신뢰도 이상이고, 제 1 카메라부(11)의 신뢰도는 이상 패턴으로 인해 임계 신뢰도보다 더 낮을 수 있다.For example, as in the case of (B) of FIG. 26, an image (first target image) captured by the first camera unit 11 includes an abnormal pattern, and an image captured by the second camera unit 12. When the abnormal pattern is not included in the (second target image), it may be determined that the reliability of the second camera unit 12 is higher than that of the first camera unit 11 . Alternatively, the reliability of the second camera unit 12 may be greater than or equal to a preset threshold reliability, and the reliability of the first camera unit 11 may be lower than the threshold reliability due to an abnormal pattern.

또는, 대상 영상에 포함되는 이상 패턴의 개수에 따라 신뢰도를 판단하는 것이 가능할 수 있다.Alternatively, reliability may be determined according to the number of abnormal patterns included in the target image.

예를 들면, 제 1 카메라부(11)가 촬영한 영상(제 1 대상 영상)에 미리 설정된 기준 개수(예컨대, 5개)보다 더 많은 개수의 이상 패턴이 포함되고, 제 2 카메라부(12)가 촬영한 영상(제 2 대상 영상)에는 기준 개수보다 더 적은 개수의 이상 패턴이 포함되는 경우에는 제 2 카메라부(12)의 신뢰도가 제 1 카메라부(11)의 신뢰도보다 더 높은 것으로 판단하거나, 제 2 카메라부(12)의 신뢰도가 미리 설정된 임계 신뢰도 이상이고 제 1 카메라부(11)의 신뢰도는 이상 패턴으로 인해 임계 신뢰도보다 더 낮은 것으로 판단할 수 있다.For example, if the image captured by the first camera unit 11 (the first target image) includes more abnormal patterns than a preset reference number (eg, 5), the second camera unit 12 When the image (second target image) captured by the camera includes fewer than the reference number of abnormal patterns, it is determined that the reliability of the second camera unit 12 is higher than that of the first camera unit 11, or , it may be determined that the reliability of the second camera unit 12 is greater than or equal to a preset threshold reliability and the reliability of the first camera unit 11 is lower than the threshold reliability due to the abnormal pattern.

객체(OB)의 수를 검출하고자 하는 대상인 대상 영상에 적어도 하나의 이상 패턴이 포함되는 경우에도 해당 이상 패턴을 미리 설정된 비교 블록, 바람직하게는 중첩 블록들과 비교하여 이상 패턴에 포함된 객체(OB)의 수를 신속하게 검출할 수 있다.Even when at least one abnormal pattern is included in the target image, which is a target for detecting the number of objects OB, the corresponding abnormal pattern is compared with a preset comparison block, preferably overlapping blocks, and objects included in the abnormal pattern (OB) are compared. ) can be quickly detected.

중첩 블록에 대해서는 앞선 도 15 내지 도 16에서 상세히 설명한 바 있다.The overlapping block has been previously described in detail with reference to FIGS. 15 and 16 .

이상 패턴의 또 다른 예가 도 27에 나타나 있다.Another example of an anomalous pattern is shown in FIG. 27 .

도 27의 (A)에 나타나 있는 바와 같이, 4명의 객체(OB1, OB2, OB3, OB4)가 일렬로 나란하게 충분히 밀착하여 위치하는 경우를 가정하여 보자.As shown in (A) of FIG. 27, assume a case in which four objects OB1, OB2, OB3, and OB4 are in close enough contact with each other in a line.

여기서, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)는 몸이 맞닿는 정도로 밀착된 상태일 수 있다.Here, the first object OB1 , the second object OB2 , the third object OB3 , and the fourth object OB4 may be in close contact with each other to the extent that their bodies come into contact with each other.

이러한 경우에, 도 27의 (B)에 나타나 있는 바와 같이, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 제 1 카메라부(11)의 정면에 나란히 위치할 수 있다.In this case, as shown in (B) of FIG. 27, the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 are the first camera unit 11 ) can be located side by side in front of.

그러면 제 1 카메라부(11)의 관점에서는 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 중첩되어 보일 수 있다.Then, from the viewpoint of the first camera unit 11 , the first object OB1 , the second object OB2 , the third object OB3 , and the fourth object OB4 may overlap each other.

반면에, 제 2 카메라부(12)의 관점에서는 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)의 측면을 관찰할 수 있어서 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)를 상대적으로 정밀하게 구분할 수 있다.On the other hand, from the viewpoint of the second camera unit 12, the sides of the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 can be observed, so that the first object (OB1), the second object (OB2), the third object (OB3), and the fourth object (OB4) can be classified relatively accurately.

이를 고려하면, 도 27의 경우에는 제 2 카메라부(12)의 신뢰도는 제 1 카메라부(11)의 신뢰도보다 더 높을 수 있다.Considering this, in the case of FIG. 27 , the reliability of the second camera unit 12 may be higher than that of the first camera unit 11 .

아울러, 제 1 카메라부(11)가 촬영한 영상(대상 영상)에는 이상 패턴이 포함될 수 있다.In addition, an abnormal pattern may be included in an image (target image) captured by the first camera unit 11 .

한편, 제 1 카메라부(11)와 제 2 카메라부(12)의 신뢰도가 각각 미리 설정된 임계 신뢰도보다 더 높으면서도, 제 1 대상 영상에 대응하는 객체(OB)의 수와 제 2 대상 영상에 대응하는 객체(OB)의 수가 다른 경우를 가정하여 보자.Meanwhile, while the reliability of the first camera unit 11 and the second camera unit 12 is higher than the preset threshold reliability, the number of objects OB corresponding to the first target image and the number of objects corresponding to the second target image Let's assume a case where the number of objects (OBs) to do is different.

도 28에 나타나 있는 바와 같이, 제 1 카메라부(11)와 제 2 카메라부(12)가 복수의 객체(OB)가 모여 있는 부분을 각각 촬영하는 경우를 가정하자.As shown in FIG. 28 , it is assumed that the first camera unit 11 and the second camera unit 12 each capture a portion where a plurality of objects OB are gathered.

복수의 객체(OB)가 모여 있는 부분의 영상 패턴은 촬영 각도에 따라 다르게 판단될 수 있다.An image pattern of a portion where a plurality of objects OB are gathered may be determined differently according to a photographing angle.

예를 들면, 도 28의 경우에, 서버(20)는 제 1 카메라부(11)가 촬영한 영상(제 1 대상 영상)에서 복수의 객체(OB)가 모여 있는 부분(대상 블록)의 영상 패턴이 미리 설정된 제 1 비교 블록의 영상 패턴과 가장 유사하다고 판단할 수 있다.For example, in the case of FIG. 28 , the server 20 has an image pattern of a portion (target block) where a plurality of objects OB are gathered in an image (first target image) captured by the first camera unit 11. It may be determined that the image pattern of the preset first comparison block is the most similar.

반면에, 서버(20)는 제 2 카메라부(11)가 촬영한 영상(제 2 대상 영상)에서 복수의 객체(OB)가 모여 있는 부분(대상 블록)의 영상 패턴이 미리 설정된 제 2 비교 블록의 영상 패턴과 가장 유사하다고 판단할 수 있다.On the other hand, the server 20 uses a second comparison block in which an image pattern of a part (target block) where a plurality of objects OB are gathered in an image (second target image) captured by the second camera unit 11 is set in advance. It can be judged to be most similar to the image pattern of .

이러한 경우에는 서버(20)는 제 1 카메라부(11)에 대응되는 제 1 대상 영상을 분석하여 제 1 대상 영상에 포함된 객체(OB)의 수에 대한 제 1 결과값을 출력하고, 제 2 카메라부(12)에 대응되는 제 2 대상 영상을 분석하여 제 2 대상 영상에 포함된 객체(OB)의 수를 검출하여 제 2 결과값을 출력할 수 있다.In this case, the server 20 analyzes the first target image corresponding to the first camera unit 11, outputs a first result value for the number of objects OB included in the first target image, and A second result value may be output by analyzing the second target image corresponding to the camera unit 12 to detect the number of objects OB included in the second target image.

이후, 서버(20)는 제 1 결과값과 제 2 결과값을 합산하고, 평균하여 최종적인 결과값을 출력할 수 있다.Thereafter, the server 20 may sum up the first result value and the second result value, and output a final result value by averaging.

이러한 경우, 촬영 각도에 따른 오차 발생을 억제하거나 방지할 수 있다.In this case, it is possible to suppress or prevent the occurrence of errors according to the photographing angle.

한편, 제 1 카메라부(11)에 대응하는 촬영 영역과 제 2 카메라부(12)에 대응하는 촬영 영역이 일부 중첩되고, 제 1 카메라부(11)에 대응하는 비중첩영역 및 제 2 카메라부(12)에 대응하는 비중첩영역의 크기가 충분히 큰 경우에는 중첩영역과 비중첩영역에서 객체(OB)의 수의 카운팅을 다른 방식으로 수행할 수 있다. 이에 대해, 첨부된 도면을 참조하여 살펴보면 아래와 같다.Meanwhile, the capturing area corresponding to the first camera unit 11 and the capturing area corresponding to the second camera unit 12 partially overlap, and the non-overlapping area corresponding to the first camera unit 11 and the second camera unit 12 overlap. If the size of the non-overlapping area corresponding to (12) is sufficiently large, counting the number of objects OB in the overlapping area and the non-overlapping area may be performed in a different way. In this respect, referring to the accompanying drawings, the following.

중첩 영역 및 비중첩 영역에 대해서는 앞선 도 24에서 상세히 설명한 바 있다.The overlapping area and the non-overlapping area have been described in detail with reference to FIG. 24 above.

도 29를 살펴보면, 중첩 영역(OVA)에 대해 객체(OB)의 수를 검출할 수 있다(S490).Referring to FIG. 29 , the number of objects OB in the overlapping area OVA may be detected (S490).

중첩 영역(OVA)은 제 1 카메라부(11)에 대응되는 촬영 영역과 제 2 카메라부(12)에 대응되는 촬영 영역이 중첩되는 영역으로서, 제 1 카메라부(11)와 제 2 카메라부(12)가 모두 촬영을 수행하는 영역이라고 할 수 있다.The overlapping area OVA is an area where the capturing area corresponding to the first camera unit 11 and the capturing area corresponding to the second camera unit 12 overlap, and the first camera unit 11 and the second camera unit ( 12) can be said to be an area where shooting is performed.

제 1 카메라부(11)가 대응하는 촬영 영역을 촬영한 제 1 대상 영상을 서버(20)로 전송하고 제 2 카메라부(12)가 대응하는 촬영 영역을 촬영한 제 2 대상 영상을 서버(20)로 전송하면, 서버(20)에는 제 1 대상 영상과 제 2 대상 영상에서 각각 중첩 영역(OVA)을 판별할 수 있다.The first camera unit 11 transmits the first target image capturing the corresponding capturing area to the server 20, and the second camera unit 12 transmits the second target image capturing the corresponding capturing region to the server 20 ), the server 20 may determine an overlapping region OVA in each of the first target image and the second target image.

아울러, 서버(20)는 제 1 대상 영상의 중첩 영역(OVA)에 대해 객체(OB)의 수를 검출하고, 제 2 대상 영상의 중첩 영역(OVA)에 대해 객체(OB)의 수를 검출할 수 있다.In addition, the server 20 detects the number of objects OB in the overlapping area OVA of the first target image and detects the number of objects OB in the overlapping area OVA of the second target image. can

이후, 서버(20)는 신뢰도를 근거로 하여 제 1 카메라부(11) 및 제 2 카메라부(12) 중 어느 하나에 대응하여 중첩 영역(OVA)에 대한 객체(OB)의 수의 정보를 선택하거나, 평균값을 연산하는 것이 가능하다.Thereafter, the server 20 selects information on the number of objects OB with respect to the overlapping area OVA corresponding to any one of the first camera unit 11 and the second camera unit 12 based on the reliability. Alternatively, it is possible to calculate the average value.

예를 들어, 제 1 카메라부(11)의 신뢰도가 제 2 카메라부(12)의 신뢰도보다 더 높거나, 제 1 카메라부(11)의 신뢰도가 미리 설정된 임계 신뢰도보다 더 높은 경우를 가정하여 보자.For example, suppose that the reliability of the first camera unit 11 is higher than that of the second camera unit 12 or the reliability of the first camera unit 11 is higher than a preset threshold reliability. .

이러한 경우, 서버(20)는 제 1 카메라부(11)에 대응하는 제 1 대상 영상에서 중첩 영역(OVA)을 판별하고, 판별한 제 1 대상 영상의 중첩 영역(OVA)에서 객체(OB)의 수를 검출하고, 검출한 객체(OB)의 수에 대한 정보를 중첩 영역(OVA)에 대응하는 최종적인 결과값으로 판별할 수 있다.In this case, the server 20 determines an overlapping area (OVA) in the first target image corresponding to the first camera unit 11, and determines the overlapping area (OVA) of the object (OB) in the determined overlapping area (OVA) of the first target image. The number may be detected, and information on the number of detected objects OB may be determined as a final result value corresponding to the overlapping area OVA.

또는, 서버(20)는 제 1 카메라부(11)에 대응하는 제 1 대상 영상에서 중첩 영역(OVA)을 판별하고, 판별한 제 1 대상 영상의 중첩 영역(OVA)에서 객체(OB)의 수(제 1 결과)를 검출할 수 있다. 아울러, 서버(20)는 제 2 카메라부(12)에 대응하는 제 2 대상 영상에서 중첩 영역(OVA)을 판별하고, 판별한 제 2 대상 영상의 중첩 영역(OVA)에서 객체(OB)의 수(제 2 결과)를 검출할 수 있다.Alternatively, the server 20 determines the overlapping area OVA in the first target image corresponding to the first camera unit 11, and the number of objects OB in the determined overlapping area OVA of the first target image. (first result) can be detected. In addition, the server 20 determines the overlapping area OVA in the second target image corresponding to the second camera unit 12, and the number of objects OB in the determined overlapping area OVA of the second target image. (Second result) can be detected.

이후, 서버(20)는 제 1 결과와 제 2 결과를 합산하고 평균하여 중첩 영역(OVA)에 대응하는 최종적인 결과값을 출력할 수 있다.Thereafter, the server 20 may sum up and average the first result and the second result, and output a final result value corresponding to the overlapping area OVA.

이에 대한 내용은 앞서 상세히 설명한 내용으로부터 충분히 설명될 수 있음로 중복되는 설명은 생략할 수 있다.Since the contents of this can be fully explained from the above detailed description, redundant descriptions can be omitted.

이후, 중첩 영역(OVA)에 대한 최종적인 결과값에 소정의 제 1 오차가 부여될 수 있다(S491).Thereafter, a predetermined first error may be applied to the final result value of the overlapping area OVA (S491).

여기서, 상황에 따라 제 1 오차를 생략하는 것도 가능할 수 있다.Here, it may be possible to omit the first error according to circumstances.

한편, 비중첩 영역에서도 객체(OB)의 수를 검출할 수 있다(S492).Meanwhile, the number of objects OB can be detected even in a non-overlapping area (S492).

예를 들면, 서버(20)는 제 1 카메라부(11)에 대응하는 제 1 비중첩영역(NOVA1)에 대해 객체(OB)의 수를 검출하고, 이와 함께 제 2 카메라부(12)에 대응하는 제 2 비중첩영역(NOVA2)에 대해 객체(OB)의 수를 검출할 수 있다.For example, the server 20 detects the number of objects OB in the first non-overlapping area NOVA1 corresponding to the first camera unit 11, and also corresponds to the second camera unit 12. The number of objects OB may be detected for the second non-overlapping area NOVA2.

아울러, 서버(20)는 제 1 비중첩영역(NOVA1)에 대응하는 객체(OB)의 수와 제 2 비중첩영역(NOVA2)에 대응하는 객체(OB)의 수를 합산한 값을 전체 비중첩 영역(NOVA1, NOVA2)에 대응하는 객체(OB)의 수에 대한 최종적인 결과값으로 판별할 수 있다.In addition, the server 20 calculates the sum of the number of objects OB corresponding to the first non-overlapping area NOVA1 and the number of objects OB corresponding to the second non-overlapping area NOVA2. It can be determined by the final result of the number of objects OB corresponding to the areas NOVA1 and NOVA2.

이후, 비중첩 영역(NOVA1, NOVA2)에 대한 최종적인 결과값에 소정의 제 2 오차가 부여될 수 있다(S493).Thereafter, a predetermined second error may be given to final result values for the non-overlapping areas NOVA1 and NOVA2 (S493).

여기서, 상황에 따라 제 2 오차를 생략하는 것도 가능할 수 있다.Here, it may be possible to omit the second error according to circumstances.

제 1 오차와 제 2 오차가 모두 부여되는 상황에서는 최종 결과값 대비한 오차값의 비율은 제 2 오차가 제 1 오차보다 더 클 수 있다.In a situation where both the first error and the second error are given, the second error may be greater than the first error in a ratio of the error value to the final result value.

예를 들어, 중첩 영역(OVA)에 대한 최종적인 결과값이 100명이라고 가정하면, 제 1 오차는 100명에 대한 ㅁ3%로서 ㅁ3명일 수 있다.For example, assuming that the final result value for the overlapping area (OVA) is 100 people, the first error may be ㅁ3% as ㅁ3% for 100 people.

반면에, 비중첩 영역(NOVA1, NOVA2)에 대한 최종적인 결과값이 100명이라고 가정하면, 제 2 오차는 100명에 대한 ㅁ10%로서 ㅁ10명일 수 있다.On the other hand, assuming that the final result values for the non-overlapping areas NOVA1 and NOVA2 are 100 people, the second error may be ㅁ10% of 100 people, which is ㅁ10 people.

이처럼, 비중첩 영역(NOVA1, NOVA2)의 최종 결과값에 대한 오차(제 2 오차)의 비율을 중첩 영역(OVA)의 최종 결과값에 대한 오차(제 1 오차)의 비율을 더 크게 하는 이유는 비중첩 영역(NOVA1, NOVA2)은 제 1 카메라부(11) 또는 제 2 카메라부(12)가 단독으로 촬영하기 때문에 오류가 발생할 가능성이 상대적으로 더 높기 때문일 수 있다.In this way, the reason why the ratio of the error (second error) to the final result value of the non-overlapping areas NOVA1 and NOVA2 is larger than the ratio of the error (first error) to the final result value of the overlapping area OVA is This may be because the probability of occurrence of an error is relatively high because the non-overlapping areas NOVA1 and NOVA2 are photographed by the first camera unit 11 or the second camera unit 12 alone.

비중첩 영역(NOVA1, NOVA2)과 중첩 영역(OVA)에 대해 각각 최종 결과값과 오차를 판별한 이후에는 두 개의 값을 합산하여 카메라 모듈(10)에 대한 최종적인 결과값을 출력할 수 있다(S494).After discriminating final result values and errors for the non-overlapping areas NOVA1 and NOVA2 and the overlapping areas OVA, respectively, the final result values for the camera module 10 may be output by summing the two values ( S494).

예를 들어, 중첩 영역(OVA)에 대한 최종적인 결과값이 100명이고 제 1 오차가 ㅁ3명이고, 비중첩 영역(NOVA1, NOVA2)에 대한 최종적인 결과값이 100명이고 제 2 오차는 ㅁ10명인 경우를 가정하여 보자.For example, the final result value for the overlapping area (OVA) is 100 people, the first error is ㅁ3 people, the final result value for the non-overlapping area (NOVA1, NOVA2) is 100 people, and the second error is Let's assume the case of 10 people.

이러한 경우, 전체적인 최종 결과값은 200명, 그리고 오차가 ㅁ13명일 수 있다.In this case, the overall final result value may be 200 people, and the error may be ㅁ13 people.

이러한 본 발명에서는 대상 영상(대상 블록)과 비교 영상(비교 블록)을 비교하여 대상 영상에 포함된 객체(OB)의 수를 판별하기 때문에, 보다 신속하게 객체(OB)의 수를 판별 및 검출할 수 있다. 즉, 보다 신속하게 군중 계수를 수행할 수 있다.In the present invention, since the number of objects OB included in the target image is determined by comparing the target image (target block) and the comparison image (comparison block), the number of objects OB can be determined and detected more quickly. can That is, crowd counting can be performed more quickly.

이에 따라, 본 발명은 빠르게 객체(OB)의 수를 판별할 필요가 있는 경우에 적용되는 것이 보다 바람직할 수 있다.Accordingly, the present invention may be more preferably applied to a case where it is necessary to rapidly determine the number of objects OB.

아울러, 본 발명에서는 저사양의 하드웨어 및 소프트웨어를 이용하더라도 신속하게 객체(OB)의 수를 검출하는 것이 가능하다.In addition, in the present invention, it is possible to quickly detect the number of objects OB even when using low-end hardware and software.

아울러, 본 발명에서는 상대적으로 좁은 공간에 포함된 객체(OB)의 수를 신속하게 판별하는데 더욱 효과적일 수 있다.In addition, in the present invention, it may be more effective to quickly determine the number of objects OB included in a relatively narrow space.

예를 들면, 본 발명은 지하철 등의 전동차 내에 위치하는 객체(OB)(승객)의 수를 검출하는데 보다 유용하게 사용될 수 있다.For example, the present invention can be more usefully used to detect the number of objects OB (passengers) located in a train such as a subway.

지하철 등의 전동차는 상대적으로 공간이 좁고, 승객의 수에 따라 좁은 공간에 다수의 객체(OB)가 위치할 수 있으며, 승차 및/또는 하차에 대응하여 전동차 내에 위치하는 객체(OB)의 수가 빈번하게 변동될 수 있다.Trains such as subways have a relatively narrow space, and a large number of objects (OBs) may be located in a narrow space according to the number of passengers, and the number of objects (OBs) located in the train in response to getting on and off is frequent. may change accordingly.

전동차에 카메라 모듈(10)을 설치하고, 이를 이용하여 전동차 내에 위치하는 객체(OB)의 수, 즉 승객의 수를 검출하는 방법에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.A method of installing a camera module 10 in a train and detecting the number of objects (OB) located in the train, that is, the number of passengers, using the camera module 10 is as follows with reference to the accompanying drawings.

도 30 내지 도 32는 카메라 모듈을 전동차에 설치하는 경우에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.30 to 32 are diagrams for explaining a case in which a camera module is installed in an electric train. Hereinafter, description of the parts described in detail above may be omitted.

도 30을 살펴보면, 카메라 모듈(10)이 지하철 등의 전동차(30)의 내부에 설치될 수 있다. 예를 들면, 카메라 모듈(10)은 전동차(30)의 내부의 상부벽에 설치될 수 있다.Referring to FIG. 30 , the camera module 10 may be installed inside an electric train 30 such as a subway. For example, the camera module 10 may be installed on an inner upper wall of the train 30 .

이러한 경우, 거리에 따른 오차 발생을 억제하거나 방지하기 위해 전동차(30)의 중앙 부분의 상부벽에 카메라 모듈(10)을 설치하는 것이 가능하다.In this case, it is possible to install the camera module 10 on the upper wall of the central part of the train 30 in order to suppress or prevent the occurrence of errors according to the distance.

이처럼, 카메라 모듈(10)이 전동차(30)의 중앙 부분에 설치되는 경우에는 카메라 모듈(10)의 제 1 카메라부(11)와 제 2 카메라부(12)가 서로 다른 방향을 향할 수 있다.As such, when the camera module 10 is installed in the center of the train 30, the first camera unit 11 and the second camera unit 12 of the camera module 10 may face different directions.

예를 들면, 도 31에 나타나 있는 바와 같이, 카메라 모듈(10)의 제 1 카메라부(11)는 전동차(30)의 좌측 부분을 향해 비스듬하게 기울어지고, 제 2 카메라부(12)는 전동차(30)의 우측 부분을 향해 비스듬하게 기울어질 수 있다.For example, as shown in FIG. 31, the first camera unit 11 of the camera module 10 is inclined toward the left side of the train 30, and the second camera unit 12 is the train ( 30) may be tilted obliquely toward the right part.

아울러, 좁고 긴 형태의 공간을 갖는 전동차(30)의 특성을 고려하면, 제 1 카메라부(11)에 대응하는 촬영 영역의 제 1 비중첩영역(NOVA1)의 사이즈(면적)은 중첩영역(OVA)의 사이즈(면적)보다 더 크고, 제 2 카메라부(12)에 대응하는 촬영 영역의 제 2 비중첩영역(NOVA2)의 사이즈(면적)은 중첩영역(OVA)의 사이즈(면적)보다 더 클 수 있다.In addition, considering the characteristics of the train 30 having a narrow and long space, the size (area) of the first non-overlapping area NOVA1 of the shooting area corresponding to the first camera unit 11 is the overlapping area OVA ), and the size (area) of the second non-overlapping area NOVA2 of the capturing area corresponding to the second camera unit 12 is greater than the size (area) of the overlapping area OVA. can

이처럼, 카메라 모듈(10)이 전동차(30) 내에 설치되고, 서버(20)는 카메라 모듈(10)이 촬영한 영상(대상 영상)을 이용하여 전동차(30) 내에 위치하는 객체(OB), 즉 승객의 수를 검출할 수 있다.In this way, the camera module 10 is installed in the train 30, and the server 20 uses the image (target image) captured by the camera module 10 to create an object (OB) located in the train 30, that is, The number of passengers can be detected.

아울러, 전동차(30)에서는 좁고 긴 형태를 갖는 공간에 객체(OB), 즉 승객이 위치하며, 전동차(30)의 이동 중에는 객체(OB)들의 이동이 상대적으로 감소할 수 있다.In addition, in the train 30, objects OB, that is, passengers, are located in a space having a long and narrow shape, and movement of the objects OB may be relatively reduced while the train 30 is moving.

이를 고려하면, 본 발명에서와 같이 대상 영상(대상 블록)과 비교 영상(비교 블록)을 비교하여 대상 영상(대상 블록)에 포함된 객체(OB)의 수를 신속하게 검출하는 기술이 전동차(30)에 적용되는 것이 보다 바람직할 수 있다.Considering this, as in the present invention, a technology for quickly detecting the number of objects (OB) included in a target image (target block) by comparing a target image (target block) and a comparison image (comparison block) is a train 30 ) may be more preferable.

카메라 모듈(10)이 전동차(30)에 적용되는 경우에서 군주 계수를 수행하는 방법에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.In the case where the camera module 10 is applied to the train 30, a method of performing monarch counting will be described with reference to the accompanying drawings.

전동차(30)에서 군중 계수를 수행하기 위해 서버(20)와 전동차(30)의 운행을 제어하는 전동차 제어부(미도시)는 서로 연동되고 통신을 수행할 수 있다.In order to perform crowd counting in the train 30, the server 20 and the train control unit (not shown) controlling the operation of the train 30 may interwork with each other and perform communication.

도 32를 살펴보면, 먼저 전동차(30)의 문(Door)의 계폐를 확인할 수 있다(S500).Referring to FIG. 32, first, the opening and closing of the door of the train 30 can be confirmed (S500).

이후, 전동차(30)의 문이 닫혀 있는 상태인지의 여부를 판단할 수 있다(S510).Subsequently, it may be determined whether or not the door of the train 30 is closed (S510).

S510단계에서 판단결과 전동차(30)의 문이 닫히지 않은 상태, 즉 문이 열린 상태인 경우에서는 미리 설정된 제 4 기능(Default 4)을 수행할 수 있다(S520).As a result of the determination in step S510, when the door of the train 30 is not closed, that is, when the door is open, a preset fourth function (Default 4) can be performed (S520).

제 4 기능은 전동차(30)의 문이 닫힐때가지 대기하는 기능 등을 예로 들 수 있다.The fourth function may include, for example, a function of waiting until the door of the train 30 is closed.

반면에, S510단계에서 판단결과 전동차(30)의 문이 닫힌 상태에서는 전동차(30)의 속도를 확인할 수 있다(S530).On the other hand, as a result of the determination in step S510, in a state where the door of the train 30 is closed, the speed of the train 30 can be checked (S530).

이후, 전동차(30)의 속도가 미리 설정된 임계 속도 이상인지의 여부를 판단할 수 있다(S540).Thereafter, it may be determined whether or not the speed of the train 30 is equal to or greater than a preset threshold speed (S540).

S540단계에서 판단결과, 전동차(30)의 속도가 임계 속도보다 낮은 경우에는 미리 설정된 제 5 기능(Default 5)을 수행할 수 있다(S550).As a result of determination in step S540, if the speed of the train 30 is lower than the critical speed, a preset fifth function (Default 5) can be performed (S550).

제 5 기능은 전동차(30)의 속도가 임계 속도를 넘을 때까지 대기하는 기능 등을 예로 들 수 있다.The fifth function may be, for example, a function of waiting until the speed of the train 30 exceeds a critical speed.

반면에, S550단계에서 판단결과 전동차(30)의 속도가 임계 속도를 넘어서는 경우에는 카메라 모듈(10)의 제 1 카메라부(11) 및 제 2 카메라부(12)를 이용하여 촬영 영역의 영상, 즉 대상 영상을 촬영할 수 있다(S400).On the other hand, if the speed of the train 30 exceeds the critical speed as a result of the determination in step S550, the first camera unit 11 and the second camera unit 12 of the camera module 10 are used to capture an image of the area, That is, the target image may be photographed (S400).

여기서, 촬영 영역은 전동차(30)의 내부를 포함할 수 있고, 대상 영상은 전동차(30)의 내부의 영상을 포함할 수 있다.Here, the shooting area may include the inside of the train 30, and the target image may include an image of the inside of the train 30.

이후, 카메라 모듈(10)이 촬영한 대상 영상에서 객체(OB), 즉 승객의 수를 검출할 수 있다(S470)Thereafter, the object OB, that is, the number of passengers may be detected from the target image captured by the camera module 10 (S470).

카메라 모듈(10)이 촬영 영역의 대상 영상을 촬영하고, 대상 영상에서 객체(OB)의 수를 검출하는 방법은 앞서 상세히 설명하였으므로 중복되는 설명은 생략하기로 한다.Since the camera module 10 captures the target image of the capturing area and the method of detecting the number of objects OB in the target image has been described in detail above, duplicate descriptions will be omitted.

대상 영상에서 객체(OB)의 수를 검출한 이후에는 군중 계수 모드를 종료할지의 여부를 판단하여(S560), 종료하는 경우에는 군중 계수 모드를 종료할 수 있다(S570).After detecting the number of objects OB in the target image, it is determined whether to end the crowd counting mode (S560), and if so, the crowd counting mode can be ended (S570).

반면에 S560단계에서 판단결과, 군중 계수 모드를 종료하지 않는 경우에는 다시 S500단계로 진행할 수 있다.On the other hand, as a result of determination in step S560, if the crowd counting mode is not terminated, the process may proceed to step S500 again.

도 32의 내용을 고려하면, 전동차(30)의 속도가 임계 속도 이하이거나 혹은 전동차(30)의 문이 열려 있는 상태에서는 카메라 모듈(10)은 촬영을 실시하지 않을 수 있다.Considering the contents of FIG. 32 , the camera module 10 may not take pictures when the speed of the train 30 is below the critical speed or when the door of the train 30 is open.

반면에, 전동차(30)의 문이 닫혀 있는 상태에서 전동차(30)의 속도가 임계 속도 이상인 경우에 카메라 모듈(10)이 영상을 촬영하고, 촬영한 영상에서 객체(OB)의 수를 검출할 수 있다. 아울러, 이러한 과정을 반복할 수 있다.On the other hand, when the speed of the train 30 is higher than the critical speed while the door of the train 30 is closed, the camera module 10 captures an image and detects the number of objects OB in the captured image. can In addition, this process may be repeated.

다른 관점에서 보면, 지하철의 경우 전동차(30)가 정거장에 정차하여 승객이 승차 혹은 하차하는 과정에서는 카메라 모듈(10)이 촬영을 실시하지 않을 수 있다. 반면에, 전동차(30)가 정거장을 출발하여 충분한 속도에 도달한 경우(임계 속도를 넘은 경우)에는 카메라 모듈(10)이 영상을 촬영하고, 촬영한 영상에서 객체(OB)의 수를 검출할 수 있다.From another point of view, in the case of a subway, the camera module 10 may not take pictures while the train 30 stops at a station and passengers get on or off. On the other hand, when the train 30 departs from the station and reaches a sufficient speed (when the threshold speed is exceeded), the camera module 10 captures an image and detects the number of objects OB in the captured image. can

이러한 과정은 인접하는 두 개의 정거장의 사이에서 적어도 1회 이상 수행될 수 있다. 객체(OB), 즉 승객이 전동차(30)의 사이를 오가는 경우도 있기 때문에 바람직하게는 인접하는 두 개의 정거장의 사이에서 객체(OB)의 수를 검출하는 과정을 복수회 실시하는 것이 바람직할 수 있다.This process may be performed at least once between two adjacent stations. Since there are cases where objects OB, that is, passengers, pass between trains 30, it may be preferable to perform a process of detecting the number of objects OB between two adjacent stops a plurality of times. have.

아울러, 소정의 정거장을 지나면 객체(OB)의 수를 검출하는 과정을 다시 수행할 수 있다.In addition, the process of detecting the number of objects OB may be performed again after passing a predetermined stop.

위에서 설명한 바와 같이, 전동차(30) 내부에 위치하는 객체(OB), 즉 승객의 수를 검출한 이후에는 검출한 승객의 수에 대한 정보를 전동차(30)를 관리하는 중앙 서버(미도시)에 전송할 수 있다.As described above, after detecting the number of objects (OB) located inside the train 30, that is, the number of passengers, information on the detected number of passengers is sent to a central server (not shown) that manages the train 30. can transmit

그러면, 중앙 서버에는 소정의 제 1 정거장에 전동차(30)가 도착하기 이전에 해당 전동차(30)에 탑승하고 있는 승객의 수를 제 1 정거장에 승차 대기 중인 고객에게 미리 알릴 수 있다.Then, the central server may notify customers waiting to board at the first stop of the number of passengers boarding the train 30 in advance before the train 30 arrives at the first stop.

그러면, 제 1 정거장에서 대기 중인 고객들은 어느 전동차에 적은 수의 승객이 탑승하고 있는지를 미리 확인할 수 있고, 이에 따라 복수의 전동차(30)에 고르게 승객을 분산시키는 효과를 획득할 수 있다.Then, customers waiting at the first stop can check in advance which train has a small number of passengers, and accordingly, the effect of evenly distributing passengers to the plurality of trains 30 can be obtained.

이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, it will be understood that the technical configuration of the present invention described above can be implemented in other specific forms without changing the technical spirit or essential features of the present invention by those skilled in the art to which the present invention pertains.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above should be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the claims to be described later rather than the foregoing detailed description, and the meaning and scope of the claims And all changes or modified forms derived from the equivalent concept should be construed as being included in the scope of the present invention.

Claims (5)

카메라 모듈(Camera Module)이 주변 영상을 촬영하는 촬영단계; 및
상기 카메라 모듈이 촬영한 대상 영상(Target Image)을 분석하여 상기 대상 영상에 포함된 객체의 수를 검출하는 검출단계;
를 포함하는 것을 특징으로 하는 인공지능을 이용한 군중 계수 방법.
A photographing step of capturing a surrounding image by a camera module; and
a detection step of analyzing a target image captured by the camera module and detecting the number of objects included in the target image;
Crowd counting method using artificial intelligence comprising a.
제 1 항에 있어서,
상기 카메라 모듈은
제 1 카메라부(First Camera Part)와 제 2 카메라(Second Camera Part)를 포함하고,
상기 제 1 카메라부와 상기 제 2 카메라부의 촬영 영역은 적어도 일부가 서로 다른 것을 특징으로 하는 인공지능을 이용한 군중 계수 방법.
According to claim 1,
The camera module
Including a first camera part and a second camera part,
The crowd counting method using artificial intelligence, characterized in that at least some of the shooting areas of the first camera unit and the second camera unit are different from each other.
제 1 항에 있어서,
상기 카메라 모듈의 촬영 영역에 대한 위치 정보를 판별하여 저장하는 단계;
상기 카메라 모듈의 설치 위치에 대한 정보를 판별하여 저장하는 단계; 및
상기 대상 영상에서 적어도 하나의 상기 객체를 판별하는 단계;
를 더 포함하고,
상기 검출단계에서는
상기 대상 영상에서 객체의 위치 정보 및 상기 객체의 위치에서의 상기 객체의 기준 정보를 근거로 하여 상기 객체의 수를 검출하는 것을 특징으로 하는 인공지능을 이용한 군중 계수 방법.
According to claim 1,
determining and storing positional information about a photographing area of the camera module;
Determining and storing information on the installation location of the camera module; and
determining at least one object in the target image;
Including more,
In the detection step
The crowd counting method using artificial intelligence, characterized in that for detecting the number of the object based on the position information of the object in the target image and the reference information of the object in the position of the object.
제 1 항에 있어서,
상기 카메라 모듈이 주변의 비교 영상(Comparison Image)을 촬영하여 저장하는 단계; 및
상기 비교 영상에 대해 객체의 수를 검출하는 단계;
를 더 포함하고,
상기 검출단계에서는
상기 대상 영상을 적어도 하나의 상기 비교 영상과 비교하여 상기 객체의 수를 검출하는 것을 특징으로 하는 인공지능을 이용한 군중 계수 방법.
According to claim 1,
Taking and storing, by the camera module, a comparison image of the surroundings; and
detecting the number of objects in the comparison image;
Including more,
In the detection step
Crowd counting method using artificial intelligence, characterized in that for detecting the number of objects by comparing the target image with at least one comparison image.
주변 영상을 촬영하는 카메라 모듈(Camera Module); 및
상기 카메라 모듈이 촬영한 대상 영상(Target Image)을 분석하여 상기 대상 영상에 포함된 객체의 수를 검출하는 검출부;
를 포함하는 것을 특징으로 하는 인공지능을 이용한 군중 계수 장치.
A camera module for capturing surrounding images; and
a detection unit that analyzes a target image captured by the camera module and detects the number of objects included in the target image;
Crowd counting device using artificial intelligence comprising a.
KR1020210063245A 2021-05-17 2021-05-17 People counting method and apparatus using artificial intelligence KR102631983B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210063245A KR102631983B1 (en) 2021-05-17 2021-05-17 People counting method and apparatus using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210063245A KR102631983B1 (en) 2021-05-17 2021-05-17 People counting method and apparatus using artificial intelligence

Publications (2)

Publication Number Publication Date
KR20220155700A true KR20220155700A (en) 2022-11-24
KR102631983B1 KR102631983B1 (en) 2024-01-31

Family

ID=84235531

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210063245A KR102631983B1 (en) 2021-05-17 2021-05-17 People counting method and apparatus using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102631983B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102584708B1 (en) * 2022-12-13 2023-10-05 주식회사 인텔리빅스 System and Method for Crowd Risk Management by Supporting Under and Over Crowded Environments
KR102663409B1 (en) * 2023-05-30 2024-05-03 김수진 Data collection apparatus and method for machine learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033195A (en) * 2008-07-25 2010-02-12 Panasonic Electric Works Co Ltd People counter and equipment control system using the same
KR20130065234A (en) 2011-12-09 2013-06-19 주식회사 하이로시 Automatic counting how objects
JP2018116692A (en) * 2017-01-13 2018-07-26 キヤノン株式会社 Human flow analysis apparatus and system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033195A (en) * 2008-07-25 2010-02-12 Panasonic Electric Works Co Ltd People counter and equipment control system using the same
KR20130065234A (en) 2011-12-09 2013-06-19 주식회사 하이로시 Automatic counting how objects
JP2018116692A (en) * 2017-01-13 2018-07-26 キヤノン株式会社 Human flow analysis apparatus and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102584708B1 (en) * 2022-12-13 2023-10-05 주식회사 인텔리빅스 System and Method for Crowd Risk Management by Supporting Under and Over Crowded Environments
KR102663409B1 (en) * 2023-05-30 2024-05-03 김수진 Data collection apparatus and method for machine learning

Also Published As

Publication number Publication date
KR102631983B1 (en) 2024-01-31

Similar Documents

Publication Publication Date Title
Brown et al. Performance evaluation of surveillance systems under varying conditions
Ellis Performance metrics and methods for tracking in surveillance
KR20220155700A (en) People counting method and apparatus using artificial intelligence
Cui et al. Multi-modal tracking of people using laser scanners and video camera
JP5442261B2 (en) Automatic event detection method and system in sports stadium
US11995846B2 (en) Three-dimensional object tracking using unverified detections registered by one or more sensors
US10565733B1 (en) Virtual inductance loop
US20030053659A1 (en) Moving object assessment system and method
US7489802B2 (en) Miniature autonomous agents for scene interpretation
US20030053658A1 (en) Surveillance system and methods regarding same
CA2451660A1 (en) Method for monitoring a moving object and system regarding same
CN106778655B (en) Human body skeleton-based entrance trailing entry detection method
KR20080085837A (en) Object density estimation in vedio
CN101167086A (en) Human detection and tracking for security applications
Ekinci et al. Silhouette based human motion detection and analysis for real-time automated video surveillance
US20230046840A1 (en) Vehicular access control based on virtual inductive loop
Nyaruhuma et al. Verification of 2D building outlines using oblique airborne images
CN110189355A (en) Safe escape channel occupies detection method, device, electronic equipment and storage medium
Matzner et al. ThermalTracker-3D: A thermal stereo vision system for quantifying bird and bat activity at offshore wind energy sites
JP6183703B2 (en) Object detection apparatus, object detection method, and object detection system
CN109977796A (en) Trail current detection method and device
KR102528202B1 (en) Camera module and people counting method for vehicle using the camera module
Ng et al. Outdoor illegal parking detection system using convolutional neural network on Raspberry Pi
JP2002074369A (en) System and method for monitoring based on moving image and computer readable recording medium
Zhang et al. Fast crowd density estimation in surveillance videos without training

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right