KR20220155700A - People counting method and apparatus using artificial intelligence - Google Patents
People counting method and apparatus using artificial intelligence Download PDFInfo
- Publication number
- KR20220155700A KR20220155700A KR1020210063245A KR20210063245A KR20220155700A KR 20220155700 A KR20220155700 A KR 20220155700A KR 1020210063245 A KR1020210063245 A KR 1020210063245A KR 20210063245 A KR20210063245 A KR 20210063245A KR 20220155700 A KR20220155700 A KR 20220155700A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- camera module
- objects
- area
- comparison
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 238000009434 installation Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 25
- 230000002159 abnormal effect Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000004575 stone Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000721047 Danaus plexippus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000012489 doughnuts Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G06K9/6201—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 인공지능을 이용한 군중 계수 장치 및 방법에 관한 것이다. 보다 자세하게는, 본 발명은 군중이 위치하는 부분의 패턴을 이용하여 신속하고 정확하게 군중의 수를 검출하는 인공지능을 이용한 군중 계수 장치 및 방법에 관한 것이다.The present invention relates to a crowd counting device and method using artificial intelligence. More specifically, the present invention relates to a crowd counting apparatus and method using artificial intelligence for quickly and accurately detecting the number of crowds using a pattern of a part where the crowd is located.
최근 들어 뮤직 콘서트 또는 경기장에서의 스포츠 경기뿐만 아니라 특정 장소에서의 다양한 군중 집회, 모임이 증가하고 있다.Recently, not only music concerts or sporting events at stadiums, but also various crowd rallies and gatherings in specific places are increasing.
그 모임을 주최하거나 그 모임에 대한 정보를 수집하고 분석하는 언론기관 등에서는 그 군중 집회에 모인 인원수를 정확하게 파악할 필요가 있다.Media organizations that host the gathering or collect and analyze information about the gathering need to accurately determine the number of people gathered at the rally.
종래에는 인력이 직접 계수하거나, 운집한 군중들에서 샘플을 추출해서 그 샘플의 인원수를 카운팅해서 전체 인원수를 유추하는 통계적 방법을 이용하였다.Conventionally, a statistical method of inferring the total number of people by directly counting manpower or by extracting a sample from a crowded crowd and counting the number of people in the sample was used.
이러한 방법은 인력을 이용할 경우 적지 않은 인건비가 필요하고, 군중의 수를 검출하는데 과도하게 긴 시간이 필요하다는 문제점이 있다.This method has a problem in that a considerable amount of labor cost is required when using manpower and an excessively long time is required to detect the number of the crowd.
이러한 문제점을 해결하기 위한 종래기술로서 대한민국 공개특허공보 제10-2013-0065234호(발명의 명칭 : 객체 자동 카운팅 방법, 2013.06.19.)(문헌 1)에서는 촬영한 영상에서 객체의 특정한 색상의 픽셀을 추출하고, 추출한 픽셀의 수를 카운팅하여 객체의 수를 검출하는 기술을 게시하고 있다.As a prior art for solving these problems, Korean Patent Laid-open Publication No. 10-2013-0065234 (title of invention: object automatic counting method, 2013.06.19.) (Document 1) discloses pixels of a specific color of an object in a captured image. A technique for detecting the number of objects by extracting and counting the number of extracted pixels is disclosed.
그러나 문헌 1에 따른 기술에서는 객체가 특정한 색상을 갖지 않는 경우에 객체의 수를 정확하게 검출하는 것이 어렵다는 문제점이 있다.However, the technique according to
아울러, 문헌 1에 따른 기술에서는 특정 색상의 픽셀을 일일이 카운팅하기 때문에 객체의 수를 검출하는데 상당한 시간이 소요되며, 계산이 복잡하다는 문제점이 있다.In addition, in the technique according to
본 발명은 군중이 위치하는 부분의 패턴을 이용하여 군중의 수를 검출하는 인공지능을 이용한 군중 계수 장치 및 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a crowd counting device and method using artificial intelligence for detecting the number of crowds by using a pattern of a part where the crowd is located.
본 발명에 따른 인공지능을 이용한 군중 계수 방법은 카메라 모듈(Camera Module)이 주변 영상을 촬영하는 촬영단계 및 상기 카메라 모듈이 촬영한 대상 영상(Target Image)을 분석하여 상기 대상 영상에 포함된 객체의 수를 검출하는 검출단계를 포함할 수 있다.In the crowd counting method using artificial intelligence according to the present invention, a camera module captures a surrounding image and analyzes the target image captured by the camera module to determine the number of objects included in the target image. A detection step of detecting the number may be included.
또한, 상기 카메라 모듈은 제 1 카메라부(First Camera Part)와 제 2 카메라(Second Camera Part)를 포함하고, 상기 제 1 카메라부와 상기 제 2 카메라부의 촬영 영역은 적어도 일부가 서로 다를 수 있다.In addition, the camera module may include a first camera part and a second camera part, and at least a portion of a photographing area of the first camera part and the second camera part may be different from each other.
또한, 상기 카메라 모듈의 촬영 영역에 대한 위치 정보를 판별하여 저장하는 단계, 상기 카메라 모듈의 설치 위치에 대한 정보를 판별하여 저장하는 단계 및 상기 대상 영상에서 적어도 하나의 상기 객체를 판별하는 단계를 더 포함하고, 상기 검출단계에서는 상기 대상 영상에서 객체의 위치 정보 및 상기 객체의 위치에서의 상기 객체의 기준 정보를 근거로 하여 상기 객체의 수를 검출할 수 있다.In addition, the step of determining and storing positional information on the photographing area of the camera module, the step of determining and storing information on the installation position of the camera module, and the step of determining at least one object in the target image are further performed. In the detecting step, the number of the objects may be detected based on location information of the object in the target image and reference information of the object at the location of the object.
또한, 상기 카메라 모듈이 주변의 비교 영상(Comparison Image)을 촬영하여 저장하는 단계 및 상기 비교 영상에 대해 객체의 수를 검출하는 단계를 더 포함하고, 상기 검출단계에서는 상기 대상 영상을 적어도 하나의 상기 비교 영상과 비교하여 상기 객체의 수를 검출할 수 있다.The camera module may further include taking and storing a comparison image of the surroundings and detecting the number of objects in the comparison image, and in the detecting step, the target image is converted into at least one of the objects. The number of objects may be detected by comparing with a comparison image.
본 발명에 따른 인공지능을 이용한 군중 계수 장치는 주변 영상을 촬영하는 카메라 모듈(Camera Module) 및 상기 카메라 모듈이 촬영한 대상 영상(Target Image)을 분석하여 상기 대상 영상에 포함된 객체의 수를 검출하는 검출부를 포함할 수 있다.Crowd counting device using artificial intelligence according to the present invention detects the number of objects included in the target image by analyzing a camera module for capturing a surrounding image and a target image captured by the camera module. It may include a detection unit that does.
본 발명에 따른 인공지능을 이용한 군중 계수 장치 및 방법은 군중이 모여 있는 부분의 패턴을 이용하여 군중의 수를 검출하기 때문에 신속한 군중 계수가 가능하다는 효과가 있다.The crowd counting apparatus and method using artificial intelligence according to the present invention has an effect of enabling rapid crowd counting because the number of crowds is detected using a pattern of a part where crowds gather.
도 1 내지 도 3은 본 발명에 따른 인공지능을 이용한 군중 계수 장치에 대해 설명하기 위한 도면이다.
도 4 내지 도 7은 기준 정보를 설정하고 이용하는 방법에 대해 설명하기 위한 도면이다.
도 8 내지 도 20은 비교 영상 및 기준 영상에 대해 설명하기 위한 도면이다.
도 21 내지 도 23은 군준 계수 모드에 대해 설명하기 위한 도면이다.
도 24 내지 도 29는 카메라 모듈에 대해 설명하기 위한 도면이다.
도 30 내지 도 32는 카메라 모듈을 전동차에 설치하는 경우에 대해 설명하기 위한 도면이다.1 to 3 are views for explaining a crowd counting device using artificial intelligence according to the present invention.
4 to 7 are diagrams for explaining a method of setting and using reference information.
8 to 20 are diagrams for explaining a comparison image and a reference image.
21 to 23 are diagrams for explaining the canonical coefficient mode.
24 to 29 are views for explaining a camera module.
30 to 32 are diagrams for explaining a case in which a camera module is installed in an electric train.
이하, 첨부된 도면을 참조하여 본 발명에 따른 인공지능을 이용한 군중 계수 장치 및 방법에 대해 상세히 설명한다.Hereinafter, a crowd counting device and method using artificial intelligence according to the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. This is not intended to limit the present invention to specific embodiments, and it can be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.
본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. The terms may only be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The terms and/or may include any combination of a plurality of related recited items or any of a plurality of related recited items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. can be understood On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it may be understood that no other element exists in the middle.
본 문서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this document are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.
본 문서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this document, the terms "include" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features It may be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries may be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, interpreted in an ideal or excessively formal meaning. It may not be.
아울러, 본 문서에 개시된 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the embodiments disclosed in this document are provided to more completely explain the embodiments to those skilled in the art, and the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.
본 문서에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 수 있다.In describing the present invention in this document, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description may be omitted.
본 문서에서 설명되는 다양한 실시예들은 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described in this document may be implemented in a recording medium readable by a computer or similar device using software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 본 발명의 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다.According to hardware implementation, embodiments of the present invention are ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, processors It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions.
한편, 소프트웨어적인 구현에 의하면, 본 발명에서 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다.Meanwhile, according to software implementation, embodiments such as procedures or functions in the present invention may be implemented together with a separate software module that performs at least one function or operation.
도 1 내지 도 3은 본 발명에 따른 인공지능을 이용한 군중 계수 장치에 대해 설명하기 위한 도면이다.1 to 3 are views for explaining a crowd counting device using artificial intelligence according to the present invention.
도 1을 살펴보면, 본 발명에 따른 인공지능을 이용한 군중 계수 장치(1, 이하 "계수 장치"라 칭할 수 있다.)는 카메라 모듈(Camera Module, 10) 및 서버(Server, 20)를 포함할 수 있다.1, a crowd counting device (1, hereinafter referred to as "counting device") using artificial intelligence according to the present invention may include a camera module (Camera Module, 10) and a server (Server, 20) have.
카메라 모듈(10)은 주변의 영상을 촬영할 수 있다. 여기서, 주변은 카메라 모듈(10)의 촬영이 가능한 영역, 즉 촬영 영역을 의미할 수 있다.The
서버(20)는 적어도 하나의 카메라 모듈(10)과 유선 및/또는 무선 방식으로 통신을 수행할 수 있다.The
서버(20)는 적어도 하나의 카메라 모듈(10)로부터 카메라 모듈(10)이 촬영한 영상을 전송받고, 전송받은 영상을 분석할 수 있다.The
서버(20)는 인공지능을 이용하여 카메라 모듈(10)이 촬영한 영상에서 객체(OB)의 수를 판별할 수 있다.The
아울러, 서버(20)는 적어도 하나의 카메라 모듈(10)을 관리할 수 있다.In addition, the
카메라 모듈(10)이 촬영한 영상은 대상 영상(Target Image), 비교 영상(Comparison Image) 및 샘플 영상(Sample Image)을 포함할 수 있다.The image captured by the
샘플 영상은 부분 영상(Part Image)이라고도 할 수 있다.The sample image may also be referred to as a partial image.
대상 영상은 군중의 수를 검출하기 위해 촬영한 영상일 수 있다. 예를 들어, 20xx년 xx월 xx일 aa시에 AA광장에 모인 군중의 수를 판별하는 경우, 카메라 모듈(10)이 20xx년 xx월 xx일 aa시에 AA광장을 촬영한 영상이 대상 영상이 될 수 있다.The target image may be an image captured to detect the number of crowds. For example, in the case of determining the number of crowds gathered at AA Plaza at aa: xx/xx/xx/20xx, the
비교 영상은 대상 영상에서 군중의 수를 신속하고 정확하게 검출하기 위한 목적으로 대상 영상과 비교하는데 사용하는 영상이라고 할 수 있다.The comparison image may be an image used for comparison with a target image for the purpose of quickly and accurately detecting the number of crowds in the target image.
비교 영상은 비교 패턴 블록(Comparison Pattern Block)을 포함하는 것이 가능하다.The comparison image may include a comparison pattern block.
비교 패턴 블록은 대상 영상에서 군중의 수를 신속하고 정확하게 검출하기 위한 목적으로 대상 영상과 비교하는데 사용하는 영상 블록의 일종이라고 할 수 있다. 이하에서는 비교 패턴 블록을 비교 블록이라고 칭할 수 있다.The comparison pattern block is a type of image block used for comparison with a target image for the purpose of quickly and accurately detecting the number of crowds in the target image. Hereinafter, the comparison pattern block may be referred to as a comparison block.
서버(20)는 주기적 또는 비주기적으로 적어도 하나의 비교 영상(혹은 비교 블록)을 추가하거나, 변경하거나, 삭제하는 것이 가능하다.The
샘플 영상은 기준 영상을 생성하기 위해 사용되는 영상일 수 있다.The sample image may be an image used to generate a reference image.
대상 영상, 비교 영상, 샘플 영상, 비교 블록은 이하의 설명을 통해 보다 명확히 설명될 것이다.The target image, comparison image, sample image, and comparison block will be more clearly described through the following description.
도 2를 살펴보면, 카메라 모듈(10)은 제 1 제어부(100), 제 1 통신부(110), 제 1 인터페이스부(120), 메모리부(130), 카메라 위치 정보부(140), 제 1 카메라부(11), 제 1 조정부(160), 제 2 카메라부(12) 및 제 2 조정부(180)를 포함할 수 있다.Referring to FIG. 2 , the
도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 카메라 모듈(10)을 구현하는 것도 가능하다.Since the components shown in FIG. 2 are not essential, it is also possible to implement the
제 1 제어부(100), 제 1 통신부(110) 및 제 1 인터페이스부(120)에 관련해서 "제 1"이라는 용어를 사용한 이유는 이후에 설명할 서버(20)의 구성 부분과 구분하기 위함이다.The reason for using the term “first” in relation to the
예를 들면, 제 1 통신부(110)에서 "제 1"이라는 용어를 사용한 이유는 이후에 설명할 서버(20)의 통신부(210), 즉 제 2 통신부(210)와 구분하기 위함이다.For example, the reason why the term "first" is used in the
제 1 제어부(100)는 카메라 모듈(10)의 전반적인 기능 및 동작을 제어할 수 있다. 예를 들면, 제 1 제어부(100)는 카메라 모듈(10)의 영상 촬영을 제어할 수 있으며, 서버(20)와의 통신을 제어할 수 있다.The
제 1 통신부(110)는 제 1 제어부(100)의 제어에 따라 유선 및/또는 무선 방식으로 다른 기기, 예컨대 서버(20)와 통신을 수행할 수 있다.The
제 1 인터페이스부(120)는 제 1 제어부(100)의 제어에 따라 다른 기기와의 연결을 위한 통로를 제공할 수 있다.The
메모리부(130)는 제 1 제어부(100)의 제어에 따라 카메라 모듈(10)의 동작 및/또는 기능 구현에 필요한 다양한 프로그램, 데이터 등을 저장할 수 있다.The memory unit 130 may store various programs, data, etc. required for operation and/or function implementation of the
카메라 위치 정보부(140)는 제 1 제어부(100)의 제어에 따라 카메라 모듈(10)의 위치 정보를 판별할 수 있다. 예를 들면, 카메라 위치 정보부(140)는 카메라 모듈(10)의 GPS 좌표 정보를 판별할 수 있다.The camera location information unit 140 may determine location information of the
카메라 위치 정보부(140)는, 카메라 모듈(10)이 차량 또는 건물 내부에 설치되는 경우에, 차량 또는 건물 내에서의 카메라 모듈(10)의 위치에 대한 정보를 판별할 수 있다. 예를 들면, 카메라 모듈(10)이 지하철 등에 사용되는 전동차 내에 설치되는 경우에, 카메라 위치 정보부(140)는 카메라 모듈(10)이 설치된 전동차의 고유 번호 등의 고유 정보, 전동차 내에서의 카메라 모듈(10)의 위치에 대한 정보 등을 판별할 수 있다.When the
제 1 카메라부(11)는 제 1 제어부(100)의 제어에 따라 주변의 영상을 촬영할 수 있다. 예를 들면, 제 1 카메라부(11)는 주변의 영상을 동영상 및/또는 사진 등의 정지 영상 타입으로 촬영할 수 있다.The
제 1 조정부(160)는 제 1 제어부(100)의 제어에 따라 제 1 카메라부(11)를 회전시키거나 스윙(Swing)시키는 등의 방법으로 촬영 각도를 조절할 수 있다.The
제 2 카메라부(12)는 제 1 제어부(100)의 제어에 따라 주변의 영상을 촬영할 수 있다. 예를 들면, 제 2 카메라부(12)는 주변의 영상을 동영상 및/또는 사진 등의 정지 영상 타입으로 촬영할 수 있다.The
제 2 조정부(180)는 제 1 제어부(100)의 제어에 따라 제 2 카메라부(12)를 회전시키거나 스윙시키는 등의 방법으로 촬영 각도를 조절할 수 있다.The
도 3을 살펴보면, 서버(20)는 제 2 제어부(200), 제 2 통신부(210), 제 2 인터페이스부(220), 데이터 베이스부(DB, 230), 촬영 영역 위치 정보부(240), 기준 정보부(250), 비교 영상부(260), 기준 영상부(270) 및 검출부(280)를 포함할 수 있다.Referring to FIG. 3 , the
도 3에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 서버(20)를 구현하는 것도 가능하다.Since the components shown in FIG. 3 are not essential, it is also possible to implement the
제 2 제어부(200)는 서버(20)의 전반적인 기능 및 동작을 제어할 수 있다. 예를 들면, 제 2 제어부(200)는 군중 계수를 위한 설정을 제어할 수 있으며, 군중 계수 과정을 제어할 수 있다.The
제 2 통신부(210)는 제 2 제어부(200)의 제어에 따라 유선 및/또는 무선 방식으로 다른 기기, 예컨대 카메라 모듈(10)과 통신을 수행할 수 있다.The
제 2 인터페이스부(220)는 제 2 제어부(200)의 제어에 따라 다른 기기와의 연결을 위한 통로를 제공할 수 있다.The
데이터 베이스부(DB, 230)는 제 2 제어부(200)의 제어에 따라 서버(20)의 운용에 필요한 다양한 프로그램, 데이터 등을 저장할 수 있다.The database unit (DB, 230) may store various programs, data, etc. required for operation of the
예를 들면, 데이터 베이스부(DB, 230)는 각각의 카메라 모듈(10)의 설치 위치(카메라 모듈(10)의 위치 정보)에 대한 정보 및 카메라 모듈(10)에 대응되는 영역(촬영 영역)에 대한 정보를 저장하고 관리할 수 있다.For example, the database unit (DB, 230) provides information on the installation position of each camera module 10 (location information of the camera module 10) and an area (photographing area) corresponding to the
데이터 베이스부(DB, 230)는 미리 설정한 기준 정보, 비교 영상 및 기준 영상을 저장하고 관리할 수 있다.The database unit (DB, 230) may store and manage preset reference information, comparison images, and reference images.
아울러, 데이터 베이스부(DB, 230)는 미리 설정된 다양한 영상 패턴, 비교 블록 등에 대한 정보를 저장하고 관리할 수 있다.In addition, the database unit (DB, 230) may store and manage information on various preset image patterns, comparison blocks, and the like.
촬영 영역 위치 정보부(240)는 제 2 제어부(200)의 제어에 따라 카메라 모듈(10)에 대응하는 영역, 즉 촬영 영역의 위치 정보를 판별할 수 있다.The capturing area location information unit 240 may determine location information of an area corresponding to the
여기서, 촬영 영역은 카메라 모듈(10)이 촬영한 영상에 포함되는 영역이라고 할 수 있다. 또는, 촬영 영역은 카메라 모듈(10)의 촬영 가능 영역이라고도 할 수 있다.Here, the capturing area may be referred to as an area included in an image captured by the
기준 정보부(250)는 제 2 제어부(200)의 제어에 따라 객체를 판별하기 위해 기준이 되는 정보, 즉 기준 정보를 생성 및/또는 판별하고 관리할 수 있다.The
여기서, 객체는 군중에 포함되는 사람을 의미할 수 있다. 예를 들면, 객체는 남성, 여성, 성인, 어린이, 유아, 장애인, 노약자 등을 포함할 수 있다.Here, the object may mean a person included in the crowd. For example, the objects may include men, women, adults, children, infants, the disabled, the elderly, and the like.
기준 정보는 객체의 형태에 대한 정보, 객체의 위치에 따른 사이즈(키 등)에 대한 정보 등을 포함할 수 있다.The reference information may include information about the shape of the object, information about the size (key, etc.) according to the location of the object, and the like.
기준 정보에 대해서는 이하에서 보다 상세히 설명하기로 한다.Reference information will be described in more detail below.
비교 영상부(260)는 제 2 제어부(200)의 제어에 따라 비교 영상 및/또는 비교 블록을 생성, 저장, 관리할 수 있다.The
비교 영상은 군중의 수를 판별하기 위해 대상 영상과 비교하는 영상일 수 있다.The comparison image may be an image compared with a target image to determine the number of crowds.
비교 블록은 군중의 수를 판별하기 위해 대상 블록과 비교하는 영상으로서, 비교 영상의 일부일 수 있다.The comparison block is an image compared with a target block to determine the number of crowds, and may be a part of the comparison image.
이러한 비교 영상부(260)는 색상 정보부(261) 및 형태 정보부(262)를 포함할 수 있다.The
색상 정보부(261)는 비교 영상의 색상에 대한 정보를 생성, 저장, 관리할 수 있다.The
예를 들어, 카메라 모듈(10)이 비교 영상을 촬영하는 시간, 계절, 날씨 등에 따라 영상의 색상이 달라질 수 있다.For example, the color of the image may vary depending on the time, season, weather, etc. at which the
색상 정보부(261)는 비교 영상을 촬영하는 시간, 계절, 날씨 등의 변수와 색상에 대한 정보를 매칭시킬 수 있다.The
형태 정보부(262)는 비교 영상에 포함되는 군중 그룹 및/또는 객체의 다양한 형태에 대한 정보를 생성, 저장, 관리할 수 있다.The
예를 들어, 카메라 모듈(10)이 비교 영상을 촬영하는 각도, 객체의 포즈, 모자 등의 의상, 군중이 모여있는 타입 등에 따라 객체 또는 군중 그룹의 형태가 달라질 수 있다.For example, the shape of an object or crowd group may vary depending on an angle at which the
이러한 객체 및/또는 군중 그룹의 형태에 대한 정보를 형태 정보부(262)가 생성, 저장, 관리할 수 있다.The
비교 영상에 대해서는 이하에서 보다 상세히 설명하기로 한다.The comparison image will be described in more detail below.
검출부(280)는 제 2 제어부(200)의 제어에 따라 카메라 모듈(10)이 촬영한 대상 영상을 분석하거나, 대상 영상과 비교 영상을 비교하는 방법으로 대상 영상에 포함된 객체의 수(군중의 수)를 검출할 수 있다.The
이러한 검출부(280)는 객체 검출부(281), 객체 수 검출부(282) 및 합산부(283)를 포함할 수 있다.The
객체 검출부(281)는 카메라 모듈(10)이 촬영한 영상에서 사이즈에 대한 기준 정보 및 형태에 대한 기준 정보를 이용하여 객체(사람)을 검출할 수 있다.The
객체 수 검출부(282)는 카메라 모듈(10)이 촬영한 영상에서 객체의 수를 검출할 수 있다. 이를 위해, 객체 수 검출부(282)는 객체 검출부(281)가 검출한 정보를 이용하거나, 비교 영상과 대상 영상을 이용하는 것이 가능하다.The object
합산부(283)는 객체 수 검출부(282)가 검출한 정보를 근거로 하여 카메라 모듈(10)이 촬영한 대상 영상에서 객체의 수의 총 합(군중의 총 수)을 검출할 수 있다.The summing
군중의 수를 검출하는 방법은 이하의 설명을 통해 보다 명확히될 것이다.A method of detecting the number of crowds will become clearer through the following description.
도 4 내지 도 7은 기준 정보를 설정하고 이용하는 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.4 to 7 are diagrams for explaining a method of setting and using reference information. Hereinafter, description of the parts described in detail above may be omitted.
도 4에 나타나 있는 바와 같이, 설정 모드(Setting Mode)에서 카메라 모듈(10)이 주변의 영상을 촬영할 수 있다(S100).As shown in FIG. 4 , in the setting mode, the
여기서, 설정 모드는 기준 정보, 비교 영상 및/또는 기준 영상 등을 생성하고, 군중 계수를 위해 준비하는 모드라고 할 수 있다.Here, the setting mode may be referred to as a mode in which reference information, comparison images, and/or reference images are generated and prepared for crowd counting.
카메라 모듈(10)이 촬영한 영상은 제 1 통신부(110)를 통해 서버(20)로 송신될 수 있다.An image captured by the
그러면 서버(20)의 기준 정보부(250)에서는 제 2 제어부(200)의 제어에 따라 카메라 모듈(10)로부터 수신한 영상을 분석할 수 있다(S200).Then, the
기준 정보부(250)는, 분석 결과를 근거로 하여, 촬영 영역의 위치 정보를 판별할 수 있다(S210).Based on the analysis result, the
촬영 영역의 위치 정보는 GPS 좌표 정보를 포함할 수 있다.Location information of the capturing area may include GPS coordinate information.
또는, 촬영 영역의 위치 정보는 카메라 모듈(10)을 기준으로 하는 상대적인 위치 정보를 포함할 수 있다.Alternatively, the location information of the capturing area may include relative location information with respect to the
예를 들면, 촬영 영역의 제 1 지점은 카메라 모듈(10)로부터 얼마만큼 떨어져 있고, 제 1 지점에 대응하는 카메라 모듈(10)의 촬영 각도는 어느 정도이고, 카메라 모듈(10)을 기준으로 제 1 지점이 위치하는 방향은 어느 방향인지에 대한 정보가 촬영 영역의 위치 정보로서 이용될 수 있다.For example, how far is the first point of the photographing area from the
아울러, 서버(20)는 카메라 모듈(10)의 위치 정보, 측 카메라 모듈(10)이 설치된 지점의 위치 정보를 판별할 수 있다(S220).In addition, the
여기서, 카메라 모듈(10)의 위치 정보는 카메라 모듈(10)의 GPS 좌표 정보, 카메라 모듈(10)의 수직방향(Vertical Direction)으로의 위치 정보, 즉 고도 정보(높이 정보)를 포함할 수 있다.Here, the location information of the
이후, 기준 정보부(250)는 촬영 영역에 대한 위치 정보와 카메라 모듈(10)의 위치 정보를 이용하여 촬영 영역 상의 위치에 따른 기준 사이즈 정보를 판별할 수 있다(S230).Thereafter, the
카메라 모듈(10)이 도 5에 나타나 있는 바와 같은 영역(촬영 영역)을 촬영하는 경우를 가정하여 보자.Assume that the
기준 정보부(250)는 카메라 모듈(10)이 촬영한 영상(도 5의 영상)으로부터 촬영 영역의 제 1 지점(P1), 제 2 지점(P2), 제 3 지점(P3) 및 제 4 지점(P4)의 위치 정보를 판별할 수 있다.The
여기서는, 이해를 돕기 위해 촬영 영역에서 총 4개의 지점에 대한 위치 정보를 판별하고 이를 이용하는 경우를 설명하고 있으나, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 본 발명에서는 촬영 영역의 모든 지점에 대한 위치 정보를 판별하고 이를 이용하는 것이 가능하다.Here, a case of determining and using location information for a total of four points in a photographing area is described for better understanding, but the present invention may not be limited thereto. For example, in the present invention, it is possible to determine and use location information for all points in the imaging area.
위치 정보는 해당 지점의 GPS 좌표 정보, 카메라 모듈(10)로부터의 거리에 대한 정보, 해당 지점에 대응하는 카메라 모듈(10)의 촬영 각도에 대한 정보, 카메라 모듈(10)을 기준으로 하는 방향에 대한 정보 등을 포함할 수 있다.The location information includes GPS coordinate information of a corresponding point, information about a distance from the
기준 정보부(250)는 판별한 촬영 영역의 위치 정보를 근거로 하여 위치에 따른 기준 정보를 생성 및 판별할 수 있다.The
보통 사람의 경우 키가 50cm(유아 등)~200cm(성인 등)인 경우를 가정하여 보자.Let's assume that the height of an average person is 50 cm (such as infants) to 200 cm (such as adults).
이러한 경우, 제 2 지점(P2)에 대응하는 객체(사람)의 키에 대한 기준 정보를 [10m, 0.5cm~2.0cm, 50cm~200cm]로 설정할 수 있다.In this case, reference information about the height of the object (person) corresponding to the second point P2 may be set to [10m, 0.5cm~2.0cm, 50cm~200cm].
예를 들어, 도 6에 나타나 있는 바와 같이, 카메라 모듈(10)이 촬영한 영상에서 카메라 모듈(10)로부터(Pc) 10m떨어진 제 2 지점(P2)에 위치하는 사람의 키가 0.5cm~2.0cm(L1)로 나타나 있는 경우에, 그 사람의 실제 키는 100배인 50cm~200cm인 것을 의미할 수 있다.For example, as shown in FIG. 6, in the image taken by the
제 2 지점(P2)보다 카메라 모듈(10)로부터 더 멀리 떨어진 제 1 지점(P1)에 대응하는 객체(사람)의 키에 대한 기준 정보는 [50m, 0.1cm~0.4cm, 50cm~200cm]로 설정하는 것이 가능하다.The reference information on the height of the object (person) corresponding to the first point P1 farther from the
예를 들어, 도 6에 나타나 있는 바와 같이, 카메라 모듈(10)이 촬영한 영상에서 카메라 모듈(10)로부터(Pc) 50m떨어진 지점(P1)에 위치하는 사람의 키가 0.1cm~0.4cm(L2)로 나타나 있는 경우에, 그 사람의 실제 키는 500배인 50cm~200cm인 것을 의미할 수 있다.For example, as shown in FIG. 6, in the image taken by the
카메라 모듈(10)이 촬영한 영상에서 카메라 모듈(10)로부터 10m떨어진 위치(P2)에 키가 1.8cm인 물체가 검출되는 위치하는 경우를 가정하여 보자.Assume that an object with a height of 1.8 cm is detected at a position P2 10 m away from the
이러한 경우에는, 위에서 언급한 객체의 키에 대한 기준 정보를 적용하면 해당 물체의 키는 대략 180cm이고, 이에 따라 해당 물체의 키는 보통 사람에 대응되는 것으로 판단할 수 있다.In this case, if the reference information on the height of the object mentioned above is applied, the height of the object is approximately 180 cm, and accordingly, it can be determined that the height of the object corresponds to a normal person.
물론, 키가 충분히 작은 영유아 또는 농구 선수 등 키가 유별나게 큰 사람의 경우에는 키에 대한 다른 기준 정보를 적용하는 것이 가능하다.Of course, in the case of an unusually tall person such as a sufficiently short infant or basketball player, it is possible to apply other reference information about height.
이후, 검출된 물체의 형태를 근거로 하여 검출된 물체가 객체(사람)인 것으로 판단하는 것이 가능할 수 있다.Then, it may be possible to determine that the detected object is an object (person) based on the shape of the detected object.
도 7에 나타나 있는 바와 같이, 카메라 모듈(10)이 촬영한 영상에서 제 1 지점(P1)에 과도하게 큰 키, 예컨대 1.8cm의 키를 갖는 물체가 위치하는 경우를 가정하여 보자.As shown in FIG. 7 , suppose an object having an excessively tall height, for example, 1.8 cm, is located at the first point P1 in the image captured by the
이러한 경우에는 기준 정보를 근거로 판단한 물체의 실제 키는 대략 9m일 수 있다.In this case, the actual height of the object determined based on the reference information may be approximately 9 m.
사람이 9m의 키를 갖는 경우는 충분히 드물거나 불가능하기 때문에 해당 물체는 객체(사람)가 아닌 동상, 마네킹, 간판, 벽화 또는 영상 등으로 판단할 수 있다.Since it is sufficiently rare or impossible for a person to have a height of 9m, the object can be judged as a statue, mannequin, signboard, mural, or video rather than an object (person).
이러한 경우에는 해당 물체를 카운팅하지 않을 수 있다.In this case, the object may not be counted.
기준 정보를 생성 및/또는 판별하기 위해 카메라 모듈(10)로부터의 거리 뿐 아니라, 촬영 영역에서 위치에 따른 촬영 각도를 함께 고려하는 것이 가능하다.In order to generate and/or determine reference information, it is possible to consider not only the distance from the
예를 들어, 카메라 모듈(10)이 고층 건물 등에 설치되는 경우에 촬영 영상 상의 위치에 따라 촬영 각도는 다를 수 있다.For example, when the
기준 정보는 객체의 형태 정보를 포함하는 것이 가능하다.Reference information may include object shape information.
예를 들어, 보통 사람의 경우 머리, 팔, 다리 및 몸통 부분을 갖고, 긴 형태를 갖는 것이 가능하다. 이러한 보통 사람의 형태 정보가 기준 정보로서 이용될 수 있다.For example, in the case of a normal person, it is possible to have a long shape with a head, arms, legs and torso. Such information on the shape of a normal person may be used as reference information.
만약, 카메라 모듈(10)이 촬영한 영상에서 지면을 네 개의 발로 지지하고, 꼬리를 갖는 형태를 갖는 물체가 나타나 있는 경우에는, 해당 물체는 객체(사람)이 아닌 개, 말 등의 동물일 가능성이 높다.If an object supporting the ground with four feet and having a tail appears in the image captured by the
따라서 이러한 경우에는 카운팅하지 않을 수 있다.Therefore, in this case, it may not be counted.
이상에서와 같이, 기준 정보부(250)가 촬영 영역의 위치에 따른 기준 정보를 생성 및/또는 판별하는 경우에는, 촬영 영상의 환경에 무관하게 객체와 객체의 수를 신속하고 정밀하게 판별하는 것이 가능할 수 있다.As described above, when the
예를 들어, 촬영 영역에 대응하여 기준 정보를 각각 설정하지 않고, 모든 카메라 모듈(10)에 대응하여 동일한 기준을 설정한 경우를 가정하여 보자.For example, let's assume a case where the same criterion is set corresponding to all the
이러한 경우에는 촬영 영역의 바닥의 굴곡 또는 경사도, 주변 건물의 배치 등의 주변 환경적 요인으로 인해 객체 또는 객체의 수의 검출 과정에서 오류가 발생할 가능성이 상대적으로 높을 수 있다.In this case, the possibility of an error occurring in the process of detecting an object or the number of objects may be relatively high due to environmental factors such as the curvature or slope of the floor of the imaging area and the arrangement of surrounding buildings.
반면에, 카메라 모듈(10)에 따라 촬영 영역에 대응하여 기준 정보를 판별하고 생성하는 경우에는, 해당 촬영 영역의 주변 환경적 요인을 고려하여 기준 정보를 생성하기 때문에 보다 정밀하게 신속한 객체 또는 객체의 수의 검출이 가능할 수 있다.On the other hand, when the
서버(20)는 기준 정보는 주기적 혹은 비주기적으로 갱신하거나, 업데이트 하거나, 추가하거나 삭제하는 것이 가능하다.The
예를 들어, 서버(20)는 카메라 모듈(10)이 촬영한 영상을 분석하여 객체가 아닌 다른 부분, 예컨대 건물, 도로 등 배경이 되는 부분이 변경되는 것으로 판단하는 경우에, 기준 정보를 새롭게 생성 및/또는 판별할 수 있다.For example, when the
자세하게는, 기준 영상을 변경하는 경우에 기준 정보도 새롭게 생성 및/또는 판별하여 변경하는 것이 가능할 수 있다.In detail, when changing the reference image, it may be possible to newly generate and/or determine and change the reference information as well.
기준 영상을 변경하는 방법은 이하의 도 19에서 상세히 설명하기로 한다.A method of changing the reference image will be described in detail with reference to FIG. 19 below.
서버(20)의 기준 정보부(250)는 이상에서 설명한 기준 정보를 이용하여 카메라 모듈(10)이 촬영한 영상에서 객체(사람)를 판별할 수 있다.The
이하에서는 첨부된 도면을 참조하여 비교 영상 및 기준 영상에 대해 설명하기로 한다.Hereinafter, a comparison image and a reference image will be described with reference to the accompanying drawings.
도 8 내지 도 20은 비교 영상 및 기준 영상에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.8 to 20 are diagrams for explaining a comparison image and a reference image. Hereinafter, description of the parts described in detail above may be omitted.
도 8을 살펴보면, 설정 모드에서 카메라 모듈(10)이 주변 영상을 촬영(S100)하면, 비교 영상부(260)는 촬영한 영상을 비교 영상으로 설정할지의 여부를 판단할 수 있다(S110).Referring to FIG. 8 , when the
S110 단계에서 판단결과, 촬영한 영상을 비교 영상으로 설정하지 않는 경우에는 미리 설정된 제 1 기능(Default 1)을 수행할 수 있다(S120).As a result of the determination in step S110, when the captured image is not set as a comparison image, a preset first function (Default 1) may be performed (S120).
제 1 기능은 다음 영상을 비교 영상으로 설정할지의 여부를 판단하는 기능, 비교 영영 설정을 종료하는지의 여부를 판단하는 기능 등을 예로 들 수 있다.The first function may include, for example, a function of determining whether to set the next image as a comparison image, a function of determining whether to end setting of a comparison region, and the like.
반면에, S110 단계에서 판단결과, 촬영한 영상을 비교 영상으로 설정하는 경우에는 비교 영상부(260)는 해당 영상에서 객체의 수를 검출할 수 있다(S130).On the other hand, as a result of the determination in step S110, when the captured image is set as a comparison image, the
이후, 비교 영상부(260)는 해당 영상을 비교 영상으로 저장할 수 있다(S140).Thereafter, the
한편, 카메라 모듈(10)이 주변 영상을 촬영(S100)한 이후에 기준 영상을 설정하는 것이 가능하다.Meanwhile, it is possible to set the reference image after the
기준 영상에 대한 내용은 도 17 이후에 보다 상세히 설명하기로 한다.Contents of the reference image will be described in more detail after FIG. 17 .
도 9의 (A), (B)에 나타나 있는 바와 같은 영상을 비교 영상으로 설정하는 경우를 가정하여 보자.Assume that the images shown in (A) and (B) of FIG. 9 are set as comparison images.
도 9의 (A)의 경우에는 카메라 모듈(10)이 촬영한 영상에서 객체(OB)들이 촬영 영역 내에서 단독으로 흩어져 있는 상태라고 할 수 있다.In the case of (A) of FIG. 9 , it can be said that the objects OB are scattered singly within the photographing area in the image captured by the
이러한 경우에는, 미리 설정된 기준 정보를 근거로 하여 영상에 포함되어 있는 객체의 수, 즉 군중의 수를 검출할 수 있다.In this case, the number of objects included in the image, that is, the number of crowds, may be detected based on preset reference information.
예를 들면, 도 9의 (A)의 영상에서 객체(OB)의 위치 정보(객체(OB)가 위치한 지점의 위치 정보) 및 객체(OB)의 위치에서의 객체(OB)의 키, 형태 등의 기준 정보를 근거로 하여 객체의 수를 검출할 수 있다. 이는 서버(20)의 검출부(280)의 객체 검출부(281) 및 객체 수 검출부(282)가 기준 정보를 이용하여 수행할 수 있다.For example, in the image of (A) of FIG. 9, the location information of the object OB (the location information of the point where the object OB is located) and the key, shape, etc. of the object OB at the location of the object OB The number of objects can be detected based on the reference information of This can be performed by the
이후, 도 9의 (A)의 영상의 패턴을 저장하고, 도 9의 (A)의 영상에 포함된 객체의 수에 대한 정보를 해당 패턴에 매칭시켜 저장할 수 있다.Thereafter, the pattern of the image of FIG. 9(A) may be stored, and information on the number of objects included in the image of FIG. 9(A) may be matched to the corresponding pattern and stored.
예를 들면, 도 10에 나타나 있는 바와 같이, 도 9의 (A)의 패턴에 대응하는 영상을 제 1 비교 영상으로 설정하여 저장할 수 있다.For example, as shown in FIG. 10 , an image corresponding to the pattern of FIG. 9 (A) may be set as a first comparison image and stored.
아울러, 제 1 비교 영상에 포함된 객체의 수(인원 수), 제 1 비교 영상을 촬영한 시간, 제 1 비교 영상에 대응하는 날씨 또는 시야에 대한 정보를 제 1 비교 영상에 매칭시켜 저장할 수 있다.In addition, information on the number of objects (number of people) included in the first comparison image, the time at which the first comparison image was taken, and the weather or field of view corresponding to the first comparison image may be matched and stored with the first comparison image. .
도 9의 (B)의 경우에는 카메라 모듈(10)이 촬영한 영상에서 객체(OB)들이 촬영 영역 내에서 소정 지점에 무리지어 모여있는 상태라고 할 수 있다.In the case of (B) of FIG. 9 , it can be said that the objects OB in the image captured by the
이러한 경우에도, 미리 설정된 기준 정보를 근거로 하여 영상에 포함되어 있는 객체의 수, 즉 군중의 수를 검출할 수 있다.Even in this case, the number of objects included in the image, that is, the number of crowds, can be detected based on preset reference information.
이후, 도 9의 (B)의 영상의 패턴을 저장하고, 도 9의 (B)의 영상에 포함된 객체의 수에 대한 정보를 해당 패턴에 매칭시켜 저장할 수 있다.Thereafter, the pattern of the image of FIG. 9 (B) may be stored, and information on the number of objects included in the image of FIG. 9 (B) may be matched to the corresponding pattern and stored.
예를 들면, 도 10에 나타나 있는 바와 같이, 도 9의 (B)의 패턴에 대응하는 영상을 제 2 비교 영상으로 설정하여 저장할 수 있다.For example, as shown in FIG. 10 , an image corresponding to the pattern of FIG. 9 (B) may be set as a second comparison image and stored.
아울러, 제 2 비교 영상에 포함된 객체의 수(인원 수), 제 2 비교 영상을 촬영한 시간, 제 2 비교 영상에 대응하는 날씨 또는 시야에 대한 정보를 제 2 비교 영상에 매칭시켜 저장할 수 있다.In addition, information on the number of objects (number of people) included in the second comparison image, the time at which the second comparison image was taken, and the weather or field of view corresponding to the second comparison image may be matched and stored with the second comparison image. .
비교 영상부(260)는 주기적 및/또는 비주기적으로 비교 영상을 추가하거나, 업데이트하는 것이 가능하다.The
비교 영상의 수는 많을수록 정밀한 군중 계수가 가능할 수 있기 때문에 비교 영상부(260)는 미리 설정된 주기마다 새로운 비교 영상을 추가하는 것이 가능하다.As the number of comparison images increases, precise crowd counting may be possible, and thus the
만약, 추가하려는 비교 영상과 충분히 유사한 경우(유사도가 미리 설정된 임계 유사도보다 더 큰 경우)에는 이전 영상을 삭제하는 것이 가능하다.If it is sufficiently similar to the comparison image to be added (if the similarity is greater than a preset threshold similarity), it is possible to delete the previous image.
제 1 비교 영상이 저장되어 있는 상태에서 비교 영상부(260)가 새로운 제 10 비교 영상을 생성한 경우를 가정하여 보자.Assume that the
여기서, 제 1 비교 영상과 제 10 비교 영상의 유사도가 미리 설정된 임계 유사도보다 더 큰 경우에 제 1 비교 영상을 삭제하고, 제 10 비교 영상을 새롭게 저장할 수 있다.Here, when the similarity between the first comparison image and the tenth comparison image is greater than a preset threshold similarity, the first comparison image may be deleted, and the tenth comparison image may be newly stored.
물론, 보다 정밀한 군중 계수를 위해 유사도가 충분히 높은 제 1 비교 영상과 제 10 비교 영상을 함께 저장하는 것도 가능할 수 있다.Of course, it may be possible to store the 1st comparison image and the 10th comparison image having a sufficiently high degree of similarity together for more accurate crowd counting.
비교 영상의 개수가 많다는 것(비교 블록의 개수가 많다는 것)은 서버(20)의 인공지능의 학습이 더 심화되었음을 나타낼 수 있다.The fact that the number of comparison images is large (the number of comparison blocks is large) may indicate that the learning of the artificial intelligence of the
아울러, 비교 영상의 개수(비교 블록의 개수)가 많으면 많을수록 보다 정밀한 군중 계수가 가능할 수 있다.In addition, as the number of comparison images (the number of comparison blocks) increases, more precise crowd counting may be possible.
서버(20)의 인공지능의 학습의 심화를 위해 주기적 및/또는 비주기적으로 비교 영역(비교 블록)을 생성, 업데이트, 추가하는 것이 가능할 수 있다.It may be possible to periodically and/or non-periodically create, update, and add a comparison area (comparison block) to deepen the learning of the artificial intelligence of the
군중 계수 모드에서 카메라 모듈(10)이 소정의 제 1 영상을 촬영한 경우를 가정하여 보자. 여기서, 군중 계수 모드는 카메라 모듈(10)이 촬영한 영상에 포함된 객체의 수를 검출하는 모드라고 할 수 있다. 이러한 군중 계수 모드에서 대해서는 도 21의 이후에 상세히 설명하기로 한다.Assume that the
카메라 모듈(10)이 제 1 영상을 촬영하여 서버(20)로 전송하면, 서버(20)의 비교 영상부(260)는 전송받은 제 1 영상의 패턴을 분석할 수 있다.When the
아울러, 비교 영상부(260)는 제 1 영상의 패턴을 미리 저장되어 있는 비교 영상들과 비교하여 유사한 영상 패턴을 판별할 수 있다.In addition, the
예를 들어, 제 1 영상의 패턴이 미리 저장된 제 1 비교 영상과 가장 유사하다고 판단한 경우에는 비교 영상부(260)는 제 1 비교 영상이 제 1 영상의 패턴과 가장 유사하다는 판별결과를 검출부(280)로 전송할 수 있다.For example, when it is determined that the pattern of the first image is most similar to the first comparison image stored in advance, the
그러면 검출부(280)의 객체 수 검출부(282)는 제 1 비교 영상에 포함된 객체의 수에 대한 정보를 판별하고, 판별한 정보를 제 1 영상에 포함된 객체의 수로서 검출할 수 있다.Then, the object
이상에서는 카메라 모듈(10)이 촬영한 영상을 전체적으로 비교 영상으로 설정하는 방법을 설명하였으나, 본 발명은 이에 한정되지 않을 수 있다.In the above, the method of setting the image taken by the
예를 들면, 카메라 모듈(10)이 촬영한 영상, 즉 비교 영상에서 객체(OB)가 포함된 일부 영역을 추출하고, 추출한 일부 영역의 객체(OB)에 대응되는 영상의 패턴을 비교 블록으로 설정하는 것이 가능하다.For example, a partial area including an object OB is extracted from an image captured by the
여기서, 비교 블록은 다른 타입의 비교 영상이라고도 할 수 있다.Here, the comparison block may also be referred to as a comparison image of another type.
이러한 관점에서는, 비교 블록은 앞선 도 9의 (A), (B)에서 설명한 비교 영상과 비교하여 사이즈가 상대적으로 작은 영상이라고 할 수 있다. 이를 고려하여 블록이라는 용어를 사용할 수 있다.From this point of view, the comparison block can be said to be an image having a relatively small size compared to the comparison images described above in (A) and (B) of FIG. 9 . Considering this, the term block can be used.
카메라 모듈(10)이 도 11의 (A)와 같은 영상을 촬영하고, 촬영한 영상을 비교 영상부(260)가 비교 영상으로 설정하는 경우를 가정하여 보자.Assume that the
비교 영상부(260)는 도 11의 (A)의 영상에서 객체(OB)가 위치하는 영역, 즉 제 1 영역(AR1)과 제 2 영역(AR2)을 각각 관심 영역으로 설정할 수 있다.The
이후, 도 11의 (B)에 나타나 있는 바와 같이, 관심 영역에 포함된 객체(OB)들의 외곽을 둘러싸도록 영상 블록을 설정하는 것이 가능하다.Then, as shown in (B) of FIG. 11 , it is possible to set image blocks to surround the periphery of the objects OB included in the region of interest.
예를 들면, 제 1 영역(AR1)에 포함된 객체(OB)들을 둘러싸도록 영상 블록을 설정하고, 설정한 영상 블록을 제 1 비교 블록(PT1)으로서 설정하여 저장하는 것이 가능하다. 다르게 표현하면, 비교 영상의 일부를 제 1 비교 블록(PT1)으로 설정하는 것이 가능하다.For example, it is possible to set an image block to surround the objects OB included in the first area AR1, set the set image block as the first comparison block PT1, and store the set image block. In other words, it is possible to set a part of the comparison image as the first comparison block PT1.
제 1 영역(AR1)에서 제 1 비교 블록(PT1)을 설정한 이후에 제 1 비교 블록(PT1)에 포함된 객체의 수를 검출할 수 있다.After setting the first comparison block PT1 in the first area AR1, the number of objects included in the first comparison block PT1 may be detected.
예를 들면, 서버(20)의 검출부(280)가 제 1 비교 블록(PT1)에 포함된 객체의 수를 검출할 수 있다.For example, the
제 1 비교 블록(PT1)에 복수의 객체(OB)가 겹쳐져서(Overlap) 위치할 수 있다. 이러한 경우에는 검출부(280)는 다른 방식으로 제 1 비교 블록(PT1)에 포함된 객체의 수를 검출할 수 있다. 이에 대해서는 추후에 상세히 설명하기로 한다.A plurality of objects OB may overlap and be positioned in the first comparison block PT1. In this case, the
여기서, 비교 블록은 단수 혹은 복수의 객체(OB)들이 위치하는 부분에 대응될 수 있다.Here, the comparison block may correspond to a part where one or more objects OB are located.
다른 관점에서 보면, 비교 블록은 단수 혹은 복수의 객체(OB)에 대응되는 영상의 패턴을 의미할 수 있다.From another point of view, the comparison block may mean a pattern of an image corresponding to a single object or a plurality of objects OB.
다수의 객체(OB)가 소정 위치에 모여 있는 경우를 가정하자.Assume that a plurality of objects OB are gathered at a predetermined location.
이러한 경우에는 객체(OB)의 수를 일일이 카운팅하는 것보다는 다수의 객체(OB)가 모여 있는 패턴을 분석하여 객체의 수를 검출하는 것이 빠를 수 있다.In this case, it may be faster to detect the number of objects by analyzing a pattern in which a plurality of objects OB are gathered rather than counting the number of objects OB one by one.
이러한 비교 블록의 종류는 많을수록 군중 계수의 정밀도가 향상될 수 있다.As the number of comparison blocks increases, the accuracy of the crowding coefficient can be improved.
비교 영상부(260)는 비교 블록의 패턴 정보를 저장하고, 해당 비교 블록에 대응되는 객체의 수(인원 수)에 대한 정보도 매칭시켜 서버(20)의 데이터 베이스(DB, 230)에 저장할 수 있다.The
도 11의 (A)의 제 2 영역(AR2)을 제 1 영역(AR1)과 비교하면, 제 2 영역(AR2)의 사이즈는 상대적으로 작지만, 제 2 영역(AR2)에도 제 1 비교 블록(PT1)이 포함될 수 있다. 아울러, 카메라 모듈(10)과 제 2 영역(AR2) 사이의 거리(D2)는 카메라 모듈(10)과 제 1 영역(AR1) 사이의 거리(D1)보다 더 클 수 있다.When the second area AR2 of FIG. 11(A) is compared with the first area AR1, the size of the second area AR2 is relatively small, but the first comparison block PT1 is also included in the second area AR2. ) may be included. In addition, the distance D2 between the
이는 카메라 모듈(10)이 촬영한 영상에서 제 2 영역(AR2)의 사이즈는 제 1 영역(AR1)의 사이즈보다 작지만, 제 1 영역(AR1)에 포함된 객체의 수와 제 2 영역(AR2)에 포함된 객체의 수는 동일 혹은 유사할 수 있음을 나타낼 수 있다.In the image captured by the
이를 고려할 때, 비교 블록에 대한 정보는 비교 블록의 패턴에 대한 정보, 비교 블록에 포함된 객체의 수에 대한 정보, 비교 블록의 사이즈에 대한 정보, 카메라 모듈(10)과 비교 블록 사이의 거리에 대한 정보, 카메라 모듈(10)을 기준으로 비교 블록이 위치하는 방향에 대한 정보 등을 포함할 수 있다.Considering this, the information on the comparison block is information about the pattern of the comparison block, information about the number of objects included in the comparison block, information about the size of the comparison block, and the distance between the
이러한 비교 블록에 대한 정보는 서로 매칭되어 서버(20)의 데이터 베이스(230)에 저장될 수 있다.Information on these comparison blocks may be matched with each other and stored in the
도 12의 제 1 영역(AR1)과 제 3 영역(AR3)을 비교하면 제 1 영역(AR1)과 제 3 영역(AR3)의 사이즈는 서로 유사하고, 제 1 영역(AR1)과 제 3 영역(AR3) 모두 제 1 비교 블록(PT1)을 포함할 수 있다. 아울러, 카메라 모듈(10)과 제 3 영역(AR3) 사이의 거리(D3)는 카메라 모듈(10)과 제 1 영역(AR1) 사이의 거리(D1)보다 더 클 수 있다.Comparing the first area AR1 and the third area AR3 of FIG. 12 , the sizes of the first area AR1 and the third area AR3 are similar to each other, and the first area AR1 and the third area ( AR3) may all include the first comparison block PT1. In addition, the distance D3 between the
이를 고려하면, 카메라 모듈(10)이 촬영한 영상에서 제 3 영역(AR3)의 사이즈는 제 1 영역(AR1)의 사이즈와 유사 혹은 동일하지만, 제 3 영역(AR3)에 포함된 객체의 수는 제 1 영역(AR1)에 포함된 객체의 수보다 더 많을 수 있음을 나타낼 수 있다.Considering this, the size of the third area AR3 in the image captured by the
이를 고려하면, 비교 블록의 패턴 형태와 카메라 모듈(10)로부터의 거리도 군중 계수에 대한 주요 변수라고 할 수 있다.Considering this, the pattern shape of the comparison block and the distance from the
도 13에 다양한 비교 블록에 대한 정보를 나타내었다.13 shows information on various comparison blocks.
도 13을 살펴보면, 제 1 비교 블록(PT1)에 관련해서는 기본 객체수(기본 인원수)가 5명이고, 카메라 모듈(10)과의 거리에 따른 가중치(거리 가중치)가 미터당 1.2이고, 넓이 가중치가 제곱미터당 1.02일 수 있다.Referring to FIG. 13, in relation to the first comparison block PT1, the basic number of objects (basic number of people) is 5, the weight according to the distance to the camera module 10 (distance weight) is 1.2 per meter, and the width weight is It may be 1.02 per square meter.
거리 가중치는 제 1 비교 블록(PT1)과 카메라 모듈(10) 사이의 거리가 미리 설정된 기본 거리(예컨대 10m)에서 단위 거리(예컨대 5m) 만큼 증가할 때마다 가중치가 1.2만큼 증가함을 나타낼 수 있다.The distance weight may indicate that the weight increases by 1.2 whenever the distance between the first comparison block PT1 and the
넓이 가능치는 제 1 비교 블록(PT1)의 넓이가 기본 넓이(예컨대 2제곱미터)에서 단위 넓이(예컨대 1제곱미터) 만큼 증가할 때마다 가중치가 1.02만큼 증가함을 나타낼 수 있다.The possible area may indicate that the weight is increased by 1.02 whenever the area of the first comparison block PT1 increases by the unit area (eg, 1 square meter) from the basic area (eg, 2 square meters).
제 1 비교 블록(PT1)의 기본 객체수는 제 1 비교 블록(PT1)의 넓이가 기본 넓이를 갖고, 제 1 비교 블록(PT1)과 카메라 모듈(10)의 사이의 거리가 기본 거리인 경우에 제 1 비교 블록(PT1)에 포함되는 객체의 수를 나타낼 수 있다.The number of basic objects of the first comparison block PT1 is determined when the area of the first comparison block PT1 has the basic area and the distance between the first comparison block PT1 and the
예를 들어, 제 1 비교 블록(PT1)의 넓이가 기본 넓이(예컨대 2제곱미터)이고, 제 1 비교 블록(PT1)과 카메라 모듈(10) 사이의 거리가 기본 거리(예컨대 10m)인 경우에, 제 1 비교 블록(PT1)에 포함되는 객체의 수는 기본 객체수에 대응되는 5명일 수 있다.For example, when the area of the first comparison block PT1 is the basic area (eg, 2 square meters) and the distance between the first comparison block PT1 and the
만약, 제 1 비교 블록(PT1)의 넓이가 기본 넓이보다 단위 넓이 만큼 더 넓고(예컨대 3제곱미터), 제 1 비교 블록(PT1)과 카메라 모듈(10) 사이의 거리가 기본 거리보다 단위 거리 만큼 더 큰 경우(예컨대 15m), 제 1 비교 블록(PT1)에 포함되는 객체의 수는 6.12명(5ㅧ1.2ㅧ1.02)일 수 있다.If the area of the first comparison block PT1 is wider than the basic area by a unit area (for example, 3 square meters), and the distance between the first comparison block PT1 and the
여기서는, 거리 가중치를 1.2로 설정하고, 넓이 가중치를 1.02로 설정하는 경우를 설명하였지만, 이는 이해를 돕기 위해 임의로 설정한 것으로서 본 발명이 이에 한정되지 않을 수 있다.Here, the case where the distance weight is set to 1.2 and the width weight is set to 1.02 has been described, but these are arbitrarily set for easy understanding, and the present invention may not be limited thereto.
이처럼, 비교 블록의 패턴의 형태 정보, 비교 블록에 포함되는 객체의 수에 대한 정보, 비교 블록의 카메라 모듈(10)과의 거리에 대한 정보, 비교 블록의 사이즈(넓이)에 대한 정보를 매칭시켜 저장하는 경우에는, 카메라 모듈(10)이 촬영한 영상에서 객체(OB)들을 일일이 카운팅하지 않고, 유사한 비교 블록을 찾아서 그에 대응하는 객체의 수에 대한 정보를 확인하는 방법으로 신속하고 정밀한 군중 계수를 수행할 수 있다.In this way, the pattern shape information of the comparison block, information on the number of objects included in the comparison block, information on the distance of the comparison block to the
한편, 비교 블록은 다양한 형태를 가질 수 있다.Meanwhile, the comparison block may have various forms.
예를 들어, 도 14의 (A), (B)와 같이 제 2 비교 블록(PT2)은 중앙이 비어 있는 도넛 형태인 경우도 가능할 수 있다.For example, as shown in (A) and (B) of FIG. 14 , the second comparison block PT2 may have a donut shape with an empty center.
복수의 객체(OB)들이 모여 강강술래 놀이 등을 하는 경우에 도 14의 (A)와 같은 타입의 제 2 비교 블록(PT2)이 형성될 수 있다.When a plurality of objects OB gather to play Ganggangsullae, a second comparison block PT2 of the type shown in (A) of FIG. 14 may be formed.
도 14의 (B)의 경우는 (A)와 비교하여 동일하게 제 2 비교 블록(PT2)을 형성하지만, 비교 블록에 포함되는 객체(OB)의 수는 상대적으로 더 많을 수 있다.In the case of (B) of FIG. 14, the second comparison block PT2 is formed identically to that of (A), but the number of objects OB included in the comparison block may be relatively greater.
복수의 객체(OB)들이 캠프 파이어 등을 하는 경우에 도 14의 (B)와 같은 타입의 제 2 비교 블록(PT2)을 형성될 수 있다.When a plurality of objects OB have a campfire or the like, a second comparison block PT2 of the type shown in (B) of FIG. 14 may be formed.
도 14의 (A)와 (B)의 객체 수의 차이는 앞서 설명한 거리 가중치 및/또는 넓이 가중치를 이용하여 판별할 수 있다.The difference in the number of objects in (A) and (B) of FIG. 14 can be determined using the above-described distance weight and/or area weight.
이와 같이, 적어도 하나의 객체(OB)를 포함하는 비교 블록에 대응하여 패턴의 형태에 대한 정보, 비교 블록에 포함된 객체의 수에 대한 정보, 거리에 대한 정보, 넓이에 대한 정보 등을 매칭시켜 저장하게 되면, 군중 계수를 보다 신속하게 정밀하게 수행할 수 있다.In this way, information on the shape of the pattern, information on the number of objects included in the comparison block, information on distance, information on area, etc. are matched in response to the comparison block including at least one object OB. When stored, crowd counting can be performed more quickly and precisely.
한편, 비교 영상 혹은 비교 블록에서 복수의 객체(OB)가 겹쳐져서 위치하는 경우에는 정밀한 객체의 수의 판별이 어려울 수 있다.On the other hand, when a plurality of objects (OB) overlap each other in the comparison image or comparison block, it may be difficult to accurately determine the number of objects.
이러한 경우에는 미리 저장한 동영상 타입의 영상을 역재생하여 충분히 정확한 객체의 수를 판별하는 것이 가능하다. 복수의 객체(OB)가 중첩되는 영상 패턴을 갖는 비교 블록을 중첩 블록(Overlapping Block)이라고 할 수 있다.In this case, it is possible to determine the number of objects sufficiently accurately by replaying previously stored video type images in reverse. A comparison block having an image pattern in which a plurality of objects OB overlap may be referred to as an overlapping block.
도 15에 나타나 있는 바와 같이, 객체수를 검출하는 과정(S130)에서는 먼저 비교 영상 혹은 비교 블록에 복수의 객체(OB)가 겹쳐져 있는지의 여부를 판단할 수 있다(S131).As shown in FIG. 15, in the process of detecting the number of objects (S130), it may first be determined whether or not a plurality of objects OB overlap a comparison image or a comparison block (S131).
S131단계에서 판단결과, 복수의 객체(OB)가 겹쳐져 있지 않은 경우에 검출부(280)의 객체 검출부(281)와 객체 수 검출부(282)가 비교 영상 혹은 비교 블록에 포함되어 있는 객체의 수를 카운팅하여 판별할 수 있다(S134).As a result of determination in step S131, when the plurality of objects OB do not overlap, the
반면에, S131단계에서 판단결과, 복수의 객체(OB)가 겹쳐져 있는 경우에는 검출부(280)는 미리 저장되어 있는 영상을 역재생할 수 있다(S132).On the other hand, as a result of the determination in step S131, when a plurality of objects OB overlap, the
이를 위해, 서버(20)는 데이터 베이스(DB, 230)에 카메라 모듈(10)이 촬영한 영상을 동영상 형태로 저장하는 것이 가능하다.To this end, the
카메라 모듈(10)이 촬영한 영상에서 aaa시점의 영상의 일부의 패턴을 비교 블록으로 저장하는 경우를 가정하여 보자. 이러한 aaa시점의 영상의 일부의 패턴이 비교 블록의 일종인 중첩 블록이라고 할 수 있다.Let's assume a case where a pattern of a part of an image at a point of aaa is stored as a comparison block in an image captured by the
이러한 경우, 검출부(280)는 카메라 모듈(10)이 촬영한 영상을 aaa시점부터 역재생할 수 있다.In this case, the
아울러, 영상을 역재생하면서 해당 비교 블록에 포함된 각각의 객체(OB)의 동선을 추적(S133)하고, 추적한 객체(OB)의 수를 카운팅하여 객체 수를 판별할 수 있다.In addition, the number of objects may be determined by tracking the movement of each object OB included in the corresponding comparison block (S133) and counting the number of tracked objects OB while replaying the video in reverse.
예를 들어, 비교 영상부(260)가 도 16의 (A)와 같은 형태를 갖는 패턴을 제 3 비교 블록(PT3)으로 저장하는 경우를 가정하자.For example, assume a case where the
도 16의 (A)의 비교 블록은 다수의 객체(OB)가 겹쳐진 영상 패턴을 갖는 것으로 볼 수 있다. 도 16의 (A)는 중첩 블록의 일종이라고 볼 수 있다.The comparison block of FIG. 16 (A) can be viewed as having an image pattern in which a plurality of objects OB overlap. 16(A) can be regarded as a kind of overlapping block.
이러한 경우, 검출부(280)는 카메라 모듈(10)이 촬영한 동영상 타입의 영상을 역재생할 수 있다.In this case, the
그러면, 도 16의 (B), (C)와 같이 카메라 모듈(10)이 촬영한 영상을 거꾸로 재생하는 과정에서 이동하거나 무리(제 3 비교 블록(PT3))로부터 분리되는 각각의 객체(OB)들의 동선(움직임, 이동)을 추적하고, 객체(OB)의 수를 카운팅할 수 있다.Then, as shown in (B) and (C) of FIG. 16, each object OB moved or separated from the group (third comparison block PT3) in the process of reproducing the image taken by the
각각의 객체(OB)들의 움직임을 추적하면 영상의 데이터의 변화가 발생하는데, 이러한 영상 데이터의 변화를 감지하여 객체(OB)의 수를 검출할 수 있다.When the movement of each object OB is tracked, a change in image data occurs, and the number of objects OB can be detected by detecting the change in image data.
이러한 방법을 사용하면, 다수의 객체(OB)가 겹치듯이 모여있는 비교 블록(제 3 비교 블록(PT3))에서도 객체의 수를 충분히 정밀하게 판별할 수 있다.If this method is used, the number of objects can be accurately determined even in a comparison block (third comparison block PT3) in which a large number of objects OB are gathered like overlapping.
서버(20)에서는 제 3 비교 블록(PT3)에 대한 패턴 형태, 사이즈 등의 정보 및 제 3 비교 블록(PT3)에 대응하는 객체(OB)의 수에 대한 정보를 데이터 베이스(DB, 230)에 저장할 수 있다.The
한편, 카메라 모듈(10)이 촬영한 영상에서 객체(OB)를 용이하게 검출하기 위해 기준 영상을 설정하고, 설정한 기준 영상을 이용하는 것이 가능하다. 기준 영상은 앞서 설명한 기준 정보의 일종이라고 할 수 있다.Meanwhile, in order to easily detect the object OB in an image captured by the
기준 영상은 카메라 모듈(10)에 대응되는 촬영 영역에 객체(OB)가 존재하지 않는 상태의 영상이라고 할 수 있다.The reference image may be referred to as an image in a state in which the object OB does not exist in the capturing area corresponding to the
기준 영상을 설정하기 위해, 도 8의 S100단계에서와 같이 카메라 모듈(10)이 주변의 영상을 촬영할 수 있다. 이러한 경우, 카메라 모듈(10)이 촬영한 영상은 일종의 샘플 영상이라고 할 수 있다.In order to set a reference image, the
이하에서는 기준 영상을 생성하기 위해 카메라 모듈(10)이 촬영한 영상을 샘플 영상이라고 칭할 수 있다.Hereinafter, an image captured by the
아울러, 샘플 영상은 빈 영역(Vacancy Area)(혹은 빈 공간)을 포함하는 영상이라고 할 수 있다. 여기서, 빈 영역은 카메라 모듈(10)이 촬영한 영상에서 객체(OB)가 위치하지 않아서 촬영 영역의 적어도 일부가 노출된 영역이라고 할 수 있다.In addition, the sample image may be referred to as an image including a vacancy area (or vacancy area). Here, the blank area may be referred to as an area where at least a part of the capturing area is exposed because the object OB is not located in the image captured by the
도 8의 S100단계에서 카메라 모듈(10)이 영상, 즉 샘플 영상을 촬영하면, 촬영한 샘플 영상은 서버(20)로 전송될 수 있다.When the
그러면, 서버(20)의 기준 정보부(250)에서는 카메라 모듈(10)로부터 전송받은 샘플 영상을 분석하여 샘플 영상에 빈 영역이 포함되어 있는지의 여부를 판단할 수 있다(S150).Then, the
S150단계에서 판단결과, 카메라 모듈(10)로부터 전송받은 영상에 빈 영역이 포함되지 않은 경우에는 미리 설정된 제 2 기능(Default 2)을 수행할 수 있다.As a result of determination in step S150, when the blank area is not included in the image transmitted from the
여기서, 제 2 기능은 해당 영상이 빈 영역을 포함하는 샘플 영상이 아니라는 것을 알리는 기능 등을 예로 들 수 있다.Here, the second function may be, for example, a function of notifying that the corresponding image is not a sample image including a blank area.
반면에, S150단계에서 판단결과, 카메라 모듈(10)로부터 전송받은 영상에 빈 영역이 포함된 경우에는 해당 영상을 샘플 영상으로 설정할 수 있다.On the other hand, as a result of determination in step S150, if the image transmitted from the
아울러, 샘플 영상에서 검출한 빈 영역에 대한 영상을 조합(S170)하여 기준 영상을 설정하고, 설정한 기준 영상을 저장할 수 있다(S180).In addition, a base image may be set by combining images of blank areas detected from sample images (S170), and the set base image may be stored (S180).
도 17의 (A)에 나타나 있는 바와 같이, 카메라 모듈(10)이 촬영한 영상에서 촬영 영역의 적어도 일부에 객체(OB)가 존재하지 않는 영역, 즉 제 1 빈 영역(First Vacancy Area, VA1)이 포함되는 경우를 가정하자.As shown in (A) of FIG. 17 , in the image captured by the
이러한 경우, 도 17의 (A)와 같은 영상을 제 1 샘플 영상이라고 할 수 있다.In this case, the image shown in (A) of FIG. 17 may be referred to as a first sample image.
도 17의 (B)의 제 2 샘플 영상은 카메라 모듈(10)을 기준으로 촬영 영상에서 촬영 영역의 좌측 부분에 제 2 빈 영역(Second Vacancy Area, VA2)을 포함할 수 있다.The second sample image of FIG. 17 (B) may include a second blank area (VA2) in the left portion of the captured area in the captured image based on the
도 17의 (C)의 제 3 샘플 영상은 카메라 모듈(10)을 기준으로 촬영 영상에서 촬영 영역의 상단 부분에 제 3 빈 영역(Third Vacancy Area, VA3)을 포함할 수 있다.The third sample image of FIG. 17 (C) may include a third empty area (VA3) at an upper portion of the captured area in the captured image based on the
도 17의 (D)의 제 4 샘플 영상은 카메라 모듈(10)을 기준으로 촬영 영상에서 촬영 영역의 좌상단 부분에 제 4 빈 영역(Fourth Vacancy Area, VA4)을 포함할 수 있다.The fourth sample image of FIG. 17 (D) may include a fourth empty area (VA4) at the upper left portion of the captured area in the captured image based on the
서버(20)의 기준 정보부(250)에서는 적어도 하나의 샘플 영상, 바람직하게는 복수의 샘플 영상을 분석하여, 각각의 샘플 영상에서 빈 영역을 검출할 수 있다.The
이후, 샘플 영상에서 검출한 빈 영역에 대한 영상을 조합하여 기준 영상을 생성할 수 있다.Thereafter, a reference image may be generated by combining images of blank areas detected from sample images.
기준 영상의 일례가 도 18에 나타나 있다.An example of a reference image is shown in FIG. 18 .
도 18의 기준 영상은 도 17의 (A), (B), (C), (D)의 제 1 샘플 영상, 제 2 샘플 영상, 제 3 샘플 영상 및 제 4 샘플 영상의 제 1 빈 영역(VA1), 제 2 빈 영역(VA2), 제 3 빈 영역(VA3) 및 제 4 빈 영역(VA4)의 영상을 조합한 영상이라고 할 수 있다.The reference image of FIG. 18 is the first blank area of the first sample image, the second sample image, the third sample image, and the fourth sample image of (A), (B), (C), and (D) of FIG. 17 ( VA1), the second blank area VA2, the third blank area VA3, and the fourth blank area VA4 may be combined images.
이처럼, 각각의 카메라 모듈(10)에 대응하여 기준 영상을 설정하게 되면, 카메라 모듈(10)의 주변 환경, 설치 환경 등에 관계없이 충분히 정밀한 군중 계수가 가능할 수 있다.In this way, if the reference image is set corresponding to each
예를 들면, 카메라 모듈(10)의 설치 위치에 따라, 빛의 양, 빛의 각도, 촬영 영역의 바닥의 굴곡 상태, 카메라 모듈(10)의 시야 등이 변할 수 있다.For example, depending on the installation position of the
이를 고려하여 본 발명에서는 카메라 모듈(10)을 설치 이후에 촬영 영역 상에 객체(OB)가 존재하지 않는 기준 영상을 각각의 카메라 모듈(10)에 대응하여 독립적으로 설정할 수 있다. 이러한 경우에는, 각각의 카메라 모듈(10)의 주변 환경 또는 설치 환경에 대응하여 효과적이고 정밀하게 군중 계수를 수행할 수 있다.In consideration of this, in the present invention, after installing the
한편, 기준 영상은 주기적 및/또는 비주기적으로 갱신, 추가, 삭제 또는 업데이트되는 것이 가능하다. 자세하게는, 서버(20)에서 인공지능을 이용하여 주기적 및/또는 비주기적으로 기준 영상을 갱신, 추가, 삭제 또는 업데이터를 하는 것이 가능할 수 있다.Meanwhile, the reference image may be updated, added, deleted, or updated periodically and/or non-periodically. In detail, it may be possible to periodically and/or non-periodically update, add, delete, or update the reference image by using artificial intelligence in the
이에 대해, 첨부된 도 19를 참조하여 살펴보면 아래와 같다.In this regard, referring to the attached FIG. 19, it will be described below.
도 19를 살펴보면, 기준 영상을 설정한 이후에 카메라 모듈(10)은 주변의 영상을 촬영할 수 있다(S300).Referring to FIG. 19 , after setting a reference image, the
여기서, 카메라 모듈(10)이 촬영한 영상은 대상 영상이라고도 할 수 있고, 샘플 영상이라고도 할 수 있다.Here, the image captured by the
이후, 카메라 모듈(10)이 촬영한 영상은 서버(20)로 전송되고, 서버(20)에서는 카메라 모듈(10)로부터 수신한 영상에서 미리 설정된 기준 영상과는 다르게 변화되는 부분이 있는지의 여부를 판단할 수 있다(S310).Thereafter, the image captured by the
자세하게는, 서버(20)는 카메라 모듈(10)이 일정 주기에 따라 연속적으로 촬영한 복수의 영상을 미리 설정되어 저장되어 있는 기준 영상과 비교하여 변화되는 부분이 있는지의 여부를 판단할 수 있다.In detail, the
여기서, 서버(20)가 기준 영상과 비교하기 위해 사용하는 영상들은 카메라 모듈(10)의 촬영 각도 및 촬영 영역이 기준 영상과 비교하여 동일한 상태에서 촬영된 영상이라고 할 수 있다.Here, the images used by the
S310단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분이 없는 경우에는 미리 설정된 기준 영상을 변경하지 않고 유지할 수 있다(S350).As a result of the determination in step S310, when there is no change in the image captured by the
반면에, S310단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분이 있는 경우에는 변화된 부분의 데이터 변화율이 미리 설정된 기준 변화율 이하인지의 여부를 판단할 수 있다(S320).On the other hand, if there is a changed part in the image captured by the
S320단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분의 변화율이 미리 설정된 기준 변화율보다 더 큰 경우에는 기준 영상을 변경하지 않고 유지할 수 있다(S350).As a result of determination in step S320, if the change rate of the changed part in the image captured by the
반면에, S320단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분의 변화율이 미리 설정된 기준 변화율 이하인 경우에는 변화된 부분이 유지되는 시간이 미리 설정된 기준 시간 이상인지의 여부를 판단할 수 있다(S330).On the other hand, as a result of the determination in step S320, if the change rate of the changed part in the image captured by the
S330단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분의 유지 시간이 미리 설정된 기준 시간 이상인 경우에는 기준 영상을 변경하지 않고 유지할 수 있다(S350).As a result of the determination in step S330, if the holding time of the changed part in the image captured by the
반면에, S330단계에서 판단결과 카메라 모듈(10)이 촬영한 영상에서 변화되는 부분의 유지 시간이 미리 설정된 기준 시간 이상인 경우에는 기존의 기준 영상을 새로운 기준 영상으로 변경하여 설정할 수 있다(S340).On the other hand, as a result of the determination in step S330, if the holding time of the changed part in the image captured by the
새로운 기준 영상을 설정하는 방법은 앞선 도 17 내지 도 18에서 상세히 설명한 바 있다.A method of setting a new reference image has been described in detail with reference to FIGS. 17 to 18 above.
도 20의 (A)에 나타나 있는 바와 같이, 카메라 모듈(10)의 촬영 영역에 동상(Statue)이 새롭게 세워지는 경우를 가정하여 보자.As shown in (A) of FIG. 20 , it is assumed that a statue is newly erected in the photographing area of the
이러한 경우에는, 카메라 모듈(10)이 일정 주기에 따라 연속적으로 촬영한 영상들에는 공통적으로 동상이 포함될 수 있다.In this case, images continuously photographed by the
아울러, 영상에서 동상에 대응하는 데이터의 변화율은 미리 설정된 기준 변화율보다 더 적을 수 있다. 아울러, 영상에서 동상은 미리 설정된 기준 시간 이상 영상에 포함될 수 있다. 이는 동상의 움직임이 거의 없기 때문이라고 할 수 있다.In addition, the rate of change of data corresponding to the phase in the image may be less than a preset reference rate of change. In addition, the statue in the image may be included in the image for a predetermined reference time or longer. This can be attributed to the fact that there is almost no movement of the statue.
이러한 경우, 서버(20)는 해당 동상을 새롭게 추가된 배경 객체(BOB)로 인식할 수 있다.In this case, the
이후, 서버(20)는 기준 영상에 배경 객체(BOB)가 포함되도록 새로운 기준 영상을 생성 및 설정할 수 있다.Thereafter, the
도 20의 (B)에는 도로의 경계석의 새롭게 설치되는 경우의 일례가 나타나 있다. 이러한 경우에도, 서버(20)는 도로의 경계석을 배경 객체(BOB)로 인식하는 것이 가능할 수 있다.20(B) shows an example of a case where a boundary stone on a road is newly installed. Even in this case, the
이와 같이, 서버(20)가 주기적 혹은 비주기적으로 기준 영상을 변경하는 경우에는 카메라 모듈(10)에 대응되는 촬영 영역의 환경 변화에 대응하여 보다 효과적이고 정밀하게 군중 계수를 수행할 수 있다.In this way, when the
이상에서 설명한 바와 같이, 서버(20)에서 기준 정보, 기준 영상, 비교 영상 등을 설정한 이후에 군중 계수 모드를 실행할 수 있다. 군중 계수 모드에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.As described above, the crowd counting mode may be executed after setting reference information, reference images, comparison images, and the like in the
도 21 내지 도 23은 군준 계수 모드에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.21 to 23 are diagrams for explaining the canonical coefficient mode. Hereinafter, description of the parts described in detail above may be omitted.
여기서, 군중 계수 모드는 군중 계수를 위한 서버(20)의 설정이 완료된 이후에 소정의 영역에 위치하는 객체(OB)의 수를 검출하기 위해 카메라 모듈(10)이 촬영한 영상에서 군중의 수를 검출하는 모드라고 할 수 있다.Here, the crowd counting mode calculates the number of crowds in an image captured by the
다른 관점에서 보면, 군중 계수 모드에서는 카메라 모듈(10)이 소정의 촬영 영역의 영상(대상 영상)을 촬영하고, 서버(20)는 카메라 모듈(10)이 촬영한 영상(대상 영상)에서 객체(OB)의 수를 검출할 수 있다.From another point of view, in the crowd counting mode, the
도 21을 살펴보면, 군중 계수 모드에서는 카메라 모듈(10)이 주변, 즉 촬영 영역에 대응하여 영상을 촬영할 수 있다(S400).Referring to FIG. 21 , in the crowd counting mode, the
이러한 군중 계수 모드에서 군중 계수를 위해 카메라 모듈(10)이 촬영하는 영상을 타깃 영상 혹은 대상 영상이라고 할 수 있다. 이하에서는 군중 계수 모드에서 군중 계수를 위해 촬영되는 영상을 대상 영상이라고 칭할 수 있다.In this crowd counting mode, an image captured by the
이후, 카메라 모듈(10)은 군중 계수를 위한 영상, 즉 대상 영상을 서버(20)로 전송할 수 있다.Thereafter, the
그러면, 서버(20)에는 카메라 모듈(10)로부터 수신한 대상 영상을 미리 설정된 기준 영상과 비교할 수 있다(S410).Then, the
이후, 서버(20)는 대상 영상에서 기준 영상과 다른 부분, 즉 변경 부분이 있는지의 여부를 판단할 수 있다(S420).Thereafter, the
S420단계에서 판단결과, 대상 영상에서 기준 영상과 비교하여 다른 부분, 즉 변경된 부분이 없는 경우에는 미리 설정된 제 3 기능(Default 3)을 수행할 수 있다(S430).As a result of the determination in step S420, when a different part of the target image compared to the reference image, that is, there is no changed part, a preset third function (Default 3) may be performed (S430).
여기서, 제 3 기능은 대상 영상에 포함된 객체(OB)의 수가 0임을 알리는 기능, 즉 대상 영상에 객체(OB)가 포함되지 않음을 알리는 기능, 대상 영상을 다시 촬영하라는 것을 알리는 기능 등을 예로 들 수 있다.Here, the third function is a function of notifying that the number of objects (OB) included in the target image is 0, that is, a function of notifying that the object (OB) is not included in the target image, a function of notifying that the target image is to be captured again, and the like, for example. can be heard
반면에, S420단계에서 판단결과 대상 영상에서 기준 영상과 비교하여 다른 부분, 즉 변경된 부분이 있는 경우에는 서버(20)는 대상 영상에서 변경된 부분을 검출할 수 있다(S440).On the other hand, as a result of the determination in step S420, if there is a different part, that is, a changed part, in the target image compared to the reference image, the
이후, 서버(20)는 검출한 변경된 부분에서 객체를 판별할 수 있다(S450).Thereafter, the
이후, 서버(20)는 검출한 변경된 부분을 객체에 대응하여 미리 설정된 적어도 하나의 비교 영상(혹은 비교 블록)과 비교하고(S460), 비교한 결과에 따라 검출한 변경된 부분에서 객체(OB)의 수를 판별할 수 있다(S470).Thereafter, the
이후, 판별한 객체(OB)의 수를 합산하여 최종적인 결과값으로 출력하는 것이 가능하다. 여기서, 상황에 따라 최종적인 결과값에는 소정의 오차가 설정될 수 있다.Thereafter, it is possible to output the final result value by adding up the number of objects OB determined. Here, a predetermined error may be set in the final result value according to circumstances.
예를 들어, 카메라 모듈(10)이 도 22에 나타나 있는 바와 같은 영상을 촬영하였다고 가정하자.For example, assume that the
카메라 모듈(10)은 도 22의 영상에 포함된 객체(OB)의 수를 검출하기 위해 도 22의 영상을 서버(20)로 전송할 수 있다. 이러한 경우, 도 22의 영상을 대상 영상이라고 할 수 있다.The
그러면, 서버(20)는 도 22의 영상을 대상 영상으로 설정하고, 대상 영상을 미리 설정된 기준 영상과 비교할 수 있다.Then, the
기준 영상의 일례가 앞선 도 18에 나타나 있다.An example of the reference image is shown in FIG. 18 above.
예를 들면, 서버(20)는 도 18과 같은 기준 영상과 도 22와 같은 대상 영상을 비교할 수 있다.For example, the
아울러, 서버(20)는 비교의 결과로서 대상 영상에서 기준 영상과 다른 부분, 즉 변경된 부분을 검출할 수 있다.In addition, as a result of the comparison, the
도 22에서는 변경된 부분을 제 4 영역(AR4), 제 5 영역(AR5), 제 6 영역(AR6), 제 7 영역(AR7), 제 8 영역(AR8) 및 제 9 영역(AR9)으로 표시하였다.In FIG. 22, the changed parts are indicated as a fourth area AR4, a fifth area AR5, a sixth area AR6, a seventh area AR7, an eighth area AR8, and a ninth area AR9. .
이러한 변경된 부분을 관심영역이라고 할 수 있다.Such a changed portion may be referred to as a region of interest.
서버(20)는 검출한 변경된 부분(관심 영역)에서 각각 객체(OB)를 검출할 수 있다. 객체(OB)를 검출하는 과정에서는 서버(20)는 미리 설정된 기준 정보를 이용할 수 있다.The
예를 들면, 서버(20)는 촬영 영역에 대응하는 위치 정보, 카메라 모듈(10)의 위치 정보, 촬영 영역의 각 위치와 카메라 모듈(10) 사이의 거리 정보, 객체(OB)의 형태 및 키 등의 정보 등의 다양한 기준 정보를 이용하여 변경된 부분에서 객체(OB)를 검출할 수 있다.For example, the
기준 정보를 이용한 객체(OB) 검출 방법은 앞서 상세히 설명한 바 있다.The object OB detection method using reference information has been described in detail above.
여기서, 객체(OB)가 검출되지 않은 관심 영역(변경된 부분)은 제외하고, 객체(OB)가 검출된 각각의 관심 영역(변경된 부분)에서 객체(OB)들의 외곽을 둘러싸도록 영상 블록을 설정할 수 있다.Here, an image block may be set to surround the periphery of the objects OB in each region of interest (changed portion) in which the object OB is detected, except for the region of interest (changed portion) in which the object OB is not detected. have.
대상 영상의 관심 영역에서 설정한 영상 블록을 대상 블록(Target Block)이라고 칭할 수 있다.An image block set in the region of interest of the target image may be referred to as a target block.
예를 들면, 도 22에 나타나 있는 바와 같이, 제 4 영역(AR4)에서는 제 1 대상 블록(TB1)을 설정하고, 제 5 영역(AR5)에서는 제 2 대상 블록(TB2)을 설정하고, 제 6 영역(AR6)에서는 제 3 대상 블록(TB3)을 설정하는 것이 가능하다.For example, as shown in FIG. 22, the first target block TB1 is set in the fourth area AR4, the second target block TB2 is set in the fifth area AR5, and the sixth In the area AR6, it is possible to set the third target block TB3.
이후, 서버(20)의 비교 영상부(260)는 제 1 대상 블록(TB1)의 영상 패턴을 미리 저장되어 있는 적어도 하나의 비교 블록과 비교하여 유사 비율이 미리 설정된 임계 비율보다 더 높은 적어도 하나의 비교 블록을 검출할 수 있다. 여기서, 검출한 비교 블록을 후보 비교 블록이라고 할 수 있다.Thereafter, the
이후, 검출한 적어도 하나의 후보 비교 블록 중에서 제 1 대상 블록(TB1)의 영상 패턴과 가장 유사한 하나의 비교 블록을 검출할 수 있다. 여기서, 검출한 비교 블록을 매칭 비교 블록이라고 할 수 있다.Thereafter, one comparison block most similar to the image pattern of the first target block TB1 may be detected from among the at least one candidate comparison block detected. Here, the detected comparison block may be referred to as a matching comparison block.
이후, 매칭 비교 블록에 포함된 객체(OB)의 수를 파악하고, 파악한 객체(OB)의 수를 제 1 대상 블록(TB1)에 포함된 객체(OB)의 수로 판별할 수 있다. 제 1 대상 블록(TB1)에 포함된 객체(OB)의 수는 제 4 영역(AR4)에 포함된 객체(OB)의 수에 대응될 수 있다.Thereafter, the number of objects OB included in the matching comparison block may be determined, and the number of objects OB included in the matching comparison block may be determined as the number of objects OB included in the first target block TB1. The number of objects OB included in the first target block TB1 may correspond to the number of objects OB included in the fourth area AR4.
여기서, 후보 비교 블록 및 매칭 비교 블록은 비교 블록을 일종으로 이해를 돕기 위해 다른 용어를 사용한 것일 수 있다.Here, the candidate comparison block and the matching comparison block may be different terms used to help understand the comparison block as a type.
이러한 방법으로 제 5 영역(AR5), 제 6 영역(AR5), 제 7 영역(AR7), 제 8 영역(AR8) 및 제 9 영역(AR9)에 포함된 객체(OB)의 수를 검출하고, 검출한 객체(OB)의 수를 합산하여 대상 영상에 포함된 객체(OB)의 총 수에 대한 정보(최종 결과값)를 검출할 수 있다.In this way, the number of objects OB included in the fifth area AR5, the sixth area AR5, the seventh area AR7, the eighth area AR8, and the ninth area AR9 is detected, Information on the total number of objects OB included in the target image (final result value) may be detected by summing the number of detected objects OB.
아울러, 대상 영상에 포함된 객체(OB)의 총 수(최종 결과값)에 상황에 따라 오차가 부여될 수 있다.In addition, an error may be given to the total number of objects OB included in the target image (final result value) according to circumstances.
예를 들어, 대상 영상에 이상 패턴이 포함되는 경우에는 최종 결과값에 미리 설정된 소정의 오차가 부여될 수 있다. 이상 패턴에 대해서는 이하에서 설명하기로 한다.For example, when an abnormal pattern is included in the target image, a predetermined error may be given to the final result value. The abnormal pattern will be described below.
예를 들면, 100명(최종 결과값)ㅁ5명(오차)과 같이 오차가 부여될 수 있다. 혹은 오차는 비율로서 부여되는 것이 가능하다.For example, an error may be given, such as 100 people (final result value) ㅁ 5 people (error). Alternatively, it is possible that the error is given as a ratio.
제 7 영역(AR7), 제 8 영역(AR8) 및 제 9 영역(AR9)에서는 하나의 객체(OB)가 포함될 수 있다.One object OB may be included in the seventh area AR7 , the eighth area AR8 , and the ninth area AR9 .
제 7 영역(AR7), 제 8 영역(AR8) 및 제 9 영역(AR9)에 대응되는 대상 블록은 하나의 객체(OB)에 대응하는 비교 블록에 매칭되는 것이 가능하다.Target blocks corresponding to the seventh area AR7 , the eighth area AR8 , and the ninth area AR9 may match a comparison block corresponding to one object OB.
한편, 객체(OB)들의 이동속도가 상대적으로 빠른 경우에는 대상 영상에 포함된 대상 블록들도 그 형태가 빠르게 변경될 수 있다.Meanwhile, when the moving speed of the objects OB is relatively fast, the shapes of target blocks included in the target image may also be rapidly changed.
예를 들어, 소정의 제 1 시점에서 도 23의 (A)와 같은 대상 영상을 촬영하였다고 가정하자.For example, suppose that a target image as shown in (A) of FIG. 23 is captured at a first predetermined viewpoint.
여기서, 제 1 시점 이후의 제 2 시점에서는 도 23의 (B)와 같은 대상 영상이 촬영될 수 있다.Here, at a second viewpoint after the first viewpoint, a target image as shown in (B) of FIG. 23 may be captured.
도 23의 (A)와 (B)를 비교하면 객체(OB)들이 이동하여 대상 블록의 영상 패턴이 변경된 것을 확인할 수 있다.Comparing (A) and (B) of FIG. 23 , it can be confirmed that the image pattern of the target block is changed as the objects OB move.
이러한 현상은 객체(OB)들의 이동속도가 빠른 경우에 더욱 심화될 수 있다.This phenomenon may be further intensified when the moving speed of the objects OB is high.
이를 고려하면, 대상 영상의 대상 블록의 영상 패턴이 변경되는 정도에 따라 객체(OB)들의 이동속도를 검출하는 것이 가능하다. 여기서, 객체(OB)들의 이동속도는 일정 영역에서의 유동인구를 파악하는데 사용될 수 있다.Considering this, it is possible to detect the moving speed of the objects OB according to the degree to which the image pattern of the target block of the target image is changed. Here, the moving speed of the objects OB can be used to determine the floating population in a certain area.
이상에서 상세히 설명한 바와 같이, 객체(OB)의 수를 파악하고자 하는 대상 영상을 미리 설정되어 저장된 비교 영상과 비교하여 유사한 비교 영상을 검출하고, 검출한 비교 영상에 포함된 객체(OB)의 수를 대상 영상에 포함된 객체(OB)의 수로서 판별할 수 있다.As described in detail above, a similar comparison image is detected by comparing a target image for which the number of objects OB is to be determined with a previously set and stored comparison image, and the number of objects OB included in the detected comparison image is calculated. It can be determined as the number of objects (OB) included in the target image.
또는, 객체(OB)의 수를 파악하고자 하는 대상 영상에 포함된 대상 블록을 미리 설정되어 저장된 비교 블록과 비교하여 유사한 비교 블록을 검출하고, 검출한 비교 블록에 포함된 객체(OB)의 수를 대상 블록에 포함된 객체(OB)의 수로서 판별할 수 있다. 이후, 대상 영상에 포함된 모든 대상 블록의 객체(OB)의 수를 합산하여 대상 영상에 포함된 객체(OB)의 수로서 판별할 수 있다.Alternatively, a target block included in a target image to determine the number of objects OB is compared with a previously set and stored comparison block to detect a similar comparison block, and the number of objects OB included in the detected comparison block is calculated. It can be determined as the number of objects (OBs) included in the target block. Thereafter, the number of objects OB included in the target image may be determined as the number of objects OB included in the target image by summing the number of objects OB of all target blocks included in the target image.
이러한 본 발명에서는 대상 영상에 포함된 객체(OB)의 수를 보다 신속하게 판별할 수 있다.In the present invention, the number of objects OB included in the target image can be determined more quickly.
도 24 내지 도 29는 카메라 모듈에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.24 to 29 are views for explaining a camera module. Hereinafter, description of the parts described in detail above may be omitted.
도 24를 살펴보면, 카메라 모듈(10)은 제 1 카메라부(First Camera Part, 11)와 제 2 카메라(Second Camera Part, 12)를 포함할 수 있다.Referring to FIG. 24 , the
여기서, 제 1 카메라부(11)와 제 2 카메라부(12)의 촬영 영역은 적어도 일부가 서로 다를 수 있다.Here, at least a portion of the capturing areas of the
예를 들면, 제 1 카메라부(11)에 대응하는 촬영 영역은 제 1 비중첩영역(First Non Overlap Area, NOVA1) 및 중첩영역(Overlap Area, OVA)을 포함하고, 제 2 카메라부(12)에 대응하는 촬영 영역은 제 2 비중첩영역(Second Non Overlap Area, NOVA2) 및 중첩영역(OVA)을 포함할 수 있다.For example, the photographing area corresponding to the
여기서, 중첩영역(OVA)은 제 1 카메라부(11)에 대응하는 촬영 영역과 제 2 카메라부(12)에 대응하는 촬영 영역이 서로 중첩하는 영역일 수 있다.Here, the overlapping area OVA may be an area where a capturing area corresponding to the
제 1 비중첩영역(NOVA1)은 제 1 카메라부(11)에 대응하는 촬영 영역에서 중첩영역(OVA)을 제외한 나머지 영역일 수 있다.The first non-overlapping area NOVA1 may be a remaining area except for the overlapping area OVA in the capturing area corresponding to the
제 2 비중첩영역(NOVA2)은 제 2 카메라부(12)에 대응하는 촬영 영역에서 중첩영역(OVA)을 제외한 나머지 영역일 수 있다.The second non-overlapping area NOVA2 may be an area remaining after excluding the overlapping area OVA from the capturing area corresponding to the
여기서, 중첩영역(OVA)의 사이즈는 제 1 비중첩영역(NOVA1)의 사이즈와 제 2 비중첩영역(NOVA2)의 사이즈의 합보다 더 클 수 있다.Here, the size of the overlapping area OVA may be greater than the sum of the sizes of the first non-overlapping area NOVA1 and the size of the second non-overlapping area NOVA2.
자세하게는, 중첩영역(OVA)의 면적은 제 1 비중첩영역(NOVA1)의 면적과 제 2 비중첩영역(NOVA2)의 면적의 합보다 충분히 더 클 수 있다.In detail, the area of the overlapping area OVA may be sufficiently greater than the sum of the areas of the first non-overlapping area NOVA1 and the area of the second non-overlapping area NOVA2 .
제 1 카메라부(11)에 대응하는 촬영 영역과 제 2 카메라부(12)에 대응하는 촬영 영역이 충분히 중첩되는 경우에는 제 1 비중첩영역(NOVA1) 및 제 2 비중첩영역(NOVA2)을 무시하는 것이 가능할 수도 있다.When the capturing area corresponding to the
이처럼, 카메라 모듈(10)이 복수의 카메라부를 포함하는 경우에는 객체(OB)의 수를 보다 정밀하게 보다 신속하게 검출하는 것이 가능할 수 있다.As such, when the
여기서, 제 1 카메라부(11) 및 제 2 카메라부(12) 중 적어도 하나는 회전, 피봇 또는 이동이 가능할 수 있다.Here, at least one of the
또는, 제 1 카메라부(11) 및 제 2 카메라부(12)는 각각 소정의 프레임에 고정되는 것이 가능할 수 있다.Alternatively, each of the
카메라 모듈(10)이 제 1 카메라부(11)와 제 2 카메라부(12)를 포함하는 경우에는 서버(20)는 제 1 카메라부(11)가 촬영한 대상 영상 및 제 2 카메라부(12)가 촬영한 대상 영상을 각각 분석하여 객체(OB)의 수를 각각 검출하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.When the
도 25를 살펴보면, 제 1 카메라부(11)에 대응하여 객체(OB)의 수를 검출(S471)하고, 제 2 카메라부(12)에 대응하여 객체(OB)의 수를 검출(S472)할 수 있다.Referring to FIG. 25 , the number of objects OB corresponding to the
다르게 표현하면, 제 1 카메라부(11)가 촬영한 영상(대상 영상)에서 객체(OB)의 수를 검출하고, 제 2 카메라부(12)가 촬영한 영상(대상 영상)에서 객체(OB)의 수를 검출할 수 있다.In other words, the number of objects OB is detected in the image (target image) captured by the
이하에서는 제 1 카메라부(11)가 촬영한 대상 영상을 제 1 대상 영상이라 하고, 제 2 카메라부(12)가 촬영한 영상을 제 2 대상 영상이라 칭할 수 있다.Hereinafter, a target image captured by the
예를 들면, 서버(20)의 제 2 제어부(200)가 카메라 모듈(10)에 촬영 영역에 위치하는 객체(OB)의 수를 검출하라는 명령을 전송할 수 있다.For example, the
이러한 경우에는 군중 계수 모드가 발동된 경우라고 할 수 있다. 군중 계수 모드에 대해서는 앞서 상세히 설명한 바 있다.In this case, it can be said that the crowd counting mode is activated. The crowd counting mode has been described in detail above.
군중 계수 모드에서 카메라 모듈(10)의 제 1 카메라부(11)와 제 2 카메라부(12)가 각각 촬영 영역에 대해 영상(대상 영상)을 촬영할 수 있다.In the crowd counting mode, the
제 1 카메라부(11)와 제 2 카메라부(12)가 각각 영상(대상 영상)을 촬영하면 각각의 영상에서 객체(OB)의 수를 각각 검출할 수 있다.When the
대상 영상에서 객체(OB)의 수를 검출하는 방법에 대해서는 앞선 도 21 및 그에 대응되는 설명에서 상세히 설명한 바 있다.The method of detecting the number of objects OB in the target image has been described in detail in the foregoing FIG. 21 and the corresponding description.
제 1 카메라부(11)와 제 2 카메라부(12)의 대상 영상에 대한 촬영 시점은 동일한 것이 가능하다.It is possible for the
예를 들어, 서버(20)가 카메라 모듈(10)로 제 10 시점에서 각각 대응하는 촬영 영역에 대한 대상 영상을 촬영하라는 명령을 전송할 수 있다.For example, the
그러면 카메라 모듈(10)에서는 제 1 카메라부(11)와 제 2 카메라부(12)가 각각 제 10 시점에서 대상 영상을 촬영할 수 있다.Then, in the
또는, 제 1 카메라부(11)의 촬영 시점과 제 2 카메라부(12)의 촬영 시점은 서로 다를 수 있다.Alternatively, a capturing time point of the
예를 들면, 서버(20)가 카메라 모듈(10)로 제 10 시점에서 각각 대응하는 촬영 영역에 대한 대상 영상을 촬영하라는 명령을 전송할 수 있다.For example, the
그러면 카메라 모듈(10)에서는 제 1 카메라부(11)는 제 10 시점에서 대응되는 촬영 영역의 제 1 대상 영상을 촬영하고, 제 2 카메라부(12)는 제 10+△t 시점에서 대응되는 촬영 영역의 제 2 대상 영상을 촬영할 수 있다.Then, in the
사람인 객체(OB)는 무생물과 같이 완벽하게 정지한 상태를 유지하는 것은 충분히 어려울 수 있으며, 어느 정도의 움직임을 가질 수 있다. 예를 들면, △t의 시간 동안 적어도 하나의 객체(OB)는 이동하거나 포즈를 변경하거나 하는 등의 움직임을 수행할 수 있다.It may be difficult enough for the human object OB to maintain a perfectly still state like an inanimate object, and may have a certain degree of movement. For example, during a time period of Δt, at least one object OB may perform a movement such as moving or changing a pose.
이를 고려하면, 제 1 카메라부(11)가 촬영한 제 1 대상 영상과 제 2 카메라부(12)가 촬영한 제 2 대상 영상에서 적어도 하나의 객체(OB)의 위치, 포즈, 형태, 사이즈 등이 달라질 수 있다.Considering this, the position, pose, shape, size, etc. of at least one object OB in the first target image captured by the
혹은, 제 1 카메라부(11)가 촬영한 제 1 대상 영상과 제 2 카메라부(12)가 촬영한 제 2 대상 영상에서 복수의 객체(OB)들이 겹쳐진 패턴이 변경되는 것이 가능하다.Alternatively, the overlapping pattern of the plurality of objects OB may be changed in the first target image captured by the
이를 고려하면, 군중 계수 모드에서 제 1 카메라부(11)의 촬영 시점과 제 2 카메라부(12)의 촬영 시점을 다르게 하는 경우에는 촬영 영역에 위치하는 객체(OB)의 수를 보다 정밀하게 검출할 수 있다.Considering this, when the capturing time of the
도 25에서 제 1 대상 영상에 대해 객체(OB)의 수를 검출하고 제 2 대상 영상에 대해 객체(OB)의 수를 검출한 이후에, 검출한 결과값이 동일한지의 여부를 판단할 수 있다(S473).25, after detecting the number of objects OB for the first target image and detecting the number of objects OB for the second target image, it is possible to determine whether the detected result values are the same ( S473).
여기서, 결과값은 제 1 대상 영상에 대해 검출한 객체(OB)의 수에 대한 결과값과 제 2 대상 영상에 대해 검출한 객체(OB)의 수에 대한 결과값을 의미할 수 있다.Here, the result value may mean a result value for the number of objects OB detected for the first target image and a result value for the number of objects OB detected for the second target image.
S473단계에서 판단결과, 결과값이 동일한 경우에는 제 1 카메라부(11) 및 제 2 카메라부(12) 중 어느 하나에 대응하는 결과값을 객체(OB)의 수에 대한 최종 결과값으로 출력할 수 있다(S474).As a result of the determination in step S473, if the result values are the same, the result value corresponding to either one of the
예를 들어, 서버(20)에서 제 1 카메라부(11)가 촬영한 제 1 대상 영상을 분석한 결과 제 1 대상 영상에 포함되어 있는 객체(OB)의 수를 20명이라고 판별할 수 있다. 아울러, 서버(20)에서 제 2 카메라부(12)가 촬영한 제 2 대상 영상을 분석한 결과 제 2 대상 영상에 포함되어 있는 객체(OB)의 수를 20명이라고 판별할 수 있다.For example, as a result of analyzing the first target image captured by the
이러한 경우에는, 서버(20)는 카메라 모듈(10)에 대응되는 촬영 영역에 위치하는 객체(OB)의 수를 20명으로 최종적으로 출력하는 것이 가능하다. 즉, 서버(20)는 제 1 카메라부(11) 및 제 2 카메라부(12) 중 어느 하나에 대응하는 결과값을 최종 결과값으로 출력하는 것이 가능할 수 있다.In this case, the
한편, S473단계에서 판단결과, 결과값이 동일하지 않고 다른 경우에는 제 1 카메라부(11) 및 제 2 카메라부(12)에 대한 신뢰도를 평가할 수 있다(S475).On the other hand, as a result of the determination in step S473, if the result values are not the same and different, the reliability of the
이후, 제 1 카메라부(11)의 신뢰도 및 제 2 카메라부(12)의 신뢰도가 각각 미리 설정된 임계 신뢰도를 넘는지의 여부를 판단할 수 있다(S476).Then, it may be determined whether the reliability of the
S476단계에서 판단결과, 제 1 카메라부(11)의 신뢰도 및 제 2 카메라부(12)의 신뢰도가 각각 미리 설정된 임계 신뢰도 이상인 경우에는 서버(20)에서는 제 1 카메라부(11)가 촬영한 제 1 대상 영상과 제 2 카메라부(12)가 촬영한 제 2 대상 영상에서 각각 객체(OB)의 수를 검출(객체(OB) 카운팅)할 수 있다(S477).As a result of determination in step S476, if the reliability of the
이후, 서버(20)는 제 1 대상 영상에 포함된 객체(OB)의 수와 제 2 대상 영상에 포함된 객체(OB)의 수를 합산하고, 합산한 값을 카메라부의 개수(2)로 나누어 평균값(중간값)을 구할 수 있다(S478).Thereafter, the
이후, 서버(20)는 평균값(중간값)을 최종 결과값으로 출력하는 것이 가능할 수 있다.Then, the
예를 들어, 서버(20)에서 제 1 카메라부(11)가 촬영한 제 1 대상 영상을 분석한 결과 제 1 대상 영상에 포함되어 있는 객체(OB)의 수를 20명이라고 판별하고, 아울러 서버(20)에서 제 2 카메라부(12)가 촬영한 제 2 대상 영상을 분석한 결과 제 2 대상 영상에 포함되어 있는 객체(OB)의 수를 30명이라고 판별할 수 있다.For example, as a result of analyzing the first target image captured by the
여기서, 제 1 카메라부(11)의 신뢰도와 제 2 카메라부(12)의 신뢰도는 각각 임계 신뢰도 이상일 수 있다.Here, the reliability of the
이러한 경우, 서버(20)의 검출부(280)는 카메라 모듈(10)에 대응되는 촬영 영역에 위치하는 객체(OB)의 수를 25명이라고 판별할 수 있다.In this case, the
한편, S476단계에서 판단결과, 제 1 카메라부(11)의 신뢰도 및 제 2 카메라부(12) 중 적어도 하나의 신뢰도가 미리 설정된 임계 신뢰도보다 더 낮은 경우에는 서버(20)에서는 제 1 카메라부(11) 및 제 2 카메라부(12) 중 신뢰도가 더 높은 어느 하나에 대응하는 대상 영상을 선택할 수 있다(S479).Meanwhile, as a result of determination in step S476, if the reliability of at least one of the
이후, 서버(20)는 선택한 대상 영상에 대응하는 객체(OB)의 수에 대한 정보를 최종적인 결과로서 출력할 수 있다(S480).Thereafter, the
예를 들어, 서버(20)에서 제 1 카메라부(11)가 촬영한 제 1 대상 영상을 분석한 결과 제 1 대상 영상에 포함되어 있는 객체(OB)의 수를 20명이라고 판별하고, 아울러 서버(20)에서 제 2 카메라부(12)가 촬영한 제 2 대상 영상을 분석한 결과 제 2 대상 영상에 포함되어 있는 객체(OB)의 수를 30명이라고 판별할 수 있다.For example, as a result of analyzing the first target image captured by the
여기서, 제 1 카메라부(11)의 신뢰도는 미리 설정된 임계 신뢰도보다 더 높고, 제 2 카메라부(12)의 신뢰도는 임계 신뢰도보다 더 낮은 경우도 가능할 수 있다.Here, it may be possible that the reliability of the
또는, 제 1 카메라부(11)의 신뢰도 및 제 2 카메라부(12)의 신뢰도는 각각 임계 신뢰도보다 더 낮고, 여기서 제 1 카메라부(11)의 신뢰도는 제 2 카메라부(12)의 신뢰도보다 더 높을 수 있다.Alternatively, the reliability of the
이러한 경우, 서버(20)는 신뢰도가 상대적으로 높은 제 1 카메라부(11)에 대응하는 제 1 대상 영상을 선택하고, 선택한 제 1 대상 영역에 포함된 객체(OB)의 수에 대한 정보(20명)를 최종적인 결과값으로 출력하는 것이 가능하다.In this case, the
제 1 카메라부(11)와 제 2 카메라부(12)의 신뢰도에 대해 살펴보기로 한다.The reliability of the
도 26의 (A)에 나타나 있는 바와 같이, 4명의 객체(OB1, OB2, OB3, OB4)가 일렬로 나란하게 위치하는 경우를 가정하여 보자.As shown in (A) of FIG. 26, it is assumed that four objects (OB1, OB2, OB3, and OB4) are located side by side in a row.
여기서, 제 1 객체(OB1)는 서 있는 상태이고, 제 1 객체(OB1)의 후방에 위치하는 제 2 객체(OB2)는 제 1 객체(OB1)보다 키가 더 작고, 제 2 객체(OB2)의 후방에 위치하는 제 3 객체(OB3)는 의자에 앉아 있는 타입이고, 제 3 객체(OB3)의 후방에 위치하는 제 4 객체(OB4)는 바닥에 앉아 있는 타입일 수 있다.Here, the first object OB1 is in a standing state, the second object OB2 located behind the first object OB1 is shorter than the first object OB1, and the second object OB2 is taller than the first object OB1. The third object OB3 located behind may be a type sitting on a chair, and the fourth object OB4 located behind the third object OB3 may be a type sitting on the floor.
이러한 경우에, 도 26의 (B)에 나타나 있는 바와 같이, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4) 사이의 간격이 각각 충분히 작고, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 제 1 카메라부(11)의 정면에 나란히 위치할 수 있다.In this case, as shown in (B) of FIG. 26, the distances between the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 are sufficiently small, respectively. , the first object OB1 , the second object OB2 , the third object OB3 , and the fourth object OB4 may be located side by side in front of the
그러면 제 1 카메라부(11)의 관점에서는 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 겹쳐서 보이게 되고, 이에 따라 객체(OB)의 수를 정밀하게 파악하기 어려울 수 있다.Then, from the viewpoint of the
반면에, 제 2 카메라부(12)의 관점에서는 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)의 측면을 관찰할 수 있어서 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)를 상대적으로 정밀하게 구분할 수 있다.On the other hand, from the viewpoint of the
이를 고려하면, 도 26의 경우에는 제 2 카메라부(12)의 신뢰도는 제 1 카메라부(11)의 신뢰도보다 더 높을 수 있다.Considering this, in the case of FIG. 26 , the reliability of the
다른 관점에서 보면, 도 26의 경우에는 제 2 카메라부(12)의 신뢰도는 미리 설정된 임계 신뢰도 이상이고, 제 1 카메라부(11)의 신뢰도는 임계 신뢰도보다 더 낮을 수 있다.From another point of view, in the case of FIG. 26 , the reliability of the
도 26과 같은 경우에 제 1 카메라부(11)가 촬영한 대상 영상에는, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 중첩되기 때문에, 객체(OB)들의 외곽을 둘러싸도록 영상 블록을 설정하면 설정한 영상 블록의 패턴은 하나의 객체(OB)를 포함하는 영상 블록의 패턴과 유사할 수 있다.In the case of FIG. 26 , the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 overlap with the target image captured by the
그러나 제 1 객체(OB1)의 후방에 위치하는 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 완전히 제 1 객체(OB1)와 중첩(Fully Overlap)되지 않는 경우에는, 제 1 객체(OB1)를 벗어나서 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4) 중 적어도 하나의 적어도 일부가 노출될 수 있다. 예를 들면, 제 1 객체(OB1)의 주변에 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4) 중 적어도 하나의 팔, 다리 등이 나타날 수 있다.However, when the second object OB2, the third object OB3, and the fourth object OB4 located behind the first object OB1 do not completely overlap with the first object OB1, , At least a part of at least one of the second object OB2, the third object OB3, and the fourth object OB4 may be exposed beyond the first object OB1. For example, at least one arm or leg among the second object OB2, the third object OB3, and the fourth object OB4 may appear around the first object OB1.
이처럼, 적어도 하나의 객체(OB)가 다른 객체(OB)에 충분히 가려지는 경우의 영상 패턴을 이상 패턴이라고 할 수 있다. 자세하게는, 적어도 하나의 객체(OB)가 다른 객체(OB)에 의해 미리 설정된 기준 비율 이상 가려지는 경우에 이상 패턴이라고 할 수 있다. 여기서, 기준 비율은 대략 95~99% 사이에서 정해질 수 있다.As such, an image pattern when at least one object OB is sufficiently covered by another object OB may be referred to as an abnormal pattern. In detail, a case where at least one object OB is obscured by another object OB at a predetermined reference rate or more may be referred to as an abnormal pattern. Here, the reference ratio may be determined between approximately 95 and 99%.
예를 들어, 도 26의 경우에 제 1 카메라부(11)의 관점에서 제 2 객체(OB2)가 제 1 객체(OB1)에 의해 대략 97%의 부분이 가려지는 경우에, 제 1 카메라부(11)가 촬영한 대상 영상에 이상 패턴이 포함되는 것으로 볼 수 있다.For example, in the case of FIG. 26 , when approximately 97% of the second object OB2 is covered by the first object OB1 from the viewpoint of the
이러한 이상 패턴은 객체(OB)의 수를 충분히 정밀하게 검출하기 어려울 가능성이 상대적으로 높을 수 있다.In such an abnormal pattern, a possibility that it is difficult to accurately detect the number of objects OB may be relatively high.
따라서 이상 패턴이 포함되는지의 여부를 근거로 하여 신뢰성을 판단하는 것이 가능할 수 있다.Therefore, it may be possible to determine reliability based on whether or not an abnormal pattern is included.
예를 들어, 도 26의 (B)의 경우와 같이, 제 1 카메라부(11)가 촬영한 영상(제 1 대상 영상)에 이상 패턴이 포함되고, 제 2 카메라부(12)가 촬영한 영상(제 2 대상 영상)에는 이상 패턴이 포함되지 않는 경우에는 제 2 카메라부(12)의 신뢰도가 제 1 카메라부(11)의 신뢰도보다 더 높은 것으로 판단할 수 있다. 또는, 제 2 카메라부(12)의 신뢰도가 미리 설정된 임계 신뢰도 이상이고, 제 1 카메라부(11)의 신뢰도는 이상 패턴으로 인해 임계 신뢰도보다 더 낮을 수 있다.For example, as in the case of (B) of FIG. 26, an image (first target image) captured by the
또는, 대상 영상에 포함되는 이상 패턴의 개수에 따라 신뢰도를 판단하는 것이 가능할 수 있다.Alternatively, reliability may be determined according to the number of abnormal patterns included in the target image.
예를 들면, 제 1 카메라부(11)가 촬영한 영상(제 1 대상 영상)에 미리 설정된 기준 개수(예컨대, 5개)보다 더 많은 개수의 이상 패턴이 포함되고, 제 2 카메라부(12)가 촬영한 영상(제 2 대상 영상)에는 기준 개수보다 더 적은 개수의 이상 패턴이 포함되는 경우에는 제 2 카메라부(12)의 신뢰도가 제 1 카메라부(11)의 신뢰도보다 더 높은 것으로 판단하거나, 제 2 카메라부(12)의 신뢰도가 미리 설정된 임계 신뢰도 이상이고 제 1 카메라부(11)의 신뢰도는 이상 패턴으로 인해 임계 신뢰도보다 더 낮은 것으로 판단할 수 있다.For example, if the image captured by the first camera unit 11 (the first target image) includes more abnormal patterns than a preset reference number (eg, 5), the
객체(OB)의 수를 검출하고자 하는 대상인 대상 영상에 적어도 하나의 이상 패턴이 포함되는 경우에도 해당 이상 패턴을 미리 설정된 비교 블록, 바람직하게는 중첩 블록들과 비교하여 이상 패턴에 포함된 객체(OB)의 수를 신속하게 검출할 수 있다.Even when at least one abnormal pattern is included in the target image, which is a target for detecting the number of objects OB, the corresponding abnormal pattern is compared with a preset comparison block, preferably overlapping blocks, and objects included in the abnormal pattern (OB) are compared. ) can be quickly detected.
중첩 블록에 대해서는 앞선 도 15 내지 도 16에서 상세히 설명한 바 있다.The overlapping block has been previously described in detail with reference to FIGS. 15 and 16 .
이상 패턴의 또 다른 예가 도 27에 나타나 있다.Another example of an anomalous pattern is shown in FIG. 27 .
도 27의 (A)에 나타나 있는 바와 같이, 4명의 객체(OB1, OB2, OB3, OB4)가 일렬로 나란하게 충분히 밀착하여 위치하는 경우를 가정하여 보자.As shown in (A) of FIG. 27, assume a case in which four objects OB1, OB2, OB3, and OB4 are in close enough contact with each other in a line.
여기서, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)는 몸이 맞닿는 정도로 밀착된 상태일 수 있다.Here, the first object OB1 , the second object OB2 , the third object OB3 , and the fourth object OB4 may be in close contact with each other to the extent that their bodies come into contact with each other.
이러한 경우에, 도 27의 (B)에 나타나 있는 바와 같이, 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 제 1 카메라부(11)의 정면에 나란히 위치할 수 있다.In this case, as shown in (B) of FIG. 27, the first object OB1, the second object OB2, the third object OB3, and the fourth object OB4 are the first camera unit 11 ) can be located side by side in front of.
그러면 제 1 카메라부(11)의 관점에서는 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)가 중첩되어 보일 수 있다.Then, from the viewpoint of the
반면에, 제 2 카메라부(12)의 관점에서는 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)의 측면을 관찰할 수 있어서 제 1 객체(OB1), 제 2 객체(OB2), 제 3 객체(OB3) 및 제 4 객체(OB4)를 상대적으로 정밀하게 구분할 수 있다.On the other hand, from the viewpoint of the
이를 고려하면, 도 27의 경우에는 제 2 카메라부(12)의 신뢰도는 제 1 카메라부(11)의 신뢰도보다 더 높을 수 있다.Considering this, in the case of FIG. 27 , the reliability of the
아울러, 제 1 카메라부(11)가 촬영한 영상(대상 영상)에는 이상 패턴이 포함될 수 있다.In addition, an abnormal pattern may be included in an image (target image) captured by the
한편, 제 1 카메라부(11)와 제 2 카메라부(12)의 신뢰도가 각각 미리 설정된 임계 신뢰도보다 더 높으면서도, 제 1 대상 영상에 대응하는 객체(OB)의 수와 제 2 대상 영상에 대응하는 객체(OB)의 수가 다른 경우를 가정하여 보자.Meanwhile, while the reliability of the
도 28에 나타나 있는 바와 같이, 제 1 카메라부(11)와 제 2 카메라부(12)가 복수의 객체(OB)가 모여 있는 부분을 각각 촬영하는 경우를 가정하자.As shown in FIG. 28 , it is assumed that the
복수의 객체(OB)가 모여 있는 부분의 영상 패턴은 촬영 각도에 따라 다르게 판단될 수 있다.An image pattern of a portion where a plurality of objects OB are gathered may be determined differently according to a photographing angle.
예를 들면, 도 28의 경우에, 서버(20)는 제 1 카메라부(11)가 촬영한 영상(제 1 대상 영상)에서 복수의 객체(OB)가 모여 있는 부분(대상 블록)의 영상 패턴이 미리 설정된 제 1 비교 블록의 영상 패턴과 가장 유사하다고 판단할 수 있다.For example, in the case of FIG. 28 , the
반면에, 서버(20)는 제 2 카메라부(11)가 촬영한 영상(제 2 대상 영상)에서 복수의 객체(OB)가 모여 있는 부분(대상 블록)의 영상 패턴이 미리 설정된 제 2 비교 블록의 영상 패턴과 가장 유사하다고 판단할 수 있다.On the other hand, the
이러한 경우에는 서버(20)는 제 1 카메라부(11)에 대응되는 제 1 대상 영상을 분석하여 제 1 대상 영상에 포함된 객체(OB)의 수에 대한 제 1 결과값을 출력하고, 제 2 카메라부(12)에 대응되는 제 2 대상 영상을 분석하여 제 2 대상 영상에 포함된 객체(OB)의 수를 검출하여 제 2 결과값을 출력할 수 있다.In this case, the
이후, 서버(20)는 제 1 결과값과 제 2 결과값을 합산하고, 평균하여 최종적인 결과값을 출력할 수 있다.Thereafter, the
이러한 경우, 촬영 각도에 따른 오차 발생을 억제하거나 방지할 수 있다.In this case, it is possible to suppress or prevent the occurrence of errors according to the photographing angle.
한편, 제 1 카메라부(11)에 대응하는 촬영 영역과 제 2 카메라부(12)에 대응하는 촬영 영역이 일부 중첩되고, 제 1 카메라부(11)에 대응하는 비중첩영역 및 제 2 카메라부(12)에 대응하는 비중첩영역의 크기가 충분히 큰 경우에는 중첩영역과 비중첩영역에서 객체(OB)의 수의 카운팅을 다른 방식으로 수행할 수 있다. 이에 대해, 첨부된 도면을 참조하여 살펴보면 아래와 같다.Meanwhile, the capturing area corresponding to the
중첩 영역 및 비중첩 영역에 대해서는 앞선 도 24에서 상세히 설명한 바 있다.The overlapping area and the non-overlapping area have been described in detail with reference to FIG. 24 above.
도 29를 살펴보면, 중첩 영역(OVA)에 대해 객체(OB)의 수를 검출할 수 있다(S490).Referring to FIG. 29 , the number of objects OB in the overlapping area OVA may be detected (S490).
중첩 영역(OVA)은 제 1 카메라부(11)에 대응되는 촬영 영역과 제 2 카메라부(12)에 대응되는 촬영 영역이 중첩되는 영역으로서, 제 1 카메라부(11)와 제 2 카메라부(12)가 모두 촬영을 수행하는 영역이라고 할 수 있다.The overlapping area OVA is an area where the capturing area corresponding to the
제 1 카메라부(11)가 대응하는 촬영 영역을 촬영한 제 1 대상 영상을 서버(20)로 전송하고 제 2 카메라부(12)가 대응하는 촬영 영역을 촬영한 제 2 대상 영상을 서버(20)로 전송하면, 서버(20)에는 제 1 대상 영상과 제 2 대상 영상에서 각각 중첩 영역(OVA)을 판별할 수 있다.The
아울러, 서버(20)는 제 1 대상 영상의 중첩 영역(OVA)에 대해 객체(OB)의 수를 검출하고, 제 2 대상 영상의 중첩 영역(OVA)에 대해 객체(OB)의 수를 검출할 수 있다.In addition, the
이후, 서버(20)는 신뢰도를 근거로 하여 제 1 카메라부(11) 및 제 2 카메라부(12) 중 어느 하나에 대응하여 중첩 영역(OVA)에 대한 객체(OB)의 수의 정보를 선택하거나, 평균값을 연산하는 것이 가능하다.Thereafter, the
예를 들어, 제 1 카메라부(11)의 신뢰도가 제 2 카메라부(12)의 신뢰도보다 더 높거나, 제 1 카메라부(11)의 신뢰도가 미리 설정된 임계 신뢰도보다 더 높은 경우를 가정하여 보자.For example, suppose that the reliability of the
이러한 경우, 서버(20)는 제 1 카메라부(11)에 대응하는 제 1 대상 영상에서 중첩 영역(OVA)을 판별하고, 판별한 제 1 대상 영상의 중첩 영역(OVA)에서 객체(OB)의 수를 검출하고, 검출한 객체(OB)의 수에 대한 정보를 중첩 영역(OVA)에 대응하는 최종적인 결과값으로 판별할 수 있다.In this case, the
또는, 서버(20)는 제 1 카메라부(11)에 대응하는 제 1 대상 영상에서 중첩 영역(OVA)을 판별하고, 판별한 제 1 대상 영상의 중첩 영역(OVA)에서 객체(OB)의 수(제 1 결과)를 검출할 수 있다. 아울러, 서버(20)는 제 2 카메라부(12)에 대응하는 제 2 대상 영상에서 중첩 영역(OVA)을 판별하고, 판별한 제 2 대상 영상의 중첩 영역(OVA)에서 객체(OB)의 수(제 2 결과)를 검출할 수 있다.Alternatively, the
이후, 서버(20)는 제 1 결과와 제 2 결과를 합산하고 평균하여 중첩 영역(OVA)에 대응하는 최종적인 결과값을 출력할 수 있다.Thereafter, the
이에 대한 내용은 앞서 상세히 설명한 내용으로부터 충분히 설명될 수 있음로 중복되는 설명은 생략할 수 있다.Since the contents of this can be fully explained from the above detailed description, redundant descriptions can be omitted.
이후, 중첩 영역(OVA)에 대한 최종적인 결과값에 소정의 제 1 오차가 부여될 수 있다(S491).Thereafter, a predetermined first error may be applied to the final result value of the overlapping area OVA (S491).
여기서, 상황에 따라 제 1 오차를 생략하는 것도 가능할 수 있다.Here, it may be possible to omit the first error according to circumstances.
한편, 비중첩 영역에서도 객체(OB)의 수를 검출할 수 있다(S492).Meanwhile, the number of objects OB can be detected even in a non-overlapping area (S492).
예를 들면, 서버(20)는 제 1 카메라부(11)에 대응하는 제 1 비중첩영역(NOVA1)에 대해 객체(OB)의 수를 검출하고, 이와 함께 제 2 카메라부(12)에 대응하는 제 2 비중첩영역(NOVA2)에 대해 객체(OB)의 수를 검출할 수 있다.For example, the
아울러, 서버(20)는 제 1 비중첩영역(NOVA1)에 대응하는 객체(OB)의 수와 제 2 비중첩영역(NOVA2)에 대응하는 객체(OB)의 수를 합산한 값을 전체 비중첩 영역(NOVA1, NOVA2)에 대응하는 객체(OB)의 수에 대한 최종적인 결과값으로 판별할 수 있다.In addition, the
이후, 비중첩 영역(NOVA1, NOVA2)에 대한 최종적인 결과값에 소정의 제 2 오차가 부여될 수 있다(S493).Thereafter, a predetermined second error may be given to final result values for the non-overlapping areas NOVA1 and NOVA2 (S493).
여기서, 상황에 따라 제 2 오차를 생략하는 것도 가능할 수 있다.Here, it may be possible to omit the second error according to circumstances.
제 1 오차와 제 2 오차가 모두 부여되는 상황에서는 최종 결과값 대비한 오차값의 비율은 제 2 오차가 제 1 오차보다 더 클 수 있다.In a situation where both the first error and the second error are given, the second error may be greater than the first error in a ratio of the error value to the final result value.
예를 들어, 중첩 영역(OVA)에 대한 최종적인 결과값이 100명이라고 가정하면, 제 1 오차는 100명에 대한 ㅁ3%로서 ㅁ3명일 수 있다.For example, assuming that the final result value for the overlapping area (OVA) is 100 people, the first error may be ㅁ3% as ㅁ3% for 100 people.
반면에, 비중첩 영역(NOVA1, NOVA2)에 대한 최종적인 결과값이 100명이라고 가정하면, 제 2 오차는 100명에 대한 ㅁ10%로서 ㅁ10명일 수 있다.On the other hand, assuming that the final result values for the non-overlapping areas NOVA1 and NOVA2 are 100 people, the second error may be ㅁ10% of 100 people, which is ㅁ10 people.
이처럼, 비중첩 영역(NOVA1, NOVA2)의 최종 결과값에 대한 오차(제 2 오차)의 비율을 중첩 영역(OVA)의 최종 결과값에 대한 오차(제 1 오차)의 비율을 더 크게 하는 이유는 비중첩 영역(NOVA1, NOVA2)은 제 1 카메라부(11) 또는 제 2 카메라부(12)가 단독으로 촬영하기 때문에 오류가 발생할 가능성이 상대적으로 더 높기 때문일 수 있다.In this way, the reason why the ratio of the error (second error) to the final result value of the non-overlapping areas NOVA1 and NOVA2 is larger than the ratio of the error (first error) to the final result value of the overlapping area OVA is This may be because the probability of occurrence of an error is relatively high because the non-overlapping areas NOVA1 and NOVA2 are photographed by the
비중첩 영역(NOVA1, NOVA2)과 중첩 영역(OVA)에 대해 각각 최종 결과값과 오차를 판별한 이후에는 두 개의 값을 합산하여 카메라 모듈(10)에 대한 최종적인 결과값을 출력할 수 있다(S494).After discriminating final result values and errors for the non-overlapping areas NOVA1 and NOVA2 and the overlapping areas OVA, respectively, the final result values for the
예를 들어, 중첩 영역(OVA)에 대한 최종적인 결과값이 100명이고 제 1 오차가 ㅁ3명이고, 비중첩 영역(NOVA1, NOVA2)에 대한 최종적인 결과값이 100명이고 제 2 오차는 ㅁ10명인 경우를 가정하여 보자.For example, the final result value for the overlapping area (OVA) is 100 people, the first error is ㅁ3 people, the final result value for the non-overlapping area (NOVA1, NOVA2) is 100 people, and the second error is Let's assume the case of 10 people.
이러한 경우, 전체적인 최종 결과값은 200명, 그리고 오차가 ㅁ13명일 수 있다.In this case, the overall final result value may be 200 people, and the error may be ㅁ13 people.
이러한 본 발명에서는 대상 영상(대상 블록)과 비교 영상(비교 블록)을 비교하여 대상 영상에 포함된 객체(OB)의 수를 판별하기 때문에, 보다 신속하게 객체(OB)의 수를 판별 및 검출할 수 있다. 즉, 보다 신속하게 군중 계수를 수행할 수 있다.In the present invention, since the number of objects OB included in the target image is determined by comparing the target image (target block) and the comparison image (comparison block), the number of objects OB can be determined and detected more quickly. can That is, crowd counting can be performed more quickly.
이에 따라, 본 발명은 빠르게 객체(OB)의 수를 판별할 필요가 있는 경우에 적용되는 것이 보다 바람직할 수 있다.Accordingly, the present invention may be more preferably applied to a case where it is necessary to rapidly determine the number of objects OB.
아울러, 본 발명에서는 저사양의 하드웨어 및 소프트웨어를 이용하더라도 신속하게 객체(OB)의 수를 검출하는 것이 가능하다.In addition, in the present invention, it is possible to quickly detect the number of objects OB even when using low-end hardware and software.
아울러, 본 발명에서는 상대적으로 좁은 공간에 포함된 객체(OB)의 수를 신속하게 판별하는데 더욱 효과적일 수 있다.In addition, in the present invention, it may be more effective to quickly determine the number of objects OB included in a relatively narrow space.
예를 들면, 본 발명은 지하철 등의 전동차 내에 위치하는 객체(OB)(승객)의 수를 검출하는데 보다 유용하게 사용될 수 있다.For example, the present invention can be more usefully used to detect the number of objects OB (passengers) located in a train such as a subway.
지하철 등의 전동차는 상대적으로 공간이 좁고, 승객의 수에 따라 좁은 공간에 다수의 객체(OB)가 위치할 수 있으며, 승차 및/또는 하차에 대응하여 전동차 내에 위치하는 객체(OB)의 수가 빈번하게 변동될 수 있다.Trains such as subways have a relatively narrow space, and a large number of objects (OBs) may be located in a narrow space according to the number of passengers, and the number of objects (OBs) located in the train in response to getting on and off is frequent. may change accordingly.
전동차에 카메라 모듈(10)을 설치하고, 이를 이용하여 전동차 내에 위치하는 객체(OB)의 수, 즉 승객의 수를 검출하는 방법에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.A method of installing a
도 30 내지 도 32는 카메라 모듈을 전동차에 설치하는 경우에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.30 to 32 are diagrams for explaining a case in which a camera module is installed in an electric train. Hereinafter, description of the parts described in detail above may be omitted.
도 30을 살펴보면, 카메라 모듈(10)이 지하철 등의 전동차(30)의 내부에 설치될 수 있다. 예를 들면, 카메라 모듈(10)은 전동차(30)의 내부의 상부벽에 설치될 수 있다.Referring to FIG. 30 , the
이러한 경우, 거리에 따른 오차 발생을 억제하거나 방지하기 위해 전동차(30)의 중앙 부분의 상부벽에 카메라 모듈(10)을 설치하는 것이 가능하다.In this case, it is possible to install the
이처럼, 카메라 모듈(10)이 전동차(30)의 중앙 부분에 설치되는 경우에는 카메라 모듈(10)의 제 1 카메라부(11)와 제 2 카메라부(12)가 서로 다른 방향을 향할 수 있다.As such, when the
예를 들면, 도 31에 나타나 있는 바와 같이, 카메라 모듈(10)의 제 1 카메라부(11)는 전동차(30)의 좌측 부분을 향해 비스듬하게 기울어지고, 제 2 카메라부(12)는 전동차(30)의 우측 부분을 향해 비스듬하게 기울어질 수 있다.For example, as shown in FIG. 31, the
아울러, 좁고 긴 형태의 공간을 갖는 전동차(30)의 특성을 고려하면, 제 1 카메라부(11)에 대응하는 촬영 영역의 제 1 비중첩영역(NOVA1)의 사이즈(면적)은 중첩영역(OVA)의 사이즈(면적)보다 더 크고, 제 2 카메라부(12)에 대응하는 촬영 영역의 제 2 비중첩영역(NOVA2)의 사이즈(면적)은 중첩영역(OVA)의 사이즈(면적)보다 더 클 수 있다.In addition, considering the characteristics of the
이처럼, 카메라 모듈(10)이 전동차(30) 내에 설치되고, 서버(20)는 카메라 모듈(10)이 촬영한 영상(대상 영상)을 이용하여 전동차(30) 내에 위치하는 객체(OB), 즉 승객의 수를 검출할 수 있다.In this way, the
아울러, 전동차(30)에서는 좁고 긴 형태를 갖는 공간에 객체(OB), 즉 승객이 위치하며, 전동차(30)의 이동 중에는 객체(OB)들의 이동이 상대적으로 감소할 수 있다.In addition, in the
이를 고려하면, 본 발명에서와 같이 대상 영상(대상 블록)과 비교 영상(비교 블록)을 비교하여 대상 영상(대상 블록)에 포함된 객체(OB)의 수를 신속하게 검출하는 기술이 전동차(30)에 적용되는 것이 보다 바람직할 수 있다.Considering this, as in the present invention, a technology for quickly detecting the number of objects (OB) included in a target image (target block) by comparing a target image (target block) and a comparison image (comparison block) is a train 30 ) may be more preferable.
카메라 모듈(10)이 전동차(30)에 적용되는 경우에서 군주 계수를 수행하는 방법에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.In the case where the
전동차(30)에서 군중 계수를 수행하기 위해 서버(20)와 전동차(30)의 운행을 제어하는 전동차 제어부(미도시)는 서로 연동되고 통신을 수행할 수 있다.In order to perform crowd counting in the
도 32를 살펴보면, 먼저 전동차(30)의 문(Door)의 계폐를 확인할 수 있다(S500).Referring to FIG. 32, first, the opening and closing of the door of the
이후, 전동차(30)의 문이 닫혀 있는 상태인지의 여부를 판단할 수 있다(S510).Subsequently, it may be determined whether or not the door of the
S510단계에서 판단결과 전동차(30)의 문이 닫히지 않은 상태, 즉 문이 열린 상태인 경우에서는 미리 설정된 제 4 기능(Default 4)을 수행할 수 있다(S520).As a result of the determination in step S510, when the door of the
제 4 기능은 전동차(30)의 문이 닫힐때가지 대기하는 기능 등을 예로 들 수 있다.The fourth function may include, for example, a function of waiting until the door of the
반면에, S510단계에서 판단결과 전동차(30)의 문이 닫힌 상태에서는 전동차(30)의 속도를 확인할 수 있다(S530).On the other hand, as a result of the determination in step S510, in a state where the door of the
이후, 전동차(30)의 속도가 미리 설정된 임계 속도 이상인지의 여부를 판단할 수 있다(S540).Thereafter, it may be determined whether or not the speed of the
S540단계에서 판단결과, 전동차(30)의 속도가 임계 속도보다 낮은 경우에는 미리 설정된 제 5 기능(Default 5)을 수행할 수 있다(S550).As a result of determination in step S540, if the speed of the
제 5 기능은 전동차(30)의 속도가 임계 속도를 넘을 때까지 대기하는 기능 등을 예로 들 수 있다.The fifth function may be, for example, a function of waiting until the speed of the
반면에, S550단계에서 판단결과 전동차(30)의 속도가 임계 속도를 넘어서는 경우에는 카메라 모듈(10)의 제 1 카메라부(11) 및 제 2 카메라부(12)를 이용하여 촬영 영역의 영상, 즉 대상 영상을 촬영할 수 있다(S400).On the other hand, if the speed of the
여기서, 촬영 영역은 전동차(30)의 내부를 포함할 수 있고, 대상 영상은 전동차(30)의 내부의 영상을 포함할 수 있다.Here, the shooting area may include the inside of the
이후, 카메라 모듈(10)이 촬영한 대상 영상에서 객체(OB), 즉 승객의 수를 검출할 수 있다(S470)Thereafter, the object OB, that is, the number of passengers may be detected from the target image captured by the camera module 10 (S470).
카메라 모듈(10)이 촬영 영역의 대상 영상을 촬영하고, 대상 영상에서 객체(OB)의 수를 검출하는 방법은 앞서 상세히 설명하였으므로 중복되는 설명은 생략하기로 한다.Since the
대상 영상에서 객체(OB)의 수를 검출한 이후에는 군중 계수 모드를 종료할지의 여부를 판단하여(S560), 종료하는 경우에는 군중 계수 모드를 종료할 수 있다(S570).After detecting the number of objects OB in the target image, it is determined whether to end the crowd counting mode (S560), and if so, the crowd counting mode can be ended (S570).
반면에 S560단계에서 판단결과, 군중 계수 모드를 종료하지 않는 경우에는 다시 S500단계로 진행할 수 있다.On the other hand, as a result of determination in step S560, if the crowd counting mode is not terminated, the process may proceed to step S500 again.
도 32의 내용을 고려하면, 전동차(30)의 속도가 임계 속도 이하이거나 혹은 전동차(30)의 문이 열려 있는 상태에서는 카메라 모듈(10)은 촬영을 실시하지 않을 수 있다.Considering the contents of FIG. 32 , the
반면에, 전동차(30)의 문이 닫혀 있는 상태에서 전동차(30)의 속도가 임계 속도 이상인 경우에 카메라 모듈(10)이 영상을 촬영하고, 촬영한 영상에서 객체(OB)의 수를 검출할 수 있다. 아울러, 이러한 과정을 반복할 수 있다.On the other hand, when the speed of the
다른 관점에서 보면, 지하철의 경우 전동차(30)가 정거장에 정차하여 승객이 승차 혹은 하차하는 과정에서는 카메라 모듈(10)이 촬영을 실시하지 않을 수 있다. 반면에, 전동차(30)가 정거장을 출발하여 충분한 속도에 도달한 경우(임계 속도를 넘은 경우)에는 카메라 모듈(10)이 영상을 촬영하고, 촬영한 영상에서 객체(OB)의 수를 검출할 수 있다.From another point of view, in the case of a subway, the
이러한 과정은 인접하는 두 개의 정거장의 사이에서 적어도 1회 이상 수행될 수 있다. 객체(OB), 즉 승객이 전동차(30)의 사이를 오가는 경우도 있기 때문에 바람직하게는 인접하는 두 개의 정거장의 사이에서 객체(OB)의 수를 검출하는 과정을 복수회 실시하는 것이 바람직할 수 있다.This process may be performed at least once between two adjacent stations. Since there are cases where objects OB, that is, passengers, pass between
아울러, 소정의 정거장을 지나면 객체(OB)의 수를 검출하는 과정을 다시 수행할 수 있다.In addition, the process of detecting the number of objects OB may be performed again after passing a predetermined stop.
위에서 설명한 바와 같이, 전동차(30) 내부에 위치하는 객체(OB), 즉 승객의 수를 검출한 이후에는 검출한 승객의 수에 대한 정보를 전동차(30)를 관리하는 중앙 서버(미도시)에 전송할 수 있다.As described above, after detecting the number of objects (OB) located inside the
그러면, 중앙 서버에는 소정의 제 1 정거장에 전동차(30)가 도착하기 이전에 해당 전동차(30)에 탑승하고 있는 승객의 수를 제 1 정거장에 승차 대기 중인 고객에게 미리 알릴 수 있다.Then, the central server may notify customers waiting to board at the first stop of the number of passengers boarding the
그러면, 제 1 정거장에서 대기 중인 고객들은 어느 전동차에 적은 수의 승객이 탑승하고 있는지를 미리 확인할 수 있고, 이에 따라 복수의 전동차(30)에 고르게 승객을 분산시키는 효과를 획득할 수 있다.Then, customers waiting at the first stop can check in advance which train has a small number of passengers, and accordingly, the effect of evenly distributing passengers to the plurality of
이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, it will be understood that the technical configuration of the present invention described above can be implemented in other specific forms without changing the technical spirit or essential features of the present invention by those skilled in the art to which the present invention pertains.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above should be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the claims to be described later rather than the foregoing detailed description, and the meaning and scope of the claims And all changes or modified forms derived from the equivalent concept should be construed as being included in the scope of the present invention.
Claims (5)
상기 카메라 모듈이 촬영한 대상 영상(Target Image)을 분석하여 상기 대상 영상에 포함된 객체의 수를 검출하는 검출단계;
를 포함하는 것을 특징으로 하는 인공지능을 이용한 군중 계수 방법.A photographing step of capturing a surrounding image by a camera module; and
a detection step of analyzing a target image captured by the camera module and detecting the number of objects included in the target image;
Crowd counting method using artificial intelligence comprising a.
상기 카메라 모듈은
제 1 카메라부(First Camera Part)와 제 2 카메라(Second Camera Part)를 포함하고,
상기 제 1 카메라부와 상기 제 2 카메라부의 촬영 영역은 적어도 일부가 서로 다른 것을 특징으로 하는 인공지능을 이용한 군중 계수 방법.According to claim 1,
The camera module
Including a first camera part and a second camera part,
The crowd counting method using artificial intelligence, characterized in that at least some of the shooting areas of the first camera unit and the second camera unit are different from each other.
상기 카메라 모듈의 촬영 영역에 대한 위치 정보를 판별하여 저장하는 단계;
상기 카메라 모듈의 설치 위치에 대한 정보를 판별하여 저장하는 단계; 및
상기 대상 영상에서 적어도 하나의 상기 객체를 판별하는 단계;
를 더 포함하고,
상기 검출단계에서는
상기 대상 영상에서 객체의 위치 정보 및 상기 객체의 위치에서의 상기 객체의 기준 정보를 근거로 하여 상기 객체의 수를 검출하는 것을 특징으로 하는 인공지능을 이용한 군중 계수 방법.According to claim 1,
determining and storing positional information about a photographing area of the camera module;
Determining and storing information on the installation location of the camera module; and
determining at least one object in the target image;
Including more,
In the detection step
The crowd counting method using artificial intelligence, characterized in that for detecting the number of the object based on the position information of the object in the target image and the reference information of the object in the position of the object.
상기 카메라 모듈이 주변의 비교 영상(Comparison Image)을 촬영하여 저장하는 단계; 및
상기 비교 영상에 대해 객체의 수를 검출하는 단계;
를 더 포함하고,
상기 검출단계에서는
상기 대상 영상을 적어도 하나의 상기 비교 영상과 비교하여 상기 객체의 수를 검출하는 것을 특징으로 하는 인공지능을 이용한 군중 계수 방법.According to claim 1,
Taking and storing, by the camera module, a comparison image of the surroundings; and
detecting the number of objects in the comparison image;
Including more,
In the detection step
Crowd counting method using artificial intelligence, characterized in that for detecting the number of objects by comparing the target image with at least one comparison image.
상기 카메라 모듈이 촬영한 대상 영상(Target Image)을 분석하여 상기 대상 영상에 포함된 객체의 수를 검출하는 검출부;
를 포함하는 것을 특징으로 하는 인공지능을 이용한 군중 계수 장치.A camera module for capturing surrounding images; and
a detection unit that analyzes a target image captured by the camera module and detects the number of objects included in the target image;
Crowd counting device using artificial intelligence comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210063245A KR102631983B1 (en) | 2021-05-17 | 2021-05-17 | People counting method and apparatus using artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210063245A KR102631983B1 (en) | 2021-05-17 | 2021-05-17 | People counting method and apparatus using artificial intelligence |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220155700A true KR20220155700A (en) | 2022-11-24 |
KR102631983B1 KR102631983B1 (en) | 2024-01-31 |
Family
ID=84235531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210063245A KR102631983B1 (en) | 2021-05-17 | 2021-05-17 | People counting method and apparatus using artificial intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102631983B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102584708B1 (en) * | 2022-12-13 | 2023-10-05 | 주식회사 인텔리빅스 | System and Method for Crowd Risk Management by Supporting Under and Over Crowded Environments |
KR102663409B1 (en) * | 2023-05-30 | 2024-05-03 | 김수진 | Data collection apparatus and method for machine learning |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010033195A (en) * | 2008-07-25 | 2010-02-12 | Panasonic Electric Works Co Ltd | People counter and equipment control system using the same |
KR20130065234A (en) | 2011-12-09 | 2013-06-19 | 주식회사 하이로시 | Automatic counting how objects |
JP2018116692A (en) * | 2017-01-13 | 2018-07-26 | キヤノン株式会社 | Human flow analysis apparatus and system |
-
2021
- 2021-05-17 KR KR1020210063245A patent/KR102631983B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010033195A (en) * | 2008-07-25 | 2010-02-12 | Panasonic Electric Works Co Ltd | People counter and equipment control system using the same |
KR20130065234A (en) | 2011-12-09 | 2013-06-19 | 주식회사 하이로시 | Automatic counting how objects |
JP2018116692A (en) * | 2017-01-13 | 2018-07-26 | キヤノン株式会社 | Human flow analysis apparatus and system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102584708B1 (en) * | 2022-12-13 | 2023-10-05 | 주식회사 인텔리빅스 | System and Method for Crowd Risk Management by Supporting Under and Over Crowded Environments |
KR102663409B1 (en) * | 2023-05-30 | 2024-05-03 | 김수진 | Data collection apparatus and method for machine learning |
Also Published As
Publication number | Publication date |
---|---|
KR102631983B1 (en) | 2024-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Brown et al. | Performance evaluation of surveillance systems under varying conditions | |
Ellis | Performance metrics and methods for tracking in surveillance | |
KR20220155700A (en) | People counting method and apparatus using artificial intelligence | |
Cui et al. | Multi-modal tracking of people using laser scanners and video camera | |
JP5442261B2 (en) | Automatic event detection method and system in sports stadium | |
US11995846B2 (en) | Three-dimensional object tracking using unverified detections registered by one or more sensors | |
US10565733B1 (en) | Virtual inductance loop | |
US20030053659A1 (en) | Moving object assessment system and method | |
US7489802B2 (en) | Miniature autonomous agents for scene interpretation | |
US20030053658A1 (en) | Surveillance system and methods regarding same | |
CA2451660A1 (en) | Method for monitoring a moving object and system regarding same | |
CN106778655B (en) | Human body skeleton-based entrance trailing entry detection method | |
KR20080085837A (en) | Object density estimation in vedio | |
CN101167086A (en) | Human detection and tracking for security applications | |
Ekinci et al. | Silhouette based human motion detection and analysis for real-time automated video surveillance | |
US20230046840A1 (en) | Vehicular access control based on virtual inductive loop | |
Nyaruhuma et al. | Verification of 2D building outlines using oblique airborne images | |
CN110189355A (en) | Safe escape channel occupies detection method, device, electronic equipment and storage medium | |
Matzner et al. | ThermalTracker-3D: A thermal stereo vision system for quantifying bird and bat activity at offshore wind energy sites | |
JP6183703B2 (en) | Object detection apparatus, object detection method, and object detection system | |
CN109977796A (en) | Trail current detection method and device | |
KR102528202B1 (en) | Camera module and people counting method for vehicle using the camera module | |
Ng et al. | Outdoor illegal parking detection system using convolutional neural network on Raspberry Pi | |
JP2002074369A (en) | System and method for monitoring based on moving image and computer readable recording medium | |
Zhang et al. | Fast crowd density estimation in surveillance videos without training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right |