KR101692504B1 - Intelligent image analysis system using beacon and method thereof - Google Patents

Intelligent image analysis system using beacon and method thereof Download PDF

Info

Publication number
KR101692504B1
KR101692504B1 KR1020150179195A KR20150179195A KR101692504B1 KR 101692504 B1 KR101692504 B1 KR 101692504B1 KR 1020150179195 A KR1020150179195 A KR 1020150179195A KR 20150179195 A KR20150179195 A KR 20150179195A KR 101692504 B1 KR101692504 B1 KR 101692504B1
Authority
KR
South Korea
Prior art keywords
information
image
image analysis
user terminal
identification information
Prior art date
Application number
KR1020150179195A
Other languages
Korean (ko)
Other versions
KR20160137332A (en
Inventor
홍두영
함익기
조은규
Original Assignee
(주)와이즈콘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)와이즈콘 filed Critical (주)와이즈콘
Publication of KR20160137332A publication Critical patent/KR20160137332A/en
Application granted granted Critical
Publication of KR101692504B1 publication Critical patent/KR101692504B1/en

Links

Images

Classifications

    • G06K9/00771
    • G06K9/3216
    • G06K9/34
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 지능형 영상 분석 시스템 및 방법에 관한 것으로, 구체적으로 소정의 영역을 촬영한 영상으로부터 상기 영상에 포함된 객체 정보를 해석한영상해석정보를 출력하는 영상정보해석부; 상기 소정 영역에 위치한 사용자가 소지한 사용자 단말기로부터 송신되는 식별정보를 수신하는 식별정보획득부; 및 상기 영상해석정보와 상기 식별정보를 이용한 최종영상정보를 출력하는 최종영상정보출력부;를 포함하는 것을 특징으로 하는 지능형 영상 분석 시스템 및 이를 위한 지능형 영상 분석 방법에 관한 것이다. The present invention relates to an intelligent image analysis system and method, and more particularly, to an intelligent image analysis system and method for analyzing object information included in an image, An identification information obtaining unit that receives identification information transmitted from a user terminal held by a user located in the predetermined area; And a final image information output unit for outputting final image information using the image analysis information and the identification information, and an intelligent image analysis method for the intelligent image analysis system.

Description

비콘 기반 지능형 영상 분석 시스템 및 방법{Intelligent image analysis system using beacon and method thereof}[0001] The present invention relates to a beacon-based intelligent image analysis system and method,

본 발명은 지능형 영상 분석 시스템 및 방법에 관한 것으로, 구체적으로 지능형 카메라와 비콘 등의 무선통신장치를 이용하여 영상 분석을 하는 시스템 및 방법에 관한 것이다. The present invention relates to an intelligent image analysis system and method, and more particularly, to a system and method for performing image analysis using a wireless communication device such as an intelligent camera and a beacon.

종래의 일반적인 CCTV 카메라 등은 일정한 지역을 촬영하여 그 영상을 전송하는 기능만을 수행하였다. Conventional general CCTV cameras have only taken a certain area and transmitted the image.

최근에는 지능형 영상 분석 시스템이 개발되어 촬영된 영상에서 객체를 구분하고, 이벤트를 탐지하는 등의 분석 작업이 가능하게 되었다. In recent years, intelligent image analysis system has been developed, and it is now possible to analyze objects such as identifying objects and detecting events in photographed images.

도 1은 종래의 지능형 영상 분석 시스템을 설명하기 위한 도면이다. 1 is a view for explaining a conventional intelligent image analysis system.

기존의 객체 분석 기능은 영상 정보를 이용하여 자동으로 행위를 탐지하는 기술로써, 다음 그림과 같이 배경 영역 분리 단계, 객체 식별 단계, 객체 추적 단계 및 사전 정의된 규칙을 기반으로 이벤트를 탐지하는 이벤트 탐지 단계로 구성된다The existing object analysis function is a technology that detects the action automatically by using the image information. It detects the event based on the background region separation step, the object identification step, the object tracking step and the predefined rule as shown in the following figure Step

배경 영역 분리 단계는 입력되는 영상에서 관심이 있는 전경 영역과 그 외의 배경 영역을 구분하여 활성 객체를 탐지하는 과정으로 초기에서 주로 이전 영상과의 현재 영상의 밝기 차이를 계산하여 분리하는 방법이 사용되었다. The background region separation step is a process of detecting an active object by separating the foreground region and the background region of interest from the input image. In the initial stage, a method of calculating brightness difference between the current image and the previous image is used .

하지만, 최근에는 배경 영역에 대한 특성 정보를 가우시안 또는 가우시안 믹스처 모델(GMM: Ga-ussian Mixture Model) 등을 사용하여 정교하게 모델링한 후, 전경 영역과 배경 영역을 구분하는 방법들이 많이 사용되고 있다.However, in recent years, there have been many methods of delineating the background information by using a Gaussian or Gaussian Mixture Model (GMM), and then distinguishing the foreground and background regions.

객체 식별 단계는 배경 영역에서 전경 영역으로 판단한 객체 중에서 탐지된 물체가 사람인지 사물인지 여부를 구분하는 과정으로 현재 지능형 영상분석 기술은 사람 (한명, 그룹), 동물, 사물 등을 주로 구분하고 있다.The object identification step is a process of distinguishing whether a detected object is a human or an object among the objects judged as a foreground area in the background area. Currently, the intelligent image analysis technique mainly distinguishes a person (one person, a group), an animal, and an object.

객체 추적은 연속되는 영상에서 식별된 객체의 이동경로를 찾는 과정으로, 칼만 필터, 파티클 필터, CAMSHIFT(Continuously Adaptive Mean Shift) 등의 다양한 알고리즘을 바탕으로 추적하는 물체의 특징을 정의 하는 방법, 추적하는 알고리즘의 조합 방법을 사용하고 있다.Object tracking is a process of finding the movement path of an identified object in successive images. It is based on various algorithms such as Kalman filter, particle filter, CAMSHIFT (Continuously Adaptive Mean Shift) Algorithm is used.

이벤트 탐지 단계에서는 객체의 식별 정보 및 객체의 이동 정보를 바탕으로 보안 관리자가 정의한 규칙을 위반하는지 여부를 판단하여 이벤트를 탐지하고, 탐지된 정보를 메타 데이터 형태로 VMS(Video ManagementSystem)나 기타의 다른 보안 관리 서버로 전송하게 되고, 그 이벤트의 종류는 다음과 같다.In the event detection step, an event is detected by determining whether the rule defined by the security manager is violated based on the object identification information and the object movement information, and the detected information is stored in the form of metadata in the form of VMS (Video Management System) To the security management server, and the types of the events are as follows.

지능형 AP-카메라는 다양한 감지 기능을 지원하는 지능형 영상 분석 기법을 이용하여 가상 경계 영역에 대한 침범/서성임/배회/방치 물체를 감지한다. The intelligent AP-camera uses intelligent image analysis techniques that support various sensing functions to detect intruding / wandering / wandering / neglecting objects in the virtual boundary area.

카메라 흔들림/손상 기능은 도난및 파손을 방지하기 위해서 이용된다. 이 기능을 이용하여 상용화시에는 알림기능(SMS, 경보기,..)이 필수적으로 있어야한다. The camera shake / damage function is used to prevent theft and damage. When using this function, notification function (SMS, alarm, ..) should be essential for commercialization.

또한 이러한 기능 수행에 있어서 리얼 타임성을 확보해야 한다.In addition, real-time performance must be ensured in performing these functions.

종래의 지능형 영상 분석 시스템은 단순히 촬영되는 영상에서 객체를 구분하고 간단한 특정 패턴을 감지하는 정도의 기능만을 수행할 수 있기 때문에, 단순히 출입자수 카운팅 정도만을 할 수 있는 정도였고, 직접적으로 무단 침입하는 사람을 잡아내는 등과 같은 기능이나 실제로 누가 출입했는지, 어떤 경로를 통해 출입했는지 여부 등과 같이 보다 구체적인 분석 기능을 수행하지는 못하는 단점이 있었다. Since the conventional intelligent image analysis system can perform only the function of distinguishing objects from a photographed image and detecting a simple specific pattern, it is possible to perform only counting of the number of entrances, Such as the ability to identify a person as a person, a function to capture a person, or a person who actually enters or exits through a route.

한국공개특허공보 제2015-0034398호(2015.4.3 공개) (객체인식 기반의 주차장 이벤트 검지 방법) 요약, 청구항 1, 도 1Korean Patent Laid-Open Publication No. 2015-0034398 (published May 3, 2015) (Method for Detecting Parking Event Based on Object Recognition) Summary, Claim 1, 한국공개특허공보 제2014-0141239호(2014.12.10 공개)(평균이동 알고리즘을 적용한 실시간 객체 추적방법 및 시스템) 요약, 청구항 1, 도 1Korean Patent Laid-Open Publication No. 2014-0141239 (published Dec. 10, 2014) (Real Time Object Tracking Method and System Using Average Moving Algorithm) Summary, Claim 1,

상기한 문제를 해결하기 위해서 본 발명에서는 촬영되는 지역을 통과하는 각 사용자가 비콘 등의 근거리 무선통신장치를 보유하도록 하고, 근거리 무선통신장치를 이용하여 획득되는 정보와 지능형 영상 분석 시스템을 통하여 획득된 정보를 조합하여 보다 향상된 영상 분석이 가능한 지능형 영상 분석 시스템 및 지능형 영상 분석 방법을 제공하는 것을 목적으로 한다.In order to solve the above-mentioned problem, according to the present invention, each user passing through a region to be photographed has a near field wireless communication device such as a beacon, and the information obtained using the near field wireless communication device and the information obtained through the intelligent image analysis system And an intelligent image analysis method and an intelligent image analysis method capable of performing more advanced image analysis by combining information.

또한, 상기한 문제를 해결하기 위해서 본 발명에서는 상기한 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 것을 목적으로 한다.In order to solve the above problems, the present invention provides a computer-readable recording medium on which a program for realizing the above-described method is recorded.

상기한 문제를 해결하기 위해서 본 발명에서는 소정의 영역을 촬영한 영상으로부터 상기 영상에 포함된 객체 정보를 해석한영상해석정보를 출력하는 영상정보해석부; 상기 소정 영역에 위치한 사용자가 소지한 사용자 단말기로부터 송신되는 식별정보를 수신하는 식별정보획득부; 및 상기 영상해석정보와 상기 식별정보를 이용한 최종영상정보를 출력하는 최종영상정보출력부;를 포함하는 것을 특징으로 하는 지능형 영상 분석 시스템을 제공하는 것을 목적으로 한다.According to an aspect of the present invention, there is provided an image processing apparatus comprising: an image information analysis unit for outputting image analysis information obtained by analyzing object information included in an image of a predetermined region; An identification information obtaining unit that receives identification information transmitted from a user terminal held by a user located in the predetermined area; And a final image information output unit outputting final image information using the image analysis information and the identification information.

또한, 상기한 문제를 해결하기 위해서 본 발명에서는 소정의 영역을 촬영한 영상으로부터 상기 영상에 포함된 객체 정보를 해석한영상해석정보를 출력하는 단계; 상기 소정 영역에 위치한 사용자가 소지한 사용자 단말기로부터 송신되는 식별정보를 수신하는 단계; 및 상기 영상해석정보와 상기 식별정보를 이용한 최종영상정보를 출력하는 단계;를 포함하는 것을 특징으로 하는 지능형 영상 분석 방법을 제공하는 것을 목적으로 한다.According to another aspect of the present invention, there is provided an image processing method comprising the steps of: outputting image analysis information obtained by analyzing object information included in an image of a predetermined region; Receiving identification information transmitted from a user terminal located in the predetermined area; And outputting the final image information using the image analysis information and the identification information. The present invention also provides an intelligent image analysis method.

여기서, 상기 지능형 영상 분석 시스템은 상기 사용자의 위치정보를 판단하는 위치정보판단부;를 더 포함할 수 있다. The intelligent image analysis system may further include a location information determination unit for determining location information of the user.

또한, 상기 사용자 단말기는 비콘일 수 있다. Also, the user terminal may be a beacon.

또한, 상기 최종영상정보는 상기 영상에 식별정보가 등록된 사용자 단말기를 보유하지 않은 객체가 있는지 여부를 판단하는 정보를 포함할 수 있다. In addition, the final image information may include information for determining whether or not there is an object that does not have a user terminal whose identification information is registered in the image.

한편, 상기한 문제를 해결하기 위해서 본 발명에서는 상기한 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 것을 목적으로 한다.In order to solve the above problems, the present invention provides a computer-readable recording medium on which a program for realizing the above-described method is recorded.

본 발명에 따르면, 촬영된 영상으로만 분석을 하는 한계를 뛰어넘어 보다 향상된 분석정보를 제공할 수 있는 장점이 있다. According to the present invention, it is possible to provide more improved analysis information beyond the limitation of analyzing only a photographed image.

도 1은 종래의 지능형 영상 분석 시스템의 구성을 도시한 블록도
도 2는 본 발명의 지능형 영상 분석 시스템의 구성을 도시한 블록도
도 3은 본 발명에서 상황별 이벤트 검출 기능을 설명하기 위한 도면
도 4는 본 발명의 지능형 영상 분석 시스템의 분석 기능을 설명하기 위한 도면
도 5는 본 발명의 일 실시예를 설명하기 위한 기능 흐름도
도 6은 본 발명의 또 다른 일 실시예를 설명하기 위한 도면
도 7은 본 발명의 시스템의 구성을 도시한 블록선도
도 8은 본 발명의 방법을 도시한 흐름도
1 is a block diagram showing the configuration of a conventional intelligent image analysis system
2 is a block diagram illustrating the configuration of an intelligent image analysis system according to the present invention.
3 is a diagram for explaining an event detection function according to a situation in the present invention;
4 is a diagram for explaining the analysis function of the intelligent image analysis system of the present invention;
5 is a functional flowchart for explaining an embodiment of the present invention.
6 is a view for explaining another embodiment of the present invention
7 is a block diagram showing the configuration of the system of the present invention.
Figure 8 is a flow chart illustrating the method of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. 또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한, 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다. The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, intended only for the purpose of enabling understanding of the concepts of the present invention, and are not intended to be limiting in any way to the specifically listed embodiments and conditions . It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of currently known equivalents as well as equivalents to be developed in the future.

따라서, 프로세서 또는 이와 유사한 개념으로 표시된 기능 블록을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다. 또한, 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니 되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지 관용의 다른 하드웨어도 포함될 수 있다. Thus, the functions of the various elements shown in the drawings, including the functional blocks shown in the figures or similar concepts, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared. Also, the use of terms such as processor, control, or similar concepts should not be construed as exclusive reference to hardware capable of executing software, but may include, without limitation, digital signal processor (DSP) hardware, (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

상술한 목적, 특징 및 장점들은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 더욱 분명해 질 것이다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략하거나 간략하게 설명하는 것으로 한다. The above objects, features and advantages will become more apparent from the following detailed description in conjunction with the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

한편 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다.On the other hand, when an element is referred to as "including " an element, it does not exclude other elements unless specifically stated to the contrary.

이하, 첨부된 도면을 참조하여 바람직한 실시예에 따른 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 지능형 영상 분석 시스템의 기능을 설명하기 위한 블록도이다. 2 is a block diagram illustrating functions of the intelligent image analysis system of the present invention.

종래 기술과 달리 본 발명에서는 기존의 영상 분석을 위한 실시간 영상정보에 비콘의 식별자별 위치정보를 추가함에 따라 추출되는 영상별 메타정보에 식별자를 포함하게 된다.According to the present invention, the location information of each beacon is added to the real-time image information for the conventional image analysis, and the identifier is included in the meta information of each image extracted.

도 2에서와 같이, 이동체 비콘 등으로부터 출입하는 이동체의 식별자와 위치정보를 획득한다. As shown in FIG. 2, an identifier and location information of a moving object entering and exiting from a mobile beacon are acquired.

한편 해당되는 영역을 촬영하여 상기 촬영된 영상에서 배경영역과 객체를 분리한다. On the other hand, the corresponding region is photographed and the background region and the object are separated from the photographed image.

이렇게 분리된 각 객체와 이동체의 식별자와 위치정보를 이용하여 각 객체의 식별자와 위치를 파악하고, 객체를 추적한다. The identifiers and locations of each object are identified using the identifiers and location information of the separated objects and mobile objects, and the objects are tracked.

이렇게 인식된 이동체의 식별자 등의 객체 인식정보는 영상별 메타정보에 포함되게 된다. The recognized object recognition information such as the identifier of the moving object is included in the meta information for each image.

한편, 규칙관리인터페이스에 설정되어 있는 이벤트가 탐지되었는지 여부를 판단하여 이벤트가 발생하였는지 여부도 판단하게 된다. Meanwhile, it is determined whether an event set in the rule management interface has been detected, and whether an event has occurred or not is also determined.

도 2에서와 같이 이벤트 검출을 위하여 영상의 전처리과정이 필요하고, 실제 이벤트 기능별로 외부입력 및 설정값이 필요하다. As shown in FIG. 2, in order to detect an event, a preprocessing process of an image is required, and external input and setting values are required for each actual event function.

이벤트별 설정에 따라 최종 이벤트는 도 3에서와 같이 판단한다. According to the event-specific setting, the final event is determined as shown in FIG.

도 3에서 보는 바와 같이, 영상이 입력되면 물체인식, 물체의 등장 및 사라짐, 이동체의 방향, 이동체의 카운팅, 이동체의 ID 식별, 카메라 흔들림 및 손상 등을 판단하고, 이렇게 판단된 정보를 이용하여 조건별 이벤트를 판단하게 된다. As shown in FIG. 3, when an image is input, it is determined whether the object is recognized, the appearance and disappearance of the object, the direction of the moving object, the counting of the moving object, ID identification of the moving object, camera shake or damage, And judges a separate event.

즉, 특정영역에서 나타나고 사라졌는지 여부, 특정방향으로만 이동하는 물체가 있는지 여부, 특정 영역으로 들어가고 나가는 물체가 있는지 여부, 출입하는 사람수가 어느 정도인지 여부 등을 검출할 수 있다. That is, it is possible to detect whether or not an object appears and disappears in a specific area, whether there is an object moving only in a specific direction, whether or not there is an object entering and leaving the specific area, and how many people are entering and exiting.

도 4는 본 발명의 지능형 영상 분석 시스템을 통하여 분석하는 일 예를 설명하기 위한 도면이다. FIG. 4 is a view for explaining an example of analysis through the intelligent image analysis system of the present invention.

도 4에서와 같이, 영상에 촬영되는 객체에 각 객체가 지니고 있는 비콘 등 근거리 무선통신장치의 식별정보를 이용하여 각 객체(식별자)의 위치정보가 파악됨으로 인하여, 단순히 누군가가 이동하였다는 종래의 분석정보와는 달리 누가 나타나고 사라졌는지, 각 객체가 어떤 방향으로 이동하였는지, 어디로 출입하였는지 등을 알 수 있으며, 각 개체별 이동수 및 총 카운팅 수를 알 수 있게 된다. As shown in FIG. 4, since the location information of each object (identifier) is grasped by using the identification information of the local wireless communication device such as a beacon, which each object has in the object photographed in the image, Unlike analytical information, it is possible to know who appeared and disappeared, which direction the objects moved in and where they went, and the number of movements and total counts for each object.

또한, 비콘 등의 근거리 무선통신장치를 소지하지 않고 있는 사람 등이 침입을 하는 경우 이를 바로 파악할 수 있는 장점이 있다. In addition, there is an advantage that a person who does not have a short-range wireless communication device such as a beacon can easily grasp the intruder.

즉, 촬영되는 영상을 통해서는 누군가 촬영되는 영역을 통해 이동 또는 위치해 있는 것으로 파악되는데, 그 사람에 해당하는 비콘의 신호가 수신되지 않는다던가, 등록되지 않은 신호가 수신되는 등의 경우에는 그 사람을 출입이 허용되지 않은 사람, 또는 침입자 등으로 판단하도록 할 수 있을 것이다. In other words, it is understood that a person is moved or positioned through a photographed region through a photographed image. If a beacon signal corresponding to the person is not received or an unregistered signal is received, A person who is not allowed to enter, or an intruder.

도 5는 본 발명의 일 실시예를 설명하기 위한 기능 흐름도이다. 5 is a functional flowchart for explaining an embodiment of the present invention.

도 5는 본 발명의 지능형 영상 분석 시스템이 주로 회사, 연구소, 중요시설, 정부기관 등에서 비콘 소지자의 출입관리 및 비소지자의 무단침입관리를 하기 위하여 사용되는 경우를 예로 들어 도시한 것이다. FIG. 5 illustrates an example in which the intelligent image analysis system of the present invention is mainly used for management of entrance / exit of beacon holders and unauthorized intruder management of beacons in a company, a laboratory, a critical facility, or a governmental institution.

초기설정으로, AP①의 영상분석기능 - 출입관리 기능을 기동함으로써 본 발명이 실시되게 되며, 이렇게 본 발명이 실시되면 AP①와 단말④의 송수신데이터는 중계서버③를 경유하여 송수신하게 된다. In the initial setting, the present invention is implemented by activating the image analysis function-access control function of the AP (1). When the present invention is implemented in this way, the transmission data of the AP (1) and the terminal (4) are transmitted and received via the relay server (3).

1) 사용자가 소지하고 있는 비콘②은 고유식별번호와 센서 데이터를 주기적으로 송신하고, AP①에서는 등록된 비콘의 신호인지를 확인하여 저장하며, 등록된 단말에게 데이터(식별자 정보)를 푸쉬한다. 1) The beacon ② held by the user periodically transmits the unique identification number and the sensor data. In the AP①, the beacon is confirmed and stored as a signal of the registered beacon, and the data (identifier information) is pushed to the registered terminal.

2) 단말④은 등록된 AP①에게 정보를 요청하고 AP①는 비콘②에서 수신된 실시간 또는 저장된 정보를 보내고, 단말④는 GUI를 통해 출입 카운팅수 등의 정보를 표출(식별번호가 있는 객체는 임의로 부여된 Color를 적용하여 표출)할 수 있다. 2) The terminal ④ requests information from the registered AP ①, AP ① sends real-time or stored information received from the beacon ②, and the terminal ④ exposes information such as the number of the entrance counting through the GUI (For example, by applying the applied color).

도 6은 본 발명의 또 다른 실시예를 도시한 도면으로, 식별자별 위치정보를 송신하는 방법을 설명하기 위한 도면이다. 6 is a diagram illustrating another embodiment of the present invention, and is a diagram for explaining a method of transmitting location information for each identifier.

동작 순서는 다음과 같다. The operation sequence is as follows.

1) 먼저, 위치정보를 위해 주기적으로 송신하는 고정된 비콘이 설치되어 있다. 1) First, a fixed beacon is periodically transmitted for location information.

2) 이동체 비콘을 소지한 이동체는 단말(스마트폰(위치계산 앱기동) 또는 위치계산기기)을 소지하고 있어야 한다.2) The mobile body carrying the mobile beacon shall have the terminal (smart phone (location calculation app launch) or location calculation device).

3) 단말은 주기적으로 이동체 비콘의 식별자와 단말에서 계산된 위치정보를 송신한다. 3) The terminal periodically transmits the identifier of the mobile beacon and the position information calculated in the terminal.

4) 근처에 위치한 AP에서는 단말의 정보를 수신하여 저장하고, 영상분석SW모듈에서 사용한다. 4) The AP located near the AP receives and stores the terminal information and uses it in the image analysis SW module.

도 7은 본 발명의 지능형 영상 분석 시스템의 구성을 도시한 블록도이다. 7 is a block diagram showing the configuration of the intelligent image analysis system of the present invention.

도 7에서 보는 바와 같이, 본 발명의 지능형 영상 분석 시스템은 영상정보해석부(110), 식별정보획득부(120), 위치정보판단부(130) 및 최종영상정보출력부(140)를 포함하여 구성된다. 7, the intelligent image analysis system of the present invention includes an image information analysis unit 110, an identification information acquisition unit 120, a position information determination unit 130, and a final image information output unit 140 .

이 지능형 영상 분석 시스템(100)은 CCTV 등과 같이 소정 영역을 촬영하는 장치로부터 상기 대상이 되는 소정 영역을 촬영한 촬영영상을 수신하고, 비콘 등 사용자 단말기(200)로부터 수신된 신호를 종합하여 감시 대상이 되는 영역에서 발생하는 각종 이벤트를 출력하게 된다. The intelligent image analysis system 100 receives a photographed image of a predetermined region of the subject from a device capturing a predetermined region such as CCTV and synthesizes signals received from the user terminal 200 such as a beacon, And the like.

구체적으로 각 구성요소를 살펴본다. Specifically, we examine each component.

영상정보해석부(110)는 수신된 촬영영상을 해석한 결과인 영상해석정보를 출력한다. The image information analysis unit 110 outputs image analysis information that is a result of analyzing the received photographed image.

영상정보해석부(110)에서 해석하는 대상은 촬영된 영상에서 사람 등 객체를 분리하고, 각 객체의 수, 각 객체가 이동하는 방향 등을 해석하고, 그 해석된 결과인 영상해석정보를 출력한다. 영상으로부터 객체를 분리하는 등의 기술은 종래에 잘 알려진 기술이므로 이에 대한 자세한 설명은 생략한다. An object to be analyzed by the image information analysis unit 110 is to separate objects such as people from the photographed image, analyze the number of each object, the direction in which each object moves, and output image interpretation information as an interpreted result . A technique of separating an object from an image is well known in the art, and a detailed description thereof will be omitted.

영상정보해석부(110)에서 해석하는 정보의 종류는 시스템 설계자 또는 운영자가 미리 설정한 조건에 따라 달라질 수 있다. The type of information analyzed by the image information analyzing unit 110 may vary according to conditions preset by the system designer or the operator.

즉, 앞에서 예를 들은 바와 같이, 단순히 객체를 분리하여 그 객체가 사람인지 동물인지 등을 인식하고, 그 객체의수, 이동하는 방향만을 판단할 수도 있고, 객체가 특정 영역(예를 들어 출입금지구역)에 들어서는지 여부, 특정 위치에서 소정 시간 이상 머무는지 여부 등에 대한 판단을 할 수도 있을 것이다. That is, as described above, the object may be simply separated to recognize whether the object is a person or an animal, to determine only the number of the objects, the direction in which the object is moved, Area), whether or not it stays at a specific position for a predetermined time or more, or the like.

앞서 설명한 바와 같이, 영상정보해석부(110)에서 어떤 이벤트에 대한 정보를 출력할지 여부는 시스템 설계자 등에 의해 정해질 수 있는 사안이므로 본 발명에서는 영상정보해석부(110)에서 출력하는 정보는 특정 이벤트에 대한 정보로 한정짓지 않는다. As described above, since it is a matter that can be determined by the system designer or the like to which information about the event to be output in the image information analyzing unit 110, in the present invention, the information output from the image information analyzing unit 110 is a specific event And the like.

식별정보획득부(120)는 사용자 단말기로부터 식별정보를 획득한다. The identification information obtaining unit 120 obtains the identification information from the user terminal.

여기서 사용자 단말기(200)는 비콘 등과 같이 무선통신기능을 수행할 수 있는 장치이기만 하면 되며, 그 장치의 종류에 제한을 두지 않는다. Here, the user terminal 200 may be a device capable of performing a wireless communication function, such as a beacon, and does not limit the type of the device.

예를 들어, 스마트폰 등에 해당 기능을 설치하는 경우에는 스마트폰을 사용자 단말기로 이용할 수도 있을 것이다. For example, when a corresponding function is installed in a smart phone or the like, a smart phone may be used as a user terminal.

촬영의 대상이 되는 영역에는 AP와 같이 특정한 위치에 고정된 고정통신장치(미도시)가 하나 이상 구비되며, 이 고정통신장치와 사용자 단말기(200)간의 통신을 통하여 사용자 단말기(200)의 식별정보가 식별정보획득부(120)로 전송되게 된다. One or more fixed communication devices (not shown) fixed to a specific position such as an AP are provided in an area to be photographed, and identification information of the user terminal 200 through communication between the fixed communication device and the user terminal 200 Is transmitted to the identification information obtaining unit (120).

위치정보판단부(130)는 촬영 대상이 되는 영역에 위치한 사용자의 위치를 판단한다. The position information determination unit 130 determines a position of a user located in an area to be photographed.

사용자의 위치를 판단하는 방법에는 크게 두 가지 방법이 있을 수 있다. There are two methods for determining the location of the user.

하나는 사용자 단말기(200)가 위치를 연산하여 그 연산된 정보를 전송하면, 그 연산된 정보를 이용하여 사용자의 위치정보를 판단하는 방식이 있을 수 있고, 다른 하나는 사용자 단말기(200)에서 출력되는 신호를 받아서 위치정보판단부(130)에서 직접 연산하여 판단하는 방법이 있을 수 있다. One is that the user terminal 200 calculates the location and transmits the calculated information, and there is a method of determining the location information of the user by using the calculated information. And the position information determination unit 130 directly calculates and determines the received signal.

먼저, 사용자 단말기(200)에서 연산을 통하여 위치를 판단하는 방법을 설명한다. First, a method of determining a position through calculation in the user terminal 200 will be described.

이를 위해서는 촬영의 대상이 되는 영역에 구비된 각 고정통신장치는 자신의 위치 또는 그 위치를 알 수 있는 고유정보인 위치정보를 출력하여야만 한다. In order to do this, each fixed communication device provided in an area to be photographed must output its own position or position information which is unique information that can recognize its position.

사용자 단말기(200)는 각 고정통신장치에서 출력된 신호를 수신하고 이를 이용하여 자신의 위치를 연산하게 된다. The user terminal 200 receives the signal output from each fixed communication device and calculates its own position using the received signal.

사용자 단말기(200)에 수신되는 고정통신장치의 신호의 수가 오직 하나인 경우에는 신호의 세기를 이용하여 대략적인 거리를 연산하고, 이렇게 연산된 고정통신장치와의 거리를 이용하여 자신이 위치할 수 있는 영역을 산출할 수 있게 된다. When the number of signals of the fixed communication device received by the user terminal 200 is only one, the approximate distance is calculated using the strength of the signal, and the distance can be calculated It is possible to calculate the area having the area.

이 경우, 촬영된 영상에 사용자 한 명만 포함되어 있는 경우에는 촬영된 영상에서 인식된 객체의 위치를 이용하면 정확한 사용자의 위치를 산출할 수 있게 된다. 촬영된 영상에서의 객체의 위치정보를 이용하여 사용자의 위치를 산출할지는 시스템 설계자 또는 운영자의 선택에 따라 취사선택할 수 있는 사항이 될 것이다. In this case, when only one user is included in the photographed image, the position of the recognized object in the photographed image can be used to calculate the accurate position of the user. The system designer or operator can select the location of the user based on the location information of the object in the photographed image.

신호의 세기에 따라 거리를 산출하는 방식은 오차가 클 수 있기 때문에, 사용자 단말기(200)에서 수신되는 고정통신장치 신호의 수가 하나인 경우에는 신호의 세기를 이용하여 거리를 산출하는 기능이 뛰어난 장비일수록, 그리고 촬영된 영상에 포함된 객체의 수가 적거나 객체간 간격이 멀리 떨어져 있을수록 보다 정확한 위치를 산출할 수 있게 된다. 그러나, 상대적으로 정확한 위치를 산출하는 것은 쉽지 않을 것이다. Since the method of calculating the distance according to the intensity of the signal may have a large error, when the number of the fixed communication apparatus signals received by the user terminal 200 is one, the apparatus having a function of calculating the distance using the intensity of the signal And as the number of objects included in the photographed image is small or the distance between objects is far away, a more accurate position can be calculated. However, it will not be easy to calculate a relatively accurate position.

2개의 고정통신장치로부터 신호를 수신하는 경우에는 앞선 경우보다 더 정확한 위치를 산출할 수 있게 된다. 이 경우에는 적어도 사용자가 이동하는 방향은 비교적 정확하게 산출할 수 있다. 그러나, 정확한 위치에 대해서는 여전히 오차범위가 크게 나타날 수 있다. In the case of receiving a signal from two fixed communication apparatuses, it is possible to calculate a more accurate position than in the preceding case. In this case, at least the direction in which the user moves can be calculated relatively accurately. However, the error range may still be large for the exact position.

3개 이상의 고정통신장치로부터 신호를 수신하는 경우에는 비교적 정확한 위치를 산출할 수 있게 된다. 또한, 촬영된 영상에서 해석된 객체의 위치 등을 참조하면 더더욱 정확한 위치를 산출할 수 있게 될 것이다. A relatively accurate position can be calculated when a signal is received from three or more fixed communication devices. Also, referring to the position of the object analyzed in the photographed image, it will be possible to calculate a more accurate position.

삼각측량을 이용하여 단말기의 위치를 파악하는 기술은 기지국의 위치를 이용하여 이동통신단말기의 위치를 산출하는 기술 등에서 이미 잘 알려진 기술이므로, 이에 대한 자세한 설명은 생략한다. The technique of detecting the position of the terminal using the triangulation is a well-known technology in the art of calculating the position of the mobile communication terminal by using the position of the base station, and a detailed description thereof will be omitted.

사용자 단말기(200)는 고정통신장치로부터 출력된 신호를 수신하여 자신의 위치를 연산하고, 연산된 정보를 위치정보판단부(130)에 전송하며, 위치정보판단부(130)는 이 연산된 정보와 영상정보해석부(110)에서 해석된 객체의 위치정보를 이용하여 최종적인 위치정보를 판단하게 된다. The user terminal 200 receives the signal output from the fixed communication device, calculates its own position, and transmits the calculated information to the position information determination unit 130. The position information determination unit 130 determines the position And the positional information of the object analyzed by the image information analysis unit 110 is used to determine the final positional information.

사용자 단말기(200)에서 출력되는 신호를 받아서 위치정보판단부(130)에서 직접 연산하여 판단하는 경우에는 사용자 단말기(200)에서 출력되는 신호를 대상이 되는 영역에 고정된 고정통신장치가 수신하여 위치정보판단부(130)에서 사용자 단말기(200)의 위치를 판단한다.  When a signal output from the user terminal 200 is received and directly calculated by the position information determination unit 130, the fixed communication apparatus fixed in the target area receives the signal output from the user terminal 200, The information determination unit 130 determines the location of the user terminal 200.

이 경우에도 위치를 판단하는 방식은 사용자 단말기(200)에서 위치를 연산하여 최종적인 위치를 판단하는 방법과 동일하다. Also in this case, the method of determining the position is the same as the method of calculating the position in the user terminal 200 to determine the final position.

즉, 오직 하나의 고정통신장치에서만 사용자 단말기(200)로부터 송출되는 신호를 수신하는 경우에는 그 신호를 수신한 고정통신장치 주변에 사용자가 있을 것이라고 추측하거나, 더 나아가서 신호의 세기를 이용하여 거리를 추정하여 사용자가 있을 수 있는 범위를 예측하고, 이 정보와 영상정보해석부(110)에서 해석된 객체의 위치 정보를 이용하여 사용자의 위치를 판단할 수 있다. That is, when only one fixed communication device receives a signal transmitted from the user terminal 200, it is assumed that there is a user in the vicinity of the fixed communication device that receives the signal, and furthermore, Estimates the range that the user can exist, and determines the position of the user based on the information and the positional information of the object analyzed by the image information analyzing unit 110.

2개의 고정통신장치에서만 사용자 단말기(200)의 신호가 수신되는 경우, 3 이상의 고정통신장치에서 사용자 단말기(200)의 신호가 수신되는 경우에도 모두 앞에서 설명한 방식과 유사한 방식으로 사용자의 위치를 산출할 수 있다. Even when signals of the user terminal 200 are received from only two fixed communication devices and the signals of the user terminal 200 are received from three or more fixed communication devices, the position of the user is calculated in a manner similar to that described above .

한편, 최종영상정보출력부(140)는 촬영된 영상과 영상정보해석부(110)에서 출력된 영상해석정보, 식별정보획득부(120)에서 획득된 촬영되는 영역에 위치한 사용자들의 식별정보, 위치정보판단부(130)에서 획득된 사용자의 위치정보를 결합한 최종영상정보를 출력한다. The final image information output unit 140 outputs the image analysis information, the identification information of the users located in the photographed region acquired by the identification information acquisition unit 120, And outputs the final image information combined with the position information of the user obtained by the information determination unit 130.

최조영상정보는 단순히 각각의 정보를 나열하여 연결한 정보의 형태일 수도 있지만, 각각의 정보들이 영상의 메타 정보로 포함되도록 할 수도 있다. Choi Choi Young-Sang information may be simply a form of information linked by listing each information, but each information may be included as meta information of the image.

최종영상정보에는 앞에서 설명한 정보가 모두 필수적인 정보는 아니며, 어느 하나의 정보가 포함되지 않을 수도 있고, 상기한 정보 외에 다른 정보가 더 포함될 수도 있다. 예를 들어, 위치정보는 포함되지 않는 경우에도 운영자가 원하는 소정의 목적을 달성할 수 있는 경우에는 제외될 수 있을 것이다. The final image information is not necessarily all the information described above, and may not include any one of the information, and may include other information besides the information. For example, even if the location information is not included, it may be excluded when the operator can achieve the desired purpose.

또한, 생성된 모든 정보가 모두 포함되어 출력되지 않고, 상기한 정보들을 이용하여 시스템 운영자가 요구하는 소정의 사항만이 포함되도록 할 수도 있다. In addition, all of the generated information may not be included and output, and only the predetermined items requested by the system operator may be included using the information.

예를 들어, 시스템 운영자가 촬영되는 대상 영역을 통과한 사람들의 식별정보만을 원하는 경우에는 그에 관한 정보만이 포함될 수 있을 것이다. For example, if the system operator wants only the identification information of the person who has passed through the target area to be photographed, only the information related thereto can be included.

또한, 최종영상정보출력부(140)는 단순히 정보를 결합하는 과정을 넘어서, 생성된 정보를 이용하여 소정의 이벤트가 발생하였는지를 판단할 수도 있다. In addition, the final image information output unit 140 may determine whether a predetermined event has occurred using the generated information, rather than merely combining the information.

예를 들어, 영상정보해석부(110)에 의해 판단된 화면상의 객체의 수가 식별정보획득부(120)에 의해 획득된 식별정보의 수가 많은 경우에는 시스템에 등록되지 않은 사람이 침입한 것으로 판단하여 이 사실을 관리자가 알 수 있도록 알람 메시지 등이 출력되도록 할 수 있을 것이다. For example, when the number of objects on the screen determined by the image information analyzing unit 110 is large in the number of pieces of identification information acquired by the identification information obtaining unit 120, it is determined that a person not registered in the system has entered An alarm message or the like may be output so that the manager can recognize this fact.

이 경우, 만약 영상 내의 객체가 식별정보획득부(120) 및 위치정보판단부(130)에 의해 객체별로 정확히 식별이 가능한 경우에는 식별이 불가능한 객체가 침입자가 되므로, 침입자인 것으로 의심되는 사람의 영상을 출력하거나, 해당 부분을 강조하는 영상을 출력하여 관리자가 쉽게 침입자를 찾아낼 수 있도록 할 수도 있을 것이다. In this case, if the object in the image can be accurately identified by the object by the identification information acquisition unit 120 and the position information determination unit 130, the object that can not be identified becomes the intruder, so that the image of the person suspected of being the intruder Or an image emphasizing the corresponding part may be outputted so that the administrator can easily find the intruder.

도 8은 본 발명의 방법을 설명하기 위한 흐름도이다. 8 is a flow chart for explaining the method of the present invention.

먼저, 영상정보해석부(110)는 수신된 촬영영상을 해석한 결과인 영상해석정보를 출력한다(301). First, the image information analyzing unit 110 outputs image analysis information as a result of analyzing the received photographic image (301).

영상정보해석부(110)에서 해석하는 대상은 촬영된 영상에서 사람 등 객체를 분리하고, 각 객체의 수, 각 객체가 이동하는 방향 등을 포함할 수 있음은 앞에서살펴본 바와 같다. The object to be analyzed by the image information analyzing unit 110 may include a person or the like in the captured image, and may include the number of objects, the direction in which the objects move, and the like.

식별정보획득부(120)는 사용자 단말기로부터 식별정보를 획득한다(302). The identification information obtaining unit 120 obtains the identification information from the user terminal (302).

위치정보판단부(130)는 촬영 대상이 되는 영역에 위치한 사용자의 위치를 판단한다(303). The location information determination unit 130 determines the location of the user located in the area to be photographed (303).

사용자의 위치를 판단하는 방법에는 사용자 단말기(200)가 위치를 연산하여 그 연산된 정보를 전송하면, 그 연산된 정보를 이용하여 사용자의 위치정보를 판단하는 방식, 사용자 단말기(200)에서 출력되는 신호를 받아서 위치정보판단부(130)에서 직접 연산하여 판단하는 방법이 있을 수 있다는 점은 앞에서 설명한 바와 같다. 자세한 내용은 앞에서 설명하였으므로, 여기서는 생략한다. The method of determining the position of the user includes a method of determining the position information of the user using the calculated information when the user terminal 200 calculates the position and transmits the calculated information, A method of receiving the signal and directly calculating it by the position information determination unit 130 may be used as described above. Since the details have been described above, they are omitted here.

최종영상정보출력부(140)는 촬영된 영상과 영상정보해석부(110)에서 출력된 영상해석정보, 식별정보획득부(120)에서 획득된 촬영되는 영역에 위치한 사용자들의 식별정보, 위치정보판단부(130)에서 획득된 사용자의 위치정보를 이용하여 생성된 최종영상정보를 출력한다(304). The final image information output unit 140 outputs the image analysis information output from the image analysis unit 110, the identification information of users located in the photographed region acquired by the identification information acquisition unit 120, And outputs the generated final image information using the position information of the user obtained in step S304.

최조영상정보는 단순히 각각의 정보를 나열하여 연결한 정보의 형태일 수도 있지만, 각각의 정보들이 영상의 메타 정보로 포함되도록 할 수도 있다는 점은 앞에서 설명한 바와 같다. As described above, Choi, Joo-young can be a form of linked information by simply listing each information, but each information may be included as meta information of the image.

또한, 최종영상정보에는 앞에서 설명한 정보가 모두 필수적인 정보는 아니며, 어느 하나의 정보가 포함되지 않을 수도 있고, 상기한 정보 외에 다른 정보가 더 포함될 수도 있다는 점도 앞에서 설명한 바와 같다. In addition, the above-described information is not necessarily essential information in the final image information, and any information may not be included in the final image information, and information other than the above information may be further included.

또한, 생성된 모든 정보가 모두 포함되어 출력되지 않고, 상기한 정보들을 이용하여 시스템 운영자가 요구하는 소정의 사항만이 포함되도록 할 수도 있다는 점도 앞에서 설명한 바와 같다.In addition, it is also possible to include not only all of the generated information but also the predetermined information required by the system operator using the above information, as described above.

또한, 최종영상정보출력부(140)는 단순히 정보를 결합하는 과정을 넘어서, 생성된 정보를 이용하여 침입자의 발생 등 소정의 이벤트가 발생하였는지를 판단하여 그에 따라 필요한 정보가 출력되도록 할 수 있다는 점도 앞에서 설명한 바와 같다. In addition, the final image information output unit 140 may determine whether a predetermined event such as an intruder has been generated using the generated information, and output the necessary information according to the generated information. As described above.

앞에서 설명한 각 단계는 반드시 순서가 정해져있는 것은 아니며, 최종영상정보를 출력하는 단계 외에는 그 순서가 변경될 수 있다. Each of the steps described above is not necessarily ordered, and the order may be changed other than the step of outputting the final image information.

본 발명의 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method of the present invention can also be embodied as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

본 발명은 첨부된 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 수 있을 것이다. 따라서, 본 발명의 진정한 보호 범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation, You will understand. Accordingly, the true scope of protection of the present invention should be determined only by the appended claims.

Claims (9)

소정의 영역을 촬영한 영상을 통해 파악한 이동체의 등장 및 사라짐, 이동체의 이동방향 또는 이동체의 카운팅을 포함한 영상해석정보를 출력하는 영상정보해석부;
상기 소정 영역에 위치한 이동체가 소지한 사용자 단말기로부터 송신되는 식별정보를 수신하는 식별정보획득부; 및
상기 이동체를 촬영한 영상의 메타정보로 상기 식별정보를 포함한 최종영상정보를 출력하는 최종영상정보출력부;를 포함하는 것을 특징으로 하는 지능형 영상 분석 시스템.
An image information analyzing unit for outputting image analysis information including appearance and disappearance of a moving object captured through an image photographed in a predetermined area, moving direction of the moving object, or counting of the moving object;
An identification information obtaining unit for receiving identification information transmitted from a user terminal held by a mobile unit located in the predetermined area; And
And a final image information output unit outputting final image information including the identification information as meta information of an image of the moving object.
제1항에 있어서, 상기 지능형 영상 분석 시스템은
상기 사용자의 위치정보를 판단하는 위치정보판단부;를 더 포함하는 것을 특징으로 하는 지능형 영상 분석 시스템.
The system of claim 1, wherein the intelligent image analysis system
And a position information determiner for determining the position information of the user.
제1항에 있어서, 상기 사용자 단말기는 비콘인 것을 특징으로 하는 지능형 영상 분석 시스템.The intelligent image analysis system of claim 1, wherein the user terminal is a beacon. 제1항에 있어서, 상기 최종영상정보는 상기 영상에 식별정보가 등록된 사용자 단말기를 보유하지 않은 객체가 있는지 여부를 판단하는 정보를 포함하는 것을 특징으로 하는 지능형 영상 분석 시스템.The intelligent image analysis system of claim 1, wherein the final image information includes information for determining whether or not there is an object that does not have a user terminal for which identification information is registered in the image. 소정의 영역을 촬영한 영상을 통해 파악한 이동체의 등장 및 사라짐, 이동체의 이동방향 또는 이동체의 카운팅을 포함한 영상해석정보를 출력하는 단계;
상기 소정 영역에 위치한 이동체가 소지한 사용자 단말기로부터 송신되는 식별정보를 수신하는 단계; 및
상기 이동체를 촬영한 영상의 메타정보로 상기 식별정보를 포함한 최종영상정보를 출력하는 단계;를 포함하는 것을 특징으로 하는 지능형 영상 분석 방법.
Outputting image analysis information including appearance and disappearance of a moving object captured through an image photographed in a predetermined area, moving direction of the moving object, or counting of the moving object;
Receiving identification information transmitted from a user terminal of a moving object located in the predetermined area; And
And outputting final image information including the identification information as meta information of an image of the moving object.
제5항에 있어서, 상기 지능형 영상 분석 방법은
상기 사용자의 위치정보를 판단하는 단계;를 더 포함하는 것을 특징으로 하는 지능형 영상 분석 방법.
6. The method of claim 5, wherein the intelligent image analysis method comprises:
And determining location information of the user based on the location information of the user.
제5항에 있어서, 상기 사용자 단말기는 비콘인 것을 특징으로 하는 지능형 영상 분석 방법.6. The method of claim 5, wherein the user terminal is a beacon. 제5항에 있어서, 상기 최종영상정보는 상기 영상에 식별정보가 등록된 사용자 단말기를 보유하지 않은 객체가 있는지 여부를 판단하는 정보를 포함하는 것을 특징으로 하는 지능형 영상 분석 방법.6. The intelligent image analysis method according to claim 5, wherein the final image information includes information for determining whether there is an object that does not have a user terminal whose identification information is registered in the image. 제5항 내지 제8항 중 어느 한 항에 기재된 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.9. A computer-readable recording medium on which a program for realizing the method according to any one of claims 5 to 8 is recorded.
KR1020150179195A 2015-05-21 2015-12-15 Intelligent image analysis system using beacon and method thereof KR101692504B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150071136 2015-05-21
KR1020150071136 2015-05-21

Publications (2)

Publication Number Publication Date
KR20160137332A KR20160137332A (en) 2016-11-30
KR101692504B1 true KR101692504B1 (en) 2017-01-03

Family

ID=57707665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150179195A KR101692504B1 (en) 2015-05-21 2015-12-15 Intelligent image analysis system using beacon and method thereof

Country Status (1)

Country Link
KR (1) KR101692504B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101077967B1 (en) * 2010-02-09 2011-10-28 중앙대학교 산학협력단 Apparatus and method for surveillance and tracking
KR101492059B1 (en) 2013-05-31 2015-02-11 전자부품연구원 Real Time Object Tracking Method and System using the Mean-shift Algorithm
KR101515166B1 (en) 2013-09-26 2015-05-04 사단법인 한국지능형교통체계협회 A Parking Event Detection System Based on Object Recognition
KR102221817B1 (en) * 2013-10-11 2021-02-26 에스케이플래닛 주식회사 Mobile terminal for providing location information, method and system for measuring the location information

Also Published As

Publication number Publication date
KR20160137332A (en) 2016-11-30

Similar Documents

Publication Publication Date Title
KR101758576B1 (en) Method and apparatus for detecting object with radar and camera
US20190034735A1 (en) Object detection sensors and systems
EP2450832B1 (en) Image processing apparatus and image processing method
CN104103030B (en) Image analysis method, camera apparatus, control apparatus and control method
US20170364755A1 (en) Systems and Methods for Tracking Movements of a Target
US20190035104A1 (en) Object detection and tracking
CN105144705B (en) Object monitoring system, object monitoring method, and program for extracting object to be monitored
JP2017512991A (en) Target object detection method, detection apparatus, and robot
JPWO2015166612A1 (en) Video analysis system, video analysis method, and video analysis program
JP2009143722A (en) Person tracking apparatus, person tracking method and person tracking program
US20170006215A1 (en) Methods and systems for controlling a camera to perform a task
US11164006B2 (en) Information processing apparatus, control method, and program
CN107122743B (en) Security monitoring method and device and electronic equipment
KR102297217B1 (en) Method and apparatus for identifying object and object location equality between images
WO2014175356A1 (en) Information processing system, information processing method, and program
KR20170059266A (en) Object tracking method and object tracking apparatus for performing the method
KR101324221B1 (en) System for tracking object using capturing and method thereof
KR20220110743A (en) Traffic detection method and apparatus, electronic device and computer readable storage medium
CN109934217B (en) Method, apparatus and system for detecting a loitering event
CN104980695A (en) Coordination of object location data with video data
JP2019096062A (en) Object tracking device, object tracking method, and object tracking program
KR20120116699A (en) Moving object detecting apparatus and method using clustering
KR101692504B1 (en) Intelligent image analysis system using beacon and method thereof
JP4985742B2 (en) Imaging system, method and program
KR101595334B1 (en) Method and apparatus for movement trajectory tracking of moving object on animal farm

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191230

Year of fee payment: 4