KR20150028589A - Apparatus and Method for Providing Object Information - Google Patents

Apparatus and Method for Providing Object Information Download PDF

Info

Publication number
KR20150028589A
KR20150028589A KR20130107405A KR20130107405A KR20150028589A KR 20150028589 A KR20150028589 A KR 20150028589A KR 20130107405 A KR20130107405 A KR 20130107405A KR 20130107405 A KR20130107405 A KR 20130107405A KR 20150028589 A KR20150028589 A KR 20150028589A
Authority
KR
South Korea
Prior art keywords
image
camera
information
extracting
similar
Prior art date
Application number
KR20130107405A
Other languages
Korean (ko)
Other versions
KR102097781B1 (en
Inventor
강대희
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020130107405A priority Critical patent/KR102097781B1/en
Publication of KR20150028589A publication Critical patent/KR20150028589A/en
Application granted granted Critical
Publication of KR102097781B1 publication Critical patent/KR102097781B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

An embodiment of the present invention provides a method for providing object data and a device thereof. The method for providing object data in an image includes: an image receiving step of receiving a first image taken by a first camera; an image storage step of storing the first image received from the first camera and an image taken by one or more second cameras; an object extraction step of extracting a first object from the first image received from the first camera; an image extraction step of extracting one or more frames in which a similar object with a similarity equal to or greater than a certain threshold value to the first object is taken from the image stored in the image storage unit; an image analysis step of calculating an object data reliability for each of the first object and the similar objects in the frames and extracts a representative frame between the first image and the frames based on the object data reliability; and an object data analysis step of generating analysis data for the object from the representative frame.

Description

객체 정보 제공 장치 및 방법{Apparatus and Method for Providing Object Information} [0001] APPARATUS AND METHOD FOR PROVIDING OBJECT INFORMATION [0002]

본 발명의 실시예는 영상 내 객체의 정보 분석을 통한 객체 정보 제공 장치 및 방법에 관한 것이다. 더욱 상세하게는, 영상 내에서 탐지된 객체에 대하여 객체가 탐지된 영상의 객체 정보 신뢰도를 산출하여 최적의 영상을 추출하고, 추출한 영상 내 객체 정보를 파악하여, 분석된 객체 정보를 제공하는 객체 정보 제공 장치 및 방법에 관한 것이다. An embodiment of the present invention relates to an apparatus and method for providing object information through information analysis of objects in an image. More particularly, the present invention relates to a method and apparatus for extracting an optimal image by calculating object information reliability of an object detected in an image, detecting object information in the extracted image, And a method for providing the same.

이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다. The contents described in this section merely provide background information on the embodiment of the present invention and do not constitute the prior art.

최근 백화점, 쇼핑몰, 공항 등 유동인구가 많은 곳에서 디지털 사이니지(Digital Signage), 광고판, CCTV(Closed Circuit Television) 등을 이용하여 광고를 노출시켜 사용자에게 상품, 브랜드를 홍보하려는 시도가 늘고 있다. In recent years, there have been more and more attempts to promote products and brands to users by using digital signage, billboards, and closed circuit television ("CCTV") in places where the floating population such as department stores, shopping malls,

이러한 추세와 같은 맥락으로 사용자의 성별, 연령대 등을 분석하여 사용자에게 적합하고 유용한 정보가 포함된 맞춤형 광고 제공에 대한 요구 사항이 있어 왔지만 정보 제공 장치의 한계성으로 인해, 사용자에게 실시간으로 성별, 연령대 분석을 통한 정확한 개인 맞춤형 정보제공 서비스를 제공하기는 어려운 현실적인 한계점을 가지고 있었다. In the same context as this trend, there has been a demand for a customized advertisement providing information suitable for users by analyzing the user's gender and age range. However, due to the limitation of the information providing device, It is difficult to provide accurate and personalized information service through the Internet.

이러한 필요성을 충족하기 위한 종래의 일반적인 방법은 디지털 사이니지, 광고판 등에서 촬영한 영상 내 객체의 연령대나 성별을 분석하여 분석 결과를 제공하는데, 이는 광고판, 디지털 사이니지 등에서 객체를 촬영한 시점이나 카메라의 거리 제한 등으로 인해 영상 내 객체 정보 분석을 위한 객체 얼굴 크기, 각도, 선명도, 주변의 조명 및 카메라의 해상도가 낮아 정확한 분석이 어렵고, 정확한 실시간 정보 제공이 불가능 하는 등의 단순한 객체정보 검색 및 분석 차원에 머무르고 있다. Conventional general methods to meet this need provide analysis results by analyzing the age and sex of the objects in the images taken by digital signage, billboards, etc. This means that when the object is photographed at a billboard, a digital signage, Distance limitation, and so on, it is difficult to accurately analyze because of low face size, angle, sharpness, surrounding illumination and camera resolution, and it is impossible to provide accurate real time information. .

전술한 문제점을 해결하기 위해 본 발명의 실시예는, 영상 내에서 탐지된 객체에 대하여 객체가 탐지된 영상의 객체 정보 신뢰도를 산출하여 최적의 영상을 추출하고, 추출한 영상 내 객체정보를 파악하여, 분석된 객체 정보를 제공하는 객체정보 제공 장치 및 방법을 제공하는 데에 주된 목적이 있다. According to an aspect of the present invention, there is provided a method of detecting an object in an image, the method comprising: extracting an optimal image by calculating object information reliability of an object detected in the image, And an object information providing apparatus and method for providing analyzed object information.

전술한 목적을 달성하기 위해 본 발명의 실시예는, 영상 내의 객체 정보를 제공하는 장치에 있어서, 제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신부; 상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장부; 상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출부; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출부; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석부; 및 상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석부를 포함하는 객체 정보 제공 장치를 제공한다. According to an aspect of the present invention, there is provided an apparatus for providing object information in an image, the apparatus comprising: an image receiving unit for receiving a first image photographed by a first camera; An image storage unit for storing a first image received from the first camera and an image captured by the at least one second camera; An object extraction unit for extracting a first object from a first image received from the first camera; An image extracting unit for extracting at least one frame in which a similar object having a degree of similarity higher than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzer for calculating object information reliability for each of the similar objects for the first object and the one or more frames and for extracting representative frames from the first image and the one or more frames based on the object information reliability; And an object information analyzer for generating analysis information on the object from the representative frame.

이와 함께, 상기 영상 추출부는, 상기 제 2 카메라로부터 촬영된 영상으로부터 상기 하나 이상의 프레임을 추출하는 것을 포함하여 구성할 수 있다. In addition, the image extracting unit may include extracting the one or more frames from the image photographed by the second camera.

또한, 상기 객체 정보 분석부는, 상기 대표 프레임으로부터 상기 객체에 대한 상기 객체의 얼굴 이미지를 추출하고, 상기 얼굴 이미지를 이용하여 상기 객체의 연령대와 성별 정보 중 적어도 하나의 분석 정보를 생성하는 것을 특징으로 하는 객체 정보 제공 장치를 제공한다. The object information analyzing unit extracts a face image of the object with respect to the object from the representative frame and generates at least one analysis information among the age and gender information of the object using the face image. To provide an object information providing apparatus.

바람직하게는, 상기 객체 정보 제공 장치는, 상기 얼굴 이미지를 저장하고, 기 저장된 복수의 얼굴 이미지 중에서 상기 얼굴 이미지와 소정의 임계값 이상의 유사도를 갖는 얼굴 이미지를 추출하여 상기 객체 정보 분석부로 전송하는 데이터베이스부를 더 포함하여 구성하는 것이 바람직하다. Preferably, the object information providing apparatus stores the face image, extracts a face image having a degree of similarity equal to or greater than a predetermined threshold value from the previously stored plurality of face images, and transmits the extracted face image to the object information analyzing unit It is preferable to further comprise a part.

이와 함께, 상기 객체 정보 제공 장치는, 상기 하나 이상의 프레임에서 소정의 시간을 전후로 한 상기 유사 객체의 입부분의 움직임이 있는 프레임을 추출하고, 상기 입부분의 움직임이 있는 프레임의 시간에 대응되는 상기 유사 객체의 음성 정보를 추출하여 상기 영상 분석부로 전송하는 것을 특징으로 하는 음성 분석부를 더 포함하여 구성할 수 있다. In addition, the object information providing apparatus may further include: a frame extracting unit that extracts a frame having a motion of an mouth portion of the similar object in the one or more frames before and after a predetermined time, Extracting voice information of the similar object, and transmitting the extracted voice information to the image analyzing unit.

또한, 상기 객체 정보 제공 장치는, 상기 하나 이상의 프레임에서 상기 유사 객체가 착용한 상품의 종류 또는 상표를 추출하는 상품 분석부를 더 포함하여 구성할 수 있다.  The object information providing apparatus may further include a product analyzing unit for extracting a type or trademark of a product worn by the similar object in the one or more frames.

이와 함께, 상기 객체 정보 제공 장치는, 광고, 게임 및 어플리케이션 중 적어도 하나의 컨텐츠를 사용자에게 제공하는 컨텐츠 서비스 제공 장치로 상기 분석 정보를 전송하는 컨텐츠 연동부를 더 포함하는 것이 더욱 바람직하다. In addition, the object information providing apparatus may further include a content linking unit for transmitting the analysis information to a content service providing apparatus for providing at least one content of an advertisement, a game, and an application to a user.

또한, 상기 영상 추출부는, 상기 제 1 객체와 화소, 컬러 및 윤곽 중에서 적어도 하나 이상의 차이를 비교한 결과를 근거로 한 소정의 임계값의 이상의 유사도를 갖는 상기 유사 객체를 상기 제 2 카메라로부터 촬영된 영상으로부터 추출하는 것을 포함하여 구성할 수 있다. The image extracting unit may extract the similar object having a similarity degree of a predetermined threshold value or more based on a result of comparing at least one of at least one of pixel, color, and outline with the first object, And extracting it from the image.

이와 함께, 상기 객체 정보 신뢰도는, 상기 제 1 객체 및 유사 객체의 얼굴 크기, 얼굴 각도 및 얼굴 선명도를 근거로 한 객체 특성 정보값과 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라 간의 거리 및 해상도를 근거로 한 카메라 특성 정보값에 따라 결정되는 것을 포함하여 구성할 수 있다. In addition, the object information reliability may include an object characteristic information value based on the face size, the face angle, and the face sharpness of the first object and the similar object, and the first camera and the similar object, Which is determined according to the camera characteristic information value based on the distance and resolution between the first and second cameras.

또한, 상기 객체 특성 정보값은, 상기 제1 객체 및 상기 유사 객체에 대하여 얼굴 크기, 얼굴 각도 및 얼굴 선명도에 비례하는 것을 포함하여 구성할 수 있다. In addition, the object characteristic information value may include a value proportional to a face size, a face angle, and a face sharpness for the first object and the similar object.

이와 함께, 상기 카메라 특성 정보값은, 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라 간의 거리에 반비례하고, 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라의 해상도에 비례하는 것을 포함하여 구성할 수 있다.In addition, the camera characteristic information value may be inversely proportional to a distance between a first camera that captures the first object and a second camera that captures the similar object, and the first camera captures the first object, Which is proportional to the resolution of the second camera which has captured the image.

바람직하게는, 영상 내의 객체 정보를 제공하는 방법에 있어서, 제 1 카메라로부터 촬영된 영상을 수신하는 영상 수신 과정; 상기 제 1 카메라로부터 수신한 촬영 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장 과정; 상기 제 1 카메라로부터 수신한 촬영 영상으로부터 제 1 객체를 추출하는 객체 추출 과정; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출 과정; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하여 상기 촬영 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 선택하는 영상 분석 과정; 및 상기 대표 프레임에서 상기 객체의 얼굴 이미지를 추출하고, 상기 얼굴 이미지를 이용하여 상기 객체의 연령대와 성별 정보 중 적어도 하나의 분석 정보를 생성하는 객체 정보 분석 과정을 포함하는 것이 더욱 바람직하다. Preferably, the method further includes the steps of: receiving an image photographed by the first camera; An image storage step of storing a photographed image received from the first camera and an image photographed by the at least one second camera; An object extracting step of extracting a first object from the photographed image received from the first camera; An image extracting step of extracting at least one frame in which a similar object having a degree of similarity equal to or greater than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzing process for calculating object information reliability for the first object and the similar object for the one or more frames to select representative frames among the captured image and the one or more frames; And an object information analyzing step of extracting a face image of the object in the representative frame and generating at least one analysis information of the age and gender information of the object using the face image.

이와 함께, 컴퓨터에, 제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신 과정; 상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장 과정; 상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출 과정; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출 과정; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석 과정; 및 상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석 과정을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함하는 것이 더욱 바람직하다. In addition, a computer-readable medium storing a program for causing a computer to execute: an image receiving process for receiving a first image photographed by a first camera; An image storage step of storing a first image received from the first camera and an image captured by the at least one second camera; An object extracting step of extracting a first object from a first image received from the first camera; An image extracting step of extracting at least one frame in which a similar object having a degree of similarity equal to or greater than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzing process of calculating object information reliability for each of the similar objects for the first object and the one or more frames and extracting a representative frame from the first image and the one or more frames based on the object information reliability; And a computer-readable recording medium storing a program for executing an object information analysis process for generating analysis information on the object from the representative frame.

이상에서 설명한 바와 같이 본 발명의 실시예에 의하면, 객체 정보 제공 장치는 카메라 등을 통한 객체가 촬영된 영상으로부터 객체 정보 신뢰도를 산출하여 객체 정보 분석을 위한 최적의 프레임 추출이 가능하다는 장점을 가지고 있다. As described above, according to the embodiment of the present invention, the object information providing apparatus has an advantage that it can extract an optimal frame for object information analysis by calculating object information reliability from an image of an object captured through a camera or the like .

본 발명에서는, 카메라에서의 객체 얼굴 인식 한계를 고려하여, 객체의 음성인식, 객체가 탈착 또는 소유한 상품의 종류 인식, 상품의 브랜드 또는 상표 인식을 통하여 보다 정확한 객체 정보 분석이 가능한 효과가 있다. According to the present invention, there is an effect that more accurate object information analysis can be performed through voice recognition of an object, recognition of a type of a product that an object is detached or possessed, and recognition of a brand or a trademark of a product in consideration of object face recognition limitations in a camera.

객체 정보 제공 장치는 디지털 사이니지, 광고판 등에서 촬영한 객체 영상의 낮은 선명도 또는 해상도로 인하여 객체 정보 추출 및 분석이 어려운 한계를 극복하고, 다른 복수의 카메라에서 수집 또는 저장한 영상을 이용함으로써 객체 정보 분석의 최적의 조합 및 선택을 통하여 정확한 객체 정보를 제공할 수 있어 향후 광고 서비스 분야, 고객 맞춤형 정보 제공을 통한 마케팅 분야 등에서 널리 활용될 수 있는 장점을 지니고 있다. The object information providing device overcomes the difficulty of extracting and analyzing the object information due to low sharpness or resolution of the object image captured by the digital signage and the billboard, and by using the image collected or stored by the plurality of other cameras, It is possible to provide accurate object information through optimal combination and selection of advertisement information, and it can be widely used in advertising service field and marketing field by providing customized information.

또한, 객체 분석 정보를 광고, 게임, 어플리케이션 등 컨텐츠 서비스를 제공하는 장치에 효과적으로 제공함으로써 객체 정보 제공에 대한 새로운 모델의 구축을 위한 인프라를 제공할 수 있어 새로운 컨텐츠의 창출 및 새로운 수요의 창출을 통한 경제적 효과를 이룰 수 있다.In addition, it is possible to provide an infrastructure for building a new model for providing object information by effectively providing object analysis information to devices providing contents services such as advertisement, games, and applications, thereby creating new contents and creating new demands Economic effect can be achieved.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 일 실시예를 예시하는 것이며, 전술된 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른 객체 정보 제공 장치에 대한 전체적인 구성을 도시한 구성도이다.
도 2는 본 발명의 일 실시예에 따른 객체 정보 제공 장치의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 객체 정보 제공 장치와 카메라 및 컨텐츠 서비스 제공 장치 간의 데이터 송수신을 통한 객체 정보 제공 과정을 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 객체 정보 장치에서 추출된 영상 프레임 중에서 최적의 대표 프레임을 선택하기 위해 객체 정보 신뢰도를 산출하는 수식의 실시예이다.
도 5는 본 발명의 일 실시예에 따른 객체 정보 장치에서 추출된 영상 프레임 중에서 최적의 대표 프레임을 선택하기 위해 객체 정보 신뢰도를 산출시 객체 음성 정보, 객체로부터 검출된 상품의 브랜드 및 상품의 종류에 해당하는 변수를 합산하는 수식의 실시예이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description of the invention given above, serve to provide a further understanding of the technical idea of the present invention. And should not be construed as limiting.
FIG. 1 is a block diagram illustrating an overall configuration of an object information providing apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an object information providing apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a process of providing object information through data transmission / reception between an object information providing apparatus and a camera and a contents service providing apparatus according to an embodiment of the present invention.
4 is an example of an equation for calculating object information reliability in order to select an optimal representative frame from the image frames extracted from the object information apparatus according to an embodiment of the present invention.
FIG. 5 is a graph showing the relationship between object voice information, the type of a product and the type of a product detected from the object, in order to select an optimal representative frame from the image frames extracted from the object information apparatus according to an exemplary embodiment of the present invention. Is an example of a formula for summing the corresponding variables.

이하, 본 발명에서의 일 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. Hereinafter, embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference numerals even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

우선적으로 본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)에 대한 전체적인 구성을 도시한 구성도인 도1을 참조하여 본 발명의 구현을 위한 구성관계를 간략히 설명하면 다음과 같다. FIG. 1 is a block diagram illustrating an overall configuration of an object information providing apparatus 100 according to an embodiment of the present invention. Referring to FIG. 1, a configuration of an object information providing apparatus 100 according to an exemplary embodiment of the present invention will be briefly described below.

본 발명의 일 실시예에 의한 객체 정보 제공 장치(100)는 사용자(200)와 카메라(400) 및 컨텐츠 서비스 제공 장치(300)와 유선 또는 무선 등의 네트워크망(500)을 통하여 상호 연결된다. The object information providing apparatus 100 according to an embodiment of the present invention is connected to the user 200 through the network 400 such as a wired or wireless network with the camera 400 and the content service providing apparatus 300.

본 발명의 일 실시예에 의한 객체 정보 제공 장치(100)는 서버 형태 등으로 구현되며 이하 설명되는 객체 정보 제공 장치(100)의 각 구성요소는 서버의 논리적 기능을 구별하기 위한 개념상의 구분일 뿐 물리적 구분이 아님은 자명하며, 객체 정보 제공 장치(100)는 카메라(400) 및 컨텐츠 서비스 제공 장치(300)와 객체 정보 제공을 위한 다양한 데이터를 상호 입출력하게 된다. 여기서, 카메라(400)는 객체의 출현, 이동, 이탈 등의 경로를 촬영할 수 있는 디지털 사이니지(Digital Signage), CCTV용 카메라, 감시 카메라 등을 포함할 수 있으며, 네트워크망(500)을 경유하여 객체 정보 제공 장치(100)와 영상 및 데이터를 송수신하는 것으로 나타내고 있으나 반드시 이에 한정되는 것은 아니며, 근거리 통신망 또는 소정의 기업에서 설치한 통신기지국에 따른 통신망과 같이 영상 및 데이터를 송수신할 수 있다면 명칭에 국한되지 않고 그 어떤 망으로도 구현될 수 있다. The object information providing apparatus 100 according to an embodiment of the present invention is implemented in a server form or the like and each component of the object information providing apparatus 100 described below is a conceptual classification for distinguishing logical functions of the server The object information providing apparatus 100 mutually inputs and outputs various data for providing object information to the camera 400 and the contents service providing apparatus 300. [ Here, the camera 400 may include a digital signage, a CCTV camera, a surveillance camera, and the like that can take a path such as appearance, movement, and departure of an object, And transmits and receives video and data to and from the object-information providing apparatus 100. However, the present invention is not limited to this, and if it is possible to transmit and receive video and data such as a communication network according to a local area network or a communication base station installed in a predetermined company, But not limited to, any network.

한편, 컨텐츠 서비스 제공 장치(300)는 광고, 게임 및 어플리케이션(Application) 중 적어도 하나의 컨텐츠를 사용자에게 제공하는 서버 형태 등으로 구현될 수 있다. Meanwhile, the content service providing apparatus 300 may be implemented in a form of a server for providing at least one content of an advertisement, a game, and an application to a user.

본 발명의 일 실시예에 의한 객체 정보 제공 장치(100)는 카메라(400)로부터 촬영 영상을 수신하고, 수신한 영상 내의 객체를 탐지하여 객체 정보를 분석하고, 사용자에게 광고, 게임, 어플리케이션 등과 같은 컨텐츠를 제공하는 서비스 장치에 객체 분석 정보를 전송 또는 제공할 수 있는 기능을 수행하는 장치를 의미하므로 상기와 같은 기능을 수행한다면 지칭되는 명칭에 국한되지 않고 객체 정보 제공 장치(100)에 해당될 수 있음은 자명하다. The object information providing apparatus 100 according to an embodiment of the present invention receives an image shot from a camera 400, detects an object in the received image to analyze object information, and provides the user with information such as an advertisement, a game, Means a device that performs the function of transmitting or providing the object analysis information to the service device that provides the content. Therefore, if the function is performed, the object information is not limited to the name, but may correspond to the object information providing device 100 It is self-evident.

이하에서는 본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)의 구성을 도시한 블록도인 도 2를 통하여 객체 정보 제공 장치(100)의 구체적인 구성을 설명하도록 한다. Hereinafter, a specific configuration of the object information providing apparatus 100 will be described with reference to FIG. 2, which is a block diagram illustrating the configuration of an object information providing apparatus 100 according to an embodiment of the present invention.

상기 첨부된 도면을 참조할 때, 본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)의 영상 수신부(110), 영상 저장부 (120), 객체 추출부(130), 영상 추출부(140), 영상 분석부(150), 객체 정보 분석부(160), 데이터베이스부(170), 통계부(180), 컨텐츠 연동부(190), 음성 분석부(121) 및 상품 분석부(123)를 포함하여 구성될 수 있다. An object storage unit 120, an object extraction unit 130, an image extraction unit 140, and an object extraction unit 140. The object extraction unit 130 extracts an object of interest from the object information providing apparatus 100 according to an embodiment of the present invention. An image analyzing unit 150, an object information analyzing unit 160, a database unit 170, a statistics unit 180, a content linking unit 190, a voice analyzing unit 121, and a product analyzing unit 123 And the like.

이와 함께, 객체 추출부(130)는 영상 분리부(131)와 객체 추적부(133)를 포함하여 구성될 수 있다. In addition, the object extracting unit 130 may include an image separating unit 131 and an object tracking unit 133.

본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)의 영상 수신부(110)는 카메라(400)와 연결되어 촬영 영상을 수신하는 역할을 수행한다. 여기서, 카메라(400)는 디지털 사이니지, CCTV 등 복수의 카메라를 포함할 수 있으며, 촬영 영상은 복수 개의 카메라를 통해 촬영된 영상으로서 각각의 카메라에 대한 촬영 영상을 의미하며, 촬영 영상은 복수 개의 프레임을 포함하여 구성할 수 있다. The image receiving unit 110 of the object information providing apparatus 100 according to an exemplary embodiment of the present invention is connected to the camera 400 and receives a photographed image. Here, the camera 400 may include a plurality of cameras such as a digital signage, a CCTV, etc., and the photographed image is an image photographed by a plurality of cameras, Frame can be included.

영상 저장부(120)는 제 1 카메라(410)로부터 촬영된 제 1 영상을 영상 수신부(110)를 통해 수신하여 저장하거나, 제 2 카메라(420)로부터 촬영된 영상을 직접 수신하여 저장하는 역할을 수행하며, 저장된 영상은 시간에 따른 영상의 프레임 추적이나 영상 분석에 활용이 된다. The image storage unit 120 receives and stores a first image photographed by the first camera 410 through the image receiving unit 110 or directly receives and stores a photographed image from the second camera 420 And the stored image is used for frame tracking or image analysis of the image according to time.

객체 추출부(130)는 제 1 카메라(410)로부터 수신한 촬영 영상으로부터 제 1 객체를 추출하는 역할을 수행한다. 여기서, 제 1 카메라(410)는 디지털 사이니지, 광고판의 촬영부를 의미한다. The object extracting unit 130 extracts the first object from the photographed image received from the first camera 410. Here, the first camera 410 refers to a digital signage and a photographing unit of a billboard.

객체 추출부(130)는 영상 분리부(131)와 객체 추적부(133)를 포함하여 구성될 수 있다. 영상 분리부(131)에서는 배경과 전경을 분리하는데, 이는 화소의 가우시언 모델을 이용한다. 각 화소는 소정의 개수의 가우시언 노드(node)를 가진다. 각각의 가우시언 노드는 평균(mean), 분산(variance), 가중치(weight)를 가진다. 프로그램 시작 후 초기 일정 시간 까지는 화소의 가우시언 모델이 학습되는데, 이 때 평균, 분산, 가중치가 정해지고, 가중치가 높은 노드가 배경 노드로 지정된다. The object extracting unit 130 may include an image separating unit 131 and an object tracking unit 133. The image separator 131 separates the background from the foreground, which uses the Gaussian model of the pixel. Each pixel has a predetermined number of gaussian nodes. Each Gaussian node has mean, variance, and weight. The Gaussian model of the pixel is learned until the initial time after the start of the program. At this time, the average, variance, and weight are determined, and the node with the highest weight is designated as the background node.

전술한 바와 같은 학습이 끝나고 영상 프레임이 들어오면, 각 화소는 학습된 가우시언 노드 중 하나에 속하는지 판별되고, 해당 가우시언 노드의 평균, 분산이 업데이트되고, 모든 가우시언 노드의 가중치가 업데이트된다. When the above-described learning ends and an image frame comes in, each pixel is discriminated as belonging to one of the learned geosynchronous nodes, the average and variance of the corresponding geosynchronous node are updated, and the weights of all the geosynchronous nodes are updated .

또한, 화소가 배경 노드가 아닌 가우시언 노드에 속하게 되면 그 화소는 전경 화소가 된다. 예를 들어, 사람이 지나가면 사람에 해당하는 화소는 배경 노드에 속하지 않을 것이므로 전경 화소가 된다. 이들 전경 화소들의 집합이 사람에 해당될 것이고, 이러한 과정을 통해 배경으로부터 전경을 분리할 수 있다. Also, if a pixel belongs to a gaussian node other than a background node, the pixel becomes a foreground pixel. For example, when a person passes, a pixel corresponding to a person will not belong to a background node, and thus becomes a foreground pixel. A set of these foreground pixels will correspond to a person, and the foreground can be separated from the background through this process.

영상 분리부(131)에서 배경과 전경이 분리되면, 객체 추적부(133)에서 객체를 추적하는 단계를 거친다. 이는 전경 영상(배경:0, 전경:1)을 이용한다. 이전 프레임의 전경 영상에서의 전경에 해당하는 움직이는 객체와 현재 프레임의 전경 영상에서의 전경에 해당하는 움직이는 객체의 컬러 정보, 히스토그램, 객체의 모양(shape) 등을 비교해서, 이전 프레임과 현재 프레임의 동일한 객체를 판별하여 객체를 추적한다. 컬러 정보의 비교에는 히스토그램, 객체의 모양(shape) 등의 정보가 이용될 수 있다. When the background separating unit 131 separates the background and foreground, the object tracking unit 133 traces the object. This uses the foreground image (background: 0, foreground: 1). A histogram and an object shape of a moving object corresponding to the foreground in the previous frame and a moving object corresponding to the foreground in the foreground image of the current frame are compared with each other, Identify the same object and track the object. For comparison of the color information, information such as a histogram, an object shape, and the like can be used.

영상 추출부(140)는 객체 추출부(130)로부터 추출된 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 영상 저장부(120)에 저장된 영상으로부터 추출하는 역할을 수행한다. 여기서, 제 1 카메라(410)로부터 촬영된 영상을 수신하여 객체 추출부(130)에서 추출된 제 1 객체와 화소, 컬러 및 윤곽 중에서 적어도 하나 이상의 차이를 비교한 결과를 근거로 한 소정의 임계값 이상의 유사도를 갖는 유사 객체를 제 2 카메라(420)의 촬영 영상이 저장된 영상 저장부(120)로부터 추출할 수 있다.The image extracting unit 140 extracts one or more frames captured from the first object extracted from the object extracting unit 130 and a similar object having a degree of similarity equal to or greater than a predetermined threshold value from the image stored in the image storing unit 120 . Here, the image picked up by the first camera 410 is received and the object extracted by the object extracting unit 130 is compared with a predetermined threshold value based on a result of comparison between at least one of the pixel, The similar object having the above similarity can be extracted from the image storage unit 120 in which the photographed image of the second camera 420 is stored.

영상 분석부(150)는 제 1 객체 및 하나 이상의 프레임에 대한 유사 객체에 대하여 객체 정보 신뢰도를 산출하여 저장된 영상 중에서 최적의 대표 프레임을 추출하는 역할을 수행한다. 여기서, 객체 정보 신뢰도는 제 1 객체 및 유사 객체의 얼굴 크기, 얼굴 각도 및 얼굴 선명도를 근거로 한 객체 특성 정보값과 제 1 카메라(410)와 제 2 카메라(420)의 위치 및 카메라 해상도를 근거로 한 카메라 특성 정보값을 합산하여 산출될 수 있다. 예를 들어, 객체 특성 정보값은 제 1 객체 및 유사 객체의 얼굴 크기(Size), 얼굴 각도(Angle) 및 얼굴 선명도(Visibility)에 해당하는 각 변수에 소정의 가중치를 곱한 값의 합으로 산출될 수 있다. 여기서, 얼굴 각도는 객체의 얼굴이 향하는 방향과 카메라가 향하는 시선과의 각도를 의미하며, 얼굴 선명도는 객체의 눈, 코, 입의 구분 및 얼굴 윤곽의 선명도를 의미할 수 있다. 카메라 특성 정보값은 제 1 객체를 촬영한 제 1 카메라(410)와 유사 객체를 촬영한 제 2 카메라(420) 간의 위치 또는 거리에 반비례(1/Distance)하고, 제 1 카메라(410)와 제 2 카메라(420)의 해상도(Resolution)에 비례한 각 변수에 소정의 가중치를 곱한 값의 합으로 산출될 수 있다. The image analyzer 150 calculates the object information reliability for the first object and the similar object for one or more frames, and extracts an optimal representative frame from the stored images. Here, the object information reliability is determined based on the object characteristic information value based on the face size, the face angle and the face sharpness of the first object and the similar object, and the object characteristic information based on the position of the first camera 410, Can be calculated by summing the camera characteristic information values. For example, the object property information value is calculated as a sum of values obtained by multiplying each variable corresponding to a face size (Size), a face angle (Angle) and a face visibility (Visibility) of the first object and the similar object by a predetermined weight . Here, the face angle means the angle between the direction of the face of the object and the line of sight directed by the camera, and the face sharpness can mean the sharpness of the eye, nose, mouth, and face contour of the object. The camera characteristic information value is inversely proportional to the position or distance between the first camera 410 photographing the first object and the second camera 420 photographing the similar object, 2 camera 420 by multiplying each variable proportional to the resolution of the camera 420 by a predetermined weight.

여기서, 영상 분석부(150)에서 객체 정보 신뢰도를 산출할 경우에 객체의 얼굴 인식의 한계를 극복하고자 객체의 음성 또는 객체가 착용 또는 소유한 상품의 종류, 브랜드의 분석 정보를 수신하여 객체 정보 신뢰도를 산출할 수도 있다. 이 때, 음성 분석부(121)에서 객체의 음성에 대한 정보를 추출하고, 상품 분석부(123)에서 객체가 착용 또는 소유한 상품의 종류 또는 브랜드, 상표를 추출하여 영상 분석부(150)로 전송된다. Here, in order to overcome the limitation of face recognition of an object when the object information reliability is calculated by the image analyzer 150, the object's voice or object is analyzed by receiving information of the type of product worn or possessed by the object, . At this time, the voice analyzing unit 121 extracts information on the voice of the object, and the product analyzing unit 123 extracts the type, brand, or trademark of the item worn or possessed by the object in the product analyzing unit 123, .

음성 분석부(121)는 영상의 하나 이상의 프레임에서 소정의 시간을 전후로 한 유사 객체의 입부분의 움직임이 있는 프레임을 추출하고, 입부분의 움직임이 있는 프레임의 시간에 대응되는(예컨대, 객체의 입부분의 움직임이 있는 프레임의 시작과 끝) 유사 객체의 음성 정보를 추출하여 영상 분석부(150)로 전송하는 역할을 수행한다. The speech analyzing unit 121 extracts a frame having a motion of the mouth portion of a similar object around a predetermined time in one or more frames of the image and generates a voice corresponding to the time of the frame having the mouth portion motion And extracts voice information of a similar object at the start and end of a frame having a mouth motion, and transmits the extracted voice information to the image analysis unit 150.

상품 분석부(123)는 하나 이상의 프레임에서 유사 객체가 착용 또는 소유한 상품의 종류나 상표, 브랜드를 추출하여 영상 분석부(150)로 전송하는 역할을 수행한다. The product analysis unit 123 extracts the types, brands, and brands of the products worn or owned by the similar objects in one or more frames, and transmits the extracted types, brands, and brands to the image analysis unit 150.

데이터베이스부(170)는 추출된 객체의 얼굴 이미지를 저장하고, 기 저장된 복수의 객체 얼굴 이미지 중에서 추출된 객체 얼굴 이미지와 소정의 임계값 이상의 유사도를 갖는 얼굴 이미지를 추출하여 객체 정보 분석부(160)로 전송하는 역할을 수행한다. 이는 객체 얼굴 이미지를 저장하고 데이터베이스로 구축함으로써 다른 객체의 얼굴 성별, 연령대 판별 또는 분석에 활용할 수 있는 장점이 있다. 예를 들어, 추출한 객체의 얼굴 이미지가 얼굴 크기, 얼굴 각도, 얼굴 선명도, 카메라 조명 등의 조건의 결함으로 인하여 얼굴 인식 및 성별, 연령대 등의 객체 정보 분석이 어려운 경우 임계값 이상의 유사도를 갖는 얼굴 이미지를 데이터베이스부(170)에서 찾아 객체 성별, 연령대 분석에 이용할 수 있다. 일정 시간이 지난 후 데이터베이스 축적량이 많아질수록 객체 얼굴 인식 및 객체 정보 분석의 정확도가 높아지는 장점이 있다. The database unit 170 stores a face image of the extracted object and extracts a face image having a degree of similarity higher than a predetermined threshold value from the object face image extracted from a plurality of previously stored object face images, As shown in FIG. This has the advantage that it can be used for face gender, age discrimination, or analysis of other objects by storing the object face image and constructing it as a database. For example, if the face image of the extracted object is difficult to analyze due to defects such as face size, face angle, face sharpness, camera illumination, etc., it is difficult to analyze the object information such as face recognition and sex and age. Can be looked up in the database unit 170 and used for object gender and age range analysis. As the accumulation amount of database increases after a certain period of time, the accuracy of object face recognition and object information analysis is improved.

객체 정보 분석부(160)는 영상 분석부(150)를 통해 추출된 최적의 대표 프레임에서 객체의 얼굴 이미지를 추출하고, 객체의 얼굴 이미지를 이용하여 객체의 연령대와 성별 정보 중 적어도 하나의 분석 정보를 생성하는 역할을 수행한다. The object information analyzing unit 160 extracts a face image of the object from the optimal representative frame extracted through the image analyzing unit 150, and analyzes at least one of the age and gender information of the object using the face image of the object As shown in FIG.

통계부(180)는 객체 정보 분석부(160)를 통해 분석된 객체 분석 정보를 수치적으로 통계화하여 저장하고, 객체 분석 정보를 컨텐츠 연동부(190)로 전송하는 역할을 수행한다. The statistics unit 180 numerically stores and stores object analysis information analyzed through the object information analysis unit 160 and transmits the object analysis information to the content link unit 190.

컨텐츠 연동부(190)는 광고, 게임 및 어플리케이션 중 적어도 하나의 컨텐츠를 사용자에게 제공하는 컨텐츠 서비스 제공 장치(300)로 객체 분석 정보를 전송하는 역할을 수행한다. 이 때, 객체 분석 정보는 객체 분석 정보를 통계화한 통계부(180)를 통해 수신할 수도 있고, 통계부(180)를 거치지 않고 객체 정보 분석부(160)에서 직접 수신할 수도 있다. The content linking unit 190 transmits the object analysis information to the content service providing apparatus 300 that provides at least one of the advertisement, game, and application to the user. At this time, the object analysis information may be received through the statistics unit 180 which statistically analyzes the object analysis information, or may be received directly by the object information analysis unit 160 without passing through the statistics unit 180.

도 3은 본 발명의 일 실시예에 따른 객체 정보 제공 장치와 카메라 및 컨텐츠 서비스 제공 장치 간의 데이터 송수신을 통한 객체 정보 제공 과정을 도시한 흐름도이다. 3 is a flowchart illustrating a process of providing object information through data transmission / reception between an object information providing apparatus and a camera and a contents service providing apparatus according to an embodiment of the present invention.

이하에서는 본 발명의 일 실시예에 따른 객체 정보 제공 방법을 예시한 흐름도인 도 3을 통하여 본 발명에 의한 객체 정보 제공방법의 구체적인 과정을 설명하도록 한다. Hereinafter, a detailed procedure of the object information providing method according to the present invention will be described with reference to FIG. 3, which is a flowchart illustrating an object information providing method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른, 카메라를 통해 촬영된 영상 내의 객체 정보 제공 방법은, 디지털 사이니지인 제 1 카메라를 통해 객체를 촬영(S310)하고, 제 1 카메라와 복수의 카메라 중 하나인 제 2 카메라의 영상을 수신하여 저장(S320)한다.According to an embodiment of the present invention, an object information providing method in an image photographed by a camera includes the steps of: capturing an object through a first camera, which is a digital signage (S310) 2 camera image is received and stored (S320).

제 1 카메라에서 촬영된 영상에서 제 1 객체를 추출(S330)하고, 저장된 영상 중에서 추출한 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 추출(S340)하는 과정을 거친다. The first object is extracted from the image captured by the first camera in operation S330 and the extracted one or more frames of the similar object having a degree of similarity equal to or greater than a predetermined threshold value are extracted from the extracted image in operation S340.

하나 이상의 프레임 중에서 객체 정보 신뢰도를 산출하여 대표 프레임을 추출(S350)하고, 대표 프레임에서 객체의 얼굴 이미지를 추출하고, 객체의 연령대와 성별 정보를 분석(S360)한다. The representative frame is extracted by calculating the reliability of the object information among the at least one frame (S350), the face image of the object is extracted from the representative frame, and the age and gender information of the object is analyzed (S360).

객체 정보 분석 결과를 통계화하여 저장(S370)하고, 통계화한 데이터를 컨텐츠 연동부로 전송하여 컨텐츠 서비스 제공 장치로 전송(S380)한다. The object information analysis result is statistically stored (S370), and the statistical data is transmitted to the content linking unit and transmitted to the content service providing apparatus (S380).

도 4는 본 발명의 일 실시예에 따른 객체 정보 장치에서 추출된 영상 프레임 중에서 최적의 대표 프레임을 선택하기 위해 객체 정보 신뢰도를 산출하는 수식의 실시예이다. 4 is an example of an equation for calculating object information reliability in order to select an optimal representative frame from the image frames extracted from the object information apparatus according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 객체 정보 장치에서 추출된 영상 프레임 중에서 최적의 대표 프레임을 선택하기 위해 객체 정보 신뢰도를 산출시 객체 음성 정보, 객체로부터 검출된 상품의 브랜드 및 상품의 종류에 해당하는 변수를 합산하는 수식의 실시예이다. FIG. 5 is a graph showing the relationship between object voice information, the type of a product and the type of a product detected from the object, in order to select an optimal representative frame from the image frames extracted from the object information apparatus according to an exemplary embodiment of the present invention. Is an example of a formula for summing the corresponding variables.

이하에서는 본 발명의 일 실시예에 따른 객체 정보 신뢰도 산출식인 도 4 및 도 5를 통하여 객체 정보 신뢰도 산출 방법을 설명하도록 한다. Hereinafter, an object information reliability calculation method will be described with reference to FIGS. 4 and 5, which are object information reliability calculation equations according to an embodiment of the present invention.

도 4의 수식에서 Accuracy는 추출한 영상이 객체 성별, 연령 등의 객체 분석 정확도에 기여하는 척도를 나타내는 것으로 객체 특성 정보값을 의미하고, Adequacy는 카메라 영상의 사용 적합성을 평가하는 척도로써 카메라 특성 정보값을 의미한다. In Equation 4, Accuracy means the value of the object characteristic information indicating the degree of contribution of the extracted image to object analysis accuracy such as object gender and age, and Adequacy is a measure for evaluating suitability of the camera image, .

Accuracy인 객체 특성 정보값은 객체 얼굴 크기(f(size)), 얼굴 각도(f(angle)) 및 얼굴의 선명도(f(visibility))에 해당하는 각 변수에 소정의 가중치(weight, 예컨대 w1, w2, w3)를 곱한 값의 합으로 산출된다. 여기서, 가중치 w1과 w2 및 w3의 합은 1일 수 있다. The object characteristic information value as the accuracy is set to a predetermined weight (e.g., w1, w2) for each variable corresponding to the object face size (f (size), face angle and face visibility) w2, w3). Here, the sum of the weights w1 and w2 and w3 may be one.

Adequacy인 카메라 특성 정보값은 객체를 촬영한 제 1 카메라(410)와 제 2 카메라(420) 간의 거리에 반비례(f(1/distance))하고, 제 1 카메라(410)와 제 2 카메라(420)의 해상도(f(resolution))에 비례한 각 변수에 소정의 가중치((weight, 예컨대 w4, w5)를 곱한 값의 합으로 산출되며, 가중치 w4와 w5의 합은 1일 수 있다. The camera characteristic information value as an adequacy is inversely proportional to the distance between the first camera 410 and the second camera 420 (f (1 / distance)) and the first camera 410 and the second camera 420 (Weight) (for example, w4, w5), and the sum of the weights w4 and w5 may be 1. The sum of the weights w4 and w5 may be 1,

또한, 객체 정보 신뢰도(Si)은 객체 특성 정보값(Accuracy)과 카메라 특성 정보값(Adequacy)에 해당하는 각 변수에 소정의 가중치(weight, 예컨대 w6, w7)를 곱한 값의 합으로 산출되며, 가중치 w6과 w7의 합은 1일 수 있다. The object information reliability Si is calculated as the sum of values obtained by multiplying each variable corresponding to the object characteristic information value and the camera characteristic information value Adequacy by a predetermined weight (e.g., w6, w7) The sum of the weights w6 and w7 may be one.

도 5의 수식은 객체 정보 신뢰도(Si)을 산출할 경우 객체의 얼굴 인식 한계를 극복하고자 객체 음성 정보값, 객체가 착용 또는 소유한 상품의 브랜드 정보값 및 객체가 착용 또는 소유한 상품의 종류 정보값을 합산하여 산출하는 실시예이다. In order to overcome the face recognition limit of the object when the object information reliability (Si) is calculated, the equation of FIG. 5 may include an object voice information value, a brand information value of a product worn or owned by the object, Values are summed and calculated.

도 5에서 객체 정보 신뢰도(Si+)는 도 4의 수식을 통해 도출한 객체 정보 신뢰도(Si)과 객체 음성 정보값(f(voice)), 상품 브랜드 정보값(f(brand)) 및 상품 종류 정보값(f(goods))에 해당하는 각 변수에 소정의 가중치(weight, 예컨대 w8, w9, w10, w11)를 곱한 값의 합으로 산출된다. 여기서, 가중치 w8과 w9와 w10 및 w11의 합은 1일 수 있다. In FIG. 5, the object information reliability (Si +) is calculated based on the object information reliability Si, object voice information value f (voice), product brand information value f (brand) Is calculated as the sum of values obtained by multiplying each variable corresponding to the value f (goods) by a predetermined weight (e.g., w8, w9, w10, w11). Here, the sum of the weights w8, w9, w10 and w11 may be one.

본 발명을 설명함에 있어, 본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)의 각 구성요소는 앞서 간략히 언급된 바와 같이 물리적으로 구분되는 구성요소라기보다는 논리적으로 구분되는 구성요소로 되어야 한다. In describing the present invention, each component of the object information providing apparatus 100 according to an embodiment of the present invention should be a logically separated component rather than a physically separated component as mentioned briefly above .

즉, 각각의 구성은 본 발명의 기술사상을 실현하기 위하여 논리적인 구성요소에 해당하므로 각각의 구성요소가 통합 또는 분리되어 수행되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다. That is, since each configuration corresponds to a logical component for realizing the technical idea of the present invention, even if each component is integrated or separated, if the functions performed by the logical configuration of the present invention can be realized, It is to be understood that any component that performs the same or similar function should be interpreted as falling within the scope of the present invention regardless of the consistency of the name.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 일 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 일 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are not intended to limit the scope of the present invention but to limit the scope of the present invention.

본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

이상에서 설명한 바와 같이 본 발명은 디지털 사이니지, 광고판 등에서 촬영한 객체 영상의 낮은 선명도 또는 해상도로 인하여 객체 정보 추출 및 분석이 어려운 한계를 극복하고, 다른 복수의 카메라 촬영부에서 수집 또는 저장한 영상을 이용함으로써, 객체 정보 분석의 최적의 조합 및 선택을 통하여 정확한 객체 정보를 제공할 수 있어 향후 광고 서비스 분야, 고객 맞춤형 정보 제공을 통한 마케팅 분야 등에서 널리 활용될 부분이 기대되어 유용한 발명이다.As described above, the present invention overcomes the difficulty of extracting and analyzing object information due to low sharpness or resolution of object images photographed in digital signage, billboards, etc., It is possible to provide accurate object information through optimal combination and selection of object information analysis, and it is a useful invention that is expected to be widely used in the field of advertising service and marketing through customized information provision in the future.

100 : 객체 정보 제공 장치 140 : 영상 추출부
200 : 사용자 150 : 영상 분석부
300 : 컨텐츠 서비스 제공 장치 160 : 객체 정보 분석부
400 : 카메라 170 : 데이터베이스부
410 : 제 1 카메라 180 : 통계부
420 : 제 2 카메라 190 : 컨텐츠 연동부
450 : 제 N 카메라 121 : 음성 분석부
500 : 네트워크망 123 : 상품 분석부
110 : 영상 수신부 131 : 영상 분리부
120 : 영상 저장부 133 : 객체 추적부
130 : 객체 추출부


100: Object information providing apparatus 140:
200: user 150: image analysis unit
300: Content service providing apparatus 160: Object information analyzing unit
400: camera 170:
410: First camera 180: Statistics section
420: second camera 190: content interlocking unit
450: Nth camera 121: Voice analysis unit
500: network network 123: product analysis section
110: image receiving unit 131: image separating unit
120: Image storage unit 133: Object tracking unit
130:


Claims (13)

영상 내의 객체 정보를 제공하는 장치에 있어서,
제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신부;
상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장부;
상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출부;
상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출부;
상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석부; 및
상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석부;
를 포함하는 것을 특징으로 하는 객체 정보 제공 장치.
An apparatus for providing object information in an image,
An image receiving unit for receiving a first image photographed by a first camera;
An image storage unit for storing a first image received from the first camera and an image captured by the at least one second camera;
An object extraction unit for extracting a first object from a first image received from the first camera;
An image extracting unit for extracting at least one frame in which a similar object having a degree of similarity higher than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit;
An image analyzer for calculating object information reliability for each of the similar objects for the first object and the one or more frames and for extracting representative frames from the first image and the one or more frames based on the object information reliability; And
An object information analyzer for generating analysis information on the object from the representative frame;
Wherein the object information providing apparatus comprises:
제 1항에 있어서, 상기 영상 추출부는,
상기 제 2 카메라로부터 촬영된 영상으로부터 상기 하나 이상의 프레임을 추출하는 것을 특징으로 하는 객체 정보 제공 장치.
The image processing apparatus according to claim 1,
And extracts the one or more frames from the image photographed by the second camera.
제 1항에 있어서, 상기 객체 정보 분석부는,
상기 대표 프레임으로부터 상기 객체에 대한 상기 객체의 얼굴 이미지를 추출하고, 상기 얼굴 이미지를 이용하여 상기 객체의 연령대와 성별 정보 중 적어도 하나의 분석 정보를 생성하는 것을 특징으로 하는 객체 정보 제공 장치.
The apparatus of claim 1, wherein the object information analyzer comprises:
Extracts a face image of the object with respect to the object from the representative frame, and generates at least one analysis information of the age and gender information of the object using the face image.
제 3항에 있어서, 상기 객체 정보 제공 장치는,
상기 얼굴 이미지를 저장하고, 기 저장된 복수의 얼굴 이미지 중에서 상기 얼굴 이미지와 소정의 임계값 이상의 유사도를 갖는 얼굴 이미지를 추출하여 상기 객체 정보 분석부로 전송하는 데이터베이스부를 더 포함하는 것을 특징으로 하는 객체 정보 제공 장치.
4. The apparatus according to claim 3,
Further comprising a database unit storing the face image and extracting a face image having a degree of similarity equal to or greater than a predetermined threshold value from a plurality of previously stored face images and transmitting the extracted face image to the object information analyzing unit. Device.
제 1항에 있어서, 상기 객체 정보 제공 장치는,
상기 하나 이상의 프레임에서 소정의 시간을 전후로 한 상기 유사 객체의 입부분의 움직임이 있는 프레임을 추출하고, 상기 입부분의 움직임이 있는 프레임의 시간에 대응되는 상기 유사 객체의 음성 정보를 추출하여 상기 영상 분석부로 전송하는 것을 특징으로 하는 음성 분석부를 더 포함하는 것을 특징으로 하는 객체 정보 제공 장치.
The apparatus according to claim 1,
Extracting a frame in which the mouth portion of the similar object moves with a predetermined time before and after the one or more frames, extracting audio information of the similar object corresponding to the time of the frame in which the mouth portion is in motion, Analyzing unit for analyzing the object information, and transmitting the object information to the analysis unit.
제 1항에 있어서, 상기 객체 정보 제공 장치는,
상기 하나 이상의 프레임에서 상기 유사 객체가 착용한 상품의 종류 또는 상표를 추출하는 상품 분석부를 더 포함하는 것을 특징으로 하는 객체 정보 제공 장치.
The apparatus according to claim 1,
Further comprising a product analysis unit for extracting a type or a trademark of a product worn by the similar object in the one or more frames.
제 1항에 있어서, 상기 객체 정보 제공 장치는,
광고, 게임 및 어플리케이션 중 적어도 하나의 컨텐츠를 사용자에게 제공하는 컨텐츠 서비스 제공 장치로 상기 분석 정보를 전송하는 컨텐츠 연동부
를 더 포함하는 것을 특징으로 하는 객체 정보 제공 장치.
The apparatus according to claim 1,
A content service providing apparatus for providing at least one content of an advertisement, a game, and an application to a user,
The object information providing apparatus further comprising:
제 1항에 있어서, 상기 영상 추출부는,
상기 제 1 객체와 화소, 컬러 및 윤곽 중에서 적어도 하나 이상의 차이를 비교한 결과를 근거로 한 소정의 임계값 이상의 유사도를 갖는 상기 유사 객체를 상기 제 2 카메라의 촬영 영상으로부터 추출하는 것을 특징으로 하는 객체 정보 제공 장치.
The image processing apparatus according to claim 1,
Characterized in that the similar object having a degree of similarity equal to or greater than a predetermined threshold value is extracted from the photographed image of the second camera based on a result of comparison of at least one of the pixel, color and outline with the first object. Information providing device.
제 1항에 있어서, 상기 객체 정보 신뢰도는,
상기 제 1 객체 및 상기 유사 객체에 대하여 얼굴 크기, 얼굴 각도 및 얼굴 선명도를 근거로 한 객체 특성 정보값과 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라 간의 거리 및 해상도를 근거로 한 카메라 특성 정보값에 따라 결정되는 것을 특징으로 하는 객체 정보 제공 장치.
2. The method of claim 1,
A distance between a first camera that photographs the first object and a second camera that photographs the similar object, and a second camera that photographs the first object and the similar object based on the face size, the face angle, and the face sharpness, Wherein the object information is determined according to a camera characteristic information value based on the resolution.
제 9항에 있어서, 상기 객체 특성 정보값은,
상기 제 1 객체 및 상기 유사 객체에 대하여 얼굴 크기, 얼굴 각도 및 얼굴 선명도에 비례하는 것을 특징으로 하는 객체 정보 제공 장치.
10. The method of claim 9,
Wherein the first object and the similar object are proportional to a face size, a face angle and a face sharpness of the first object and the similar object.
제 9항에 있어서, 상기 카메라 특성 정보값은,
상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라 간의 거리에 반비례하고, 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라의 해상도에 비례하는 것을 특징으로 하는 객체 정보 제공 장치.
10. The method of claim 9,
Wherein the distance between the first camera that photographs the first object and the second camera that photographs the similar object is proportional to the resolution of the first camera that photographs the first object and the second camera that photographs the similar object, The object information providing apparatus comprising:
영상 내의 객체 정보를 제공하는 방법에 있어서,
제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신 과정; 상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장 과정; 상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출 과정; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출 과정; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석 과정; 및 상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석 과정
을 포함하는 것을 특징으로 하는 객체 정보 제공 방법.
A method for providing object information in an image,
An image receiving step of receiving a first image photographed by a first camera; An image storage step of storing a first image received from the first camera and an image captured by the at least one second camera; An object extracting step of extracting a first object from a first image received from the first camera; An image extracting step of extracting at least one frame in which a similar object having a degree of similarity equal to or greater than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzing process of calculating object information reliability for each of the similar objects for the first object and the one or more frames and extracting a representative frame from the first image and the one or more frames based on the object information reliability; And an object information analysis process for generating analysis information on the object from the representative frame
The object information providing method comprising:
컴퓨터에,
제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신 과정; 상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장 과정; 상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출 과정; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출 과정; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석 과정; 및 상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석 과정을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
On the computer,
An image receiving step of receiving a first image photographed by a first camera; An image storage step of storing a first image received from the first camera and an image captured by the at least one second camera; An object extracting step of extracting a first object from a first image received from the first camera; An image extracting step of extracting at least one frame in which a similar object having a degree of similarity equal to or greater than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzing process of calculating object information reliability for each of the similar objects for the first object and the one or more frames and extracting a representative frame from the first image and the one or more frames based on the object information reliability; And analyzing the object information to generate analysis information for the object from the representative frame.
KR1020130107405A 2013-09-06 2013-09-06 Apparatus and Method for Providing Object Information KR102097781B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130107405A KR102097781B1 (en) 2013-09-06 2013-09-06 Apparatus and Method for Providing Object Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130107405A KR102097781B1 (en) 2013-09-06 2013-09-06 Apparatus and Method for Providing Object Information

Publications (2)

Publication Number Publication Date
KR20150028589A true KR20150028589A (en) 2015-03-16
KR102097781B1 KR102097781B1 (en) 2020-05-29

Family

ID=53023433

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130107405A KR102097781B1 (en) 2013-09-06 2013-09-06 Apparatus and Method for Providing Object Information

Country Status (1)

Country Link
KR (1) KR102097781B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647691B1 (en) * 2016-02-12 2016-08-16 데이터킹주식회사 Method for hybrid-based video clustering and server implementing the same
US9842276B2 (en) 2015-10-29 2017-12-12 Samsung Sds Co., Ltd. System and method for analyzing personalized characteristics
WO2020116983A1 (en) * 2018-12-07 2020-06-11 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus, and computer readable medium
US10769438B2 (en) 2017-05-23 2020-09-08 Samsung Electronics Company, Ltd. Augmented reality
KR102245349B1 (en) * 2020-02-11 2021-04-28 한국과학기술원 Method and apparatus for extracting color scheme from video

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102374861B1 (en) * 2019-05-07 2022-03-17 주식회사 엘토브 O2O(On-line to Off-line) BASED SYSTEM AND METHOD FOR SUGGESTING CUSTOMIZED INFORMATION
KR102428955B1 (en) * 2020-01-23 2022-08-04 최문정 Method and System for Providing 3D Displayed Commercial Video based on Artificial Intellingence using Deep Learning
KR102191044B1 (en) * 2020-06-15 2020-12-14 주식회사 센스비전 Advertising systems that are provided through contents analytics and recommendation based on artificial intelligence facial recognition technology
KR102261336B1 (en) * 2020-07-28 2021-06-07 주식회사 센스비전 Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060090554A (en) * 2005-02-09 2006-08-14 가부시키가이샤 히타치세이사쿠쇼 A surveillance apparatus and surveillance system
JP2009271577A (en) * 2008-04-30 2009-11-19 Panasonic Corp Device and method for displaying result of similar image search
JP2010192956A (en) * 2009-02-16 2010-09-02 Nikon Corp Imaging apparatus, and speaking person recognition method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060090554A (en) * 2005-02-09 2006-08-14 가부시키가이샤 히타치세이사쿠쇼 A surveillance apparatus and surveillance system
JP2009271577A (en) * 2008-04-30 2009-11-19 Panasonic Corp Device and method for displaying result of similar image search
JP2010192956A (en) * 2009-02-16 2010-09-02 Nikon Corp Imaging apparatus, and speaking person recognition method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842276B2 (en) 2015-10-29 2017-12-12 Samsung Sds Co., Ltd. System and method for analyzing personalized characteristics
KR101647691B1 (en) * 2016-02-12 2016-08-16 데이터킹주식회사 Method for hybrid-based video clustering and server implementing the same
WO2017138766A1 (en) * 2016-02-12 2017-08-17 데이터킹주식회사 Hybrid-based image clustering method and server for operating same
US10803348B2 (en) 2016-02-12 2020-10-13 Dataking. Inc Hybrid-based image clustering method and server for operating the same
US10769438B2 (en) 2017-05-23 2020-09-08 Samsung Electronics Company, Ltd. Augmented reality
WO2020116983A1 (en) * 2018-12-07 2020-06-11 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus, and computer readable medium
US11558545B2 (en) 2018-12-07 2023-01-17 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus, and computer readable medium
KR102245349B1 (en) * 2020-02-11 2021-04-28 한국과학기술원 Method and apparatus for extracting color scheme from video

Also Published As

Publication number Publication date
KR102097781B1 (en) 2020-05-29

Similar Documents

Publication Publication Date Title
KR102097781B1 (en) Apparatus and Method for Providing Object Information
WO2018059408A1 (en) Cross-line counting method, and neural network training method and apparatus, and electronic device
US9536153B2 (en) Methods and systems for goods received gesture recognition
CN108154110B (en) Intensive people flow statistical method based on deep learning people head detection
US8098888B1 (en) Method and system for automatic analysis of the trip of people in a retail space using multiple cameras
CN109690624A (en) Automatic scene calibration method for video analysis
WO2020093830A1 (en) Method and apparatus for estimating pedestrian flow conditions in specified area
CN112488071B (en) Method, device, electronic equipment and storage medium for extracting pedestrian features
US20180342070A1 (en) Methods and systems of determining object status for false positive removal in object tracking for video analytics
CN105678591A (en) Video-analysis-based commercial intelligent operation decision-making support system and method
CN109389589A (en) Method and apparatus for statistical number of person
Ferryman et al. Performance evaluation of crowd image analysis using the PETS2009 dataset
CA2670021A1 (en) System and method for estimating characteristics of persons or things
KR102260123B1 (en) Apparatus for Sensing Event on Region of Interest and Driving Method Thereof
CN110782433A (en) Dynamic information violent parabolic detection method and device based on time sequence and storage medium
KR102332229B1 (en) Method for Augmenting Pedestrian Image Data Based-on Deep Learning
KR20170006356A (en) Method for customer analysis based on two-dimension video and apparatus for the same
KR102584708B1 (en) System and Method for Crowd Risk Management by Supporting Under and Over Crowded Environments
CN113920585A (en) Behavior recognition method and device, equipment and storage medium
CN116843726A (en) Pedestrian track tracking method and device, electronic equipment and storage medium
NL2029136B1 (en) Vision-based sports timing and identification system
CN114387648A (en) Abnormal image detection method, abnormal image detection device, computer equipment and storage medium
Bouma et al. WPSS: Watching people security services
KR102428955B1 (en) Method and System for Providing 3D Displayed Commercial Video based on Artificial Intellingence using Deep Learning
CN113947795A (en) Mask wearing detection method, device, equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant