KR20150028589A - Apparatus and Method for Providing Object Information - Google Patents
Apparatus and Method for Providing Object Information Download PDFInfo
- Publication number
- KR20150028589A KR20150028589A KR20130107405A KR20130107405A KR20150028589A KR 20150028589 A KR20150028589 A KR 20150028589A KR 20130107405 A KR20130107405 A KR 20130107405A KR 20130107405 A KR20130107405 A KR 20130107405A KR 20150028589 A KR20150028589 A KR 20150028589A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- camera
- information
- extracting
- similar
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명의 실시예는 영상 내 객체의 정보 분석을 통한 객체 정보 제공 장치 및 방법에 관한 것이다. 더욱 상세하게는, 영상 내에서 탐지된 객체에 대하여 객체가 탐지된 영상의 객체 정보 신뢰도를 산출하여 최적의 영상을 추출하고, 추출한 영상 내 객체 정보를 파악하여, 분석된 객체 정보를 제공하는 객체 정보 제공 장치 및 방법에 관한 것이다. An embodiment of the present invention relates to an apparatus and method for providing object information through information analysis of objects in an image. More particularly, the present invention relates to a method and apparatus for extracting an optimal image by calculating object information reliability of an object detected in an image, detecting object information in the extracted image, And a method for providing the same.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다. The contents described in this section merely provide background information on the embodiment of the present invention and do not constitute the prior art.
최근 백화점, 쇼핑몰, 공항 등 유동인구가 많은 곳에서 디지털 사이니지(Digital Signage), 광고판, CCTV(Closed Circuit Television) 등을 이용하여 광고를 노출시켜 사용자에게 상품, 브랜드를 홍보하려는 시도가 늘고 있다. In recent years, there have been more and more attempts to promote products and brands to users by using digital signage, billboards, and closed circuit television ("CCTV") in places where the floating population such as department stores, shopping malls,
이러한 추세와 같은 맥락으로 사용자의 성별, 연령대 등을 분석하여 사용자에게 적합하고 유용한 정보가 포함된 맞춤형 광고 제공에 대한 요구 사항이 있어 왔지만 정보 제공 장치의 한계성으로 인해, 사용자에게 실시간으로 성별, 연령대 분석을 통한 정확한 개인 맞춤형 정보제공 서비스를 제공하기는 어려운 현실적인 한계점을 가지고 있었다. In the same context as this trend, there has been a demand for a customized advertisement providing information suitable for users by analyzing the user's gender and age range. However, due to the limitation of the information providing device, It is difficult to provide accurate and personalized information service through the Internet.
이러한 필요성을 충족하기 위한 종래의 일반적인 방법은 디지털 사이니지, 광고판 등에서 촬영한 영상 내 객체의 연령대나 성별을 분석하여 분석 결과를 제공하는데, 이는 광고판, 디지털 사이니지 등에서 객체를 촬영한 시점이나 카메라의 거리 제한 등으로 인해 영상 내 객체 정보 분석을 위한 객체 얼굴 크기, 각도, 선명도, 주변의 조명 및 카메라의 해상도가 낮아 정확한 분석이 어렵고, 정확한 실시간 정보 제공이 불가능 하는 등의 단순한 객체정보 검색 및 분석 차원에 머무르고 있다. Conventional general methods to meet this need provide analysis results by analyzing the age and sex of the objects in the images taken by digital signage, billboards, etc. This means that when the object is photographed at a billboard, a digital signage, Distance limitation, and so on, it is difficult to accurately analyze because of low face size, angle, sharpness, surrounding illumination and camera resolution, and it is impossible to provide accurate real time information. .
전술한 문제점을 해결하기 위해 본 발명의 실시예는, 영상 내에서 탐지된 객체에 대하여 객체가 탐지된 영상의 객체 정보 신뢰도를 산출하여 최적의 영상을 추출하고, 추출한 영상 내 객체정보를 파악하여, 분석된 객체 정보를 제공하는 객체정보 제공 장치 및 방법을 제공하는 데에 주된 목적이 있다. According to an aspect of the present invention, there is provided a method of detecting an object in an image, the method comprising: extracting an optimal image by calculating object information reliability of an object detected in the image, And an object information providing apparatus and method for providing analyzed object information.
전술한 목적을 달성하기 위해 본 발명의 실시예는, 영상 내의 객체 정보를 제공하는 장치에 있어서, 제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신부; 상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장부; 상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출부; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출부; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석부; 및 상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석부를 포함하는 객체 정보 제공 장치를 제공한다. According to an aspect of the present invention, there is provided an apparatus for providing object information in an image, the apparatus comprising: an image receiving unit for receiving a first image photographed by a first camera; An image storage unit for storing a first image received from the first camera and an image captured by the at least one second camera; An object extraction unit for extracting a first object from a first image received from the first camera; An image extracting unit for extracting at least one frame in which a similar object having a degree of similarity higher than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzer for calculating object information reliability for each of the similar objects for the first object and the one or more frames and for extracting representative frames from the first image and the one or more frames based on the object information reliability; And an object information analyzer for generating analysis information on the object from the representative frame.
이와 함께, 상기 영상 추출부는, 상기 제 2 카메라로부터 촬영된 영상으로부터 상기 하나 이상의 프레임을 추출하는 것을 포함하여 구성할 수 있다. In addition, the image extracting unit may include extracting the one or more frames from the image photographed by the second camera.
또한, 상기 객체 정보 분석부는, 상기 대표 프레임으로부터 상기 객체에 대한 상기 객체의 얼굴 이미지를 추출하고, 상기 얼굴 이미지를 이용하여 상기 객체의 연령대와 성별 정보 중 적어도 하나의 분석 정보를 생성하는 것을 특징으로 하는 객체 정보 제공 장치를 제공한다. The object information analyzing unit extracts a face image of the object with respect to the object from the representative frame and generates at least one analysis information among the age and gender information of the object using the face image. To provide an object information providing apparatus.
바람직하게는, 상기 객체 정보 제공 장치는, 상기 얼굴 이미지를 저장하고, 기 저장된 복수의 얼굴 이미지 중에서 상기 얼굴 이미지와 소정의 임계값 이상의 유사도를 갖는 얼굴 이미지를 추출하여 상기 객체 정보 분석부로 전송하는 데이터베이스부를 더 포함하여 구성하는 것이 바람직하다. Preferably, the object information providing apparatus stores the face image, extracts a face image having a degree of similarity equal to or greater than a predetermined threshold value from the previously stored plurality of face images, and transmits the extracted face image to the object information analyzing unit It is preferable to further comprise a part.
이와 함께, 상기 객체 정보 제공 장치는, 상기 하나 이상의 프레임에서 소정의 시간을 전후로 한 상기 유사 객체의 입부분의 움직임이 있는 프레임을 추출하고, 상기 입부분의 움직임이 있는 프레임의 시간에 대응되는 상기 유사 객체의 음성 정보를 추출하여 상기 영상 분석부로 전송하는 것을 특징으로 하는 음성 분석부를 더 포함하여 구성할 수 있다. In addition, the object information providing apparatus may further include: a frame extracting unit that extracts a frame having a motion of an mouth portion of the similar object in the one or more frames before and after a predetermined time, Extracting voice information of the similar object, and transmitting the extracted voice information to the image analyzing unit.
또한, 상기 객체 정보 제공 장치는, 상기 하나 이상의 프레임에서 상기 유사 객체가 착용한 상품의 종류 또는 상표를 추출하는 상품 분석부를 더 포함하여 구성할 수 있다. The object information providing apparatus may further include a product analyzing unit for extracting a type or trademark of a product worn by the similar object in the one or more frames.
이와 함께, 상기 객체 정보 제공 장치는, 광고, 게임 및 어플리케이션 중 적어도 하나의 컨텐츠를 사용자에게 제공하는 컨텐츠 서비스 제공 장치로 상기 분석 정보를 전송하는 컨텐츠 연동부를 더 포함하는 것이 더욱 바람직하다. In addition, the object information providing apparatus may further include a content linking unit for transmitting the analysis information to a content service providing apparatus for providing at least one content of an advertisement, a game, and an application to a user.
또한, 상기 영상 추출부는, 상기 제 1 객체와 화소, 컬러 및 윤곽 중에서 적어도 하나 이상의 차이를 비교한 결과를 근거로 한 소정의 임계값의 이상의 유사도를 갖는 상기 유사 객체를 상기 제 2 카메라로부터 촬영된 영상으로부터 추출하는 것을 포함하여 구성할 수 있다. The image extracting unit may extract the similar object having a similarity degree of a predetermined threshold value or more based on a result of comparing at least one of at least one of pixel, color, and outline with the first object, And extracting it from the image.
이와 함께, 상기 객체 정보 신뢰도는, 상기 제 1 객체 및 유사 객체의 얼굴 크기, 얼굴 각도 및 얼굴 선명도를 근거로 한 객체 특성 정보값과 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라 간의 거리 및 해상도를 근거로 한 카메라 특성 정보값에 따라 결정되는 것을 포함하여 구성할 수 있다. In addition, the object information reliability may include an object characteristic information value based on the face size, the face angle, and the face sharpness of the first object and the similar object, and the first camera and the similar object, Which is determined according to the camera characteristic information value based on the distance and resolution between the first and second cameras.
또한, 상기 객체 특성 정보값은, 상기 제1 객체 및 상기 유사 객체에 대하여 얼굴 크기, 얼굴 각도 및 얼굴 선명도에 비례하는 것을 포함하여 구성할 수 있다. In addition, the object characteristic information value may include a value proportional to a face size, a face angle, and a face sharpness for the first object and the similar object.
이와 함께, 상기 카메라 특성 정보값은, 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라 간의 거리에 반비례하고, 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라의 해상도에 비례하는 것을 포함하여 구성할 수 있다.In addition, the camera characteristic information value may be inversely proportional to a distance between a first camera that captures the first object and a second camera that captures the similar object, and the first camera captures the first object, Which is proportional to the resolution of the second camera which has captured the image.
바람직하게는, 영상 내의 객체 정보를 제공하는 방법에 있어서, 제 1 카메라로부터 촬영된 영상을 수신하는 영상 수신 과정; 상기 제 1 카메라로부터 수신한 촬영 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장 과정; 상기 제 1 카메라로부터 수신한 촬영 영상으로부터 제 1 객체를 추출하는 객체 추출 과정; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출 과정; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하여 상기 촬영 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 선택하는 영상 분석 과정; 및 상기 대표 프레임에서 상기 객체의 얼굴 이미지를 추출하고, 상기 얼굴 이미지를 이용하여 상기 객체의 연령대와 성별 정보 중 적어도 하나의 분석 정보를 생성하는 객체 정보 분석 과정을 포함하는 것이 더욱 바람직하다. Preferably, the method further includes the steps of: receiving an image photographed by the first camera; An image storage step of storing a photographed image received from the first camera and an image photographed by the at least one second camera; An object extracting step of extracting a first object from the photographed image received from the first camera; An image extracting step of extracting at least one frame in which a similar object having a degree of similarity equal to or greater than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzing process for calculating object information reliability for the first object and the similar object for the one or more frames to select representative frames among the captured image and the one or more frames; And an object information analyzing step of extracting a face image of the object in the representative frame and generating at least one analysis information of the age and gender information of the object using the face image.
이와 함께, 컴퓨터에, 제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신 과정; 상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장 과정; 상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출 과정; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출 과정; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석 과정; 및 상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석 과정을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함하는 것이 더욱 바람직하다. In addition, a computer-readable medium storing a program for causing a computer to execute: an image receiving process for receiving a first image photographed by a first camera; An image storage step of storing a first image received from the first camera and an image captured by the at least one second camera; An object extracting step of extracting a first object from a first image received from the first camera; An image extracting step of extracting at least one frame in which a similar object having a degree of similarity equal to or greater than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzing process of calculating object information reliability for each of the similar objects for the first object and the one or more frames and extracting a representative frame from the first image and the one or more frames based on the object information reliability; And a computer-readable recording medium storing a program for executing an object information analysis process for generating analysis information on the object from the representative frame.
이상에서 설명한 바와 같이 본 발명의 실시예에 의하면, 객체 정보 제공 장치는 카메라 등을 통한 객체가 촬영된 영상으로부터 객체 정보 신뢰도를 산출하여 객체 정보 분석을 위한 최적의 프레임 추출이 가능하다는 장점을 가지고 있다. As described above, according to the embodiment of the present invention, the object information providing apparatus has an advantage that it can extract an optimal frame for object information analysis by calculating object information reliability from an image of an object captured through a camera or the like .
본 발명에서는, 카메라에서의 객체 얼굴 인식 한계를 고려하여, 객체의 음성인식, 객체가 탈착 또는 소유한 상품의 종류 인식, 상품의 브랜드 또는 상표 인식을 통하여 보다 정확한 객체 정보 분석이 가능한 효과가 있다. According to the present invention, there is an effect that more accurate object information analysis can be performed through voice recognition of an object, recognition of a type of a product that an object is detached or possessed, and recognition of a brand or a trademark of a product in consideration of object face recognition limitations in a camera.
객체 정보 제공 장치는 디지털 사이니지, 광고판 등에서 촬영한 객체 영상의 낮은 선명도 또는 해상도로 인하여 객체 정보 추출 및 분석이 어려운 한계를 극복하고, 다른 복수의 카메라에서 수집 또는 저장한 영상을 이용함으로써 객체 정보 분석의 최적의 조합 및 선택을 통하여 정확한 객체 정보를 제공할 수 있어 향후 광고 서비스 분야, 고객 맞춤형 정보 제공을 통한 마케팅 분야 등에서 널리 활용될 수 있는 장점을 지니고 있다. The object information providing device overcomes the difficulty of extracting and analyzing the object information due to low sharpness or resolution of the object image captured by the digital signage and the billboard, and by using the image collected or stored by the plurality of other cameras, It is possible to provide accurate object information through optimal combination and selection of advertisement information, and it can be widely used in advertising service field and marketing field by providing customized information.
또한, 객체 분석 정보를 광고, 게임, 어플리케이션 등 컨텐츠 서비스를 제공하는 장치에 효과적으로 제공함으로써 객체 정보 제공에 대한 새로운 모델의 구축을 위한 인프라를 제공할 수 있어 새로운 컨텐츠의 창출 및 새로운 수요의 창출을 통한 경제적 효과를 이룰 수 있다.In addition, it is possible to provide an infrastructure for building a new model for providing object information by effectively providing object analysis information to devices providing contents services such as advertisement, games, and applications, thereby creating new contents and creating new demands Economic effect can be achieved.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 일 실시예를 예시하는 것이며, 전술된 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른 객체 정보 제공 장치에 대한 전체적인 구성을 도시한 구성도이다.
도 2는 본 발명의 일 실시예에 따른 객체 정보 제공 장치의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 객체 정보 제공 장치와 카메라 및 컨텐츠 서비스 제공 장치 간의 데이터 송수신을 통한 객체 정보 제공 과정을 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 객체 정보 장치에서 추출된 영상 프레임 중에서 최적의 대표 프레임을 선택하기 위해 객체 정보 신뢰도를 산출하는 수식의 실시예이다.
도 5는 본 발명의 일 실시예에 따른 객체 정보 장치에서 추출된 영상 프레임 중에서 최적의 대표 프레임을 선택하기 위해 객체 정보 신뢰도를 산출시 객체 음성 정보, 객체로부터 검출된 상품의 브랜드 및 상품의 종류에 해당하는 변수를 합산하는 수식의 실시예이다. BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description of the invention given above, serve to provide a further understanding of the technical idea of the present invention. And should not be construed as limiting.
FIG. 1 is a block diagram illustrating an overall configuration of an object information providing apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an object information providing apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a process of providing object information through data transmission / reception between an object information providing apparatus and a camera and a contents service providing apparatus according to an embodiment of the present invention.
4 is an example of an equation for calculating object information reliability in order to select an optimal representative frame from the image frames extracted from the object information apparatus according to an embodiment of the present invention.
FIG. 5 is a graph showing the relationship between object voice information, the type of a product and the type of a product detected from the object, in order to select an optimal representative frame from the image frames extracted from the object information apparatus according to an exemplary embodiment of the present invention. Is an example of a formula for summing the corresponding variables.
이하, 본 발명에서의 일 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. Hereinafter, embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference numerals even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
우선적으로 본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)에 대한 전체적인 구성을 도시한 구성도인 도1을 참조하여 본 발명의 구현을 위한 구성관계를 간략히 설명하면 다음과 같다. FIG. 1 is a block diagram illustrating an overall configuration of an object
본 발명의 일 실시예에 의한 객체 정보 제공 장치(100)는 사용자(200)와 카메라(400) 및 컨텐츠 서비스 제공 장치(300)와 유선 또는 무선 등의 네트워크망(500)을 통하여 상호 연결된다. The object
본 발명의 일 실시예에 의한 객체 정보 제공 장치(100)는 서버 형태 등으로 구현되며 이하 설명되는 객체 정보 제공 장치(100)의 각 구성요소는 서버의 논리적 기능을 구별하기 위한 개념상의 구분일 뿐 물리적 구분이 아님은 자명하며, 객체 정보 제공 장치(100)는 카메라(400) 및 컨텐츠 서비스 제공 장치(300)와 객체 정보 제공을 위한 다양한 데이터를 상호 입출력하게 된다. 여기서, 카메라(400)는 객체의 출현, 이동, 이탈 등의 경로를 촬영할 수 있는 디지털 사이니지(Digital Signage), CCTV용 카메라, 감시 카메라 등을 포함할 수 있으며, 네트워크망(500)을 경유하여 객체 정보 제공 장치(100)와 영상 및 데이터를 송수신하는 것으로 나타내고 있으나 반드시 이에 한정되는 것은 아니며, 근거리 통신망 또는 소정의 기업에서 설치한 통신기지국에 따른 통신망과 같이 영상 및 데이터를 송수신할 수 있다면 명칭에 국한되지 않고 그 어떤 망으로도 구현될 수 있다. The object
한편, 컨텐츠 서비스 제공 장치(300)는 광고, 게임 및 어플리케이션(Application) 중 적어도 하나의 컨텐츠를 사용자에게 제공하는 서버 형태 등으로 구현될 수 있다. Meanwhile, the content
본 발명의 일 실시예에 의한 객체 정보 제공 장치(100)는 카메라(400)로부터 촬영 영상을 수신하고, 수신한 영상 내의 객체를 탐지하여 객체 정보를 분석하고, 사용자에게 광고, 게임, 어플리케이션 등과 같은 컨텐츠를 제공하는 서비스 장치에 객체 분석 정보를 전송 또는 제공할 수 있는 기능을 수행하는 장치를 의미하므로 상기와 같은 기능을 수행한다면 지칭되는 명칭에 국한되지 않고 객체 정보 제공 장치(100)에 해당될 수 있음은 자명하다. The object
이하에서는 본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)의 구성을 도시한 블록도인 도 2를 통하여 객체 정보 제공 장치(100)의 구체적인 구성을 설명하도록 한다. Hereinafter, a specific configuration of the object
상기 첨부된 도면을 참조할 때, 본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)의 영상 수신부(110), 영상 저장부 (120), 객체 추출부(130), 영상 추출부(140), 영상 분석부(150), 객체 정보 분석부(160), 데이터베이스부(170), 통계부(180), 컨텐츠 연동부(190), 음성 분석부(121) 및 상품 분석부(123)를 포함하여 구성될 수 있다. An
이와 함께, 객체 추출부(130)는 영상 분리부(131)와 객체 추적부(133)를 포함하여 구성될 수 있다. In addition, the object extracting unit 130 may include an
본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)의 영상 수신부(110)는 카메라(400)와 연결되어 촬영 영상을 수신하는 역할을 수행한다. 여기서, 카메라(400)는 디지털 사이니지, CCTV 등 복수의 카메라를 포함할 수 있으며, 촬영 영상은 복수 개의 카메라를 통해 촬영된 영상으로서 각각의 카메라에 대한 촬영 영상을 의미하며, 촬영 영상은 복수 개의 프레임을 포함하여 구성할 수 있다. The
영상 저장부(120)는 제 1 카메라(410)로부터 촬영된 제 1 영상을 영상 수신부(110)를 통해 수신하여 저장하거나, 제 2 카메라(420)로부터 촬영된 영상을 직접 수신하여 저장하는 역할을 수행하며, 저장된 영상은 시간에 따른 영상의 프레임 추적이나 영상 분석에 활용이 된다. The
객체 추출부(130)는 제 1 카메라(410)로부터 수신한 촬영 영상으로부터 제 1 객체를 추출하는 역할을 수행한다. 여기서, 제 1 카메라(410)는 디지털 사이니지, 광고판의 촬영부를 의미한다. The object extracting unit 130 extracts the first object from the photographed image received from the
객체 추출부(130)는 영상 분리부(131)와 객체 추적부(133)를 포함하여 구성될 수 있다. 영상 분리부(131)에서는 배경과 전경을 분리하는데, 이는 화소의 가우시언 모델을 이용한다. 각 화소는 소정의 개수의 가우시언 노드(node)를 가진다. 각각의 가우시언 노드는 평균(mean), 분산(variance), 가중치(weight)를 가진다. 프로그램 시작 후 초기 일정 시간 까지는 화소의 가우시언 모델이 학습되는데, 이 때 평균, 분산, 가중치가 정해지고, 가중치가 높은 노드가 배경 노드로 지정된다. The object extracting unit 130 may include an
전술한 바와 같은 학습이 끝나고 영상 프레임이 들어오면, 각 화소는 학습된 가우시언 노드 중 하나에 속하는지 판별되고, 해당 가우시언 노드의 평균, 분산이 업데이트되고, 모든 가우시언 노드의 가중치가 업데이트된다. When the above-described learning ends and an image frame comes in, each pixel is discriminated as belonging to one of the learned geosynchronous nodes, the average and variance of the corresponding geosynchronous node are updated, and the weights of all the geosynchronous nodes are updated .
또한, 화소가 배경 노드가 아닌 가우시언 노드에 속하게 되면 그 화소는 전경 화소가 된다. 예를 들어, 사람이 지나가면 사람에 해당하는 화소는 배경 노드에 속하지 않을 것이므로 전경 화소가 된다. 이들 전경 화소들의 집합이 사람에 해당될 것이고, 이러한 과정을 통해 배경으로부터 전경을 분리할 수 있다. Also, if a pixel belongs to a gaussian node other than a background node, the pixel becomes a foreground pixel. For example, when a person passes, a pixel corresponding to a person will not belong to a background node, and thus becomes a foreground pixel. A set of these foreground pixels will correspond to a person, and the foreground can be separated from the background through this process.
영상 분리부(131)에서 배경과 전경이 분리되면, 객체 추적부(133)에서 객체를 추적하는 단계를 거친다. 이는 전경 영상(배경:0, 전경:1)을 이용한다. 이전 프레임의 전경 영상에서의 전경에 해당하는 움직이는 객체와 현재 프레임의 전경 영상에서의 전경에 해당하는 움직이는 객체의 컬러 정보, 히스토그램, 객체의 모양(shape) 등을 비교해서, 이전 프레임과 현재 프레임의 동일한 객체를 판별하여 객체를 추적한다. 컬러 정보의 비교에는 히스토그램, 객체의 모양(shape) 등의 정보가 이용될 수 있다. When the
영상 추출부(140)는 객체 추출부(130)로부터 추출된 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 영상 저장부(120)에 저장된 영상으로부터 추출하는 역할을 수행한다. 여기서, 제 1 카메라(410)로부터 촬영된 영상을 수신하여 객체 추출부(130)에서 추출된 제 1 객체와 화소, 컬러 및 윤곽 중에서 적어도 하나 이상의 차이를 비교한 결과를 근거로 한 소정의 임계값 이상의 유사도를 갖는 유사 객체를 제 2 카메라(420)의 촬영 영상이 저장된 영상 저장부(120)로부터 추출할 수 있다.The
영상 분석부(150)는 제 1 객체 및 하나 이상의 프레임에 대한 유사 객체에 대하여 객체 정보 신뢰도를 산출하여 저장된 영상 중에서 최적의 대표 프레임을 추출하는 역할을 수행한다. 여기서, 객체 정보 신뢰도는 제 1 객체 및 유사 객체의 얼굴 크기, 얼굴 각도 및 얼굴 선명도를 근거로 한 객체 특성 정보값과 제 1 카메라(410)와 제 2 카메라(420)의 위치 및 카메라 해상도를 근거로 한 카메라 특성 정보값을 합산하여 산출될 수 있다. 예를 들어, 객체 특성 정보값은 제 1 객체 및 유사 객체의 얼굴 크기(Size), 얼굴 각도(Angle) 및 얼굴 선명도(Visibility)에 해당하는 각 변수에 소정의 가중치를 곱한 값의 합으로 산출될 수 있다. 여기서, 얼굴 각도는 객체의 얼굴이 향하는 방향과 카메라가 향하는 시선과의 각도를 의미하며, 얼굴 선명도는 객체의 눈, 코, 입의 구분 및 얼굴 윤곽의 선명도를 의미할 수 있다. 카메라 특성 정보값은 제 1 객체를 촬영한 제 1 카메라(410)와 유사 객체를 촬영한 제 2 카메라(420) 간의 위치 또는 거리에 반비례(1/Distance)하고, 제 1 카메라(410)와 제 2 카메라(420)의 해상도(Resolution)에 비례한 각 변수에 소정의 가중치를 곱한 값의 합으로 산출될 수 있다. The
여기서, 영상 분석부(150)에서 객체 정보 신뢰도를 산출할 경우에 객체의 얼굴 인식의 한계를 극복하고자 객체의 음성 또는 객체가 착용 또는 소유한 상품의 종류, 브랜드의 분석 정보를 수신하여 객체 정보 신뢰도를 산출할 수도 있다. 이 때, 음성 분석부(121)에서 객체의 음성에 대한 정보를 추출하고, 상품 분석부(123)에서 객체가 착용 또는 소유한 상품의 종류 또는 브랜드, 상표를 추출하여 영상 분석부(150)로 전송된다. Here, in order to overcome the limitation of face recognition of an object when the object information reliability is calculated by the
음성 분석부(121)는 영상의 하나 이상의 프레임에서 소정의 시간을 전후로 한 유사 객체의 입부분의 움직임이 있는 프레임을 추출하고, 입부분의 움직임이 있는 프레임의 시간에 대응되는(예컨대, 객체의 입부분의 움직임이 있는 프레임의 시작과 끝) 유사 객체의 음성 정보를 추출하여 영상 분석부(150)로 전송하는 역할을 수행한다. The
상품 분석부(123)는 하나 이상의 프레임에서 유사 객체가 착용 또는 소유한 상품의 종류나 상표, 브랜드를 추출하여 영상 분석부(150)로 전송하는 역할을 수행한다. The product analysis unit 123 extracts the types, brands, and brands of the products worn or owned by the similar objects in one or more frames, and transmits the extracted types, brands, and brands to the
데이터베이스부(170)는 추출된 객체의 얼굴 이미지를 저장하고, 기 저장된 복수의 객체 얼굴 이미지 중에서 추출된 객체 얼굴 이미지와 소정의 임계값 이상의 유사도를 갖는 얼굴 이미지를 추출하여 객체 정보 분석부(160)로 전송하는 역할을 수행한다. 이는 객체 얼굴 이미지를 저장하고 데이터베이스로 구축함으로써 다른 객체의 얼굴 성별, 연령대 판별 또는 분석에 활용할 수 있는 장점이 있다. 예를 들어, 추출한 객체의 얼굴 이미지가 얼굴 크기, 얼굴 각도, 얼굴 선명도, 카메라 조명 등의 조건의 결함으로 인하여 얼굴 인식 및 성별, 연령대 등의 객체 정보 분석이 어려운 경우 임계값 이상의 유사도를 갖는 얼굴 이미지를 데이터베이스부(170)에서 찾아 객체 성별, 연령대 분석에 이용할 수 있다. 일정 시간이 지난 후 데이터베이스 축적량이 많아질수록 객체 얼굴 인식 및 객체 정보 분석의 정확도가 높아지는 장점이 있다. The
객체 정보 분석부(160)는 영상 분석부(150)를 통해 추출된 최적의 대표 프레임에서 객체의 얼굴 이미지를 추출하고, 객체의 얼굴 이미지를 이용하여 객체의 연령대와 성별 정보 중 적어도 하나의 분석 정보를 생성하는 역할을 수행한다. The object
통계부(180)는 객체 정보 분석부(160)를 통해 분석된 객체 분석 정보를 수치적으로 통계화하여 저장하고, 객체 분석 정보를 컨텐츠 연동부(190)로 전송하는 역할을 수행한다. The
컨텐츠 연동부(190)는 광고, 게임 및 어플리케이션 중 적어도 하나의 컨텐츠를 사용자에게 제공하는 컨텐츠 서비스 제공 장치(300)로 객체 분석 정보를 전송하는 역할을 수행한다. 이 때, 객체 분석 정보는 객체 분석 정보를 통계화한 통계부(180)를 통해 수신할 수도 있고, 통계부(180)를 거치지 않고 객체 정보 분석부(160)에서 직접 수신할 수도 있다. The
도 3은 본 발명의 일 실시예에 따른 객체 정보 제공 장치와 카메라 및 컨텐츠 서비스 제공 장치 간의 데이터 송수신을 통한 객체 정보 제공 과정을 도시한 흐름도이다. 3 is a flowchart illustrating a process of providing object information through data transmission / reception between an object information providing apparatus and a camera and a contents service providing apparatus according to an embodiment of the present invention.
이하에서는 본 발명의 일 실시예에 따른 객체 정보 제공 방법을 예시한 흐름도인 도 3을 통하여 본 발명에 의한 객체 정보 제공방법의 구체적인 과정을 설명하도록 한다. Hereinafter, a detailed procedure of the object information providing method according to the present invention will be described with reference to FIG. 3, which is a flowchart illustrating an object information providing method according to an embodiment of the present invention.
본 발명의 일 실시예에 따른, 카메라를 통해 촬영된 영상 내의 객체 정보 제공 방법은, 디지털 사이니지인 제 1 카메라를 통해 객체를 촬영(S310)하고, 제 1 카메라와 복수의 카메라 중 하나인 제 2 카메라의 영상을 수신하여 저장(S320)한다.According to an embodiment of the present invention, an object information providing method in an image photographed by a camera includes the steps of: capturing an object through a first camera, which is a digital signage (S310) 2 camera image is received and stored (S320).
제 1 카메라에서 촬영된 영상에서 제 1 객체를 추출(S330)하고, 저장된 영상 중에서 추출한 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 추출(S340)하는 과정을 거친다. The first object is extracted from the image captured by the first camera in operation S330 and the extracted one or more frames of the similar object having a degree of similarity equal to or greater than a predetermined threshold value are extracted from the extracted image in operation S340.
하나 이상의 프레임 중에서 객체 정보 신뢰도를 산출하여 대표 프레임을 추출(S350)하고, 대표 프레임에서 객체의 얼굴 이미지를 추출하고, 객체의 연령대와 성별 정보를 분석(S360)한다. The representative frame is extracted by calculating the reliability of the object information among the at least one frame (S350), the face image of the object is extracted from the representative frame, and the age and gender information of the object is analyzed (S360).
객체 정보 분석 결과를 통계화하여 저장(S370)하고, 통계화한 데이터를 컨텐츠 연동부로 전송하여 컨텐츠 서비스 제공 장치로 전송(S380)한다. The object information analysis result is statistically stored (S370), and the statistical data is transmitted to the content linking unit and transmitted to the content service providing apparatus (S380).
도 4는 본 발명의 일 실시예에 따른 객체 정보 장치에서 추출된 영상 프레임 중에서 최적의 대표 프레임을 선택하기 위해 객체 정보 신뢰도를 산출하는 수식의 실시예이다. 4 is an example of an equation for calculating object information reliability in order to select an optimal representative frame from the image frames extracted from the object information apparatus according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 객체 정보 장치에서 추출된 영상 프레임 중에서 최적의 대표 프레임을 선택하기 위해 객체 정보 신뢰도를 산출시 객체 음성 정보, 객체로부터 검출된 상품의 브랜드 및 상품의 종류에 해당하는 변수를 합산하는 수식의 실시예이다. FIG. 5 is a graph showing the relationship between object voice information, the type of a product and the type of a product detected from the object, in order to select an optimal representative frame from the image frames extracted from the object information apparatus according to an exemplary embodiment of the present invention. Is an example of a formula for summing the corresponding variables.
이하에서는 본 발명의 일 실시예에 따른 객체 정보 신뢰도 산출식인 도 4 및 도 5를 통하여 객체 정보 신뢰도 산출 방법을 설명하도록 한다. Hereinafter, an object information reliability calculation method will be described with reference to FIGS. 4 and 5, which are object information reliability calculation equations according to an embodiment of the present invention.
도 4의 수식에서 Accuracy는 추출한 영상이 객체 성별, 연령 등의 객체 분석 정확도에 기여하는 척도를 나타내는 것으로 객체 특성 정보값을 의미하고, Adequacy는 카메라 영상의 사용 적합성을 평가하는 척도로써 카메라 특성 정보값을 의미한다. In Equation 4, Accuracy means the value of the object characteristic information indicating the degree of contribution of the extracted image to object analysis accuracy such as object gender and age, and Adequacy is a measure for evaluating suitability of the camera image, .
Accuracy인 객체 특성 정보값은 객체 얼굴 크기(f(size)), 얼굴 각도(f(angle)) 및 얼굴의 선명도(f(visibility))에 해당하는 각 변수에 소정의 가중치(weight, 예컨대 w1, w2, w3)를 곱한 값의 합으로 산출된다. 여기서, 가중치 w1과 w2 및 w3의 합은 1일 수 있다. The object characteristic information value as the accuracy is set to a predetermined weight (e.g., w1, w2) for each variable corresponding to the object face size (f (size), face angle and face visibility) w2, w3). Here, the sum of the weights w1 and w2 and w3 may be one.
Adequacy인 카메라 특성 정보값은 객체를 촬영한 제 1 카메라(410)와 제 2 카메라(420) 간의 거리에 반비례(f(1/distance))하고, 제 1 카메라(410)와 제 2 카메라(420)의 해상도(f(resolution))에 비례한 각 변수에 소정의 가중치((weight, 예컨대 w4, w5)를 곱한 값의 합으로 산출되며, 가중치 w4와 w5의 합은 1일 수 있다. The camera characteristic information value as an adequacy is inversely proportional to the distance between the
또한, 객체 정보 신뢰도(Si)은 객체 특성 정보값(Accuracy)과 카메라 특성 정보값(Adequacy)에 해당하는 각 변수에 소정의 가중치(weight, 예컨대 w6, w7)를 곱한 값의 합으로 산출되며, 가중치 w6과 w7의 합은 1일 수 있다. The object information reliability Si is calculated as the sum of values obtained by multiplying each variable corresponding to the object characteristic information value and the camera characteristic information value Adequacy by a predetermined weight (e.g., w6, w7) The sum of the weights w6 and w7 may be one.
도 5의 수식은 객체 정보 신뢰도(Si)을 산출할 경우 객체의 얼굴 인식 한계를 극복하고자 객체 음성 정보값, 객체가 착용 또는 소유한 상품의 브랜드 정보값 및 객체가 착용 또는 소유한 상품의 종류 정보값을 합산하여 산출하는 실시예이다. In order to overcome the face recognition limit of the object when the object information reliability (Si) is calculated, the equation of FIG. 5 may include an object voice information value, a brand information value of a product worn or owned by the object, Values are summed and calculated.
도 5에서 객체 정보 신뢰도(Si+)는 도 4의 수식을 통해 도출한 객체 정보 신뢰도(Si)과 객체 음성 정보값(f(voice)), 상품 브랜드 정보값(f(brand)) 및 상품 종류 정보값(f(goods))에 해당하는 각 변수에 소정의 가중치(weight, 예컨대 w8, w9, w10, w11)를 곱한 값의 합으로 산출된다. 여기서, 가중치 w8과 w9와 w10 및 w11의 합은 1일 수 있다. In FIG. 5, the object information reliability (Si +) is calculated based on the object information reliability Si, object voice information value f (voice), product brand information value f (brand) Is calculated as the sum of values obtained by multiplying each variable corresponding to the value f (goods) by a predetermined weight (e.g., w8, w9, w10, w11). Here, the sum of the weights w8, w9, w10 and w11 may be one.
본 발명을 설명함에 있어, 본 발명의 일 실시예에 따른 객체 정보 제공 장치(100)의 각 구성요소는 앞서 간략히 언급된 바와 같이 물리적으로 구분되는 구성요소라기보다는 논리적으로 구분되는 구성요소로 되어야 한다. In describing the present invention, each component of the object
즉, 각각의 구성은 본 발명의 기술사상을 실현하기 위하여 논리적인 구성요소에 해당하므로 각각의 구성요소가 통합 또는 분리되어 수행되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다. That is, since each configuration corresponds to a logical component for realizing the technical idea of the present invention, even if each component is integrated or separated, if the functions performed by the logical configuration of the present invention can be realized, It is to be understood that any component that performs the same or similar function should be interpreted as falling within the scope of the present invention regardless of the consistency of the name.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 일 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 일 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are not intended to limit the scope of the present invention but to limit the scope of the present invention.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
이상에서 설명한 바와 같이 본 발명은 디지털 사이니지, 광고판 등에서 촬영한 객체 영상의 낮은 선명도 또는 해상도로 인하여 객체 정보 추출 및 분석이 어려운 한계를 극복하고, 다른 복수의 카메라 촬영부에서 수집 또는 저장한 영상을 이용함으로써, 객체 정보 분석의 최적의 조합 및 선택을 통하여 정확한 객체 정보를 제공할 수 있어 향후 광고 서비스 분야, 고객 맞춤형 정보 제공을 통한 마케팅 분야 등에서 널리 활용될 부분이 기대되어 유용한 발명이다.As described above, the present invention overcomes the difficulty of extracting and analyzing object information due to low sharpness or resolution of object images photographed in digital signage, billboards, etc., It is possible to provide accurate object information through optimal combination and selection of object information analysis, and it is a useful invention that is expected to be widely used in the field of advertising service and marketing through customized information provision in the future.
100 : 객체 정보 제공 장치 140 : 영상 추출부
200 : 사용자 150 : 영상 분석부
300 : 컨텐츠 서비스 제공 장치 160 : 객체 정보 분석부
400 : 카메라 170 : 데이터베이스부
410 : 제 1 카메라 180 : 통계부
420 : 제 2 카메라 190 : 컨텐츠 연동부
450 : 제 N 카메라 121 : 음성 분석부
500 : 네트워크망 123 : 상품 분석부
110 : 영상 수신부 131 : 영상 분리부
120 : 영상 저장부 133 : 객체 추적부
130 : 객체 추출부
100: Object information providing apparatus 140:
200: user 150: image analysis unit
300: Content service providing apparatus 160: Object information analyzing unit
400: camera 170:
410: First camera 180: Statistics section
420: second camera 190: content interlocking unit
450: Nth camera 121: Voice analysis unit
500: network network 123: product analysis section
110: image receiving unit 131: image separating unit
120: Image storage unit 133: Object tracking unit
130:
Claims (13)
제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신부;
상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장부;
상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출부;
상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출부;
상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석부; 및
상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석부;
를 포함하는 것을 특징으로 하는 객체 정보 제공 장치. An apparatus for providing object information in an image,
An image receiving unit for receiving a first image photographed by a first camera;
An image storage unit for storing a first image received from the first camera and an image captured by the at least one second camera;
An object extraction unit for extracting a first object from a first image received from the first camera;
An image extracting unit for extracting at least one frame in which a similar object having a degree of similarity higher than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit;
An image analyzer for calculating object information reliability for each of the similar objects for the first object and the one or more frames and for extracting representative frames from the first image and the one or more frames based on the object information reliability; And
An object information analyzer for generating analysis information on the object from the representative frame;
Wherein the object information providing apparatus comprises:
상기 제 2 카메라로부터 촬영된 영상으로부터 상기 하나 이상의 프레임을 추출하는 것을 특징으로 하는 객체 정보 제공 장치. The image processing apparatus according to claim 1,
And extracts the one or more frames from the image photographed by the second camera.
상기 대표 프레임으로부터 상기 객체에 대한 상기 객체의 얼굴 이미지를 추출하고, 상기 얼굴 이미지를 이용하여 상기 객체의 연령대와 성별 정보 중 적어도 하나의 분석 정보를 생성하는 것을 특징으로 하는 객체 정보 제공 장치.The apparatus of claim 1, wherein the object information analyzer comprises:
Extracts a face image of the object with respect to the object from the representative frame, and generates at least one analysis information of the age and gender information of the object using the face image.
상기 얼굴 이미지를 저장하고, 기 저장된 복수의 얼굴 이미지 중에서 상기 얼굴 이미지와 소정의 임계값 이상의 유사도를 갖는 얼굴 이미지를 추출하여 상기 객체 정보 분석부로 전송하는 데이터베이스부를 더 포함하는 것을 특징으로 하는 객체 정보 제공 장치. 4. The apparatus according to claim 3,
Further comprising a database unit storing the face image and extracting a face image having a degree of similarity equal to or greater than a predetermined threshold value from a plurality of previously stored face images and transmitting the extracted face image to the object information analyzing unit. Device.
상기 하나 이상의 프레임에서 소정의 시간을 전후로 한 상기 유사 객체의 입부분의 움직임이 있는 프레임을 추출하고, 상기 입부분의 움직임이 있는 프레임의 시간에 대응되는 상기 유사 객체의 음성 정보를 추출하여 상기 영상 분석부로 전송하는 것을 특징으로 하는 음성 분석부를 더 포함하는 것을 특징으로 하는 객체 정보 제공 장치. The apparatus according to claim 1,
Extracting a frame in which the mouth portion of the similar object moves with a predetermined time before and after the one or more frames, extracting audio information of the similar object corresponding to the time of the frame in which the mouth portion is in motion, Analyzing unit for analyzing the object information, and transmitting the object information to the analysis unit.
상기 하나 이상의 프레임에서 상기 유사 객체가 착용한 상품의 종류 또는 상표를 추출하는 상품 분석부를 더 포함하는 것을 특징으로 하는 객체 정보 제공 장치. The apparatus according to claim 1,
Further comprising a product analysis unit for extracting a type or a trademark of a product worn by the similar object in the one or more frames.
광고, 게임 및 어플리케이션 중 적어도 하나의 컨텐츠를 사용자에게 제공하는 컨텐츠 서비스 제공 장치로 상기 분석 정보를 전송하는 컨텐츠 연동부
를 더 포함하는 것을 특징으로 하는 객체 정보 제공 장치. The apparatus according to claim 1,
A content service providing apparatus for providing at least one content of an advertisement, a game, and an application to a user,
The object information providing apparatus further comprising:
상기 제 1 객체와 화소, 컬러 및 윤곽 중에서 적어도 하나 이상의 차이를 비교한 결과를 근거로 한 소정의 임계값 이상의 유사도를 갖는 상기 유사 객체를 상기 제 2 카메라의 촬영 영상으로부터 추출하는 것을 특징으로 하는 객체 정보 제공 장치. The image processing apparatus according to claim 1,
Characterized in that the similar object having a degree of similarity equal to or greater than a predetermined threshold value is extracted from the photographed image of the second camera based on a result of comparison of at least one of the pixel, color and outline with the first object. Information providing device.
상기 제 1 객체 및 상기 유사 객체에 대하여 얼굴 크기, 얼굴 각도 및 얼굴 선명도를 근거로 한 객체 특성 정보값과 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라 간의 거리 및 해상도를 근거로 한 카메라 특성 정보값에 따라 결정되는 것을 특징으로 하는 객체 정보 제공 장치. 2. The method of claim 1,
A distance between a first camera that photographs the first object and a second camera that photographs the similar object, and a second camera that photographs the first object and the similar object based on the face size, the face angle, and the face sharpness, Wherein the object information is determined according to a camera characteristic information value based on the resolution.
상기 제 1 객체 및 상기 유사 객체에 대하여 얼굴 크기, 얼굴 각도 및 얼굴 선명도에 비례하는 것을 특징으로 하는 객체 정보 제공 장치. 10. The method of claim 9,
Wherein the first object and the similar object are proportional to a face size, a face angle and a face sharpness of the first object and the similar object.
상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라 간의 거리에 반비례하고, 상기 제 1 객체를 촬영한 제 1 카메라와 상기 유사 객체를 촬영한 제 2 카메라의 해상도에 비례하는 것을 특징으로 하는 객체 정보 제공 장치. 10. The method of claim 9,
Wherein the distance between the first camera that photographs the first object and the second camera that photographs the similar object is proportional to the resolution of the first camera that photographs the first object and the second camera that photographs the similar object, The object information providing apparatus comprising:
제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신 과정; 상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장 과정; 상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출 과정; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출 과정; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석 과정; 및 상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석 과정
을 포함하는 것을 특징으로 하는 객체 정보 제공 방법. A method for providing object information in an image,
An image receiving step of receiving a first image photographed by a first camera; An image storage step of storing a first image received from the first camera and an image captured by the at least one second camera; An object extracting step of extracting a first object from a first image received from the first camera; An image extracting step of extracting at least one frame in which a similar object having a degree of similarity equal to or greater than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzing process of calculating object information reliability for each of the similar objects for the first object and the one or more frames and extracting a representative frame from the first image and the one or more frames based on the object information reliability; And an object information analysis process for generating analysis information on the object from the representative frame
The object information providing method comprising:
제 1 카메라로부터 촬영된 제 1 영상을 수신하는 영상 수신 과정; 상기 제 1 카메라로부터 수신한 제 1 영상과 하나 이상의 제 2 카메라에서 촬영된 영상을 저장하는 영상 저장 과정; 상기 제 1 카메라로부터 수신한 제 1 영상으로부터 제 1 객체를 추출하는 객체 추출 과정; 상기 제 1 객체와 소정의 임계값 이상의 유사도를 갖는 유사 객체가 촬영된 하나 이상의 프레임을 상기 영상 저장부에 저장된 영상으로부터 추출하는 영상 추출 과정; 상기 제 1 객체 및 상기 하나 이상의 프레임에 대한 유사 객체에 대하여 각각 객체 정보 신뢰도를 산출하고, 상기 객체 정보 신뢰도에 근거하여 상기 제 1 영상 및 상기 하나 이상의 프레임 중에서 대표 프레임을 추출하는 영상 분석 과정; 및 상기 대표 프레임으로부터 상기 객체에 대한 분석 정보를 생성하는 객체 정보 분석 과정을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. On the computer,
An image receiving step of receiving a first image photographed by a first camera; An image storage step of storing a first image received from the first camera and an image captured by the at least one second camera; An object extracting step of extracting a first object from a first image received from the first camera; An image extracting step of extracting at least one frame in which a similar object having a degree of similarity equal to or greater than a predetermined threshold value with the first object is captured, from an image stored in the image storing unit; An image analyzing process of calculating object information reliability for each of the similar objects for the first object and the one or more frames and extracting a representative frame from the first image and the one or more frames based on the object information reliability; And analyzing the object information to generate analysis information for the object from the representative frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130107405A KR102097781B1 (en) | 2013-09-06 | 2013-09-06 | Apparatus and Method for Providing Object Information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130107405A KR102097781B1 (en) | 2013-09-06 | 2013-09-06 | Apparatus and Method for Providing Object Information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150028589A true KR20150028589A (en) | 2015-03-16 |
KR102097781B1 KR102097781B1 (en) | 2020-05-29 |
Family
ID=53023433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130107405A KR102097781B1 (en) | 2013-09-06 | 2013-09-06 | Apparatus and Method for Providing Object Information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102097781B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101647691B1 (en) * | 2016-02-12 | 2016-08-16 | 데이터킹주식회사 | Method for hybrid-based video clustering and server implementing the same |
US9842276B2 (en) | 2015-10-29 | 2017-12-12 | Samsung Sds Co., Ltd. | System and method for analyzing personalized characteristics |
WO2020116983A1 (en) * | 2018-12-07 | 2020-06-11 | Samsung Electronics Co., Ltd. | Electronic apparatus, controlling method of electronic apparatus, and computer readable medium |
US10769438B2 (en) | 2017-05-23 | 2020-09-08 | Samsung Electronics Company, Ltd. | Augmented reality |
KR102245349B1 (en) * | 2020-02-11 | 2021-04-28 | 한국과학기술원 | Method and apparatus for extracting color scheme from video |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102374861B1 (en) * | 2019-05-07 | 2022-03-17 | 주식회사 엘토브 | O2O(On-line to Off-line) BASED SYSTEM AND METHOD FOR SUGGESTING CUSTOMIZED INFORMATION |
KR102428955B1 (en) * | 2020-01-23 | 2022-08-04 | 최문정 | Method and System for Providing 3D Displayed Commercial Video based on Artificial Intellingence using Deep Learning |
KR102191044B1 (en) * | 2020-06-15 | 2020-12-14 | 주식회사 센스비전 | Advertising systems that are provided through contents analytics and recommendation based on artificial intelligence facial recognition technology |
KR102261336B1 (en) * | 2020-07-28 | 2021-06-07 | 주식회사 센스비전 | Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060090554A (en) * | 2005-02-09 | 2006-08-14 | 가부시키가이샤 히타치세이사쿠쇼 | A surveillance apparatus and surveillance system |
JP2009271577A (en) * | 2008-04-30 | 2009-11-19 | Panasonic Corp | Device and method for displaying result of similar image search |
JP2010192956A (en) * | 2009-02-16 | 2010-09-02 | Nikon Corp | Imaging apparatus, and speaking person recognition method |
-
2013
- 2013-09-06 KR KR1020130107405A patent/KR102097781B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060090554A (en) * | 2005-02-09 | 2006-08-14 | 가부시키가이샤 히타치세이사쿠쇼 | A surveillance apparatus and surveillance system |
JP2009271577A (en) * | 2008-04-30 | 2009-11-19 | Panasonic Corp | Device and method for displaying result of similar image search |
JP2010192956A (en) * | 2009-02-16 | 2010-09-02 | Nikon Corp | Imaging apparatus, and speaking person recognition method |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9842276B2 (en) | 2015-10-29 | 2017-12-12 | Samsung Sds Co., Ltd. | System and method for analyzing personalized characteristics |
KR101647691B1 (en) * | 2016-02-12 | 2016-08-16 | 데이터킹주식회사 | Method for hybrid-based video clustering and server implementing the same |
WO2017138766A1 (en) * | 2016-02-12 | 2017-08-17 | 데이터킹주식회사 | Hybrid-based image clustering method and server for operating same |
US10803348B2 (en) | 2016-02-12 | 2020-10-13 | Dataking. Inc | Hybrid-based image clustering method and server for operating the same |
US10769438B2 (en) | 2017-05-23 | 2020-09-08 | Samsung Electronics Company, Ltd. | Augmented reality |
WO2020116983A1 (en) * | 2018-12-07 | 2020-06-11 | Samsung Electronics Co., Ltd. | Electronic apparatus, controlling method of electronic apparatus, and computer readable medium |
US11558545B2 (en) | 2018-12-07 | 2023-01-17 | Samsung Electronics Co., Ltd. | Electronic apparatus, controlling method of electronic apparatus, and computer readable medium |
KR102245349B1 (en) * | 2020-02-11 | 2021-04-28 | 한국과학기술원 | Method and apparatus for extracting color scheme from video |
Also Published As
Publication number | Publication date |
---|---|
KR102097781B1 (en) | 2020-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102097781B1 (en) | Apparatus and Method for Providing Object Information | |
WO2018059408A1 (en) | Cross-line counting method, and neural network training method and apparatus, and electronic device | |
US9536153B2 (en) | Methods and systems for goods received gesture recognition | |
CN108154110B (en) | Intensive people flow statistical method based on deep learning people head detection | |
US8098888B1 (en) | Method and system for automatic analysis of the trip of people in a retail space using multiple cameras | |
CN109690624A (en) | Automatic scene calibration method for video analysis | |
WO2020093830A1 (en) | Method and apparatus for estimating pedestrian flow conditions in specified area | |
CN112488071B (en) | Method, device, electronic equipment and storage medium for extracting pedestrian features | |
US20180342070A1 (en) | Methods and systems of determining object status for false positive removal in object tracking for video analytics | |
CN105678591A (en) | Video-analysis-based commercial intelligent operation decision-making support system and method | |
CN109389589A (en) | Method and apparatus for statistical number of person | |
Ferryman et al. | Performance evaluation of crowd image analysis using the PETS2009 dataset | |
CA2670021A1 (en) | System and method for estimating characteristics of persons or things | |
KR102260123B1 (en) | Apparatus for Sensing Event on Region of Interest and Driving Method Thereof | |
CN110782433A (en) | Dynamic information violent parabolic detection method and device based on time sequence and storage medium | |
KR102332229B1 (en) | Method for Augmenting Pedestrian Image Data Based-on Deep Learning | |
KR20170006356A (en) | Method for customer analysis based on two-dimension video and apparatus for the same | |
KR102584708B1 (en) | System and Method for Crowd Risk Management by Supporting Under and Over Crowded Environments | |
CN113920585A (en) | Behavior recognition method and device, equipment and storage medium | |
CN116843726A (en) | Pedestrian track tracking method and device, electronic equipment and storage medium | |
NL2029136B1 (en) | Vision-based sports timing and identification system | |
CN114387648A (en) | Abnormal image detection method, abnormal image detection device, computer equipment and storage medium | |
Bouma et al. | WPSS: Watching people security services | |
KR102428955B1 (en) | Method and System for Providing 3D Displayed Commercial Video based on Artificial Intellingence using Deep Learning | |
CN113947795A (en) | Mask wearing detection method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |