KR20240040005A - Apparatus and method for analyzing image - Google Patents

Apparatus and method for analyzing image Download PDF

Info

Publication number
KR20240040005A
KR20240040005A KR1020230062399A KR20230062399A KR20240040005A KR 20240040005 A KR20240040005 A KR 20240040005A KR 1020230062399 A KR1020230062399 A KR 1020230062399A KR 20230062399 A KR20230062399 A KR 20230062399A KR 20240040005 A KR20240040005 A KR 20240040005A
Authority
KR
South Korea
Prior art keywords
map
captured image
distance
depth map
absolute distance
Prior art date
Application number
KR1020230062399A
Other languages
Korean (ko)
Inventor
박동진
김대봉
Original Assignee
한화비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사 filed Critical 한화비전 주식회사
Priority to PCT/KR2023/006885 priority Critical patent/WO2024063242A1/en
Publication of KR20240040005A publication Critical patent/KR20240040005A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

본 발명은 영상 분석 장치 및 방법에 관한 것으로서, 깊이 맵(depth map)에 포함된 맵 객체 중 기준 맵 객체의 절대 거리를 산출하고, 해당 절대 거리를 깊이 맵의 나머지 부분에 적용하여, 깊이 맵의 전체에 대한 절대 거리를 산출하는 영상 분석 장치 및 방법에 관한 것이다.
본 발명의 실시예에 따른 영상 분석 장치는 촬영 영상을 생성하는 촬상부와, 상기 촬영 영상에서 객체를 검출하는 객체 검출부와, 상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 깊이 맵 생성부, 및 상기 검출된 객체 중 기준 객체를 선택하고, 상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 맵 분석부를 포함한다.
The present invention relates to an image analysis device and method, which calculates the absolute distance of a reference map object among map objects included in a depth map, applies the absolute distance to the remaining portion of the depth map, and It relates to an image analysis device and method for calculating the absolute distance for the whole.
An image analysis device according to an embodiment of the present invention includes an imaging unit that generates a captured image, an object detector that detects an object in the captured image, and a depth map generator that generates a depth map for the captured image. , and select a reference object among the detected objects, and refer to the absolute distance calculated for the reference map object corresponding to the reference object among the map objects included in the depth map, and the absolute distance for the entire area of the depth map. It includes a map analysis unit that calculates.

Description

영상 분석 장치 및 방법{Apparatus and method for analyzing image}Image analysis device and method {Apparatus and method for analyzing image}

본 발명은 영상 분석 장치 및 방법에 관한 것으로서, 더욱 상세하게는 깊이 맵(depth map)에 포함된 맵 객체 중 기준 맵 객체의 절대 거리를 산출하고, 해당 절대 거리를 깊이 맵의 나머지 부분에 적용하여, 깊이 맵의 전체에 대한 절대 거리를 산출하는 영상 분석 장치 및 방법에 관한 것이다.The present invention relates to an image analysis device and method, and more specifically, to calculating the absolute distance of a reference map object among map objects included in a depth map and applying the absolute distance to the remaining portion of the depth map. , relates to an image analysis device and method for calculating the absolute distance for the entire depth map.

깊이 맵(depth map)은 관찰 지점과 객체 간의 거리가 포함된 정보를 나타낸다. 깊이 맵은 관찰 지점과 객체의 각 표면 간의 거리 정보가 포함되어 있기 때문에 깊이 맵을 이용하여 객체체의 3차원 영상을 산출하는 것이 가능하다.A depth map represents information including the distance between an observation point and an object. Because the depth map contains distance information between the observation point and each surface of the object, it is possible to calculate a 3D image of the object using the depth map.

한편, 깊이 맵은 관찰 지점과 객체 간의 상대적인 거리 정보만을 포함하고 있기 때문에 이를 통해서는 깊이 맵에 포함된 객체의 절대 거리를 산출할 수 없다.Meanwhile, since the depth map contains only relative distance information between the observation point and the object, the absolute distance of the object included in the depth map cannot be calculated through this.

따라서, 깊이 맵에 포함된 객체의 절대 거리를 산출할 수 있도록 하는 발명의 등장이 요구된다.Therefore, there is a need for an invention that allows calculating the absolute distance of an object included in a depth map.

미국 공개특허공보 2011-0142287호 (2011.06.16)U.S. Patent Publication No. 2011-0142287 (2011.06.16)

본 발명이 해결하고자 하는 과제는 깊이 맵(depth map)에 포함된 맵 객체 중 기준 맵 객체의 절대 거리를 산출하고, 해당 절대 거리를 깊이 맵의 나머지 부분에 적용하여, 깊이 맵의 전체에 대한 절대 거리를 산출하는 영상 분석 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to calculate the absolute distance of the reference map object among the map objects included in the depth map, and apply the absolute distance to the remaining part of the depth map to determine the absolute distance for the entire depth map. To provide an image analysis device and method for calculating distance.

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the problems mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.

상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 분석 장치는 촬영 영상을 생성하는 촬상부와, 상기 촬영 영상에서 객체를 검출하는 객체 검출부와, 상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 깊이 맵 생성부, 및 상기 검출된 객체 중 기준 객체를 선택하고, 상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 맵 분석부를 포함한다.In order to achieve the above problem, an image analysis device according to an embodiment of the present invention includes an imaging unit that generates a captured image, an object detector that detects an object in the captured image, and a depth map for the captured image. A depth map generator that generates, and selects a reference object from among the detected objects, and maps the depth map with reference to an absolute distance calculated with respect to a reference map object corresponding to the reference object among map objects included in the depth map. It includes a map analysis unit that calculates the absolute distance for the entire area.

상기 깊이 맵은 상기 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함한다.The depth map includes relative distance information of objects included in the captured image.

상기 객체 검출부는 상기 촬영 영상에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출하고, 상기 맵 분석부는 상기 참조 객체 중에서 상기 기준 객체를 선택한다.The object detection unit detects a reference object for which standard size information is secured among objects included in the captured image, and the map analysis unit selects the reference object from among the reference objects.

상기 맵 분석부는, 상기 기준 맵 객체의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 거리 산출부, 및 적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 상기 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 거리 변환부를 포함한다.The map analysis unit includes a distance calculation unit that calculates an absolute distance of the reference map object with reference to the size of the reference map object, and an entire depth map according to the ratio of the relative distance and the absolute distance of at least two reference map objects. It includes a distance conversion unit that converts the relative distance to the area into an absolute distance.

상기 거리 산출부는 상기 기준 맵 객체의 사전에 설정된 일부에 포함된 기준 영역의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출한다.The distance calculation unit calculates the absolute distance of the reference map object by referring to the size of a reference area included in a preset part of the reference map object.

상기 거리 산출부는 상기 기준 영역에 포함된 상대 거리 정보 중 일부 정보를 추출하여 상기 기준 맵 객체의 상대 거리를 산출한다.The distance calculation unit extracts some of the relative distance information included in the reference area and calculates the relative distance of the reference map object.

상기 거리 산출부는, 사전에 설정된 크기의 특징 영역을 상기 기준 영역에 생성하고, 상기 특징 영역에 포함된 상대 거리의 평균값 또는 중간값을 상기 기준 맵 객체의 상대 거리인 것으로 결정한다.The distance calculation unit creates a feature area of a preset size in the reference area, and determines the average or median value of the relative distances included in the feature area as the relative distance of the reference map object.

상기 맵 분석부는, 상기 촬상부의 촬영 가능 영역 중 사전에 설정된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하고, 상기 검출된 기준 객체를 기초로 상기 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신한다.The map analysis unit detects a reference object in a captured image for a preset area of interest among the captureable areas of the imaging unit, and determines a pre-generated absolute distance with respect to the depth map of the captured image based on the detected reference object. Update .

상기 촬영 가능 영역은 복수의 관심 영역을 포함하고, 상기 맵 분석부는 상기 복수의 관심 영역 중 사전에 설정된 순서에 따라 전환된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출한다.The captureable area includes a plurality of areas of interest, and the map analysis unit detects a reference object from a captured image of an area of interest switched according to a preset order among the plurality of areas of interest.

상기 객체 검출부는 상기 촬영 영상에서 객체를 실시간으로 검출하고, 상기 실시간 검출 결과에 따라 상기 촬영 영상에서 객체가 검출되는 경우 상기 맵 분석부는 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출한다.The object detection unit detects an object in the captured image in real time, and when an object is detected in the captured image according to the real-time detection result, the map analysis unit calculates an absolute distance for the entire area of the depth map.

본 발명의 실시예에 따른 영상 분석 방법은 촬영 영상을 생성하는 단계와, 상기 촬영 영상에서 객체를 검출하는 단계와, 상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 단계와, 상기 검출된 객체 중 기준 객체를 선택하는 단계, 및 상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계를 포함한다.An image analysis method according to an embodiment of the present invention includes generating a captured image, detecting an object in the captured image, generating a depth map for the captured image, and the detected object. selecting a reference object among objects, and calculating an absolute distance for the entire area of the depth map by referring to an absolute distance calculated for a reference map object corresponding to the reference object among map objects included in the depth map. Includes steps.

상기 깊이 맵은 상기 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함한다.The depth map includes relative distance information of objects included in the captured image.

상기 객체를 검출하는 단계는 상기 촬영 영상에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출하는 단계를 포함하고, 상기 기준 객체를 선택하는 단계는 상기 참조 객체 중에서 상기 기준 객체를 선택하는 단계를 포함한다.The step of detecting the object includes detecting a reference object for which standard size information is secured among objects included in the captured image, and the step of selecting the reference object includes selecting the reference object from among the reference objects. Includes.

상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계는, 상기 기준 맵 객체의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 단계, 및 적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 상기 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 단계를 포함한다.Calculating the absolute distance for the entire area of the depth map includes calculating the absolute distance of the reference map object with reference to the size of the reference map object, and the relative distance and absolute distance of at least two reference map objects. Converting the relative distance for the entire area of the depth map to an absolute distance according to the ratio of

상기 기준 맵 객체의 절대 거리를 산출하는 단계는 상기 기준 맵 객체의 사전에 설정된 일부에 포함된 기준 영역의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 단계를 포함한다.Calculating the absolute distance of the reference map object includes calculating the absolute distance of the reference map object with reference to the size of a reference area included in a preset portion of the reference map object.

상기 영상 분석 방법은 상기 기준 영역에 포함된 상대 거리 정보 중 일부 정보를 추출하여 상기 기준 맵 객체의 상대 거리를 산출하는 단계를 더 포함한다.The image analysis method further includes calculating the relative distance of the reference map object by extracting some of the relative distance information included in the reference area.

상기 기준 맵 객체의 상대 거리를 산출하는 단계는, 사전에 설정된 크기의 특징 영역을 상기 기준 영역에 생성하는 단계, 및 상기 특징 영역에 포함된 상대 거리의 평균값 또는 중간값을 상기 기준 맵 객체의 상대 거리인 것으로 결정하는 단계를 포함한다.The step of calculating the relative distance of the reference map object includes creating a feature area of a preset size in the reference area, and calculating the average or median value of the relative distance included in the feature area to the relative distance of the reference map object. It includes determining what the distance is.

상기 영상 분석 방법은 상기 촬영 영상을 생성하는 촬상부의 촬영 가능 영역 중 사전에 설정된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 단계, 및 상기 검출된 기준 객체를 기초로 상기 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신하는 단계를 더 포함한다.The image analysis method includes detecting a reference object in a captured image for a preset region of interest among the captureable areas of the imaging unit that generates the captured image, and creating a depth map of the captured image based on the detected reference object. It further includes updating the absolute distance created in advance.

상기 촬영 영상은 복수의 관심 영역을 포함하고, 상기 관심 영역에서 기준 객체를 검출하는 단계는 상기 복수의 관심 영역 중 사전에 설정된 순서에 따라 전환된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 단계를 포함한다.The captured image includes a plurality of regions of interest, and the step of detecting a reference object in the region of interest includes detecting a reference object in the captured image of the region of interest switched according to a preset order among the plurality of regions of interest. Includes.

상기 촬영 영상에서 객체를 검출하는 단계는 상기 촬영 영상에서 객체를 실시간으로 검출하는 단계를 포함하고, 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계는 상기 실시간 검출 결과에 따라 상기 촬영 영상에서 객체가 검출되는 경우 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계를 포함한다.The step of detecting an object in the captured image includes detecting an object in the captured image in real time, and the step of calculating an absolute distance for the entire area of the depth map includes the step of calculating an absolute distance in the captured image according to the real-time detection result. and calculating an absolute distance for the entire area of the depth map when an object is detected.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

상기한 바와 같은 본 발명의 영상 분석 장치 및 방법에 따르면 깊이 맵(depth map)에 포함된 맵 객체 중 크기와 절대 거리 간의 상관 관계가 형성되어 있는 기준 맵 객체의 절대 거리를 산출하고, 해당 절대 거리를 깊이 맵의 나머지 부분에 적용함으로써 깊이 맵의 전체에 대한 절대 거리를 산출할 수 있도록 하는 장점이 있다.According to the image analysis device and method of the present invention as described above, the absolute distance of a reference map object for which a correlation between size and absolute distance is formed among map objects included in a depth map is calculated, and the absolute distance is calculated. It has the advantage of being able to calculate the absolute distance for the entire depth map by applying to the remaining part of the depth map.

또한, 하드웨어에 의한 별도의 구동 없이 소프트웨어만으로 구현되기 때문에 깊이 맵의 전체에 대한 절대 거리가 산출되는 과정이 상대적으로 신속하게 수행되는 장점도 잇다.In addition, since it is implemented only in software without separate operation by hardware, it has the advantage that the process of calculating the absolute distance for the entire depth map is performed relatively quickly.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시예에 따른 영상 분석 장치의 블록도이다.
도 2는 맵 분석부의 블록도이다.
도 3은 촬영 영상을 나타낸 도면이다.
도 4는 촬영 영상에서 참조 객체가 검출되는 것을 나타낸 도면이다.
도 5는 촬영 영상의 깊이 맵을 나타낸 도면이다.
도 6은 기준 맵 객체의 일부에 기준 박스가 형성되는 것을 나타낸 도면이다.
도 7은 기준 박스에 기준 영역이 형성되는 것을 나타낸 도면이다.
도 8은 기준 맵 객체의 전체에 기준 박스가 형성되는 것을 나타낸 도면이다.
도 9는 기준 포인트가 거리 좌표 평면에 표시된 것을 나타낸 도면이다.
도 10은 기준 포인트를 기초로 기준 그래프가 형성되는 것을 나타낸 도면이다.
도 11은 3개의 기준 포인트를 기초로 기준 그래프가 형성되는 것을 나타낸 도면이다.
도 12는 본 발명의 실시예에 따른 영상 분석 방법을 나타낸 흐름도이다.
도 13은 관심 영역이 전환되는 것을 나타낸 도면이다.
1 is a block diagram of an image analysis device according to an embodiment of the present invention.
Figure 2 is a block diagram of the map analysis unit.
Figure 3 is a diagram showing a captured image.
Figure 4 is a diagram showing a reference object being detected in a captured image.
Figure 5 is a diagram showing a depth map of a captured image.
Figure 6 is a diagram showing a reference box being formed in a portion of a reference map object.
Figure 7 is a diagram showing a reference area being formed in a reference box.
Figure 8 is a diagram showing a reference box being formed throughout the reference map object.
Figure 9 is a diagram showing a reference point displayed on a distance coordinate plane.
Figure 10 is a diagram showing a reference graph being formed based on reference points.
Figure 11 is a diagram showing a reference graph being formed based on three reference points.
Figure 12 is a flowchart showing an image analysis method according to an embodiment of the present invention.
Figure 13 is a diagram showing the area of interest being switched.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely intended to ensure that the disclosure of the present invention is complete and to provide common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings that can be commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

도 1은 본 발명의 실시예에 따른 영상 분석 장치의 블록도이다.1 is a block diagram of an image analysis device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 영상 분석 장치(100)는 촬상부(110), 저장부(120), 제어부(130), 객체 검출부(140), 깊이 맵 생성부(150), 맵 분석부(160) 및 출력부(170)를 포함하여 구성된다.Referring to FIG. 1, the image analysis device 100 according to an embodiment of the present invention includes an imaging unit 110, a storage unit 120, a control unit 130, an object detection unit 140, and a depth map generator 150. , and includes a map analysis unit 160 and an output unit 170.

촬상부(110)는 촬영 영상을 생성할 수 있다. 예를 들어, 촬상부(110)는 CMOS(Complementary Metal-Oxide-Semiconductor) 또는 CCD(Charge-Coupled Device)와 같은 영상 센서가 구비된 카메라일 수 있다.The imaging unit 110 can generate captured images. For example, the imaging unit 110 may be a camera equipped with an image sensor such as a Complementary Metal-Oxide-Semiconductor (CMOS) or Charge-Coupled Device (CCD).

본 발명에서 촬상부(110)는 단안 카메라(monocular camera)일 수 있다. 촬상부(110)에 의해 생성되는 촬영 영상은 하나의 촬영 지점에서 촬영된 것을 나타낸다.In the present invention, the imaging unit 110 may be a monocular camera. The captured image generated by the imaging unit 110 indicates that it was captured at one shooting point.

또한, 촬상부(110)는 오토 포커스(auto focus)가 가능한 렌즈부(미도시)를 구비할 수 있다. 후술하는 바와 같이, 촬상부(110)는 맵 분석부(150)의 제어에 의해 오토 포커스를 수행할 수 있다.Additionally, the imaging unit 110 may be provided with a lens unit (not shown) capable of auto focus. As will be described later, the imaging unit 110 may perform autofocus under the control of the map analysis unit 150.

또한, 촬상부(110)는 촬영 방향의 조절이 가능한 것일 수 있다. 예를 들어, 촬상부(110)는 팬 틸트(pan tilt) 장비(미도시)를 포함할 수 있다. 팬 틸트 장비는 입력된 제어 신호에 의해 촬상부(110)의 촬영 방향을 조절할 수 있다.Additionally, the imaging unit 110 may be capable of adjusting the shooting direction. For example, the imaging unit 110 may include pan tilt equipment (not shown). The pan tilt equipment can adjust the shooting direction of the imaging unit 110 based on an input control signal.

저장부(120)는 촬상부(110)에 의해 생성된 촬영 영상을 임시로 또는 영구적으로 저장할 수 있다. 또한, 저장부(120)는 깊이 맵 생성부(150)에 의해 생성된 깊이 맵을 저장하고, 맵 분석부(160)에 의해 생성된 분석 결과를 저장할 수도 있다.The storage unit 120 can temporarily or permanently store the captured image generated by the imaging unit 110. Additionally, the storage unit 120 may store the depth map generated by the depth map generator 150 and the analysis result generated by the map analysis unit 160.

또한, 저장부(120)는 객체의 크기와 절대 거리 간의 상관관계를 포함하는 테이블(이하, 절대 거리 테이블이라 한다)(미도시)을 포함할 수 있다. 일반적으로 사람, 자전거 및 차량 등은 그 크기가 일정하게 형성될 수 있다. 이와 같이, 대체로 그 크기가 균일하게 형성되는 객체가 촬영 영상에 포함된 경우 해당 객체의 크기를 이용하여 해당 객체에 대한 깊이 맵 객체의 절대 거리가 판단될 수 있다. 저장부(120)는 객체의 크기와 절대 거리 간의 관계를 포함하는 절대 거리 테이블을 저장할 수 있으며, 이는 후술하는 거리 산출부에 의해 이용될 수 있다.Additionally, the storage unit 120 may include a table (hereinafter referred to as an absolute distance table) (not shown) containing the correlation between the size of the object and the absolute distance. In general, people, bicycles, vehicles, etc. can be formed to have a constant size. In this way, when an object whose size is generally uniform is included in a captured image, the absolute distance of the depth map object to the object may be determined using the size of the object. The storage unit 120 may store an absolute distance table including the relationship between the size of the object and the absolute distance, which may be used by a distance calculation unit to be described later.

객체 검출부(140)는 촬영 영상에서 객체를 검출하는 역할을 수행한다. 이를 위하여, 객체 검출부(140)는 객체 검출 모델을 이용할 수 있다. 예를 들어, 객체 검출부(140)는 객체 검출 모델로서 욜로(YOLO; You Only Live Once) 알고리즘을 이용하여 촬영 영상에서 객체를 검출할 수 있다. 욜로 알고리즘은 촬영 영상에서 객체를 검출하는 속도가 상대적으로 빠르기 때문에 실시간 동영상을 처리하는 감시 카메라에 적당한 인공지능 알고리즘이다. 욜로 알고리즘에 의해 출력된 결과는 각 객체의 위치를 나타내는 바운딩 박스(Bounding Box) 및 해당 객체가 무엇인지에 대한 분류 확률을 포함할 수 있다.The object detection unit 140 functions to detect objects in captured images. For this purpose, the object detection unit 140 may use an object detection model. For example, the object detector 140 may detect an object in a captured image using the YOLO (You Only Live Once) algorithm as an object detection model. The YOLO algorithm is an artificial intelligence algorithm suitable for surveillance cameras that process real-time video because the speed of detecting objects in captured video is relatively fast. The results output by the YOLO algorithm may include a bounding box indicating the location of each object and a classification probability of what the object is.

깊이 맵 생성부(150)는 촬상부(110)에 의해 생성된 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 역할을 수행한다. 예를 들어, 깊이 맵 생성부(150)는 딥 러닝(deep learning) 기반의 모델을 이용하여 단안 카메라인 촬상부(110)에 의해 생성된 촬영 영상의 깊이 맵을 생성할 수 있다.The depth map generator 150 serves to generate a depth map for the captured image generated by the imaging unit 110. For example, the depth map generator 150 may generate a depth map of a captured image generated by the imaging unit 110, which is a monocular camera, using a deep learning-based model.

깊이 맵은 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함하는 것일 수 있다. 깊이 맵은 영상에 포함된 객체 간의 상대적 거리 정보뿐만 아니라 객체 각각을 구성하는 표면 전반에 걸친 상대적 거리 정보를 포함할 수 있다. 예를 들어, 깊이 맵은 촬영 영상에 포함된 전체 화소에 대한 상대적 거리 정보를 포함하는 것으로 이해될 수 있다. 객체의 상대적 거리 정보가 이용되어 객체 간의 배치 관계뿐만 아니라 각 객체의 3차원 형상에 대한 추정이 가능하게 된다.The depth map may include relative distance information of objects included in the captured image. The depth map may include not only relative distance information between objects included in the image, but also relative distance information across surfaces constituting each object. For example, a depth map can be understood as containing relative distance information for all pixels included in a captured image. By using the relative distance information of objects, it is possible to estimate not only the arrangement relationship between objects but also the three-dimensional shape of each object.

또는, 본 발명의 몇몇 실시예에 따르면 깊이 맵 생성부(140)는 인공지능 모델을 이용하여 깊이 맵을 생성한 이후에 촬상부(110)에 구비된 초점 렌즈(미도시)의 특성을 반영하여 깊이 맵을 변환할 수 있다. 이를 구체적으로 설명하면, 초점 렌즈의 위치가 참조되어 촬상부(110)에 의해 촬영된 객체와 촬상부(110)간의 절대 거리가 산출되는데, 깊이 맵 생성부(140)는 초점 렌즈의 위치 및 절대 거리 간의 변화량이 반영되도록 깊이 맵을 변환할 수 있다.Alternatively, according to some embodiments of the present invention, the depth map generator 140 generates a depth map using an artificial intelligence model and then reflects the characteristics of the focus lens (not shown) provided in the imaging unit 110. You can transform the depth map. To explain this in detail, the absolute distance between the object photographed by the imaging unit 110 and the imaging unit 110 is calculated by referring to the position of the focusing lens, and the depth map generator 140 determines the location and absolute distance of the focusing lens. The depth map can be transformed to reflect the amount of change between distances.

또한, 깊이 맵 생성부(140)는 서로 다른 복수의 인공지능 모델 중 선택된 적어도 하나의 인공지능 모델을 이용하여 깊이 맵을 생성할 수 있다. 복수의 인공지능 모델은 서로 다른 상황에서 최적의 깊이 맵을 생성할 수 있다. 예를 들어, 제1 인공지능 모델은 주간의 장면이 포함된 영상에 대하여 최적의 깊이 맵을 생성하고, 제2 인공지능 모델은 야간의 장면이 포함된 영상에 대하여 최적의 깊이 맵을 생성할 수 있다. 또는, 제3 인공지능 모델은 인물 또는 동물이 포함된 영상에 대하여 최적의 깊이 맵을 생성하고, 제3 인공지능 모델은 자연 환경이 포함된 영상에 대하여 최적의 깊이 맵을 생성할 수 있다. 깊이 맵 생성부(140)는 촬상부(110)에 의한 촬영 조건을 참조하여 복수의 인공지능 모델 중 적어도 하나를 선택하고, 선택된 인공지능 모델을 이용하여 깊이 맵을 생성할 수 있다.Additionally, the depth map generator 140 may generate a depth map using at least one artificial intelligence model selected from a plurality of different artificial intelligence models. Multiple artificial intelligence models can generate optimal depth maps in different situations. For example, the first artificial intelligence model can generate an optimal depth map for an image containing a daytime scene, and the second artificial intelligence model can generate an optimal depth map for an image containing a nighttime scene. there is. Alternatively, the third artificial intelligence model may generate an optimal depth map for images containing people or animals, and the third artificial intelligence model may generate an optimal depth map for images containing a natural environment. The depth map generator 140 may select at least one of a plurality of artificial intelligence models with reference to the shooting conditions by the imaging unit 110 and generate a depth map using the selected artificial intelligence model.

맵 분석부(160)는 깊이 맵을 분석하여 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 역할을 수행한다. 구체적으로, 맵 분석부(160)는 객체 검출부(140)에 의해 검출된 객체 중 기준 객체를 선택하고, 깊이 맵에 포함된 맵 객체 중 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 깊이 맵의 전체 영역에 대한 절대 거리를 산출할 수 있다. 맵 분석부(160)의 세부적인 구성 및 기능에 대해서는 도 2 내지 도 8을 통하여 후술하기로 한다.The map analysis unit 160 analyzes the depth map and calculates the absolute distance for the entire area of the depth map. Specifically, the map analysis unit 160 selects a reference object among the objects detected by the object detection unit 140, and calculates the absolute distance to the reference map object corresponding to the reference object among the map objects included in the depth map. By referring to it, you can calculate the absolute distance for the entire area of the depth map. The detailed configuration and function of the map analysis unit 160 will be described later with reference to FIGS. 2 to 8.

출력부(170)는 맵 분석부(160)의 분석 결과를 출력할 수 있다. 사용자는 맵 분석부(160)의 분석 결과를 참조하여 촬영 영상의 전체 영역에 대한 절대 거리를 확인할 수 있다. 이 때, 촬상부(110)에 의한 방향 전환 및 확대 없이 생성된 촬영 영상을 기초로 객체 검출부(140)는 객체를 검출하고, 깊이 맵 생성부(150)는 깊이 맵을 생성할 수 있다. 결국, 본 발명에 따르면 디스플레이 중인 촬영 영상의 전환 없이 맵 분석부(160)에 의한 분석 결과의 출력이 가능하게 된다.The output unit 170 may output the analysis result of the map analysis unit 160. The user can check the absolute distance for the entire area of the captured image by referring to the analysis result of the map analysis unit 160. At this time, the object detection unit 140 may detect the object based on the captured image generated without direction change or enlargement by the imaging unit 110, and the depth map generator 150 may generate a depth map. Ultimately, according to the present invention, it is possible to output analysis results by the map analysis unit 160 without switching the captured image being displayed.

제어부(130)는 촬상부(110), 저장부(120), 객체 검출부(140), 깊이 맵 생성부(150), 맵 분석부(160) 및 출력부(170)에 대한 전반적인 제어를 수행한다. 예를 들어, 절대 거리의 산출을 위한 사용자 명령이 입력된 경우 제어부(130)는 촬상부(110), 객체 검출부(140), 깊이 맵 생성부(150) 및 맵 분석부(160)를 제어하여 촬영 영상에 대한 깊이 맵의 절대 거리가 생성되도록 할 수 있다.The control unit 130 performs overall control over the imaging unit 110, storage unit 120, object detection unit 140, depth map creation unit 150, map analysis unit 160, and output unit 170. . For example, when a user command for calculating an absolute distance is input, the control unit 130 controls the imaging unit 110, the object detection unit 140, the depth map generation unit 150, and the map analysis unit 160. The absolute distance of the depth map for the captured image can be generated.

한편, 본 발명의 몇몇 실시예에 따르면 제어부(130)는 사용자 명령의 입력 없이도 촬영 영상에 대한 깊이 맵의 절대 거리가 생성되도록 할 수도 있다. 이러한 경우 객체 검출부(140)는 촬영 영상에서 객체를 실시간으로 검출할 수 있다. 그리하여, 객체 검출부(140)의 실시간 검출 결과에 따라 촬영 영상에서 객체가 검출되는 경우 맵 분석부(160)는 깊이 맵의 전체 영역에 대한 절대 거리를 산출할 수 있다. 새로운 절대 거리가 산출되는 경우 맵 분석부(160)는 기존에 생성된 절대 거리를 새로운 절대 거리로 갱신할 수 있으며, 이러한 과정은 반복적으로 수행될 수 있다.Meanwhile, according to some embodiments of the present invention, the control unit 130 may generate the absolute distance of the depth map for the captured image without inputting a user command. In this case, the object detection unit 140 can detect the object in real time from the captured image. Thus, when an object is detected in the captured image according to the real-time detection result of the object detection unit 140, the map analysis unit 160 can calculate the absolute distance for the entire area of the depth map. When a new absolute distance is calculated, the map analysis unit 160 may update the previously generated absolute distance with the new absolute distance, and this process may be performed repeatedly.

도 2는 맵 분석부의 블록도이다.Figure 2 is a block diagram of the map analysis unit.

도 2를 참조하면, 맵 분석부(160)는 거리 산출부(161) 및 거리 변환부(162)를 포함하여 구성된다.Referring to FIG. 2, the map analysis unit 160 includes a distance calculation unit 161 and a distance conversion unit 162.

거리 산출부(161)는 기준 맵 객체의 크기를 참조하여 기준 맵 객체의 절대 거리를 산출하는 역할을 수행한다. 전술한 바와 같이, 저장부(120)에는 절대 거리 테이블이 저장될 수 있다. 거리 산출부(161)는 절대 거리 테이블을 참조하여 기준 맵 객체의 절대 거리를 산출할 수 있다. 거리 산출부(161)는 절대 거리 테이블에서 기준 맵 객체의 크기에 대응하는 절대 거리를 추출함으로써 기준 맵 객체의 절대 거리를 산출할 수 있다.The distance calculation unit 161 serves to calculate the absolute distance of the reference map object by referring to the size of the reference map object. As described above, an absolute distance table may be stored in the storage unit 120. The distance calculation unit 161 may calculate the absolute distance of the reference map object by referring to the absolute distance table. The distance calculation unit 161 may calculate the absolute distance of the reference map object by extracting the absolute distance corresponding to the size of the reference map object from the absolute distance table.

본 발명에서 기준 객체는 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는데 이용되는 객체를 나타낸다. 기준 객체는 촬영 영상에 포함된 객체 중에서 임의로 선택될 수 있다.In the present invention, the reference object represents an object used to convert the relative distance for the entire area of the depth map into an absolute distance. The reference object may be randomly selected from objects included in the captured image.

거리 변환부(162)는 적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 역할을 수행한다. 2개 이상의 기준 맵 객체에 대한 상대 거리와 절대 거리가 확인되는 경우 이를 통하여 깊이 맵 전체에 대한 상대 거리와 절대 거리 간의 비율이 산출될 수 있다. 거리 변환부(162)는 이러한 상대 거리와 절대 거리 간의 비율에 깊이 맵을 구성하는 전체 영역의 상대 거리를 적용함으로써 각 영역의 절대 거리를 산출할 수 있다.The distance converter 162 serves to convert the relative distance for the entire area of the depth map into an absolute distance according to the ratio of the relative distance and absolute distance of at least two reference map objects. If the relative distance and absolute distance for two or more reference map objects are confirmed, the ratio between the relative distance and absolute distance for the entire depth map can be calculated through this. The distance converter 162 may calculate the absolute distance of each area by applying the relative distance of the entire area constituting the depth map to the ratio between the relative distance and the absolute distance.

도 3은 촬영 영상을 나타낸 도면이고, 도 4는 촬영 영상에서 참조 객체가 검출되는 것을 나타낸 도면이다.FIG. 3 is a diagram showing a captured image, and FIG. 4 is a diagram showing a reference object being detected in a captured image.

도 3을 참조하면, 촬상부(110)는 전방을 촬영하여 촬영 영상(200)을 생성할 수 있다.Referring to FIG. 3, the imaging unit 110 may generate a captured image 200 by photographing the front.

촬영 영상(200)은 적어도 하나의 객체(210)를 포함할 수 있다. 객체(210)는 사람, 동물, 차량 또는 건물을 포함할 수 있다. 촬영 영상(200)은 촬상부(110)에 의해 생성된 것으로서, 정지 영상이거나 동영상에 포함된 복수의 장면 중 하나의 장면일 수 있다.The captured image 200 may include at least one object 210. Objects 210 may include people, animals, vehicles, or buildings. The captured image 200 is generated by the imaging unit 110 and may be a still image or one of a plurality of scenes included in a video.

도 4를 참조하면, 객체 검출부(140)는 촬영 영상(200)에 포함된 객체(210)를 검출할 수 있다.Referring to FIG. 4 , the object detector 140 may detect an object 210 included in the captured image 200.

특히, 본 발명의 실시예에 따른 영상 분석 장치(100)의 객체 검출부(140)는 참조 객체를 검출할 수 있다. 본 발명에서 참조 객체는 촬영 영상(200)에 포함된 객체(210) 중 표준 크기 정보가 확보된 객체를 나타낸다. 사람, 자전거 및 차량 등은 그 크기가 일정하게 형성될 수 있다. 이와 같이, 대체로 그 크기가 균일하게 형성되는 객체가 참조 객체일 수 있는 것으로서, 객체 검출부(140)는 이러한 참조 객체를 촬영 영상(200)에서 검출할 수 있다. 참조 객체가 검출되는 경우 참조 객체의 가장자리에는 바운딩 박스(220)가 형성될 수 있다. 전술한 맵 분석부(160)는 참조 객체 중에서 기준 객체를 선택할 수 있다.In particular, the object detection unit 140 of the image analysis device 100 according to an embodiment of the present invention can detect a reference object. In the present invention, the reference object represents an object for which standard size information is secured among the objects 210 included in the captured image 200. People, bicycles, vehicles, etc. can be formed to have uniform sizes. In this way, an object whose size is generally uniform may be a reference object, and the object detector 140 may detect such a reference object in the captured image 200. When a reference object is detected, a bounding box 220 may be formed at the edge of the reference object. The map analysis unit 160 described above may select a reference object from reference objects.

도 5는 촬영 영상의 깊이 맵을 나타낸 도면이고, 도 6은 참조 맵 객체의 일부에 기준 박스가 형성되는 것을 나타낸 도면이고, 도 7은 기준 박스에 기준 영역이 형성되는 것을 나타낸 도면이며, 도 8은 참조 맵 객체의 전체에 기준 박스가 형성되는 것을 나타낸 도면이다.FIG. 5 is a diagram showing a depth map of a captured image, FIG. 6 is a diagram showing a reference box being formed in a part of a reference map object, FIG. 7 is a diagram showing a reference area being formed in a reference box, and FIG. 8 is a diagram showing that a reference box is formed throughout the reference map object.

도 5를 참조하면, 깊이 맵 생성부(150)는 촬영 영상(200)에 대한 깊이 맵(300)을 생성할 수 있다.Referring to FIG. 5 , the depth map generator 150 may generate a depth map 300 for the captured image 200.

깊이 맵(300)은 객체(310)의 상대적 거리 정보를 포함할 수 있다. 상대적 거리 정보는 깊이 맵(300)에 포함된 각 지점과 촬영 지점 간의 거리가 상대적으로 결정된 값을 나타낸다.The depth map 300 may include relative distance information of the object 310. Relative distance information represents the relative distance between each point included in the depth map 300 and the shooting point.

본 발명에서 맵 분석부(150)에 의해 처리 가능한 깊이 맵(300)의 해상도는 촬영 영상(200)의 해상도에 대하여 상이할 수 있다. 이러한 경우 깊이 맵 생성부(140)는 사전에 설정된 깊이 맵(300)의 해상도에 대응되도록 촬영 영상(200)의 해상도를 변환하고, 변환된 촬영 영상을 이용하여 깊이 맵(300)을 생성할 수 있다.In the present invention, the resolution of the depth map 300 that can be processed by the map analysis unit 150 may be different from the resolution of the captured image 200. In this case, the depth map generator 140 may convert the resolution of the captured image 200 to correspond to the resolution of the preset depth map 300 and generate the depth map 300 using the converted captured image. there is.

도 5 및 도 6을 참조하면, 거리 산출부(161)는 기준 객체에 대응하는 기준 맵 객체(310)를 추출하고, 기준 맵 객체(310)에 기준 영역(410)을 생성할 수 있다.Referring to FIGS. 5 and 6 , the distance calculation unit 161 may extract a reference map object 310 corresponding to the reference object and create a reference area 410 in the reference map object 310 .

거리 산출부(161)는 기준 맵 객체(310)의 사전에 설정된 일부(311)에 포함된 기준 영역(410)의 크기를 참조하여 기준 맵 객체(310)의 절대 거리를 산출할 수 있다. 예를 들어, 기준 객체가 사람인 경우 거리 산출부(161)는 사람의 머리에 해당하는 기준 맵 객체(310)의 일부(이하, 목표 객체라 한다) (311)에 기준 영역(410)을 생성할 수 있다.The distance calculation unit 161 may calculate the absolute distance of the reference map object 310 by referring to the size of the reference area 410 included in the preset portion 311 of the reference map object 310. For example, when the reference object is a person, the distance calculation unit 161 creates a reference area 410 in a part of the reference map object 310 (hereinafter referred to as the target object) 311 corresponding to the person's head. You can.

기준 영역(410)은 목표 객체(311)에 포함되는 최대의 크기를 갖는 직사각형의 형태로 제공될 수 있다. 예를 들어, 기준 영역(410)의 4개의 모서리는 목표 객체(311)의 경계에 중첩될 수 있다.The reference area 410 may be provided in a rectangular shape with the maximum size included in the target object 311. For example, four corners of the reference area 410 may overlap the boundary of the target object 311.

기준 영역(410)이 직사각형의 형태로 제공됨에 따라 기준 영역(410)의 가로 길이(H1) 및 세로 길이(V1)를 이용하여 기준 영역(410)의 크기가 산출될 수 있다. 거리 산출부(161)는 기준 영역(410)의 크기를 참조하여 기준 맵 객체의 절대 거리를 산출할 수 있다.As the reference area 410 is provided in a rectangular shape, the size of the reference area 410 can be calculated using the horizontal length (H1) and vertical length (V1) of the reference area 410. The distance calculation unit 161 may calculate the absolute distance of the reference map object by referring to the size of the reference area 410.

도 7을 참조하면, 거리 산출부(161)는 기준 영역(410)에 포함된 상대 거리 정보 중 일부 정보를 추출하여 기준 맵 객체(310)의 상대 거리를 산출할 수 있다.Referring to FIG. 7 , the distance calculation unit 161 may calculate the relative distance of the reference map object 310 by extracting some of the relative distance information included in the reference area 410.

거리 산출부(161)는 기준 영역(410)의 내부에 특징 영역(411)을 생성할 수 있다. 거리 산출부(161)는 사전에 설정된 크기로 특징 영역(411)을 생성할 수 있다. 예를 들어, 거리 산출부(161)는 기준 영역(410)의 가로 길이(H1) 및 세로 길이(V1)의 30%에 각각 대응되도록 특징 영역(411)의 가로 길이(H2) 및 세로 길이(V2)를 설정할 수 있다.The distance calculation unit 161 may create a feature area 411 inside the reference area 410. The distance calculation unit 161 may generate the feature area 411 with a preset size. For example, the distance calculation unit 161 calculates the horizontal length (H2) and vertical length ( V2) can be set.

거리 산출부(161)는 기준 영역(410)의 중심에 특징 영역(411)을 생성할 수 있다. 예를 들어, 거리 산출부(161)는 기준 영역(410)의 중심(C)과 특징 영역(411)의 중심이 일치되도록 특징 영역(411)을 생성할 수 있다. 한편, 본 발명의 몇몇 실시예에 따르면 거리 산출부(161)는 기준 영역(410)의 임의의 지점에 특징 영역(411)이 배치되도록 특징 영역(411)을 생성할 수도 있다.The distance calculation unit 161 may create a feature area 411 at the center of the reference area 410. For example, the distance calculation unit 161 may generate the feature area 411 so that the center C of the reference area 410 and the center of the feature area 411 coincide. Meanwhile, according to some embodiments of the present invention, the distance calculation unit 161 may generate the feature area 411 so that the feature area 411 is placed at an arbitrary point of the reference area 410.

거리 산출부(161)는 특징 영역(411)에 포함된 상대 거리의 평균값 또는 중간값을 산출하고, 이를 기준 맵 객체(310)의 상대 거리인 것으로 결정할 수 있다. 여기서, 평균값은 특징 영역(411)에 포함된 모든 상대 거리의 합을 상대 거리의 수로 나눈 값을 나타내고, 중간값은 특징 영역(411)에 포함된 상대 거리의 분포 중 중간에 대응하는 값을 나타낸다. 또는, 중간값은 특징 영역(411)의 중심 화소의 상대 거리를 나타내는 것일 수 있다. 그러나, 본 발명에서 기준 맵 객체(310)의 상대 거리가 특징 영역(411)에 포함된 상대 거리의 평균값 또는 중간값으로 결정되는 것은 예시적인 것으로서 해당 특징 영역(411)을 대표하는 다양한 값이 기준 맵 객체(310) 상대 거리로서 결정될 수 있다. 이하, 기준 맵 객체(310)의 상대 거리가 특징 영역(411)의 평균값 또는 중간값으로 결정되는 것을 위주로 설명하기로 한다.The distance calculation unit 161 may calculate the average or median value of the relative distances included in the feature area 411 and determine this to be the relative distance of the reference map object 310. Here, the average value represents the sum of all relative distances included in the feature area 411 divided by the number of relative distances, and the median value represents the value corresponding to the middle of the distribution of relative distances included in the feature area 411. . Alternatively, the median value may represent the relative distance of the center pixel of the feature area 411. However, in the present invention, the relative distance of the reference map object 310 is determined as the average or median value of the relative distances included in the feature area 411, and various values representing the feature area 411 are used as the standard. The map object 310 may be determined as a relative distance. Hereinafter, the description will focus on how the relative distance of the reference map object 310 is determined by the average or median value of the feature area 411.

거리 산출부(161)에 의해 기준 맵 객체(310)의 절대 거리와 상대 거리가 산출된 것으로서, 거리 변환부(162)는 이를 기초로 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환할 수 있다.The absolute distance and relative distance of the reference map object 310 are calculated by the distance calculation unit 161, and the distance conversion unit 162 converts the relative distance for the entire area of the depth map into an absolute distance based on this. You can.

한편, 도 6 및 도 7은 기준 맵 객체(310) 중 일부인 목표 객체(311)에 기준 영역(410)이 생성된 것을 설명하였으나, 도 8에 도시된 바와 같이 기준 맵 객체(310)의 가장자리에 기준 영역(420)이 생성될 수도 있다. 이러한 경우 기준 영역(420)은 기준 객체의 바운딩 박스(220)와 동일한 크기로 생성될 수 있으며, 거리 변환부(162)는 이를 기초로 기준 맵 객체(310)의 절대 거리 및 상대 거리를 산출할 수 있다.Meanwhile, FIGS. 6 and 7 illustrate that the reference area 410 is created in the target object 311, which is part of the reference map object 310, but as shown in FIG. 8, at the edge of the reference map object 310 A reference area 420 may be created. In this case, the reference area 420 may be created with the same size as the bounding box 220 of the reference object, and the distance converter 162 may calculate the absolute distance and relative distance of the reference map object 310 based on this. You can.

도 9는 기준 포인트가 거리 좌표 평면에 표시된 것을 나타낸 도면이고, 도 10은 기준 포인트를 기초로 기준 그래프가 형성되는 것을 나타낸 도면이다.FIG. 9 is a diagram showing a reference point displayed on a distance coordinate plane, and FIG. 10 is a diagram showing a reference graph being formed based on the reference point.

도 9를 참조하면, 거리 산출부(161)는 기준 포인트(P1, P2)를 거리 좌표 평면에 표시할 수 있다.Referring to FIG. 9, the distance calculation unit 161 may display the reference points P1 and P2 on the distance coordinate plane.

거리 좌표 평면은 절대 거리를 나타내는 가로축과 상대 거리를 나타내는 세로축에 의해 형성될 수 있다. 기준 포인트(P1, P2)는 기준 맵 객체(310)에 대응하는 거리 좌표 평면상의 좌표점을 나타낸다.The distance coordinate plane can be formed by a horizontal axis representing absolute distance and a vertical axis representing relative distance. The reference points (P1, P2) represent coordinate points on the distance coordinate plane corresponding to the reference map object 310.

거리 산출부(161)는 참조 객체 중 기준 객체를 선택할 수 있다. 기준 객체는 서로 다른 참조 객체 중에서 적어도 2개가 선택될 수 있다.The distance calculation unit 161 may select a reference object from reference objects. At least two reference objects may be selected from different reference objects.

또한, 거리 산출부(161)는 서로 다른 기준 맵 객체(310) 간의 상대 거리가 사전에 설정된 간격 이상으로 형성되도록 기준 객체를 선택할 수 있다. 도 9는 2개의 기준 맵 객체(310) 간의 상대 거리 간격이 D인 것을 도시하고 있다.Additionally, the distance calculation unit 161 may select reference objects such that the relative distance between different reference map objects 310 is greater than or equal to a preset interval. FIG. 9 shows that the relative distance interval between two reference map objects 310 is D.

기준 객체가 선택되는 경우 거리 산출부(161)는 기준 객체에 대응하는 기준 맵 객체(310)에 기준 영역(410)을 생성하고, 기준 영역(410)의 크기를 참조하여 기준 맵 객체(310)의 절대 거리를 산출할 수 있다. 그리고, 거리 산출부(161)는 기준 영역(410)에 특징 영역(411)을 형성하고, 특징 영역(411)에 포함된 상대 거리를 참조하여 기준 맵 객체(310)의 상대 거리를 산출할 수 있다. 이 때, 서로 다른 기준 맵 객체(310)의 상대 거리 간의 간격이 사전에 설정된 간격의 미만인 경우 거리 산출부(161)는 새로운 기준 객체를 선택하고, 새로운 기준 객체를 기초로 위의 과정을 반복할 수 있다.When a reference object is selected, the distance calculation unit 161 creates a reference area 410 in the reference map object 310 corresponding to the reference object, and refers to the size of the reference area 410 to create the reference map object 310. The absolute distance can be calculated. In addition, the distance calculation unit 161 may form a feature area 411 in the reference area 410 and calculate the relative distance of the reference map object 310 by referring to the relative distance included in the feature area 411. there is. At this time, if the interval between the relative distances of different reference map objects 310 is less than the preset interval, the distance calculation unit 161 selects a new reference object and repeats the above process based on the new reference object. You can.

기준 맵 객체(310)의 절대 거리 및 상대 거리가 확인되는 경우 기준 객체에 대응하는 기준 포인트(P1, P2)가 거리 좌표 평면에 표시될 수 있다. 도 9는 2개의 기준 객체에 대한 2개의 기준 포인트(P1, P2)가 거리 좌표 평면에 표시된 것을 도시하고 있다. 제1 기준 맵 객체의 상대 거리 및 절대 거리가 각각 A1 및 B1임에 따라 이를 기초로 제1 기준 포인트 P1이 거리 좌표 평면에 표시될 수 있다. 이와 마찬가지로, 제2 기준 맵 객체의 상대 거리 및 절대 거리가 각각 A2 및 B2임에 따라 이를 기초로 제2 기준 포인트 P2가 거리 좌표 평면에 표시될 수 있다.When the absolute distance and relative distance of the reference map object 310 are confirmed, reference points P1 and P2 corresponding to the reference object may be displayed on the distance coordinate plane. Figure 9 shows two reference points (P1, P2) for two reference objects displayed on the distance coordinate plane. Since the relative distance and absolute distance of the first reference map object are A1 and B1, respectively, the first reference point P1 may be displayed on the distance coordinate plane based on this. Likewise, since the relative distance and absolute distance of the second reference map object are A2 and B2, respectively, the second reference point P2 may be displayed on the distance coordinate plane based on this.

도 10을 참조하면, 거리 변환부(162)는 기준 포인트(P1, P2)를 기초로 기준 그래프(G1)를 생성할 수 있다.Referring to FIG. 10 , the distance converter 162 may generate a reference graph G1 based on the reference points P1 and P2.

기준 그래프(G1)는 복수의 기준 포인트(P1, P2)를 연결함으로써 생성될 수 있다. 도 10은 2개의 기준 포인트(P1, P2)가 연결되어 직선인 기준 그래프(G1)가 생성된 것을 도시하고 있다.The reference graph (G1) can be created by connecting a plurality of reference points (P1, P2). Figure 10 shows that two reference points (P1, P2) are connected to create a straight reference graph (G1).

기준 그래프(G1)는 기준 맵 객체(310)의 절대 거리와 상대 거리의 비율이 반영된 것으로서, 거리 변환부(162)는 이를 이용하여 깊이 맵의 다른 부분에 대한 절대 거리를 산출할 수 있다. 도 10을 참조하여 설명하면, 상대 거리가 a1인 경우 깊이 맵의 해당 지점의 절대 거리는 b1으로 결정되고, 상대 거리가 a2인 경우 깊이 맵의 해당 지점의 절대 거리는 b2로 결정되며, 상대 거리가 a3인 경우 깊이 맵의 해당 지점의 절대 거리는 b3으로 결정될 수 있다.The reference graph G1 reflects the ratio of the absolute distance and the relative distance of the reference map object 310, and the distance converter 162 can use this to calculate the absolute distance to another part of the depth map. 10, if the relative distance is a1, the absolute distance of the corresponding point in the depth map is determined as b1, if the relative distance is a2, the absolute distance of the corresponding point in the depth map is determined as b2, and the relative distance is a3 In this case, the absolute distance of the corresponding point in the depth map can be determined as b3.

거리 변환부(162)는 이러한 과정을 통하여 깊이 맵(300)의 전체 영역(400)의 절대 거리를 산출할 수 있다.The distance converter 162 can calculate the absolute distance of the entire area 400 of the depth map 300 through this process.

도 11은 3개의 기준 포인트를 기초로 기준 그래프가 형성되는 것을 나타낸 도면이다.Figure 11 is a diagram showing a reference graph being formed based on three reference points.

도 11을 참조하면, 거리 산출부(161)는 3개 이상의 기준 객체를 선택할 수 있다.Referring to FIG. 11, the distance calculation unit 161 can select three or more reference objects.

기준 객체가 3개인 경우 3개의 기준 포인트(P1, P2, P3)가 거리 좌표 평면에 표시되고, 이를 기초로 생성된 기준 그래프(G2)는 직선이 아닌 곡선으로 형성될 수 있다.When there are three reference objects, three reference points (P1, P2, P3) are displayed on the distance coordinate plane, and the reference graph (G2) generated based on these may be formed as a curve rather than a straight line.

제1 기준 객체에 대한 상대 거리 및 절대 거리가 각각 A1 및 B1임에 따라 이를 기초로 제1 기준 포인트 P1이 거리 좌표 평면에 표시될 수 있다. 제2 기준 객체에 대한 상대 거리 및 절대 거리가 각각 A2 및 B2임에 따라 이를 기초로 제2 기준 포인트 P2가 거리 좌표 평면에 표시될 수 있다. 제3 기준 객체에 대한 상대 거리 및 절대 거리가 각각 A3 및 B3임에 따라 이를 기초로 제3 기준 포인트 P3가 거리 좌표 평면에 표시될 수 있다.Since the relative distance and absolute distance to the first reference object are A1 and B1, respectively, the first reference point P1 may be displayed on the distance coordinate plane based on this. Since the relative distance and absolute distance to the second reference object are A2 and B2, respectively, the second reference point P2 may be displayed on the distance coordinate plane based on this. Since the relative distance and absolute distance to the third reference object are A3 and B3, respectively, the third reference point P3 may be displayed on the distance coordinate plane based on this.

기준 객체의 수가 증가할수록 이에 대응하는 보다 많은 수의 기준 맵 객체에 대한 상대 거리와 절대 거리의 비율이 반영되어 기준 그래프(G2)가 생성될 수 있다. 보다 많은 기준 맵 객체를 기초로 생성된 기준 그래프(G2)가 이용되어 거리 변환이 수행되는 경우 거리 변환에 대한 신뢰도가 향상될 수 있다.As the number of reference objects increases, the reference graph G2 may be generated by reflecting the ratio of the relative distance to the absolute distance for a larger number of reference map objects. When distance transformation is performed using a reference graph (G2) created based on more reference map objects, reliability of the distance transformation may be improved.

도 12는 본 발명의 실시예에 따른 영상 분석 방법을 나타낸 흐름도이다.Figure 12 is a flowchart showing an image analysis method according to an embodiment of the present invention.

도 12를 참조하면, 단안 카메라인 촬상부(110)의 촬영 영상(200)의 절대 거리를 산출하기 위하여 우선 촬상부(110)는 촬영 영상(200)을 생성할 수 있다(S510).Referring to FIG. 12, in order to calculate the absolute distance of the captured image 200 of the imaging unit 110, which is a monocular camera, the imaging unit 110 may first generate the captured image 200 (S510).

객체 검출부(140)는 촬영 영상(200)에서 객체를 검출할 수 있다. 구체적으로, 객체 검출부(140)는 촬영 영상(200)에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출할 수 있다.The object detector 140 may detect an object in the captured image 200. Specifically, the object detector 140 may detect a reference object for which standard size information is secured among objects included in the captured image 200.

깊이 맵 생성부(150)는 촬영 영상(200)에 대한 깊이 맵을 생성할 수 있다. 맵 분석부(160)의 거리 산출부(161)는 객체 검출부(140)에 의해 검출된 참조 객체 중 기준 객체를 선택할 수 있다. 그리고, 거리 산출부(161)는 기준 객체에 대응하는 기준 맵 객체(310)의 크기를 이용하여 기준 맵 객체(310)의 절대 거리를 산출하고, 기준 맵 객체(310)에 기준 영역(410)을 생성하여 기준 맵 객체(310)의 상대 거리를 산출할 수 있다.The depth map generator 150 may generate a depth map for the captured image 200. The distance calculation unit 161 of the map analysis unit 160 may select a reference object from among the reference objects detected by the object detection unit 140. Then, the distance calculation unit 161 calculates the absolute distance of the reference map object 310 using the size of the reference map object 310 corresponding to the reference object, and adds the reference area 410 to the reference map object 310. The relative distance of the reference map object 310 can be calculated by generating .

거리 변환부(162)는 적어도 2개의 기준 맵 객체(310)의 상대 거리와 절대 거리의 비율에 따라 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환할 수 있다.The distance converter 162 may convert the relative distance for the entire area of the depth map into an absolute distance according to the ratio of the relative distance and absolute distance of at least two reference map objects 310.

도 13은 관심 영역이 전환되는 것을 나타낸 도면이다.Figure 13 is a diagram showing the area of interest being switched.

도 13을 참조하면, 맵 분석부(160)는 촬상부(110)의 촬영 가능 영역(600) 중 사전에 설정된 관심 영역(610, 620, 630)에 대한 촬영 영상에서 기준 객체를 검출하고, 검출된 기준 객체를 기초로 해당 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신할 수 있다.Referring to FIG. 13, the map analysis unit 160 detects a reference object in a captured image for a preset area of interest 610, 620, and 630 among the captureable area 600 of the imaging unit 110, and detects the reference object. Based on the reference object, the pre-generated absolute distance for the depth map of the captured image can be updated.

전술한 바와 같이, 맵 분석부(160)는 촬영 영상(200)에서 검출된 기준 객체를 기초로 깊이 맵의 전체 영역에 대한 절대 거리를 산출할 수 있다. 한편, 맵 분석부(160)에 의해 선택된 기준 객체가 표준의 형태 및 크기를 갖지 않는 객체일 수 있다. 이러한 경우 해당 기준 객체를 기초로 생성된 절대 거리는 오차가 반영될 수 있다.As described above, the map analysis unit 160 may calculate the absolute distance for the entire area of the depth map based on the reference object detected in the captured image 200. Meanwhile, the reference object selected by the map analysis unit 160 may be an object that does not have a standard shape and size. In this case, the absolute distance generated based on the corresponding reference object may reflect an error.

기준 객체의 선택에 따른 오차의 반영을 보상하기 위하여 맵 분석부(160)는 기존에 생성된 깊이 맵의 전체 영역에 대한 절대 거리(이하, 전체 절대 거리라 한다)를 갱신할 수 있다.In order to compensate for the error reflected in the selection of the reference object, the map analysis unit 160 may update the absolute distance (hereinafter referred to as the total absolute distance) for the entire area of the previously generated depth map.

전체 절대 거리의 갱신을 위하여 맵 분석부(160)는 촬상부(110)의 촬영 가능 영역(600) 중 사전에 설정된 관심 영역(610, 620, 630)에 대한 촬영 영상에서 기준 객체를 검출할 수 있다. 여기서, 촬영 가능 영역(600)은 촬상부(110)에 구비된 팬 틸트 장비의 구동 범위에 의해 결정되는 촬상부(110)의 촬영 영역을 나타낸다.In order to update the total absolute distance, the map analysis unit 160 can detect a reference object in the captured image for the preset area of interest (610, 620, 630) among the imageable area (600) of the imaging unit (110). there is. Here, the photographable area 600 represents the photographing area of the imaging unit 110 determined by the driving range of the pan and tilt equipment provided in the imaging unit 110.

맵 분석부(160)는 관심 영역(610, 620, 630)에 대응되는 촬영 영상에서 기준 맵 객체를 추출하고, 추출된 기준 맵 객체에 대한 절대 거리를 산출할 수 있다. 그리고, 맵 분석부(160)는 기준 맵 객체에 대하여 산출된 절대 거리를 깊이 맵의 전체 영역에 적용하여 전체 절대 거리를 갱신할 수 있다. 이 때, 맵 분석부(160)는 새롭게 생성된 전체 절대 거리와 기존의 전체 절대 거리 간의 차이가 사전에 설정된 임계치를 초과하는 경우 전체 절대 거리를 갱신할 수 있다. 전체 절대 거리의 갱신은 지속적으로 수행될 수 있으며, 이와 같은 전체 절대 거리의 갱신에 의해 해당 관심 영역(610, 620, 630)에 대응되는 촬영 영상에 대한 전체 절대 거리의 신뢰도가 향상될 수 있다.The map analysis unit 160 may extract a reference map object from a captured image corresponding to the region of interest 610, 620, and 630, and calculate an absolute distance to the extracted reference map object. Additionally, the map analysis unit 160 may update the total absolute distance by applying the absolute distance calculated for the reference map object to the entire area of the depth map. At this time, the map analysis unit 160 may update the total absolute distance when the difference between the newly created total absolute distance and the existing total absolute distance exceeds a preset threshold. The update of the total absolute distance can be continuously performed, and by updating the total absolute distance, the reliability of the total absolute distance for the captured image corresponding to the region of interest 610, 620, and 630 can be improved.

촬상부(110)의 촬영 가능 영역(600)은 복수의 관심 영역(610, 620, 630)을 포함할 수 있다. 도 13에 도시된 바와 같이, 복수의 관심 영역(610, 620, 630)은 사전에 설정된 순서에 따라 전환될 수 있다. 관심 영역(610, 620, 630)은 촬영 영상(200) 중 특별히 관찰되어야 하는 영역으로서 사용자는 복수의 관심 영역(610, 620, 630)의 좌표, 전환 시간 및 전환 순서를 사전에 설정할 수 있다. 도 13은 제1 관심 영역(610), 제2 관심 영역(620) 및 제3 관심 영역(630)의 순서로 관심 영역(610, 620, 630)이 전환되는 것을 도시하고 있다.The captureable area 600 of the imaging unit 110 may include a plurality of areas of interest 610, 620, and 630. As shown in FIG. 13, the plurality of regions of interest 610, 620, and 630 may be switched according to a preset order. The areas of interest 610, 620, and 630 are areas that must be specifically observed among the captured images 200, and the user can set the coordinates, conversion time, and conversion order of the plurality of areas of interest 610, 620, and 630 in advance. FIG. 13 shows that the regions of interest 610, 620, and 630 are switched in the order of the first region of interest 610, the second region of interest 620, and the third region of interest 630.

맵 분석부(160)는 복수의 관심 영역(610, 620, 630) 중 사전에 설정된 순서에 따라 전환된 관심 영역(610, 620, 630)에 대한 촬영 영상에서 기준 객체를 검출할 수 있다. 전환된 관심 영역(610, 620, 630)의 촬영 영상에 참조 객체가 포함된 경우 맵 분석부(160)는 참조 객체 중 기준 객체를 선택할 수 있다. 한편, 전환된 관심 영역(610, 620, 630)의 촬영 영상에 참조 객체가 포함되어 있지 않은 경우 맵 분석부(160)는 해당 관심 영역(610, 620, 630)을 기초로 하는 전체 절대 거리의 갱신을 생략할 수 있다. 도 13을 참조하여 설명하면, 제1 관심 영역(610)의 촬영 영상에 참조 객체가 포함된 경우 맵 분석부(160)는 해당 촬영 영상에 대한 전체 절대 거리의 갱신을 수행할 수 있다. 이어서, 객체 검출부(140)는 제2 관심 영역(620)의 촬영 영상에서 참조 객체의 검출을 시도할 수 있다. 그리하여, 제2 관심 영역(620)의 촬영 영상에서 참조 객체가 검출되는 경우 맵 분석부(160)는 해당 촬영 영상에 대한 전체 절대 거리의 갱신을 수행할 수 있다. 한편, 제2 관심 영역(620)의 촬영 영상에서 참조 객체가 검출되지 않은 경우 맵 분석부(160)는 해당 촬영 영상에 대한 전체 절대 거리의 갱신을 생략할 수 있다. 이어서, 객체 검출부(140)는 제3 관심 영역(630)의 촬영 영상에서 참조 객체의 검출을 시도할 수 있으며, 이러한 과정은 모든 관심 영역(610, 620, 630)에 대하여 수행될 수 있다.The map analysis unit 160 may detect a reference object in a captured image for a switched interest area 610, 620, and 630 according to a preset order among the plurality of interest areas 610, 620, and 630. If the captured images of the converted regions of interest 610, 620, and 630 include reference objects, the map analysis unit 160 may select a reference object from among the reference objects. Meanwhile, if the captured image of the converted area of interest (610, 620, 630) does not include a reference object, the map analysis unit 160 calculates the total absolute distance based on the area of interest (610, 620, 630). Update can be omitted. Referring to FIG. 13 , when the captured image of the first region of interest 610 includes a reference object, the map analysis unit 160 may update the total absolute distance for the captured image. Next, the object detector 140 may attempt to detect a reference object in the captured image of the second region of interest 620. Thus, when a reference object is detected in the captured image of the second region of interest 620, the map analysis unit 160 may update the total absolute distance for the captured image. Meanwhile, when a reference object is not detected in the captured image of the second region of interest 620, the map analysis unit 160 may omit updating the total absolute distance for the captured image. Subsequently, the object detector 140 may attempt to detect a reference object in the captured image of the third region of interest 630, and this process may be performed for all regions of interest 610, 620, and 630.

이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the above and the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. You will understand that it exists. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

100: 영상 분석 장치 110: 촬상부
120: 저장부 130: 제어부
140: 객체 검출부 150: 깊이 맵 생성부
160: 맵 분석부 170: 출력부
100: video analysis device 110: imaging unit
120: storage unit 130: control unit
140: object detection unit 150: depth map creation unit
160: map analysis unit 170: output unit

Claims (20)

촬영 영상을 생성하는 촬상부;
상기 촬영 영상에서 객체를 검출하는 객체 검출부;
상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 깊이 맵 생성부; 및
상기 검출된 객체 중 기준 객체를 선택하고, 상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 맵 분석부를 포함하는 영상 분석 장치.
An imaging unit that generates a captured image;
an object detection unit that detects an object in the captured image;
a depth map generator that generates a depth map for the captured image; and
Select a reference object from among the detected objects, and calculate the absolute distance for the entire area of the depth map by referring to the absolute distance calculated for the reference map object corresponding to the reference object among the map objects included in the depth map. An image analysis device including a map analysis unit.
제1 항에 있어서,
상기 깊이 맵은 상기 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함하는 영상 분석 장치.
According to claim 1,
The depth map is an image analysis device including relative distance information of objects included in the captured image.
제1 항에 있어서,
상기 객체 검출부는 상기 촬영 영상에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출하고,
상기 맵 분석부는 상기 참조 객체 중에서 상기 기준 객체를 선택하는 영상 분석 장치.
According to claim 1,
The object detector detects a reference object for which standard size information is secured among objects included in the captured image,
The map analysis unit is an image analysis device that selects the reference object from the reference objects.
제1 항에 있어서,
상기 맵 분석부는,
상기 기준 맵 객체의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 거리 산출부; 및
적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 상기 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 거리 변환부를 포함하는 영상 분석 장치.
According to claim 1,
The map analysis unit,
a distance calculation unit that calculates an absolute distance of the reference map object by referring to the size of the reference map object; and
An image analysis device comprising a distance conversion unit that converts the relative distance for the entire area of the depth map into an absolute distance according to the ratio of the relative distance and absolute distance of at least two reference map objects.
제4 항에 있어서,
상기 거리 산출부는 상기 기준 맵 객체의 사전에 설정된 일부에 포함된 기준 영역의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 영상 분석 장치.
According to clause 4,
The distance calculation unit is an image analysis device that calculates an absolute distance of the reference map object by referring to the size of a reference area included in a preset part of the reference map object.
제5 항에 있어서,
상기 거리 산출부는 상기 기준 영역에 포함된 상대 거리 정보 중 일부 정보를 추출하여 상기 기준 맵 객체의 상대 거리를 산출하는 영상 분석 장치.
According to clause 5,
The distance calculation unit extracts some of the relative distance information included in the reference area and calculates the relative distance of the reference map object.
제6 항에 있어서,
상기 거리 산출부는,
사전에 설정된 크기의 특징 영역을 상기 기준 영역에 생성하고,
상기 특징 영역에 포함된 상대 거리의 평균값 또는 중간값을 상기 기준 맵 객체의 상대 거리인 것으로 결정하는 영상 분석 장치.
According to clause 6,
The distance calculation unit,
Creating a feature area of a preset size in the reference area,
An image analysis device that determines the average or median value of the relative distances included in the feature area as the relative distance of the reference map object.
제1 항에 있어서,
상기 맵 분석부는,
상기 촬상부의 촬영 가능 영역 중 사전에 설정된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하고,
상기 검출된 기준 객체를 기초로 상기 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신하는 영상 분석 장치.
According to claim 1,
The map analysis unit,
Detecting a reference object in a captured image of a preset area of interest among the imageable areas of the imaging unit,
An image analysis device that updates a pre-generated absolute distance with respect to a depth map of the captured image based on the detected reference object.
제8 항에 있어서,
상기 촬영 가능 영역은 복수의 관심 영역을 포함하고,
상기 맵 분석부는 상기 복수의 관심 영역 중 사전에 설정된 순서에 따라 전환된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 영상 분석 장치.
According to clause 8,
The imageable area includes a plurality of areas of interest,
The map analysis unit is an image analysis device that detects a reference object from a captured image of a region of interest converted according to a preset order among the plurality of regions of interest.
제1 항에 있어서,
상기 객체 검출부는 상기 촬영 영상에서 객체를 실시간으로 검출하고,
상기 실시간 검출 결과에 따라 상기 촬영 영상에서 객체가 검출되는 경우 상기 맵 분석부는 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 영상 분석 장치.
According to claim 1,
The object detection unit detects an object in the captured image in real time,
When an object is detected in the captured image according to the real-time detection result, the map analysis unit calculates an absolute distance for the entire area of the depth map.
촬영 영상을 생성하는 단계;
상기 촬영 영상에서 객체를 검출하는 단계;
상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 단계;
상기 검출된 객체 중 기준 객체를 선택하는 단계; 및
상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계를 포함하는 영상 분석 방법.
Generating a captured image;
Detecting an object in the captured image;
generating a depth map for the captured image;
selecting a reference object from among the detected objects; and
An image analysis method comprising calculating an absolute distance for the entire area of the depth map by referring to an absolute distance calculated for a reference map object corresponding to the reference object among map objects included in the depth map.
제11 항에 있어서,
상기 깊이 맵은 상기 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함하는 영상 분석 방법.
According to claim 11,
The depth map is an image analysis method including relative distance information of objects included in the captured image.
제11 항에 있어서,
상기 객체를 검출하는 단계는 상기 촬영 영상에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출하는 단계를 포함하고,
상기 기준 객체를 선택하는 단계는 상기 참조 객체 중에서 상기 기준 객체를 선택하는 단계를 포함하는 영상 분석 방법.
According to claim 11,
The step of detecting the object includes detecting a reference object for which standard size information is secured among objects included in the captured image,
The step of selecting the reference object includes selecting the reference object from among the reference objects.
제11 항에 있어서,
상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계는,
상기 기준 맵 객체의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 단계; 및
적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 상기 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 단계를 포함하는 영상 분석 방법.
According to claim 11,
The step of calculating the absolute distance for the entire area of the depth map is,
calculating an absolute distance of the reference map object by referring to the size of the reference map object; and
An image analysis method comprising converting a relative distance for an entire area of the depth map into an absolute distance according to a ratio of the relative distance and absolute distance of at least two reference map objects.
제14 항에 있어서,
상기 기준 맵 객체의 절대 거리를 산출하는 단계는 상기 기준 맵 객체의 사전에 설정된 일부에 포함된 기준 영역의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 단계를 포함하는 영상 분석 방법.
According to claim 14,
The step of calculating the absolute distance of the reference map object includes calculating the absolute distance of the reference map object with reference to the size of a reference area included in a preset part of the reference map object.
제15 항에 있어서,
상기 기준 영역에 포함된 상대 거리 정보 중 일부 정보를 추출하여 상기 기준 맵 객체의 상대 거리를 산출하는 단계를 더 포함하는 영상 분석 방법.
According to claim 15,
An image analysis method further comprising calculating a relative distance of the reference map object by extracting some of the relative distance information included in the reference area.
제16 항에 있어서,
상기 기준 맵 객체의 상대 거리를 산출하는 단계는,
사전에 설정된 크기의 특징 영역을 상기 기준 영역에 생성하는 단계; 및
상기 특징 영역에 포함된 상대 거리의 평균값 또는 중간값을 상기 기준 맵 객체의 상대 거리인 것으로 결정하는 단계를 포함하는 영상 분석 방법.
According to claim 16,
The step of calculating the relative distance of the reference map object is,
Creating a feature area of a preset size in the reference area; and
An image analysis method comprising determining an average or median value of relative distances included in the feature area as the relative distance of the reference map object.
제11 항에 있어서,
상기 촬영 영상을 생성하는 촬상부의 촬영 가능 영역 중 사전에 설정된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 단계; 및
상기 검출된 기준 객체를 기초로 상기 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신하는 단계를 더 포함하는 영상 분석 방법.
According to claim 11,
Detecting a reference object in a captured image for a preset region of interest among the captureable areas of the imaging unit that generates the captured image; and
An image analysis method further comprising updating a pre-generated absolute distance with respect to a depth map of the captured image based on the detected reference object.
제18 항에 있어서,
상기 촬영 영상은 복수의 관심 영역을 포함하고,
상기 관심 영역에서 기준 객체를 검출하는 단계는 상기 복수의 관심 영역 중 사전에 설정된 순서에 따라 전환된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 단계를 포함하는 영상 분석 방법.
According to clause 18,
The captured image includes a plurality of regions of interest,
The step of detecting a reference object in the region of interest includes detecting a reference object in a captured image of a region of interest converted according to a preset order among the plurality of regions of interest.
제18 항에 있어서,
상기 촬영 영상에서 객체를 검출하는 단계는 상기 촬영 영상에서 객체를 실시간으로 검출하는 단계를 포함하고,
상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계는 상기 실시간 검출 결과에 따라 상기 촬영 영상에서 객체가 검출되는 경우 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계를 포함하는 영상 분석 방법.
According to clause 18,
Detecting an object in the captured image includes detecting an object in the captured image in real time,
Calculating the absolute distance for the entire area of the depth map includes calculating the absolute distance for the entire area of the depth map when an object is detected in the captured image according to the real-time detection result. .
KR1020230062399A 2022-09-20 2023-05-15 Apparatus and method for analyzing image KR20240040005A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/006885 WO2024063242A1 (en) 2022-09-20 2023-05-22 Apparatus and method for image analysis

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220118655 2022-09-20
KR1020220118655 2022-09-20

Publications (1)

Publication Number Publication Date
KR20240040005A true KR20240040005A (en) 2024-03-27

Family

ID=90480606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230062399A KR20240040005A (en) 2022-09-20 2023-05-15 Apparatus and method for analyzing image

Country Status (1)

Country Link
KR (1) KR20240040005A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110142287A1 (en) 2009-12-16 2011-06-16 Sony Corporation Algorithms for estimating precise and relative object distances in a scene

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110142287A1 (en) 2009-12-16 2011-06-16 Sony Corporation Algorithms for estimating precise and relative object distances in a scene

Similar Documents

Publication Publication Date Title
CN109151439B (en) Automatic tracking shooting system and method based on vision
KR100776649B1 (en) A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method
US7215364B2 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
JP3064928B2 (en) Subject extraction method
JP6570327B2 (en) Control device, imaging device, control method, program, and storage medium
KR100799990B1 (en) Device and Method for transforming 2-D Image into 3-D Image
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
US20220078385A1 (en) Projection method based on augmented reality technology and projection equipment
KR101510312B1 (en) 3D face-modeling device, system and method using Multiple cameras
JP2006287589A (en) Image processing method and image processing apparatus
JP2009047497A (en) Stereoscopic imaging device, control method of stereoscopic imaging device, and program
KR20140074201A (en) Tracking device
KR101983586B1 (en) Method of stitching depth maps for stereo images
JP4235018B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program
CN113436130B (en) Intelligent sensing system and device for unstructured light field
JP2015005925A (en) Image processing apparatus and image processing method
JP2009047498A (en) Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP7300895B2 (en) Image processing device, image processing method, program, and storage medium
JP3774495B2 (en) Image information extracting apparatus and method
KR20240040005A (en) Apparatus and method for analyzing image
KR20140052769A (en) Apparatus and method for correcting distored image
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
KR102450466B1 (en) System and method for removing camera movement in video