KR20240040005A - Apparatus and method for analyzing image - Google Patents
Apparatus and method for analyzing image Download PDFInfo
- Publication number
- KR20240040005A KR20240040005A KR1020230062399A KR20230062399A KR20240040005A KR 20240040005 A KR20240040005 A KR 20240040005A KR 1020230062399 A KR1020230062399 A KR 1020230062399A KR 20230062399 A KR20230062399 A KR 20230062399A KR 20240040005 A KR20240040005 A KR 20240040005A
- Authority
- KR
- South Korea
- Prior art keywords
- map
- captured image
- distance
- depth map
- absolute distance
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 14
- 238000004458 analytical method Methods 0.000 claims abstract description 52
- 238000003384 imaging method Methods 0.000 claims abstract description 37
- 238000010191 image analysis Methods 0.000 claims abstract description 20
- 238000004364 calculation method Methods 0.000 claims description 35
- 238000001514 detection method Methods 0.000 claims description 18
- 238000003703 image analysis method Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000011897 real-time detection Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 24
- 238000013473 artificial intelligence Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
본 발명은 영상 분석 장치 및 방법에 관한 것으로서, 깊이 맵(depth map)에 포함된 맵 객체 중 기준 맵 객체의 절대 거리를 산출하고, 해당 절대 거리를 깊이 맵의 나머지 부분에 적용하여, 깊이 맵의 전체에 대한 절대 거리를 산출하는 영상 분석 장치 및 방법에 관한 것이다.
본 발명의 실시예에 따른 영상 분석 장치는 촬영 영상을 생성하는 촬상부와, 상기 촬영 영상에서 객체를 검출하는 객체 검출부와, 상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 깊이 맵 생성부, 및 상기 검출된 객체 중 기준 객체를 선택하고, 상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 맵 분석부를 포함한다.The present invention relates to an image analysis device and method, which calculates the absolute distance of a reference map object among map objects included in a depth map, applies the absolute distance to the remaining portion of the depth map, and It relates to an image analysis device and method for calculating the absolute distance for the whole.
An image analysis device according to an embodiment of the present invention includes an imaging unit that generates a captured image, an object detector that detects an object in the captured image, and a depth map generator that generates a depth map for the captured image. , and select a reference object among the detected objects, and refer to the absolute distance calculated for the reference map object corresponding to the reference object among the map objects included in the depth map, and the absolute distance for the entire area of the depth map. It includes a map analysis unit that calculates.
Description
본 발명은 영상 분석 장치 및 방법에 관한 것으로서, 더욱 상세하게는 깊이 맵(depth map)에 포함된 맵 객체 중 기준 맵 객체의 절대 거리를 산출하고, 해당 절대 거리를 깊이 맵의 나머지 부분에 적용하여, 깊이 맵의 전체에 대한 절대 거리를 산출하는 영상 분석 장치 및 방법에 관한 것이다.The present invention relates to an image analysis device and method, and more specifically, to calculating the absolute distance of a reference map object among map objects included in a depth map and applying the absolute distance to the remaining portion of the depth map. , relates to an image analysis device and method for calculating the absolute distance for the entire depth map.
깊이 맵(depth map)은 관찰 지점과 객체 간의 거리가 포함된 정보를 나타낸다. 깊이 맵은 관찰 지점과 객체의 각 표면 간의 거리 정보가 포함되어 있기 때문에 깊이 맵을 이용하여 객체체의 3차원 영상을 산출하는 것이 가능하다.A depth map represents information including the distance between an observation point and an object. Because the depth map contains distance information between the observation point and each surface of the object, it is possible to calculate a 3D image of the object using the depth map.
한편, 깊이 맵은 관찰 지점과 객체 간의 상대적인 거리 정보만을 포함하고 있기 때문에 이를 통해서는 깊이 맵에 포함된 객체의 절대 거리를 산출할 수 없다.Meanwhile, since the depth map contains only relative distance information between the observation point and the object, the absolute distance of the object included in the depth map cannot be calculated through this.
따라서, 깊이 맵에 포함된 객체의 절대 거리를 산출할 수 있도록 하는 발명의 등장이 요구된다.Therefore, there is a need for an invention that allows calculating the absolute distance of an object included in a depth map.
미국 공개특허공보 2011-0142287호 (2011.06.16)U.S. Patent Publication No. 2011-0142287 (2011.06.16)
본 발명이 해결하고자 하는 과제는 깊이 맵(depth map)에 포함된 맵 객체 중 기준 맵 객체의 절대 거리를 산출하고, 해당 절대 거리를 깊이 맵의 나머지 부분에 적용하여, 깊이 맵의 전체에 대한 절대 거리를 산출하는 영상 분석 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to calculate the absolute distance of the reference map object among the map objects included in the depth map, and apply the absolute distance to the remaining part of the depth map to determine the absolute distance for the entire depth map. To provide an image analysis device and method for calculating distance.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the problems mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 분석 장치는 촬영 영상을 생성하는 촬상부와, 상기 촬영 영상에서 객체를 검출하는 객체 검출부와, 상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 깊이 맵 생성부, 및 상기 검출된 객체 중 기준 객체를 선택하고, 상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 맵 분석부를 포함한다.In order to achieve the above problem, an image analysis device according to an embodiment of the present invention includes an imaging unit that generates a captured image, an object detector that detects an object in the captured image, and a depth map for the captured image. A depth map generator that generates, and selects a reference object from among the detected objects, and maps the depth map with reference to an absolute distance calculated with respect to a reference map object corresponding to the reference object among map objects included in the depth map. It includes a map analysis unit that calculates the absolute distance for the entire area.
상기 깊이 맵은 상기 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함한다.The depth map includes relative distance information of objects included in the captured image.
상기 객체 검출부는 상기 촬영 영상에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출하고, 상기 맵 분석부는 상기 참조 객체 중에서 상기 기준 객체를 선택한다.The object detection unit detects a reference object for which standard size information is secured among objects included in the captured image, and the map analysis unit selects the reference object from among the reference objects.
상기 맵 분석부는, 상기 기준 맵 객체의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 거리 산출부, 및 적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 상기 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 거리 변환부를 포함한다.The map analysis unit includes a distance calculation unit that calculates an absolute distance of the reference map object with reference to the size of the reference map object, and an entire depth map according to the ratio of the relative distance and the absolute distance of at least two reference map objects. It includes a distance conversion unit that converts the relative distance to the area into an absolute distance.
상기 거리 산출부는 상기 기준 맵 객체의 사전에 설정된 일부에 포함된 기준 영역의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출한다.The distance calculation unit calculates the absolute distance of the reference map object by referring to the size of a reference area included in a preset part of the reference map object.
상기 거리 산출부는 상기 기준 영역에 포함된 상대 거리 정보 중 일부 정보를 추출하여 상기 기준 맵 객체의 상대 거리를 산출한다.The distance calculation unit extracts some of the relative distance information included in the reference area and calculates the relative distance of the reference map object.
상기 거리 산출부는, 사전에 설정된 크기의 특징 영역을 상기 기준 영역에 생성하고, 상기 특징 영역에 포함된 상대 거리의 평균값 또는 중간값을 상기 기준 맵 객체의 상대 거리인 것으로 결정한다.The distance calculation unit creates a feature area of a preset size in the reference area, and determines the average or median value of the relative distances included in the feature area as the relative distance of the reference map object.
상기 맵 분석부는, 상기 촬상부의 촬영 가능 영역 중 사전에 설정된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하고, 상기 검출된 기준 객체를 기초로 상기 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신한다.The map analysis unit detects a reference object in a captured image for a preset area of interest among the captureable areas of the imaging unit, and determines a pre-generated absolute distance with respect to the depth map of the captured image based on the detected reference object. Update .
상기 촬영 가능 영역은 복수의 관심 영역을 포함하고, 상기 맵 분석부는 상기 복수의 관심 영역 중 사전에 설정된 순서에 따라 전환된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출한다.The captureable area includes a plurality of areas of interest, and the map analysis unit detects a reference object from a captured image of an area of interest switched according to a preset order among the plurality of areas of interest.
상기 객체 검출부는 상기 촬영 영상에서 객체를 실시간으로 검출하고, 상기 실시간 검출 결과에 따라 상기 촬영 영상에서 객체가 검출되는 경우 상기 맵 분석부는 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출한다.The object detection unit detects an object in the captured image in real time, and when an object is detected in the captured image according to the real-time detection result, the map analysis unit calculates an absolute distance for the entire area of the depth map.
본 발명의 실시예에 따른 영상 분석 방법은 촬영 영상을 생성하는 단계와, 상기 촬영 영상에서 객체를 검출하는 단계와, 상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 단계와, 상기 검출된 객체 중 기준 객체를 선택하는 단계, 및 상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계를 포함한다.An image analysis method according to an embodiment of the present invention includes generating a captured image, detecting an object in the captured image, generating a depth map for the captured image, and the detected object. selecting a reference object among objects, and calculating an absolute distance for the entire area of the depth map by referring to an absolute distance calculated for a reference map object corresponding to the reference object among map objects included in the depth map. Includes steps.
상기 깊이 맵은 상기 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함한다.The depth map includes relative distance information of objects included in the captured image.
상기 객체를 검출하는 단계는 상기 촬영 영상에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출하는 단계를 포함하고, 상기 기준 객체를 선택하는 단계는 상기 참조 객체 중에서 상기 기준 객체를 선택하는 단계를 포함한다.The step of detecting the object includes detecting a reference object for which standard size information is secured among objects included in the captured image, and the step of selecting the reference object includes selecting the reference object from among the reference objects. Includes.
상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계는, 상기 기준 맵 객체의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 단계, 및 적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 상기 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 단계를 포함한다.Calculating the absolute distance for the entire area of the depth map includes calculating the absolute distance of the reference map object with reference to the size of the reference map object, and the relative distance and absolute distance of at least two reference map objects. Converting the relative distance for the entire area of the depth map to an absolute distance according to the ratio of
상기 기준 맵 객체의 절대 거리를 산출하는 단계는 상기 기준 맵 객체의 사전에 설정된 일부에 포함된 기준 영역의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 단계를 포함한다.Calculating the absolute distance of the reference map object includes calculating the absolute distance of the reference map object with reference to the size of a reference area included in a preset portion of the reference map object.
상기 영상 분석 방법은 상기 기준 영역에 포함된 상대 거리 정보 중 일부 정보를 추출하여 상기 기준 맵 객체의 상대 거리를 산출하는 단계를 더 포함한다.The image analysis method further includes calculating the relative distance of the reference map object by extracting some of the relative distance information included in the reference area.
상기 기준 맵 객체의 상대 거리를 산출하는 단계는, 사전에 설정된 크기의 특징 영역을 상기 기준 영역에 생성하는 단계, 및 상기 특징 영역에 포함된 상대 거리의 평균값 또는 중간값을 상기 기준 맵 객체의 상대 거리인 것으로 결정하는 단계를 포함한다.The step of calculating the relative distance of the reference map object includes creating a feature area of a preset size in the reference area, and calculating the average or median value of the relative distance included in the feature area to the relative distance of the reference map object. It includes determining what the distance is.
상기 영상 분석 방법은 상기 촬영 영상을 생성하는 촬상부의 촬영 가능 영역 중 사전에 설정된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 단계, 및 상기 검출된 기준 객체를 기초로 상기 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신하는 단계를 더 포함한다.The image analysis method includes detecting a reference object in a captured image for a preset region of interest among the captureable areas of the imaging unit that generates the captured image, and creating a depth map of the captured image based on the detected reference object. It further includes updating the absolute distance created in advance.
상기 촬영 영상은 복수의 관심 영역을 포함하고, 상기 관심 영역에서 기준 객체를 검출하는 단계는 상기 복수의 관심 영역 중 사전에 설정된 순서에 따라 전환된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 단계를 포함한다.The captured image includes a plurality of regions of interest, and the step of detecting a reference object in the region of interest includes detecting a reference object in the captured image of the region of interest switched according to a preset order among the plurality of regions of interest. Includes.
상기 촬영 영상에서 객체를 검출하는 단계는 상기 촬영 영상에서 객체를 실시간으로 검출하는 단계를 포함하고, 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계는 상기 실시간 검출 결과에 따라 상기 촬영 영상에서 객체가 검출되는 경우 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계를 포함한다.The step of detecting an object in the captured image includes detecting an object in the captured image in real time, and the step of calculating an absolute distance for the entire area of the depth map includes the step of calculating an absolute distance in the captured image according to the real-time detection result. and calculating an absolute distance for the entire area of the depth map when an object is detected.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.
상기한 바와 같은 본 발명의 영상 분석 장치 및 방법에 따르면 깊이 맵(depth map)에 포함된 맵 객체 중 크기와 절대 거리 간의 상관 관계가 형성되어 있는 기준 맵 객체의 절대 거리를 산출하고, 해당 절대 거리를 깊이 맵의 나머지 부분에 적용함으로써 깊이 맵의 전체에 대한 절대 거리를 산출할 수 있도록 하는 장점이 있다.According to the image analysis device and method of the present invention as described above, the absolute distance of a reference map object for which a correlation between size and absolute distance is formed among map objects included in a depth map is calculated, and the absolute distance is calculated. It has the advantage of being able to calculate the absolute distance for the entire depth map by applying to the remaining part of the depth map.
또한, 하드웨어에 의한 별도의 구동 없이 소프트웨어만으로 구현되기 때문에 깊이 맵의 전체에 대한 절대 거리가 산출되는 과정이 상대적으로 신속하게 수행되는 장점도 잇다.In addition, since it is implemented only in software without separate operation by hardware, it has the advantage that the process of calculating the absolute distance for the entire depth map is performed relatively quickly.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 실시예에 따른 영상 분석 장치의 블록도이다.
도 2는 맵 분석부의 블록도이다.
도 3은 촬영 영상을 나타낸 도면이다.
도 4는 촬영 영상에서 참조 객체가 검출되는 것을 나타낸 도면이다.
도 5는 촬영 영상의 깊이 맵을 나타낸 도면이다.
도 6은 기준 맵 객체의 일부에 기준 박스가 형성되는 것을 나타낸 도면이다.
도 7은 기준 박스에 기준 영역이 형성되는 것을 나타낸 도면이다.
도 8은 기준 맵 객체의 전체에 기준 박스가 형성되는 것을 나타낸 도면이다.
도 9는 기준 포인트가 거리 좌표 평면에 표시된 것을 나타낸 도면이다.
도 10은 기준 포인트를 기초로 기준 그래프가 형성되는 것을 나타낸 도면이다.
도 11은 3개의 기준 포인트를 기초로 기준 그래프가 형성되는 것을 나타낸 도면이다.
도 12는 본 발명의 실시예에 따른 영상 분석 방법을 나타낸 흐름도이다.
도 13은 관심 영역이 전환되는 것을 나타낸 도면이다.1 is a block diagram of an image analysis device according to an embodiment of the present invention.
Figure 2 is a block diagram of the map analysis unit.
Figure 3 is a diagram showing a captured image.
Figure 4 is a diagram showing a reference object being detected in a captured image.
Figure 5 is a diagram showing a depth map of a captured image.
Figure 6 is a diagram showing a reference box being formed in a portion of a reference map object.
Figure 7 is a diagram showing a reference area being formed in a reference box.
Figure 8 is a diagram showing a reference box being formed throughout the reference map object.
Figure 9 is a diagram showing a reference point displayed on a distance coordinate plane.
Figure 10 is a diagram showing a reference graph being formed based on reference points.
Figure 11 is a diagram showing a reference graph being formed based on three reference points.
Figure 12 is a flowchart showing an image analysis method according to an embodiment of the present invention.
Figure 13 is a diagram showing the area of interest being switched.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely intended to ensure that the disclosure of the present invention is complete and to provide common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings that can be commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.
도 1은 본 발명의 실시예에 따른 영상 분석 장치의 블록도이다.1 is a block diagram of an image analysis device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 영상 분석 장치(100)는 촬상부(110), 저장부(120), 제어부(130), 객체 검출부(140), 깊이 맵 생성부(150), 맵 분석부(160) 및 출력부(170)를 포함하여 구성된다.Referring to FIG. 1, the
촬상부(110)는 촬영 영상을 생성할 수 있다. 예를 들어, 촬상부(110)는 CMOS(Complementary Metal-Oxide-Semiconductor) 또는 CCD(Charge-Coupled Device)와 같은 영상 센서가 구비된 카메라일 수 있다.The
본 발명에서 촬상부(110)는 단안 카메라(monocular camera)일 수 있다. 촬상부(110)에 의해 생성되는 촬영 영상은 하나의 촬영 지점에서 촬영된 것을 나타낸다.In the present invention, the
또한, 촬상부(110)는 오토 포커스(auto focus)가 가능한 렌즈부(미도시)를 구비할 수 있다. 후술하는 바와 같이, 촬상부(110)는 맵 분석부(150)의 제어에 의해 오토 포커스를 수행할 수 있다.Additionally, the
또한, 촬상부(110)는 촬영 방향의 조절이 가능한 것일 수 있다. 예를 들어, 촬상부(110)는 팬 틸트(pan tilt) 장비(미도시)를 포함할 수 있다. 팬 틸트 장비는 입력된 제어 신호에 의해 촬상부(110)의 촬영 방향을 조절할 수 있다.Additionally, the
저장부(120)는 촬상부(110)에 의해 생성된 촬영 영상을 임시로 또는 영구적으로 저장할 수 있다. 또한, 저장부(120)는 깊이 맵 생성부(150)에 의해 생성된 깊이 맵을 저장하고, 맵 분석부(160)에 의해 생성된 분석 결과를 저장할 수도 있다.The
또한, 저장부(120)는 객체의 크기와 절대 거리 간의 상관관계를 포함하는 테이블(이하, 절대 거리 테이블이라 한다)(미도시)을 포함할 수 있다. 일반적으로 사람, 자전거 및 차량 등은 그 크기가 일정하게 형성될 수 있다. 이와 같이, 대체로 그 크기가 균일하게 형성되는 객체가 촬영 영상에 포함된 경우 해당 객체의 크기를 이용하여 해당 객체에 대한 깊이 맵 객체의 절대 거리가 판단될 수 있다. 저장부(120)는 객체의 크기와 절대 거리 간의 관계를 포함하는 절대 거리 테이블을 저장할 수 있으며, 이는 후술하는 거리 산출부에 의해 이용될 수 있다.Additionally, the
객체 검출부(140)는 촬영 영상에서 객체를 검출하는 역할을 수행한다. 이를 위하여, 객체 검출부(140)는 객체 검출 모델을 이용할 수 있다. 예를 들어, 객체 검출부(140)는 객체 검출 모델로서 욜로(YOLO; You Only Live Once) 알고리즘을 이용하여 촬영 영상에서 객체를 검출할 수 있다. 욜로 알고리즘은 촬영 영상에서 객체를 검출하는 속도가 상대적으로 빠르기 때문에 실시간 동영상을 처리하는 감시 카메라에 적당한 인공지능 알고리즘이다. 욜로 알고리즘에 의해 출력된 결과는 각 객체의 위치를 나타내는 바운딩 박스(Bounding Box) 및 해당 객체가 무엇인지에 대한 분류 확률을 포함할 수 있다.The
깊이 맵 생성부(150)는 촬상부(110)에 의해 생성된 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 역할을 수행한다. 예를 들어, 깊이 맵 생성부(150)는 딥 러닝(deep learning) 기반의 모델을 이용하여 단안 카메라인 촬상부(110)에 의해 생성된 촬영 영상의 깊이 맵을 생성할 수 있다.The
깊이 맵은 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함하는 것일 수 있다. 깊이 맵은 영상에 포함된 객체 간의 상대적 거리 정보뿐만 아니라 객체 각각을 구성하는 표면 전반에 걸친 상대적 거리 정보를 포함할 수 있다. 예를 들어, 깊이 맵은 촬영 영상에 포함된 전체 화소에 대한 상대적 거리 정보를 포함하는 것으로 이해될 수 있다. 객체의 상대적 거리 정보가 이용되어 객체 간의 배치 관계뿐만 아니라 각 객체의 3차원 형상에 대한 추정이 가능하게 된다.The depth map may include relative distance information of objects included in the captured image. The depth map may include not only relative distance information between objects included in the image, but also relative distance information across surfaces constituting each object. For example, a depth map can be understood as containing relative distance information for all pixels included in a captured image. By using the relative distance information of objects, it is possible to estimate not only the arrangement relationship between objects but also the three-dimensional shape of each object.
또는, 본 발명의 몇몇 실시예에 따르면 깊이 맵 생성부(140)는 인공지능 모델을 이용하여 깊이 맵을 생성한 이후에 촬상부(110)에 구비된 초점 렌즈(미도시)의 특성을 반영하여 깊이 맵을 변환할 수 있다. 이를 구체적으로 설명하면, 초점 렌즈의 위치가 참조되어 촬상부(110)에 의해 촬영된 객체와 촬상부(110)간의 절대 거리가 산출되는데, 깊이 맵 생성부(140)는 초점 렌즈의 위치 및 절대 거리 간의 변화량이 반영되도록 깊이 맵을 변환할 수 있다.Alternatively, according to some embodiments of the present invention, the
또한, 깊이 맵 생성부(140)는 서로 다른 복수의 인공지능 모델 중 선택된 적어도 하나의 인공지능 모델을 이용하여 깊이 맵을 생성할 수 있다. 복수의 인공지능 모델은 서로 다른 상황에서 최적의 깊이 맵을 생성할 수 있다. 예를 들어, 제1 인공지능 모델은 주간의 장면이 포함된 영상에 대하여 최적의 깊이 맵을 생성하고, 제2 인공지능 모델은 야간의 장면이 포함된 영상에 대하여 최적의 깊이 맵을 생성할 수 있다. 또는, 제3 인공지능 모델은 인물 또는 동물이 포함된 영상에 대하여 최적의 깊이 맵을 생성하고, 제3 인공지능 모델은 자연 환경이 포함된 영상에 대하여 최적의 깊이 맵을 생성할 수 있다. 깊이 맵 생성부(140)는 촬상부(110)에 의한 촬영 조건을 참조하여 복수의 인공지능 모델 중 적어도 하나를 선택하고, 선택된 인공지능 모델을 이용하여 깊이 맵을 생성할 수 있다.Additionally, the
맵 분석부(160)는 깊이 맵을 분석하여 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 역할을 수행한다. 구체적으로, 맵 분석부(160)는 객체 검출부(140)에 의해 검출된 객체 중 기준 객체를 선택하고, 깊이 맵에 포함된 맵 객체 중 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 깊이 맵의 전체 영역에 대한 절대 거리를 산출할 수 있다. 맵 분석부(160)의 세부적인 구성 및 기능에 대해서는 도 2 내지 도 8을 통하여 후술하기로 한다.The
출력부(170)는 맵 분석부(160)의 분석 결과를 출력할 수 있다. 사용자는 맵 분석부(160)의 분석 결과를 참조하여 촬영 영상의 전체 영역에 대한 절대 거리를 확인할 수 있다. 이 때, 촬상부(110)에 의한 방향 전환 및 확대 없이 생성된 촬영 영상을 기초로 객체 검출부(140)는 객체를 검출하고, 깊이 맵 생성부(150)는 깊이 맵을 생성할 수 있다. 결국, 본 발명에 따르면 디스플레이 중인 촬영 영상의 전환 없이 맵 분석부(160)에 의한 분석 결과의 출력이 가능하게 된다.The
제어부(130)는 촬상부(110), 저장부(120), 객체 검출부(140), 깊이 맵 생성부(150), 맵 분석부(160) 및 출력부(170)에 대한 전반적인 제어를 수행한다. 예를 들어, 절대 거리의 산출을 위한 사용자 명령이 입력된 경우 제어부(130)는 촬상부(110), 객체 검출부(140), 깊이 맵 생성부(150) 및 맵 분석부(160)를 제어하여 촬영 영상에 대한 깊이 맵의 절대 거리가 생성되도록 할 수 있다.The
한편, 본 발명의 몇몇 실시예에 따르면 제어부(130)는 사용자 명령의 입력 없이도 촬영 영상에 대한 깊이 맵의 절대 거리가 생성되도록 할 수도 있다. 이러한 경우 객체 검출부(140)는 촬영 영상에서 객체를 실시간으로 검출할 수 있다. 그리하여, 객체 검출부(140)의 실시간 검출 결과에 따라 촬영 영상에서 객체가 검출되는 경우 맵 분석부(160)는 깊이 맵의 전체 영역에 대한 절대 거리를 산출할 수 있다. 새로운 절대 거리가 산출되는 경우 맵 분석부(160)는 기존에 생성된 절대 거리를 새로운 절대 거리로 갱신할 수 있으며, 이러한 과정은 반복적으로 수행될 수 있다.Meanwhile, according to some embodiments of the present invention, the
도 2는 맵 분석부의 블록도이다.Figure 2 is a block diagram of the map analysis unit.
도 2를 참조하면, 맵 분석부(160)는 거리 산출부(161) 및 거리 변환부(162)를 포함하여 구성된다.Referring to FIG. 2, the
거리 산출부(161)는 기준 맵 객체의 크기를 참조하여 기준 맵 객체의 절대 거리를 산출하는 역할을 수행한다. 전술한 바와 같이, 저장부(120)에는 절대 거리 테이블이 저장될 수 있다. 거리 산출부(161)는 절대 거리 테이블을 참조하여 기준 맵 객체의 절대 거리를 산출할 수 있다. 거리 산출부(161)는 절대 거리 테이블에서 기준 맵 객체의 크기에 대응하는 절대 거리를 추출함으로써 기준 맵 객체의 절대 거리를 산출할 수 있다.The
본 발명에서 기준 객체는 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는데 이용되는 객체를 나타낸다. 기준 객체는 촬영 영상에 포함된 객체 중에서 임의로 선택될 수 있다.In the present invention, the reference object represents an object used to convert the relative distance for the entire area of the depth map into an absolute distance. The reference object may be randomly selected from objects included in the captured image.
거리 변환부(162)는 적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 역할을 수행한다. 2개 이상의 기준 맵 객체에 대한 상대 거리와 절대 거리가 확인되는 경우 이를 통하여 깊이 맵 전체에 대한 상대 거리와 절대 거리 간의 비율이 산출될 수 있다. 거리 변환부(162)는 이러한 상대 거리와 절대 거리 간의 비율에 깊이 맵을 구성하는 전체 영역의 상대 거리를 적용함으로써 각 영역의 절대 거리를 산출할 수 있다.The
도 3은 촬영 영상을 나타낸 도면이고, 도 4는 촬영 영상에서 참조 객체가 검출되는 것을 나타낸 도면이다.FIG. 3 is a diagram showing a captured image, and FIG. 4 is a diagram showing a reference object being detected in a captured image.
도 3을 참조하면, 촬상부(110)는 전방을 촬영하여 촬영 영상(200)을 생성할 수 있다.Referring to FIG. 3, the
촬영 영상(200)은 적어도 하나의 객체(210)를 포함할 수 있다. 객체(210)는 사람, 동물, 차량 또는 건물을 포함할 수 있다. 촬영 영상(200)은 촬상부(110)에 의해 생성된 것으로서, 정지 영상이거나 동영상에 포함된 복수의 장면 중 하나의 장면일 수 있다.The captured
도 4를 참조하면, 객체 검출부(140)는 촬영 영상(200)에 포함된 객체(210)를 검출할 수 있다.Referring to FIG. 4 , the
특히, 본 발명의 실시예에 따른 영상 분석 장치(100)의 객체 검출부(140)는 참조 객체를 검출할 수 있다. 본 발명에서 참조 객체는 촬영 영상(200)에 포함된 객체(210) 중 표준 크기 정보가 확보된 객체를 나타낸다. 사람, 자전거 및 차량 등은 그 크기가 일정하게 형성될 수 있다. 이와 같이, 대체로 그 크기가 균일하게 형성되는 객체가 참조 객체일 수 있는 것으로서, 객체 검출부(140)는 이러한 참조 객체를 촬영 영상(200)에서 검출할 수 있다. 참조 객체가 검출되는 경우 참조 객체의 가장자리에는 바운딩 박스(220)가 형성될 수 있다. 전술한 맵 분석부(160)는 참조 객체 중에서 기준 객체를 선택할 수 있다.In particular, the
도 5는 촬영 영상의 깊이 맵을 나타낸 도면이고, 도 6은 참조 맵 객체의 일부에 기준 박스가 형성되는 것을 나타낸 도면이고, 도 7은 기준 박스에 기준 영역이 형성되는 것을 나타낸 도면이며, 도 8은 참조 맵 객체의 전체에 기준 박스가 형성되는 것을 나타낸 도면이다.FIG. 5 is a diagram showing a depth map of a captured image, FIG. 6 is a diagram showing a reference box being formed in a part of a reference map object, FIG. 7 is a diagram showing a reference area being formed in a reference box, and FIG. 8 is a diagram showing that a reference box is formed throughout the reference map object.
도 5를 참조하면, 깊이 맵 생성부(150)는 촬영 영상(200)에 대한 깊이 맵(300)을 생성할 수 있다.Referring to FIG. 5 , the
깊이 맵(300)은 객체(310)의 상대적 거리 정보를 포함할 수 있다. 상대적 거리 정보는 깊이 맵(300)에 포함된 각 지점과 촬영 지점 간의 거리가 상대적으로 결정된 값을 나타낸다.The depth map 300 may include relative distance information of the
본 발명에서 맵 분석부(150)에 의해 처리 가능한 깊이 맵(300)의 해상도는 촬영 영상(200)의 해상도에 대하여 상이할 수 있다. 이러한 경우 깊이 맵 생성부(140)는 사전에 설정된 깊이 맵(300)의 해상도에 대응되도록 촬영 영상(200)의 해상도를 변환하고, 변환된 촬영 영상을 이용하여 깊이 맵(300)을 생성할 수 있다.In the present invention, the resolution of the depth map 300 that can be processed by the
도 5 및 도 6을 참조하면, 거리 산출부(161)는 기준 객체에 대응하는 기준 맵 객체(310)를 추출하고, 기준 맵 객체(310)에 기준 영역(410)을 생성할 수 있다.Referring to FIGS. 5 and 6 , the
거리 산출부(161)는 기준 맵 객체(310)의 사전에 설정된 일부(311)에 포함된 기준 영역(410)의 크기를 참조하여 기준 맵 객체(310)의 절대 거리를 산출할 수 있다. 예를 들어, 기준 객체가 사람인 경우 거리 산출부(161)는 사람의 머리에 해당하는 기준 맵 객체(310)의 일부(이하, 목표 객체라 한다) (311)에 기준 영역(410)을 생성할 수 있다.The
기준 영역(410)은 목표 객체(311)에 포함되는 최대의 크기를 갖는 직사각형의 형태로 제공될 수 있다. 예를 들어, 기준 영역(410)의 4개의 모서리는 목표 객체(311)의 경계에 중첩될 수 있다.The
기준 영역(410)이 직사각형의 형태로 제공됨에 따라 기준 영역(410)의 가로 길이(H1) 및 세로 길이(V1)를 이용하여 기준 영역(410)의 크기가 산출될 수 있다. 거리 산출부(161)는 기준 영역(410)의 크기를 참조하여 기준 맵 객체의 절대 거리를 산출할 수 있다.As the
도 7을 참조하면, 거리 산출부(161)는 기준 영역(410)에 포함된 상대 거리 정보 중 일부 정보를 추출하여 기준 맵 객체(310)의 상대 거리를 산출할 수 있다.Referring to FIG. 7 , the
거리 산출부(161)는 기준 영역(410)의 내부에 특징 영역(411)을 생성할 수 있다. 거리 산출부(161)는 사전에 설정된 크기로 특징 영역(411)을 생성할 수 있다. 예를 들어, 거리 산출부(161)는 기준 영역(410)의 가로 길이(H1) 및 세로 길이(V1)의 30%에 각각 대응되도록 특징 영역(411)의 가로 길이(H2) 및 세로 길이(V2)를 설정할 수 있다.The
거리 산출부(161)는 기준 영역(410)의 중심에 특징 영역(411)을 생성할 수 있다. 예를 들어, 거리 산출부(161)는 기준 영역(410)의 중심(C)과 특징 영역(411)의 중심이 일치되도록 특징 영역(411)을 생성할 수 있다. 한편, 본 발명의 몇몇 실시예에 따르면 거리 산출부(161)는 기준 영역(410)의 임의의 지점에 특징 영역(411)이 배치되도록 특징 영역(411)을 생성할 수도 있다.The
거리 산출부(161)는 특징 영역(411)에 포함된 상대 거리의 평균값 또는 중간값을 산출하고, 이를 기준 맵 객체(310)의 상대 거리인 것으로 결정할 수 있다. 여기서, 평균값은 특징 영역(411)에 포함된 모든 상대 거리의 합을 상대 거리의 수로 나눈 값을 나타내고, 중간값은 특징 영역(411)에 포함된 상대 거리의 분포 중 중간에 대응하는 값을 나타낸다. 또는, 중간값은 특징 영역(411)의 중심 화소의 상대 거리를 나타내는 것일 수 있다. 그러나, 본 발명에서 기준 맵 객체(310)의 상대 거리가 특징 영역(411)에 포함된 상대 거리의 평균값 또는 중간값으로 결정되는 것은 예시적인 것으로서 해당 특징 영역(411)을 대표하는 다양한 값이 기준 맵 객체(310) 상대 거리로서 결정될 수 있다. 이하, 기준 맵 객체(310)의 상대 거리가 특징 영역(411)의 평균값 또는 중간값으로 결정되는 것을 위주로 설명하기로 한다.The
거리 산출부(161)에 의해 기준 맵 객체(310)의 절대 거리와 상대 거리가 산출된 것으로서, 거리 변환부(162)는 이를 기초로 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환할 수 있다.The absolute distance and relative distance of the
한편, 도 6 및 도 7은 기준 맵 객체(310) 중 일부인 목표 객체(311)에 기준 영역(410)이 생성된 것을 설명하였으나, 도 8에 도시된 바와 같이 기준 맵 객체(310)의 가장자리에 기준 영역(420)이 생성될 수도 있다. 이러한 경우 기준 영역(420)은 기준 객체의 바운딩 박스(220)와 동일한 크기로 생성될 수 있으며, 거리 변환부(162)는 이를 기초로 기준 맵 객체(310)의 절대 거리 및 상대 거리를 산출할 수 있다.Meanwhile, FIGS. 6 and 7 illustrate that the
도 9는 기준 포인트가 거리 좌표 평면에 표시된 것을 나타낸 도면이고, 도 10은 기준 포인트를 기초로 기준 그래프가 형성되는 것을 나타낸 도면이다.FIG. 9 is a diagram showing a reference point displayed on a distance coordinate plane, and FIG. 10 is a diagram showing a reference graph being formed based on the reference point.
도 9를 참조하면, 거리 산출부(161)는 기준 포인트(P1, P2)를 거리 좌표 평면에 표시할 수 있다.Referring to FIG. 9, the
거리 좌표 평면은 절대 거리를 나타내는 가로축과 상대 거리를 나타내는 세로축에 의해 형성될 수 있다. 기준 포인트(P1, P2)는 기준 맵 객체(310)에 대응하는 거리 좌표 평면상의 좌표점을 나타낸다.The distance coordinate plane can be formed by a horizontal axis representing absolute distance and a vertical axis representing relative distance. The reference points (P1, P2) represent coordinate points on the distance coordinate plane corresponding to the
거리 산출부(161)는 참조 객체 중 기준 객체를 선택할 수 있다. 기준 객체는 서로 다른 참조 객체 중에서 적어도 2개가 선택될 수 있다.The
또한, 거리 산출부(161)는 서로 다른 기준 맵 객체(310) 간의 상대 거리가 사전에 설정된 간격 이상으로 형성되도록 기준 객체를 선택할 수 있다. 도 9는 2개의 기준 맵 객체(310) 간의 상대 거리 간격이 D인 것을 도시하고 있다.Additionally, the
기준 객체가 선택되는 경우 거리 산출부(161)는 기준 객체에 대응하는 기준 맵 객체(310)에 기준 영역(410)을 생성하고, 기준 영역(410)의 크기를 참조하여 기준 맵 객체(310)의 절대 거리를 산출할 수 있다. 그리고, 거리 산출부(161)는 기준 영역(410)에 특징 영역(411)을 형성하고, 특징 영역(411)에 포함된 상대 거리를 참조하여 기준 맵 객체(310)의 상대 거리를 산출할 수 있다. 이 때, 서로 다른 기준 맵 객체(310)의 상대 거리 간의 간격이 사전에 설정된 간격의 미만인 경우 거리 산출부(161)는 새로운 기준 객체를 선택하고, 새로운 기준 객체를 기초로 위의 과정을 반복할 수 있다.When a reference object is selected, the
기준 맵 객체(310)의 절대 거리 및 상대 거리가 확인되는 경우 기준 객체에 대응하는 기준 포인트(P1, P2)가 거리 좌표 평면에 표시될 수 있다. 도 9는 2개의 기준 객체에 대한 2개의 기준 포인트(P1, P2)가 거리 좌표 평면에 표시된 것을 도시하고 있다. 제1 기준 맵 객체의 상대 거리 및 절대 거리가 각각 A1 및 B1임에 따라 이를 기초로 제1 기준 포인트 P1이 거리 좌표 평면에 표시될 수 있다. 이와 마찬가지로, 제2 기준 맵 객체의 상대 거리 및 절대 거리가 각각 A2 및 B2임에 따라 이를 기초로 제2 기준 포인트 P2가 거리 좌표 평면에 표시될 수 있다.When the absolute distance and relative distance of the
도 10을 참조하면, 거리 변환부(162)는 기준 포인트(P1, P2)를 기초로 기준 그래프(G1)를 생성할 수 있다.Referring to FIG. 10 , the
기준 그래프(G1)는 복수의 기준 포인트(P1, P2)를 연결함으로써 생성될 수 있다. 도 10은 2개의 기준 포인트(P1, P2)가 연결되어 직선인 기준 그래프(G1)가 생성된 것을 도시하고 있다.The reference graph (G1) can be created by connecting a plurality of reference points (P1, P2). Figure 10 shows that two reference points (P1, P2) are connected to create a straight reference graph (G1).
기준 그래프(G1)는 기준 맵 객체(310)의 절대 거리와 상대 거리의 비율이 반영된 것으로서, 거리 변환부(162)는 이를 이용하여 깊이 맵의 다른 부분에 대한 절대 거리를 산출할 수 있다. 도 10을 참조하여 설명하면, 상대 거리가 a1인 경우 깊이 맵의 해당 지점의 절대 거리는 b1으로 결정되고, 상대 거리가 a2인 경우 깊이 맵의 해당 지점의 절대 거리는 b2로 결정되며, 상대 거리가 a3인 경우 깊이 맵의 해당 지점의 절대 거리는 b3으로 결정될 수 있다.The reference graph G1 reflects the ratio of the absolute distance and the relative distance of the
거리 변환부(162)는 이러한 과정을 통하여 깊이 맵(300)의 전체 영역(400)의 절대 거리를 산출할 수 있다.The
도 11은 3개의 기준 포인트를 기초로 기준 그래프가 형성되는 것을 나타낸 도면이다.Figure 11 is a diagram showing a reference graph being formed based on three reference points.
도 11을 참조하면, 거리 산출부(161)는 3개 이상의 기준 객체를 선택할 수 있다.Referring to FIG. 11, the
기준 객체가 3개인 경우 3개의 기준 포인트(P1, P2, P3)가 거리 좌표 평면에 표시되고, 이를 기초로 생성된 기준 그래프(G2)는 직선이 아닌 곡선으로 형성될 수 있다.When there are three reference objects, three reference points (P1, P2, P3) are displayed on the distance coordinate plane, and the reference graph (G2) generated based on these may be formed as a curve rather than a straight line.
제1 기준 객체에 대한 상대 거리 및 절대 거리가 각각 A1 및 B1임에 따라 이를 기초로 제1 기준 포인트 P1이 거리 좌표 평면에 표시될 수 있다. 제2 기준 객체에 대한 상대 거리 및 절대 거리가 각각 A2 및 B2임에 따라 이를 기초로 제2 기준 포인트 P2가 거리 좌표 평면에 표시될 수 있다. 제3 기준 객체에 대한 상대 거리 및 절대 거리가 각각 A3 및 B3임에 따라 이를 기초로 제3 기준 포인트 P3가 거리 좌표 평면에 표시될 수 있다.Since the relative distance and absolute distance to the first reference object are A1 and B1, respectively, the first reference point P1 may be displayed on the distance coordinate plane based on this. Since the relative distance and absolute distance to the second reference object are A2 and B2, respectively, the second reference point P2 may be displayed on the distance coordinate plane based on this. Since the relative distance and absolute distance to the third reference object are A3 and B3, respectively, the third reference point P3 may be displayed on the distance coordinate plane based on this.
기준 객체의 수가 증가할수록 이에 대응하는 보다 많은 수의 기준 맵 객체에 대한 상대 거리와 절대 거리의 비율이 반영되어 기준 그래프(G2)가 생성될 수 있다. 보다 많은 기준 맵 객체를 기초로 생성된 기준 그래프(G2)가 이용되어 거리 변환이 수행되는 경우 거리 변환에 대한 신뢰도가 향상될 수 있다.As the number of reference objects increases, the reference graph G2 may be generated by reflecting the ratio of the relative distance to the absolute distance for a larger number of reference map objects. When distance transformation is performed using a reference graph (G2) created based on more reference map objects, reliability of the distance transformation may be improved.
도 12는 본 발명의 실시예에 따른 영상 분석 방법을 나타낸 흐름도이다.Figure 12 is a flowchart showing an image analysis method according to an embodiment of the present invention.
도 12를 참조하면, 단안 카메라인 촬상부(110)의 촬영 영상(200)의 절대 거리를 산출하기 위하여 우선 촬상부(110)는 촬영 영상(200)을 생성할 수 있다(S510).Referring to FIG. 12, in order to calculate the absolute distance of the captured
객체 검출부(140)는 촬영 영상(200)에서 객체를 검출할 수 있다. 구체적으로, 객체 검출부(140)는 촬영 영상(200)에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출할 수 있다.The
깊이 맵 생성부(150)는 촬영 영상(200)에 대한 깊이 맵을 생성할 수 있다. 맵 분석부(160)의 거리 산출부(161)는 객체 검출부(140)에 의해 검출된 참조 객체 중 기준 객체를 선택할 수 있다. 그리고, 거리 산출부(161)는 기준 객체에 대응하는 기준 맵 객체(310)의 크기를 이용하여 기준 맵 객체(310)의 절대 거리를 산출하고, 기준 맵 객체(310)에 기준 영역(410)을 생성하여 기준 맵 객체(310)의 상대 거리를 산출할 수 있다.The
거리 변환부(162)는 적어도 2개의 기준 맵 객체(310)의 상대 거리와 절대 거리의 비율에 따라 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환할 수 있다.The
도 13은 관심 영역이 전환되는 것을 나타낸 도면이다.Figure 13 is a diagram showing the area of interest being switched.
도 13을 참조하면, 맵 분석부(160)는 촬상부(110)의 촬영 가능 영역(600) 중 사전에 설정된 관심 영역(610, 620, 630)에 대한 촬영 영상에서 기준 객체를 검출하고, 검출된 기준 객체를 기초로 해당 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신할 수 있다.Referring to FIG. 13, the
전술한 바와 같이, 맵 분석부(160)는 촬영 영상(200)에서 검출된 기준 객체를 기초로 깊이 맵의 전체 영역에 대한 절대 거리를 산출할 수 있다. 한편, 맵 분석부(160)에 의해 선택된 기준 객체가 표준의 형태 및 크기를 갖지 않는 객체일 수 있다. 이러한 경우 해당 기준 객체를 기초로 생성된 절대 거리는 오차가 반영될 수 있다.As described above, the
기준 객체의 선택에 따른 오차의 반영을 보상하기 위하여 맵 분석부(160)는 기존에 생성된 깊이 맵의 전체 영역에 대한 절대 거리(이하, 전체 절대 거리라 한다)를 갱신할 수 있다.In order to compensate for the error reflected in the selection of the reference object, the
전체 절대 거리의 갱신을 위하여 맵 분석부(160)는 촬상부(110)의 촬영 가능 영역(600) 중 사전에 설정된 관심 영역(610, 620, 630)에 대한 촬영 영상에서 기준 객체를 검출할 수 있다. 여기서, 촬영 가능 영역(600)은 촬상부(110)에 구비된 팬 틸트 장비의 구동 범위에 의해 결정되는 촬상부(110)의 촬영 영역을 나타낸다.In order to update the total absolute distance, the
맵 분석부(160)는 관심 영역(610, 620, 630)에 대응되는 촬영 영상에서 기준 맵 객체를 추출하고, 추출된 기준 맵 객체에 대한 절대 거리를 산출할 수 있다. 그리고, 맵 분석부(160)는 기준 맵 객체에 대하여 산출된 절대 거리를 깊이 맵의 전체 영역에 적용하여 전체 절대 거리를 갱신할 수 있다. 이 때, 맵 분석부(160)는 새롭게 생성된 전체 절대 거리와 기존의 전체 절대 거리 간의 차이가 사전에 설정된 임계치를 초과하는 경우 전체 절대 거리를 갱신할 수 있다. 전체 절대 거리의 갱신은 지속적으로 수행될 수 있으며, 이와 같은 전체 절대 거리의 갱신에 의해 해당 관심 영역(610, 620, 630)에 대응되는 촬영 영상에 대한 전체 절대 거리의 신뢰도가 향상될 수 있다.The
촬상부(110)의 촬영 가능 영역(600)은 복수의 관심 영역(610, 620, 630)을 포함할 수 있다. 도 13에 도시된 바와 같이, 복수의 관심 영역(610, 620, 630)은 사전에 설정된 순서에 따라 전환될 수 있다. 관심 영역(610, 620, 630)은 촬영 영상(200) 중 특별히 관찰되어야 하는 영역으로서 사용자는 복수의 관심 영역(610, 620, 630)의 좌표, 전환 시간 및 전환 순서를 사전에 설정할 수 있다. 도 13은 제1 관심 영역(610), 제2 관심 영역(620) 및 제3 관심 영역(630)의 순서로 관심 영역(610, 620, 630)이 전환되는 것을 도시하고 있다.The captureable
맵 분석부(160)는 복수의 관심 영역(610, 620, 630) 중 사전에 설정된 순서에 따라 전환된 관심 영역(610, 620, 630)에 대한 촬영 영상에서 기준 객체를 검출할 수 있다. 전환된 관심 영역(610, 620, 630)의 촬영 영상에 참조 객체가 포함된 경우 맵 분석부(160)는 참조 객체 중 기준 객체를 선택할 수 있다. 한편, 전환된 관심 영역(610, 620, 630)의 촬영 영상에 참조 객체가 포함되어 있지 않은 경우 맵 분석부(160)는 해당 관심 영역(610, 620, 630)을 기초로 하는 전체 절대 거리의 갱신을 생략할 수 있다. 도 13을 참조하여 설명하면, 제1 관심 영역(610)의 촬영 영상에 참조 객체가 포함된 경우 맵 분석부(160)는 해당 촬영 영상에 대한 전체 절대 거리의 갱신을 수행할 수 있다. 이어서, 객체 검출부(140)는 제2 관심 영역(620)의 촬영 영상에서 참조 객체의 검출을 시도할 수 있다. 그리하여, 제2 관심 영역(620)의 촬영 영상에서 참조 객체가 검출되는 경우 맵 분석부(160)는 해당 촬영 영상에 대한 전체 절대 거리의 갱신을 수행할 수 있다. 한편, 제2 관심 영역(620)의 촬영 영상에서 참조 객체가 검출되지 않은 경우 맵 분석부(160)는 해당 촬영 영상에 대한 전체 절대 거리의 갱신을 생략할 수 있다. 이어서, 객체 검출부(140)는 제3 관심 영역(630)의 촬영 영상에서 참조 객체의 검출을 시도할 수 있으며, 이러한 과정은 모든 관심 영역(610, 620, 630)에 대하여 수행될 수 있다.The
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the above and the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. You will understand that it exists. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.
100: 영상 분석 장치
110: 촬상부
120: 저장부
130: 제어부
140: 객체 검출부
150: 깊이 맵 생성부
160: 맵 분석부
170: 출력부100: video analysis device 110: imaging unit
120: storage unit 130: control unit
140: object detection unit 150: depth map creation unit
160: map analysis unit 170: output unit
Claims (20)
상기 촬영 영상에서 객체를 검출하는 객체 검출부;
상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 깊이 맵 생성부; 및
상기 검출된 객체 중 기준 객체를 선택하고, 상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 맵 분석부를 포함하는 영상 분석 장치.An imaging unit that generates a captured image;
an object detection unit that detects an object in the captured image;
a depth map generator that generates a depth map for the captured image; and
Select a reference object from among the detected objects, and calculate the absolute distance for the entire area of the depth map by referring to the absolute distance calculated for the reference map object corresponding to the reference object among the map objects included in the depth map. An image analysis device including a map analysis unit.
상기 깊이 맵은 상기 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함하는 영상 분석 장치.According to claim 1,
The depth map is an image analysis device including relative distance information of objects included in the captured image.
상기 객체 검출부는 상기 촬영 영상에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출하고,
상기 맵 분석부는 상기 참조 객체 중에서 상기 기준 객체를 선택하는 영상 분석 장치.According to claim 1,
The object detector detects a reference object for which standard size information is secured among objects included in the captured image,
The map analysis unit is an image analysis device that selects the reference object from the reference objects.
상기 맵 분석부는,
상기 기준 맵 객체의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 거리 산출부; 및
적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 상기 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 거리 변환부를 포함하는 영상 분석 장치.According to claim 1,
The map analysis unit,
a distance calculation unit that calculates an absolute distance of the reference map object by referring to the size of the reference map object; and
An image analysis device comprising a distance conversion unit that converts the relative distance for the entire area of the depth map into an absolute distance according to the ratio of the relative distance and absolute distance of at least two reference map objects.
상기 거리 산출부는 상기 기준 맵 객체의 사전에 설정된 일부에 포함된 기준 영역의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 영상 분석 장치.According to clause 4,
The distance calculation unit is an image analysis device that calculates an absolute distance of the reference map object by referring to the size of a reference area included in a preset part of the reference map object.
상기 거리 산출부는 상기 기준 영역에 포함된 상대 거리 정보 중 일부 정보를 추출하여 상기 기준 맵 객체의 상대 거리를 산출하는 영상 분석 장치.According to clause 5,
The distance calculation unit extracts some of the relative distance information included in the reference area and calculates the relative distance of the reference map object.
상기 거리 산출부는,
사전에 설정된 크기의 특징 영역을 상기 기준 영역에 생성하고,
상기 특징 영역에 포함된 상대 거리의 평균값 또는 중간값을 상기 기준 맵 객체의 상대 거리인 것으로 결정하는 영상 분석 장치.According to clause 6,
The distance calculation unit,
Creating a feature area of a preset size in the reference area,
An image analysis device that determines the average or median value of the relative distances included in the feature area as the relative distance of the reference map object.
상기 맵 분석부는,
상기 촬상부의 촬영 가능 영역 중 사전에 설정된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하고,
상기 검출된 기준 객체를 기초로 상기 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신하는 영상 분석 장치.According to claim 1,
The map analysis unit,
Detecting a reference object in a captured image of a preset area of interest among the imageable areas of the imaging unit,
An image analysis device that updates a pre-generated absolute distance with respect to a depth map of the captured image based on the detected reference object.
상기 촬영 가능 영역은 복수의 관심 영역을 포함하고,
상기 맵 분석부는 상기 복수의 관심 영역 중 사전에 설정된 순서에 따라 전환된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 영상 분석 장치.According to clause 8,
The imageable area includes a plurality of areas of interest,
The map analysis unit is an image analysis device that detects a reference object from a captured image of a region of interest converted according to a preset order among the plurality of regions of interest.
상기 객체 검출부는 상기 촬영 영상에서 객체를 실시간으로 검출하고,
상기 실시간 검출 결과에 따라 상기 촬영 영상에서 객체가 검출되는 경우 상기 맵 분석부는 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 영상 분석 장치.According to claim 1,
The object detection unit detects an object in the captured image in real time,
When an object is detected in the captured image according to the real-time detection result, the map analysis unit calculates an absolute distance for the entire area of the depth map.
상기 촬영 영상에서 객체를 검출하는 단계;
상기 촬영 영상에 대한 깊이 맵(depth map)을 생성하는 단계;
상기 검출된 객체 중 기준 객체를 선택하는 단계; 및
상기 깊이 맵에 포함된 맵 객체 중 상기 기준 객체에 대응하는 기준 맵 객체에 대하여 산출된 절대 거리를 참조하여 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계를 포함하는 영상 분석 방법.Generating a captured image;
Detecting an object in the captured image;
generating a depth map for the captured image;
selecting a reference object from among the detected objects; and
An image analysis method comprising calculating an absolute distance for the entire area of the depth map by referring to an absolute distance calculated for a reference map object corresponding to the reference object among map objects included in the depth map.
상기 깊이 맵은 상기 촬영 영상에 포함된 객체의 상대적 거리 정보를 포함하는 영상 분석 방법.According to claim 11,
The depth map is an image analysis method including relative distance information of objects included in the captured image.
상기 객체를 검출하는 단계는 상기 촬영 영상에 포함된 객체 중 표준 크기 정보가 확보된 참조 객체를 검출하는 단계를 포함하고,
상기 기준 객체를 선택하는 단계는 상기 참조 객체 중에서 상기 기준 객체를 선택하는 단계를 포함하는 영상 분석 방법.According to claim 11,
The step of detecting the object includes detecting a reference object for which standard size information is secured among objects included in the captured image,
The step of selecting the reference object includes selecting the reference object from among the reference objects.
상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계는,
상기 기준 맵 객체의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 단계; 및
적어도 2개의 기준 맵 객체의 상대 거리와 절대 거리의 비율에 따라 상기 깊이 맵의 전체 영역에 대한 상대 거리를 절대 거리로 변환하는 단계를 포함하는 영상 분석 방법.According to claim 11,
The step of calculating the absolute distance for the entire area of the depth map is,
calculating an absolute distance of the reference map object by referring to the size of the reference map object; and
An image analysis method comprising converting a relative distance for an entire area of the depth map into an absolute distance according to a ratio of the relative distance and absolute distance of at least two reference map objects.
상기 기준 맵 객체의 절대 거리를 산출하는 단계는 상기 기준 맵 객체의 사전에 설정된 일부에 포함된 기준 영역의 크기를 참조하여 상기 기준 맵 객체의 절대 거리를 산출하는 단계를 포함하는 영상 분석 방법.According to claim 14,
The step of calculating the absolute distance of the reference map object includes calculating the absolute distance of the reference map object with reference to the size of a reference area included in a preset part of the reference map object.
상기 기준 영역에 포함된 상대 거리 정보 중 일부 정보를 추출하여 상기 기준 맵 객체의 상대 거리를 산출하는 단계를 더 포함하는 영상 분석 방법.According to claim 15,
An image analysis method further comprising calculating a relative distance of the reference map object by extracting some of the relative distance information included in the reference area.
상기 기준 맵 객체의 상대 거리를 산출하는 단계는,
사전에 설정된 크기의 특징 영역을 상기 기준 영역에 생성하는 단계; 및
상기 특징 영역에 포함된 상대 거리의 평균값 또는 중간값을 상기 기준 맵 객체의 상대 거리인 것으로 결정하는 단계를 포함하는 영상 분석 방법.According to claim 16,
The step of calculating the relative distance of the reference map object is,
Creating a feature area of a preset size in the reference area; and
An image analysis method comprising determining an average or median value of relative distances included in the feature area as the relative distance of the reference map object.
상기 촬영 영상을 생성하는 촬상부의 촬영 가능 영역 중 사전에 설정된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 단계; 및
상기 검출된 기준 객체를 기초로 상기 촬영 영상의 깊이 맵에 대하여 사전에 생성된 절대 거리를 갱신하는 단계를 더 포함하는 영상 분석 방법.According to claim 11,
Detecting a reference object in a captured image for a preset region of interest among the captureable areas of the imaging unit that generates the captured image; and
An image analysis method further comprising updating a pre-generated absolute distance with respect to a depth map of the captured image based on the detected reference object.
상기 촬영 영상은 복수의 관심 영역을 포함하고,
상기 관심 영역에서 기준 객체를 검출하는 단계는 상기 복수의 관심 영역 중 사전에 설정된 순서에 따라 전환된 관심 영역에 대한 촬영 영상에서 기준 객체를 검출하는 단계를 포함하는 영상 분석 방법.According to clause 18,
The captured image includes a plurality of regions of interest,
The step of detecting a reference object in the region of interest includes detecting a reference object in a captured image of a region of interest converted according to a preset order among the plurality of regions of interest.
상기 촬영 영상에서 객체를 검출하는 단계는 상기 촬영 영상에서 객체를 실시간으로 검출하는 단계를 포함하고,
상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계는 상기 실시간 검출 결과에 따라 상기 촬영 영상에서 객체가 검출되는 경우 상기 깊이 맵의 전체 영역에 대한 절대 거리를 산출하는 단계를 포함하는 영상 분석 방법.According to clause 18,
Detecting an object in the captured image includes detecting an object in the captured image in real time,
Calculating the absolute distance for the entire area of the depth map includes calculating the absolute distance for the entire area of the depth map when an object is detected in the captured image according to the real-time detection result. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2023/006885 WO2024063242A1 (en) | 2022-09-20 | 2023-05-22 | Apparatus and method for image analysis |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220118655 | 2022-09-20 | ||
KR1020220118655 | 2022-09-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240040005A true KR20240040005A (en) | 2024-03-27 |
Family
ID=90480606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230062399A KR20240040005A (en) | 2022-09-20 | 2023-05-15 | Apparatus and method for analyzing image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240040005A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110142287A1 (en) | 2009-12-16 | 2011-06-16 | Sony Corporation | Algorithms for estimating precise and relative object distances in a scene |
-
2023
- 2023-05-15 KR KR1020230062399A patent/KR20240040005A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110142287A1 (en) | 2009-12-16 | 2011-06-16 | Sony Corporation | Algorithms for estimating precise and relative object distances in a scene |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109151439B (en) | Automatic tracking shooting system and method based on vision | |
KR100776649B1 (en) | A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method | |
US7215364B2 (en) | Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array | |
JP3064928B2 (en) | Subject extraction method | |
JP6570327B2 (en) | Control device, imaging device, control method, program, and storage medium | |
KR100799990B1 (en) | Device and Method for transforming 2-D Image into 3-D Image | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
JP4597391B2 (en) | Facial region detection apparatus and method, and computer-readable recording medium | |
US20220078385A1 (en) | Projection method based on augmented reality technology and projection equipment | |
KR101510312B1 (en) | 3D face-modeling device, system and method using Multiple cameras | |
JP2006287589A (en) | Image processing method and image processing apparatus | |
JP2009047497A (en) | Stereoscopic imaging device, control method of stereoscopic imaging device, and program | |
KR20140074201A (en) | Tracking device | |
KR101983586B1 (en) | Method of stitching depth maps for stereo images | |
JP4235018B2 (en) | Moving object detection apparatus, moving object detection method, and moving object detection program | |
CN113436130B (en) | Intelligent sensing system and device for unstructured light field | |
JP2015005925A (en) | Image processing apparatus and image processing method | |
JP2009047498A (en) | Stereoscopic imaging device, control method of stereoscopic imaging device, and program | |
JP7300895B2 (en) | Image processing device, image processing method, program, and storage medium | |
JP3774495B2 (en) | Image information extracting apparatus and method | |
KR20240040005A (en) | Apparatus and method for analyzing image | |
KR20140052769A (en) | Apparatus and method for correcting distored image | |
JP2005141655A (en) | Three-dimensional modeling apparatus and three-dimensional modeling method | |
KR101817756B1 (en) | PTM making system based on 3D model with interactive viewpoint control and method using the same | |
KR102450466B1 (en) | System and method for removing camera movement in video |