KR20080095616A - Calculating method of actual size of object and system thereof - Google Patents

Calculating method of actual size of object and system thereof Download PDF

Info

Publication number
KR20080095616A
KR20080095616A KR1020070040348A KR20070040348A KR20080095616A KR 20080095616 A KR20080095616 A KR 20080095616A KR 1020070040348 A KR1020070040348 A KR 1020070040348A KR 20070040348 A KR20070040348 A KR 20070040348A KR 20080095616 A KR20080095616 A KR 20080095616A
Authority
KR
South Korea
Prior art keywords
image
size
pixels
obtaining
actual
Prior art date
Application number
KR1020070040348A
Other languages
Korean (ko)
Other versions
KR100881958B1 (en
Inventor
이명호
윤성원
윤용현
신항식
주영민
정완진
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020070040348A priority Critical patent/KR100881958B1/en
Publication of KR20080095616A publication Critical patent/KR20080095616A/en
Application granted granted Critical
Publication of KR100881958B1 publication Critical patent/KR100881958B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Abstract

A method of calculating actual size of an image and a system thereof are provided to calculate size of an interesting area quickly in a photographed image and estimate actual size of a diseased part more accurately when photographing the diseased part. An analysis processing unit receives information with regard to a target that a user wants to obtain to calculate actual size of an image through an input unit if the image obtained from a camera unit is transmitted to the analysis processing unit(S110). The number of pixels is obtained(S120). The number of pixels is divided by a maximum pixel number of an image provided from meta information in the camera unit, and multiplied by size of a photographing element to calculate image size of a target(S130).

Description

영상의 실물 크기 계산 방법 및 그 시스템{Calculating method of actual size of object and system thereof}Calculating method of actual size of object and system

도 1은 본 발명의 일 실시예에 따른 영상의 실물 크기 계산을 위한 시스템 구성도이다. 1 is a system configuration diagram for calculating the real size of an image according to an embodiment of the present invention.

도 2는 본 발명의 제1 실시예에 따른 영상의 실물 크기 계산 방법을 나타낸 흐름도이다. 2 is a flowchart illustrating a method of calculating a real size of an image according to a first exemplary embodiment of the present invention.

도 3은 영상 분할 기법을 통해 대상에 관여된 화소의 수를 구하는 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method of obtaining the number of pixels involved in an object through an image segmentation technique.

도 4는 본 발명의 제2 실시예에 따른 영상의 실물 크기 계산 방법을 나타낸 흐름도이다. 4 is a flowchart illustrating a method of calculating a real size of an image according to a second exemplary embodiment of the present invention.

도 5는 본 발명의 제2 실시예에 적용되는 기하학적 처리 방법을 설명하기 위한 개념도이다. 5 is a conceptual diagram illustrating a geometrical processing method applied to a second embodiment of the present invention.

도 6은 본 발명의 제3 실시예에 따른 영상의 실물 크기 계산 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a method of calculating a real size of an image according to a third exemplary embodiment of the present invention.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

100: 카메라부 110: 무선 전송부100: camera unit 110: wireless transmission unit

120: 촬상 소자 200: 분석 처리부120: imaging device 200: analysis processing unit

210: 입력부 220: 계산 처리부210: input unit 220: calculation processing unit

230: 표시부 230: display unit

본 발명은 영상의 실물 크기 계산 방법 및 그 시스템에 관한 것으로, 보다 자세하게는 디지털 카메라로 찍은 영상에서, 관심 대상의 정확한 실물 크기를 계산하는 방법 및 그 시스템에 관한 것이다. The present invention relates to a method and a system for calculating the real size of an image, and more particularly, to a method and a system for calculating the exact real size of an object of interest in an image taken with a digital camera.

의료 분야에서, 환자의 상태를 알고 치료하기 위한 여러 가지 방법들이 존재한다. 그와 같은 방법 중에는, 화상 환자의 치료를 위하여 화상부의 심도(1도, 2도 화상 등) 및 환부의 영역 크기에 관한 정보를 제공하는 의료 지원 방법이 있다. In the medical field, there are many ways to know and treat a patient's condition. Among such methods, there is a medical assistance method that provides information on the depth of burn (degree of first degree, second degree burn, etc.) and the size of the affected area for the treatment of burn patients.

종래에는, 화상 환자의 환부에 직접 모눈 종이를 대고 환부의 면적을 계산하거나, 환부를 촬상기 등으로 촬영한 후 포토샵과 같은 범용 프로그램을 통하여 수동적으로 면적을 계산하는 방법을 사용하였다.In the related art, a method of calculating the area of the affected area by applying a grid paper directly to the affected part of the burn patient, or photographing the affected area with an imager or the like and manually calculating the area through a general-purpose program such as Photoshop.

위와 같이, 수동적으로 면적을 계산하는 방식은 정확한 면적 계산이 어려웠고, 계산 시간이 많이 소요되는 번거로움이 있었다. As described above, the method of manually calculating the area was difficult to calculate the accurate area, and the calculation time was cumbersome.

따라서, 본 발명은 상기와 같은 종래 기술의 제반 단점과 문제점을 해결하기 위한 것으로, 본 발명이 이루고자 하는 기술적 과제는, 촬영 영상에서, 관심 영역의 크기 계산을 신속히 처리할 수 있도록 하는 영상의 실물 크기 계산 방법 및 그 시스템을 제공하는 것이다.Accordingly, the present invention is to solve the above-mentioned disadvantages and problems of the prior art, the technical problem to be achieved by the present invention, the actual size of the image to be able to quickly process the size calculation of the region of interest in the photographed image It is to provide a calculation method and a system thereof.

본 발명이 이루고자 하는 다른 기술적 과제는, 촬영 영상의 메타 정보를 이용하여 관심 영역의 실제 크기를 계산할 수 있는 영상의 실물 크기 계산 방법을 제공하는 것이다.Another object of the present invention is to provide a real size calculation method of an image capable of calculating an actual size of an ROI using meta information of a captured image.

그리고, 본 발명이 이루고자 하는 또 다른 기술적 과제는, 의료 분야에서, 환자의 환부 촬영시, 환부의 실제 면적을 정확히 측정할 수 있는 영상의 실물 크기 계산 방법을 제공하는 것이다. In addition, another technical problem to be achieved by the present invention is to provide a method for calculating the actual size of an image capable of accurately measuring the actual area of the affected part in the medical field.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다. The objects of the present invention are not limited to the above-mentioned objects, and other objects which are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위한 본 발명에 따른 영상의 실물 크기 계산 방법은, 영상에 찍힌 대상의 실제 크기를 구하는 방법에 있어서, 상기 영상에 찍힌 대상에 관여된 화소수(N)를 구하는 단계와, 상기 대상에 관여된 화소수(N)를 상기 영상의 최대 화소수로 나누고, 촬상 소자의 사이즈를 곱하여 상기 영상에 찍힌 대상의 상의 크기를 구하는 단계와, 상기 대상의 상의 크기를 렌즈 공식에 대입하여 상기 대상의 실제 크기를 구하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for calculating the actual size of an object captured by an image, the method comprising: obtaining the number N of pixels involved in the object captured by the image; Dividing the number N of pixels involved in the object by the maximum number of pixels of the image, multiplying the size of the image pickup device to obtain the size of the image of the object captured on the image, and substituting the size of the image of the object into a lens formula Obtaining the actual size of the object.

여기서, 상기 영상의 최대 화소수는 디지털 카메라의 메타 정보로부터 획득한 정보인 것이 바람직하다. Here, the maximum number of pixels of the image is preferably information obtained from meta information of the digital camera.

또한, 상기 대상에 관여된 화소수(N)를 구하는 단계는, 영상 분할 기법을 사 용하여 상기 대상에 관여된 화소수(N)를 구할 수 있다. In the obtaining of the number N of pixels related to the object, the number N of pixels related to the object may be obtained using an image segmentation technique.

이때, 상기 영상 분할 기법을 사용하여 상기 대상에 관여된 화소의 수(N)를 구하는 단계는, 상기 대상의 경계를 검출하는 단계와, 상기 경계 및 상기 경계 내에 해당하는 화소를 1, 그 외에 해당하는 화소를 0으로 하는 이진 영상을 구성하는 단계를 포함하는 것이 바람직하다. In this case, obtaining the number N of pixels involved in the object by using the image segmentation technique may include detecting a boundary of the object, and determining one or more pixels corresponding to the boundary and the boundary. It is preferable to include the step of constructing a binary image of the pixel to be 0.

또한, 상기 대상에 관여된 화소수(N)를 구하는 단계는, 상기 대상에 관여된 화소수(N)를 적어도 두 번 이상 측정하는 단계와, 상기 두 번 이상 측정한 각각의 결과 값에 따른 평균값을 도출하여 상기 대상에 관여된 화소수(N)를 구하는 단계를 포함할 수 있다. The determining of the number N of pixels involved in the object may include measuring the number N of pixels involved in the object at least two times, and an average value according to each result value measured at least two times. The method may include calculating the number of pixels N involved in the object.

또, 상기 영상을 찍은 촬상 소자의 최대 화소수와 실제 화소수의 차이에 기인하는 실제 크기의 오차를 보정하는 단계를 더 포함할 수도 있다. The method may further include correcting an error of an actual size resulting from the difference between the maximum number of pixels and the actual number of pixels of the image capturing device.

또한, 본 발명은, 영상에 찍힌 대상의 실제 크기를 구하는 방법에 있어서, 상기 영상에 찍힌 대상의 측정하고자 하는 길이의 시작 화소와 끝 화소를 가로축과 세로축으로 표시되는 좌표상에 배열하는 단계와, 상기 가로축과 세로축이 직교하여 이루어진 교점과 상기 시작 화소가 만나 이루어지는 가로 방향 선과, 상기 교점과 상기 끝 화소가 만나 이루어지는 세로 방향 선에 대한 각각의 화소수(I, J)를 구하는 단계와, 상기 I 및 J 값과, 상기 영상의 최대 화소수 및 촬상 소자의 사이즈를 참조하여, 상기 대상의 상의 크기에 대한 상기 가로 방향 선 및 상기 세로 방향 선의 크기를 각각 구하는 단계와, 상기 가로 방향 선 및 상기 세로 방향 선의 크기를 피타고라스의 정리 및 렌즈 공식에 대입하여 상기 대상의 실제 크기를 구하는 단계 를 포함하여 구성될 수 있다. In addition, the present invention is a method for obtaining the actual size of the object imaged on the image, comprising the steps of arranging the start pixel and the end pixel of the length to be measured of the object imaged on the image on the coordinates displayed on the horizontal axis and the vertical axis, Obtaining a number of pixels (I, J) for each of the horizontal lines formed by the intersection of the horizontal axis and the vertical axis and the start pixel, and the vertical lines formed by the intersection of the intersection pixel and the end pixel; And calculating a size of the horizontal line and the vertical line with respect to the size of the image of the object by referring to a J value, the maximum number of pixels of the image, and the size of the image pickup device, and the horizontal line and the vertical line. Calculating the actual size of the object by substituting the magnitude of the direction line into the Pythagorean theorem and lens formula. There.

이때, 상기 대상의 상의 크기에 대한 상기 가로 방향 선 및 상기 세로 방향 선의 크기를 각각 구하는 단계는, 상기 I를 상기 영상의 가로 방향 최대 화소수로 나누고, 촬상 소자의 가로 방향 사이즈를 곱하여 상기 대상의 상의 크기에 대한 상기 가로 방향 선의 크기를 구하는 단계와, 상기 J를 상기 영상의 세로 방향 최대 화소수로 나누고, 촬상 소자의 세로 방향 사이즈를 곱하여 상기 대상의 상의 크기에 대한 상기 세로 방향 선의 크기를 구하는 단계를 포함할 수 있다. In this case, obtaining the sizes of the horizontal line and the vertical line with respect to the size of the image of the object, respectively, dividing I by the horizontal maximum pixel number of the image, multiplying the horizontal size of the image pickup device, Obtaining the size of the vertical line with respect to the size of the object by dividing the size of the horizontal line with respect to the size of the image, dividing the J by the maximum number of pixels in the vertical direction of the image, and multiplying the vertical size of the image pickup device. It may include a step.

한편, 상기 목적을 달성하기 위한 본 발명에 따른 영상의 실물 크기 계산 시스템은, 메타 정보를 탑재하는 카메라부와, 상기 카메라부로부터 촬영한 영상을 전송받고, 상기 영상에 찍힌 대상에 대한 정보를 입력받아, 상기 대상의 실제 크기를 계산하여 출력하는 분석 처리부를 포함하여 구성된다. On the other hand, the actual size calculation system of the image according to the present invention for achieving the above object, the camera unit on which the meta information, the image received from the camera unit is received, and inputs the information on the object captured in the image And an analysis processor for calculating and outputting the actual size of the object.

여기서, 상기 카메라부는, 초광대역(UWB: ultra wideband) 무선 통신 방식의 무선 전송부를 포함하는 것이 바람직하다. Here, the camera unit preferably includes a wireless transmission unit of an ultra wideband (UWB) wireless communication method.

또한, 상기 분석 처리부는, 상기 카메라부로부터 전송 받은 영상에서 대상에 대한 정보를 입력받는 입력부와, 상기 대상에 관여된 화소수 및 상기 메타 정보를 토대로 렌즈 공식을 적용하여 상기 대상에 실제 크기를 계산하는 계산 처리부를 포함할 수 있다. The analysis processor may calculate an actual size of the object by applying a lens formula based on an input unit to receive information about the object in the image transmitted from the camera unit, the number of pixels involved in the object, and the meta information. It may include a calculation processing unit.

여기서, 상기 계산 처리부는, 상기 대상에 관여된 화소수(N)를 상기 영상의 최대 화소수로 나누고, 촬상 소자의 사이즈를 곱하여 상기 영상에 찍힌 대상의 상의 크기를 구하고, 상기 대상의 상의 크기를 렌즈 공식에 대입하여 상기 대상의 실 제 크기를 계산하는 것이 바람직하다. Here, the calculation processing unit divides the number N of pixels involved in the object by the maximum number of pixels of the image, multiplies the size of the image pickup device, obtains the size of the image of the object imprinted on the image, and calculates the size of the image of the object. It is desirable to calculate the actual size of the object by substituting the lens formula.

본 발명의 상기 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.Details of the above object and technical configuration of the present invention and the resulting effects thereof will be more clearly understood from the following detailed description based on the accompanying drawings.

먼저, 도 1은 본 발명의 일 실시예에 따른 영상의 실물 크기 계산을 위한 시스템 구성도이다. First, FIG. 1 is a diagram illustrating a system configuration for calculating a real size of an image according to an exemplary embodiment.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상의 실물 크기 계산 시스템은 영상을 획득하는 카메라부(100)와, 상기 영상에서 실제 크기를 구하고자 하는 대상에 대한 정보를 입력 받아, 상기 대상의 실제 크기를 계산하여 출력하는 분석 처리부(200)를 포함하여 구성된다. As shown in FIG. 1, a system for calculating a real size of an image according to an exemplary embodiment of the present invention receives a camera unit 100 for acquiring an image and information about an object for which an actual size is to be obtained from the image. And an analysis processor 200 for calculating and outputting the actual size of the object.

여기서, 상기 카메라부(100)는 무선 전송부(110) 및 촬상 소자(120)를 포함한다. 이때, 상기 촬상 소자(120)는 CCD(Charge coupled device) 또는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서 일 수 있다. The camera unit 100 includes a wireless transmitter 110 and an imaging device 120. In this case, the imaging device 120 may be a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor.

한편, 상기 카메라부(100)는 디지털 카메라(DSC; Digital Still Cameras) 형식으로, 촬영한 영상을 다른 시스템에서 다루기 위한 메타 정보(Exif; Exchangeable image file format)란 표준 정보를 탑재하고 있다. On the other hand, the camera unit 100 is a digital camera (DSC; Digital Still Cameras) format, and carries the standard information called the meta information (Exif; Exchangeable image file format) for handling the captured image in another system.

상기 DSC의 기본 영상은 크게 JPEG(ISO/IEC 10918-1) 압축표준 형식이나 TIFF Rev. 6.0의 비압축 표준형식으로 저장되는데, 이 표준형식은 IFD(Image File Directory)란 기본 하위 구조로 이루어져 있고, 다양한 태그들과 각 태그에 해당하는 값이 존재한다. 특히, 첫번째 IFD(IFD0; main image information) 내에는 상기 메타 정보를 위해 특별히 할당된 하위 IFD(SubIFD)가 존재하여, 이 태그들은 디지털 카메라의 제조사, 제품명, 촬영시간, 촬영방식 등 다양한 정보를 담고 있다. The basic image of the DSC is largely in JPEG (ISO / IEC 10918-1) compression standard format or TIFF Rev. It is stored in the uncompressed standard format of 6.0, which consists of a basic substructure called the Image File Directory (IFD), which contains various tags and their corresponding values. In particular, there is a sub-IFD (SubIFD) specifically allocated for the meta information in the first IFD (IFD0; main image information), and these tags contain various information such as the manufacturer, product name, shooting time, and shooting method of the digital camera. have.

본 발명의 실시예들에서는 상기 메타 정보의 일부 정보를 이용하여 촬영 대상의 실제 크기를 계산하는 방식을 채용한다. In embodiments of the present invention, a method of calculating an actual size of a photographing target using some information of the meta information is adopted.

구체적으로 나열하면, 사물까지의 거리(SubjectDistance; d), 초점거리(FocalLength; f), 영상의 가로 최대 화소수(ExifImageWidth; w), 및 영상의 세로 최대 화소수(ExifImageWidth; h)의 정보가 이용될 수 있다. Specifically, information on the distance to the object (SubjectDistance; d), the focal length (FocalLength; f), the horizontal maximum pixel number (ExifImageWidth; w), and the vertical maximum pixel number (ExifImageWidth; h) Can be used.

또한, 상기 무선 전송부(110)는 무선 통신 방식으로 촬영한 영상을 상기 분석 처리부(200)로 전송하는 것으로, 단거리 구간에서 낮은 전력으로 넓은 스펙트럼 주파수를 통해 많은 양의 디지털 데이터를 전송하기 위한 초광대역(UWB: ultra wideband) 무선 통신 방식인 것이 바람직하다. In addition, the wireless transmitter 110 transmits an image captured by a wireless communication method to the analysis processor 200, and transmits a large amount of digital data through a wide spectrum frequency at low power in a short range. It is desirable to use ultra wideband (UWB) wireless communication.

또한, 상기 분석 처리부(200)는 상기 카메라부(100)로부터 전송 받은 영상에서 실제 크기를 구하고자 하는 대상에 대한 정보를 입력받는 입력부(210)와, 상기 대상에 관여된 화소수 및 상기 메타 정보를 토대로 렌즈 공식을 적용하여 상기 대상의 실제 크기를 계산하는 계산 처리부(220)와, 상기 계산 처리부(220)에서 구해진 대상의 실제 크기를 출력하여 나타내는 표시부(230)를 포함한다. The analysis processor 200 may further include an input unit 210 that receives information about an object for which an actual size is to be obtained from an image transmitted from the camera unit 100, the number of pixels related to the object, and the meta information. A calculation processor 220 for calculating an actual size of the object by applying a lens formula to the display unit, and a display unit 230 for outputting the actual size of the object obtained by the calculation processor 220.

여기서, 상기 입력부(210)는 상기 대상에 대한 정보를 다양한 방식으로 입력받을 수 있는데, 예를 들어, 사용자의 마우스 클릭을 통한 위치 선정이나, 상기 분석 처리부(200)에 기 저장된 표준 정보에 대한 변화 또는 움직임에 따른 대상 파악, 또는 이미 잘 알려진 웨이브릿(wavelet) 기술을 통해 상기 대상에 대한 정보를 입력받을 수 있다.Here, the input unit 210 may receive information about the object in various ways, for example, selection of a location through a user's mouse click or a change to standard information previously stored in the analysis processing unit 200. Alternatively, information about the object may be input through a target identification according to a movement or a wavelet technology that is well known.

또한, 상기 계산 처리부(220)는, 상기 대상에 관여된 화소수를 상기 전송 받은 영상의 최대 화소수로 나누고, 촬상 소자(120)의 사이즈를 곱하여 상기 영상에 찍힌 대상의 상의 크기를 구하고, 상기 대상의 상의 크기를 렌즈 공식에 대입하여 상기 대상의 실제 크기를 계산할 수 있다. In addition, the calculation processing unit 220 divides the number of pixels involved in the object by the maximum number of pixels of the received image, multiplies the size of the image pickup device 120 to obtain the size of the image of the object captured in the image, and The actual size of the subject may be calculated by substituting the subject's image size into the lens formula.

여기서, 촬상 소자(120)의 사이즈는, 상기 영상의 최대 화소수에 해당하는 사이즈를 의미한다.Here, the size of the imaging device 120 means a size corresponding to the maximum number of pixels of the video.

상기 설명한 영상의 실물 크기 계산을 위한 시스템에서의 실물 면적 계산을 나타내는 구체적인 실시예들을 도 2 내지 도 4 및 도 6의 흐름도를 통해 순차적으로 설명하면 다음과 같다. Specific embodiments of the real area calculation in the system for calculating the real size of the image described above will be described in detail with reference to the flowcharts of FIGS. 2 to 4 and 6.

먼저, 도 2 및 도 3의 흐름도를 참조하여, 본 발명의 제1 실시예에 따른 영상의 실물 크기 계산 방법을 설명한다. First, a method for calculating the real size of an image according to the first embodiment of the present invention will be described with reference to the flowcharts of FIGS. 2 and 3.

도 2는 본 발명의 제1 실시예에 따른 영상의 실물 크기 계산 방법을 나타낸 흐름도이고, 도 3은 영상 분할 기법을 통해 대상에 관여된 화소수를 구하는 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a method for calculating the real size of an image according to the first embodiment of the present invention, and FIG. 3 is a flowchart illustrating a method of obtaining the number of pixels involved in an object through an image segmentation technique.

도 2에 도시된 바와 같이, 먼저, 상기 카메라부(100)로부터 획득한 영상이 상기 분석 처리부(200)로 전송되면, 상기 분석 처리부(200)는 입력부(210)를 통해 상기 영상에서 실제 크기를 구하고자 하는 대상에 대한 정보를 입력 받는다(S110).As shown in FIG. 2, first, when an image obtained from the camera unit 100 is transmitted to the analysis processing unit 200, the analysis processing unit 200 determines an actual size of the image through the input unit 210. Receive information on the target to obtain (S110).

상기 단계 S110에서 상기 대상에 대한 정보는 다양한 방식으로 입력받을 수 있는데, 예를 들어, 사용자의 마우스 클릭을 통한 위치 선정이나, 상기 분석 처리 부(200)에 기 저장된 표준 정보에 대한 변화 또는 움직임에 따른 대상 파악, 또는 이미 잘 알려진 웨이브릿(wavelet) 기술을 통해 상기 대상에 대한 정보를 입력받을 수 있다.In step S110, the information about the object may be input in various ways. For example, the user may click on a user's mouse to select a location or change or move the standard information previously stored in the analysis processing unit 200. According to the object identification, or through a well-known wavelet (wavelet) technology can receive information about the object.

이어, 상기 대상에 관여된 화소수(N으로 명명함)를 구한다(S120).Next, the number of pixels (named N) involved in the object is obtained (S120).

이때, 상기 대상에 관여된 화소수(N)는 영상 분할(Image segmentation) 기법을 사용하여 구해질 수 있다.In this case, the number N of pixels involved in the object may be calculated using an image segmentation technique.

구체적으로, 상기 영상 분할 기법을 통하여 상기 대상에 관여된 화소수(N)를 구하는 방식은, 도 3에 도시된 바와 같이, 먼저, 관심 영역의 특징 정보인 모양, 색상, 위치, 주파수 성분 등을 추출하거나, 상기 특징 정보의 변화 및 대상의 움직임 예측, 또는 웨이브릿(wavelet) 기술을 통해 입력 받은 정보를 이용하여 대상의 윤곽을 파악하고, 상기 대상의 경계를 검출한다(S121).Specifically, a method of obtaining the number N of pixels related to the object through the image segmentation technique, as shown in FIG. The contour of the object is detected using information extracted from the feature information, the change of the feature information, the motion prediction of the object, or the wavelet technology, and the boundary of the object is detected (S121).

다음, 상기 대상의 경계 및 상기 경계 내에 해당하는 화소를 1(white)로 설정하고, 그 외에 해당하는 화소를 0(black)으로 설정하는 방식으로 이진(바이너리, binary) 영상을 구성한다(S122). Next, a binary image is configured by setting the boundary of the object and the pixel within the boundary to 1 (white), and setting the corresponding pixel to 0 (black) (S122). .

이어, 상기 이진 영상의 모든 화소 값의 합(또는 1의 개수)이 곧 상기 대상의 면적에 관여된 화소의 개수가 되므로, 상기 이진 영상의 모든 화소 값의 합을 구하여 상기 대상에 관여된 화소수(N)를 구할 수 있다(S123).Then, since the sum (or the number of 1s) of all the pixel values of the binary image is the number of pixels involved in the area of the object, the sum of all pixel values of the binary image is obtained to determine the number of pixels involved in the object. (N) can be obtained (S123).

다음, 획득한 상기 대상에 관여된 화소수(N)를 상기 카메라부(100)에 탑재된 상기 메타 정보로부터 제공받은 영상의 최대 화소수(w, h)로 나누고, 촬상 소자의 사이즈(W, H)를 곱하여 상기 영상에 찍힌 대상의 상의 크기를 구한다(S130).Next, the number N of pixels related to the object obtained is divided by the maximum number of pixels w and h of the image provided from the meta information mounted on the camera unit 100, and the size W of the image pickup device. Multiply by H) to obtain the size of the image of the object captured in the image (S130).

구체적으로, 다음의 수학식 1을 통하여 상기 대상의 상의 크기(B)를 구할 수 있다. In detail, the size B of the target image may be obtained through Equation 1 below.

Figure 112007031269675-PAT00001
Figure 112007031269675-PAT00001

여기서, Bw는 대상의 가로 방향의 크기를 나타내고, Bh는 대상의 세로 방향의 크기를 나타낸다. 또한, N은 대상의 길이에 관여된 화소수이고, W는 촬상 소자의 가로 방향 사이즈이고, H는 촬상 소자의 세로 방향 사이즈이다.Here, Bw represents the size in the horizontal direction of the object, and Bh represents the size in the vertical direction of the object. N is the number of pixels involved in the length of the object, W is the horizontal size of the imaging device, and H is the vertical size of the imaging device.

또, w는 영상의 가로 방향 최대 화소수이고, h는 영상의 세로 방향 최대 화소수이다. W is the maximum number of pixels in the horizontal direction of the image, and h is the maximum number of pixels in the vertical direction of the image.

한편, 상기 영상의 최대 화소수(w, h)는 디지털 카메라의 메타 정보로 제공받을 수 있으며, 촬상 소자의 사이즈(W, H)는 상기 영상의 최대 화소수(w, h)에 해당하는 사이즈로 가정한다.On the other hand, the maximum number of pixels (w, h) of the image can be provided as meta information of the digital camera, the size (W, H) of the image pickup device is the size corresponding to the maximum number of pixels (w, h) of the image Assume that

일반적으로, 영상의 최대 화소수와 실제 화소수(actual pixel)에는 차이가 있을 수 있는데, 본 발명의 제1 실시예에서는, 상기 최대 화소수와 실제 화소수의 차이가 크지 않을 경우를 가정하여 촬상 소자의 사이즈를 상기 영상의 최대 화소수에 해당하는 사이즈로 가정하였으나, 이에 대한 별도의 보정이 필요할 경우, 이에 따른 기술은 후술하기로 한다. In general, there may be a difference between the maximum number of pixels and the actual number of pixels in the image. In the first embodiment of the present invention, it is assumed that the difference between the maximum number of pixels and the actual number of pixels is not large. Although the size of the device is assumed to be the size corresponding to the maximum number of pixels of the image, when a separate correction is required, the description thereof will be described later.

따라서, 대상의 상의 면적(Bs)은 가로 방향의 크기(Bw)와 상기 세로 방향의 크기(Bh)를 곱한 값이므로, 다음의 수학식 2와 같이 나타낼 수 있다. Therefore, since the area Bs of the target image is a value obtained by multiplying the size Bw in the horizontal direction by the size Bh in the vertical direction, it can be expressed by Equation 2 below.

Figure 112007031269675-PAT00002
Figure 112007031269675-PAT00002

여기서, Bs는 대상의 상의 면적을 나타낸다. 또한, N'는 대상의 면적에 관여된 화소수이다. Here, Bs represents the area of the image of the object. N 'is the number of pixels involved in the area of the object.

다음, 상기 대상의 상의 크기(B)를 렌즈 공식(Lens Formula)에 대입하여 상기 대상의 실제 크기(A)를 구할 수 있다(S140). Next, the actual size A of the object may be obtained by substituting the size B of the object into a lens formula (S140).

구체적으로, 다음의 수학식 3을 통하여 상기 대상의 실제 크기(A)를 구할 수 있다. Specifically, the actual size A of the object may be obtained through Equation 3 below.

Figure 112007031269675-PAT00003
Figure 112007031269675-PAT00003

Figure 112007031269675-PAT00004
Figure 112007031269675-PAT00004

Figure 112007031269675-PAT00005
Figure 112007031269675-PAT00005

여기서, Aw는 대상의 가로 방향 실제 크기를 나타내고, Ah는 대상의 세로 방향 실제 크기를 나타내며, As는 대상의 실제 면적을 나타낸다. Here, Aw represents the actual size of the object in the horizontal direction, Ah represents the actual size of the object in the longitudinal direction, and As represents the actual area of the object.

또한, N은 대상의 길이에 관여된 화소수이고, N'는 대상의 면적에 관여된 화소수이다. 또, W는 촬상 소자의 가로 방향 사이즈이고, H는 촬상 소자의 세로 방 향 사이즈이다. 또, w는 영상의 가로 방향 최대 화소수이고, h는 영상의 세로 방향 최대 화소수이다. N is the number of pixels involved in the length of the object, and N 'is the number of pixels involved in the area of the object. W is the horizontal size of the imaging device, and H is the vertical size of the imaging device. W is the maximum number of pixels in the horizontal direction of the image, and h is the maximum number of pixels in the vertical direction of the image.

또, d는 사물까지의 거리이고, f는 초점거리를 나타낸다. D is the distance to the object and f is the focal length.

상기 수학식 3은 상기 메타 정보로부터 획득한 데이터와 상기 렌즈 공식을 이용하여 도출된 공식으로, 이에 따른 계산 도출 과정을 구체적으로 설명하면 다음과 같다. Equation 3 is a formula derived using the data obtained from the meta information and the lens formula, and the calculation derivation process according to this will be described in detail as follows.

일반적으로 상의 크기에 대한 사물의 크기를 구하는 렌즈 공식은 다음의 수학식 4와 같다. In general, the lens formula for calculating the size of an object with respect to the size of an image is expressed by Equation 4 below.

Figure 112007031269675-PAT00006
Figure 112007031269675-PAT00006

여기서, A는 사물의 크기이고, B는 상의 크기이고, f는 초점거리이고, a는 렌즈 중심에서 사물까지의 거리를 나타낸다. Here, A is the size of the object, B is the size of the image, f is the focal length, and a represents the distance from the lens center to the object.

한편, 본 발명의 실시예에서는, 렌즈의 중심에서 렌즈의 끝 경계까지의 거리가 사물까지의 거리보다 무시할 정도로 작다고 가정한다면, 상기 a는 렌즈의 끝 경계에서 사물까지의 거리인 Working Distance(d)로 생각하여도 무방할 것이다. On the other hand, in the embodiment of the present invention, if a distance from the center of the lens to the end boundary of the lens is negligibly smaller than the distance to the object, a is the working distance (d) which is the distance from the end boundary of the lens to the object You can think of it as.

여기서, d는 상기 메타 정보로부터 제공될 수 있다. Here, d may be provided from the meta information.

따라서, 앞서의 수학식 4에 사물의 폭(가로) 및 높이(세로)에 대하여 다음 기호를 정의하고, f 및 d와의 관계를 나열하면 다음의 수학식 5로 나타낼 수 있다. Therefore, if the following symbols are defined for the width (width) and height (length) of the object in Equation 4 above, and the relationship between f and d is listed, the following Equation 5 can be expressed.

Figure 112007031269675-PAT00007
Figure 112007031269675-PAT00007

Figure 112007031269675-PAT00008
Figure 112007031269675-PAT00008

여기서, Wo는 사물의 폭(Width of Object)을 나타내고, Wi는 상의 폭(Width of Image)을 나타낸다. 또한, Ho는 사물의 높이(Height of Object)를 나타내고, Hi는 상의 높이(Height of Image)를 나타낸다. Here, Wo represents the width of the object and Wi represents the width of the image. In addition, Ho represents the height of the object and Hi represents the height of the image.

촬상 소자에 맺히는 상은 수 많은 화소(pixel)로 이루어져 있는데, 단일 화소의 폭을 wi, 단일 화소의 높이를 hi라 한다면, 상기 수학식 5는 다음의 수학식 6과 같이 나타낼 수 있다. An image formed on the image pickup device includes a plurality of pixels. If the width of a single pixel is wi and the height of a single pixel is hi, Equation 5 may be expressed as Equation 6 below.

Figure 112007031269675-PAT00009
Figure 112007031269675-PAT00009

Figure 112007031269675-PAT00010
Figure 112007031269675-PAT00010

또한, 상이 맺히는 촬상 소자의 폭(W) 및 높이(H)는 각 디지털 카메라 제품별로 고유한 값을 가지고 있는데, 이러한 촬상 소자의 사이즈(W, H)와 촬영 후 상기 메타 정보로부터 획득되는 w, h의 값을 이용하면, 상기 단일 화소의 폭 및 높이(wi, hi)를 구할 수 있으며, 이로부터 앞서의 수학식 6은 다음의 수학식 7로 나 타낼 수 있다. In addition, the width W and the height H of the image pickup device having different images have unique values for each digital camera product. The size W and H of the image pickup device and w, which are obtained from the meta information after photographing, By using the value of h, the width and height (wi, hi) of the single pixel can be obtained, from which Equation 6 can be represented by Equation 7 below.

Figure 112007031269675-PAT00011
Figure 112007031269675-PAT00011

또한, 사물의 면적이 평면 위에 존재한다고 가정할 때, 사물의 면적(So)은 사물의 미소 면적(so) 및 앞서의 수학식 7에 의하여 유추할 수 있는 단일 화소 면적(si)과의 관계가 다음의 수학식 8과 같이 표시될 수 있다. In addition, assuming that the area of the object exists on a plane, the area So of the object has a relationship with the small area of the object so and the single pixel area si that can be inferred by Equation 7 above. It may be expressed as Equation 8 below.

Figure 112007031269675-PAT00012
Figure 112007031269675-PAT00012

수학식 6 내지 수학식 8에 표시된 ∑는 각 측정하고자 하는 대상의 면적에 관여된 화소수를 의미한다. ? Denoted by Equations 6 to 8 means the number of pixels involved in the area of the object to be measured.

즉, 대상에 면적에 관여된 화소수를 N'로 표시하고, 사물의 폭(Wo)을 대상의 가로 방향 실제 크기(Aw)로 표시하고, 사물의 높이(Ho)를 대상의 세로 방향 실제 크기(Ah)로 표시하고, 사물의 면적(So)을 대상의 실제 면적(As)으로 표시한다면, 상기 수학식 7 및 수학식 8은 앞서의 수학식 3으로 최종적으로 표현될 수 있다. That is, the number of pixels involved in the area of the object is expressed as N ', the width of the object (Wo) is displayed in the horizontal direction actual size (Aw) of the object, and the height (Ho) of the object is expressed in the vertical direction actual size of the object. If expressed as (Ah) and the area So of the object is expressed as the actual area As of the object, Equations 7 and 8 may be finally expressed by Equation 3 above.

다음은, 도 4의 흐름도 및 도 5를 참조하여, 본 발명의 제2 실시예에 따른 영상의 실물 크기 계산 방법을 설명한다.Next, a method for calculating the real size of an image according to the second embodiment of the present invention will be described with reference to the flowchart of FIG. 4 and FIG. 5.

도 4는 본 발명의 제2 실시예에 따른 영상의 실물 크기 계산 방법을 나타낸 흐름도이고, 도 5는 본 발명의 제2 실시예에 적용되는 기하학적 처리 방법을 설명하기 위한 개념도이다. 4 is a flowchart illustrating a method of calculating the real size of an image according to a second embodiment of the present invention, and FIG. 5 is a conceptual diagram illustrating a geometric processing method applied to the second embodiment of the present invention.

먼저, 도 4에 도시된 바와 같이, 상기 카메라부(100)로부터 획득한 영상이 상기 분석 처리부(200)로 전송되면, 상기 분석 처리부(200)는 입력부(210)를 통해 상기 영상에서 실제 크기를 구하고자 하는 대상에 대한 정보를 입력 받는다(S210).First, as shown in FIG. 4, when an image obtained from the camera unit 100 is transmitted to the analysis processing unit 200, the analysis processing unit 200 determines an actual size of the image through the input unit 210. Receive information on the target to obtain (S210).

다음, 상기 영상에 찍힌 대상의 측정하고자 하는 길이의 시작 화소와 끝 화소를 가로축(i)과 세로축(j)으로 표시되는 좌표상에 배열하여 해당 화소의 배열 위치를 파악한다(S220). Next, the position of the pixel is determined by arranging the start pixel and the end pixel of the length to be measured of the object captured on the image on the coordinates indicated by the horizontal axis (i) and the vertical axis (j) (S220).

예를 들어, 도 5에서는, 시작 화소(P)가 좌표 P(i1, j1) 상에 배치되고, 끝 화소(K)가 좌표 K(i2, j2) 상에 배치되는 경우를 가정하여 설명한다. For example, in FIG. 5, it is assumed that the start pixel P is disposed on the coordinates P (i1, j1) and the end pixel K is disposed on the coordinates K (i2, j2).

다음, 상기 i축과 j축이 직교하여 이루어진 교점(O)과 상기 시작 화소(P)가 만나 이루어지는 가로 방향 길이에 관여된 화소수(I)를 구한다. 같은 방식으로, 상기 교점(O)과 상기 끝 화소(K)가 만나 이루어지는 세로 방향 길이에 관여된 화소수(J)를 구한다(S230). Next, the pixel number I involved in the horizontal length where the intersection point O formed by the i-axis and the j-axis orthogonal to the start pixel P meet is obtained. In the same manner, the number of pixels J involved in the longitudinal length at which the intersection point O and the end pixel K meet is obtained (S230).

이때, 상기 I 및 J를 각각 적어도 두 번 이상 측정하고, 상기 두 번 이상 측정한 각각의 결과 값에 따른 평균값을 도출하여 상기 I 및 J를 구하는 것이 바람직하다. In this case, it is preferable to obtain the I and J by measuring the I and J at least twice each, and deriving an average value according to each result value measured at least twice.

이어, 상기 I 및 J 값과, 상기 영상의 최대 화소수 및 촬상 소자의 사이즈를 참조하여, 상기 대상의 상의 크기에 대한 상기 가로 방향 선 및 상기 세로 방향 선 의 크기를 각각 구한다(S240). Subsequently, the sizes of the horizontal line and the vertical line with respect to the size of the image of the object are obtained by referring to the I and J values, the maximum number of pixels of the image and the size of the image pickup device (S240).

구체적으로, 상기 I를 상기 영상의 가로 방향 최대 화소수(w)로 나누고, 촬상 소자의 가로 방향 사이즈(W)를 곱하여 상기 대상의 상의 크기에 대한 상기 가로 방향 선의 크기를 구할 수 있다. 같은 방식으로, 상기 J를 상기 영상의 세로 방향 최대 화소수(h)로 나누고, 촬상 소자의 세로 방향 사이즈(H)를 곱하여 상기 대상의 상의 크기에 대한 상기 세로 방향 선의 크기를 구할 수 있다. Specifically, the size of the horizontal line with respect to the size of the target image may be obtained by dividing I by the horizontal maximum pixel number w of the image and multiplying the horizontal size W of the image pickup device. In the same manner, the size of the vertical line with respect to the size of the image of the object may be obtained by dividing J by the maximum number of pixels h in the vertical direction of the image and multiplying the vertical size H of the image pickup device.

다음, 상기 가로 방향 선 및 상기 세로 방향 선의 크기를 피타고라스의 정리에 대입하여, 상기 측정하고자 하는 길이의 상의 크기(D로 명명함)를 구하고, 이를 렌즈 공식에 대입하여 상기 대상의 실제 크기(A(D))를 구할 수 있다(S250). Next, the magnitude of the horizontal line and the vertical line are substituted into the Pythagorean theorem to obtain the size of the image of the length to be measured (named D), and substituted into the lens formula to substitute the actual size of the object (A (D)) can be obtained (S250).

구체적으로, 피타고라스의 정리를 이용하여 상기 측정하고자 하는 길이의 상의 크기(D)는 다음의 수학식 9에 의해 계산될 수 있다. Specifically, using the Pythagorean theorem, the size D of the length to be measured may be calculated by Equation 9 below.

Figure 112007031269675-PAT00013
Figure 112007031269675-PAT00013

상기 수학식 9를 렌즈 공식에 대입하면, 상기 대상의 실제 크기(A(D))는 다음의 수학식 10에 의해 계산될 수 있다. Substituting Equation 9 into the lens formula, the actual size A (D) of the object may be calculated by Equation 10 below.

Figure 112007031269675-PAT00014
Figure 112007031269675-PAT00014

또는,or,

Figure 112007031269675-PAT00015
Figure 112007031269675-PAT00015

이와 같이, 본 발명의 제2 실시예에서는 기하학적 처리 방법으로 상기 대상의 실제 크기를 구할 수 있다. As described above, in the second embodiment of the present invention, the actual size of the object may be obtained by a geometric processing method.

한편, 제2 실시예에 따른 영상의 실물 크기 계산 방법에 사용된 상기 수학식 9 및 수학식 10은, 상술한 본 발명의 제1 실시예에서 설명한 수학식들 및 렌즈 공식으로부터 동일하게 도출될 수 있으며, 이에 대한 자세한 설명은 생략한다. Meanwhile, Equations 9 and 10 used in the method for calculating the real size of the image according to the second embodiment may be equally derived from the above-described equations and lens formulas in the first embodiment of the present invention. The detailed description thereof will be omitted.

다음은, 도 6의 흐름도를 참조하여, 본 발명의 제3 실시예에 따른 영상의 실물 크기 계산 방법을 설명한다. Next, a method for calculating a real size of an image according to a third embodiment of the present invention will be described with reference to the flowchart of FIG. 6.

도 6은 본 발명의 제3 실시예에 따른 영상의 실물 크기 계산 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a method of calculating a real size of an image according to a third exemplary embodiment of the present invention.

도 6에 도시된 바와 같이, 먼저, 상기 카메라부(100)로부터 획득한 영상이 상기 분석 처리부(200)로 전송되면, 상기 분석 처리부(200)는 입력부(210)를 통해 상기 영상에서 실제 크기를 구하고자 하는 대상에 대한 정보를 입력 받는다(S310).As shown in FIG. 6, first, when an image acquired from the camera unit 100 is transmitted to the analysis processing unit 200, the analysis processing unit 200 determines an actual size of the image through the input unit 210. Receive information on the target to obtain (S310).

이어, 상기 대상에 관여된 화소수(N)를 적어도 두 번 이상 측정한다(S320).Next, the number N of pixels involved in the object is measured at least twice (S320).

이때, 상기 대상에 관여된 화소수(N)는 적어도 두 번 이상 측정하되, 측정 오차가 크지 않을 만큼 여러 번 측정하는 것이 바람직하다. At this time, the number N of pixels involved in the object is measured at least twice, but it is preferable to measure the number of times so that the measurement error is not large.

다음, 상기 두 번 이상 측정한 각각의 결과 값에 따른 평균값을 도출하여 상기 대상에 관여된 화소수(N)를 구한다(S330). Next, an average value according to each result value measured two or more times is derived to obtain the number N of pixels involved in the object (S330).

이어, 획득한 상기 대상에 관여된 화소수(N)를 상기 카메라부(100)의 메타 정보로부터 제공받은 영상의 최대 화소수(w, h)로 나누고, 촬상 소자의 사이즈(W, H)를 곱하여 상기 영상에 찍힌 대상의 상의 크기(B)를 구한다(S340).Subsequently, the obtained number of pixels N related to the object is divided by the maximum number of pixels (w, h) of the image provided from the meta information of the camera unit 100, and the size (W, H) of the imaging device is divided. Multiplying to obtain the image size (B) of the subject imaged on the image (S340).

다음, 상기 대상의 상의 크기(B)를 렌즈 공식(Lens Formula)에 대입하여 상기 대상의 실제 크기(A)를 구할 수 있다(S350). Next, the actual size A of the object may be obtained by substituting the size B of the object into a lens formula (S350).

한편, 본 발명의 제3 실시예에서는 상기 단계 S320 및 상기 단계 S330을 제외한 모든 단계가 상술한 본 발명의 제1 실시예와 동일하므로, 이에 대한 자세한 설명은 생략하였다. Meanwhile, in the third embodiment of the present invention, all the steps except for the above steps S320 and S330 are the same as those of the first embodiment of the present invention, and thus a detailed description thereof is omitted.

또한, 본 발명의 제1 내지 제3 실시예에 동일하게 적용될 수 있는 사항으로 오차 보정 단계를 더 수행할 수 있다. In addition, an error correction step may be further performed as matters applicable to the first to third embodiments of the present invention.

구체적으로, 촬상 소자의 사이즈(W, H)는 실제 화소수(actual pixel)에 해당하는 사이즈를 의미하는 것이나, 일반적으로, 촬상 소자의 최대 화소수와 실제 화소수에는 차이가 있다. Specifically, the size (W, H) of the image pickup device means a size corresponding to the actual number of pixels, but generally, there is a difference between the maximum number of pixels and the actual number of pixels of the image pickup device.

예를 들어, 특정 회사 제품의 촬상 소자의 최대 화소수가 740만 화소이고, 실제 화소수가 720만 화소라고 가정하면, 상기 특정 촬상 소자 사이즈를 최대 화소수에 해당하는 사이즈로 계산하는 본 발명의 실시예들에서는 약 2.7%의 면적 측정 오차가 포함되어 있다. For example, assuming that the maximum number of pixels of an image pickup device of a specific company product is 7.4 million pixels, and that the actual number of pixels is 7.2 million pixels, the embodiment of the present invention calculates the size of the specific image pickup device to a size corresponding to the maximum number of pixels. Fields contain approximately 2.7% area measurement error.

즉, 2.7% 만큼 촬상 소자의 면적을 작게 고려해야 하는 오차 보정을 수행하는 것이 바람직하다. That is, it is preferable to perform error correction that requires to consider the area of the imaging device as small as 2.7%.

이는 정사각형 화소 픽셀을 가정할 때에, 폭과 높이 각각 약 1.64% 만큼의 크기가 크게 측정되었음을 의미하므로, 대상의 실제 크기(A)의 계산 결과에 0.9836 배를 곱하여 보정한 값을 최종 대상의 실제 길이 값으로 결정할 수 있다. This means that 1.64% of the width and the height are measured to be large, assuming square pixel pixels. Therefore, the actual length of the final object is corrected by multiplying 0.9836 times the result of calculating the actual size (A) of the object. Can be determined by value.

또한, 면적을 보정하려면 면적 오차 2.7%를 적용하여, 대상의 실제 크기(A)의 계산 결과에 0.973 배를 곱하여 보정한 값을 최종 대상의 실제 면적 값으로 결정할 수 있을 것이다. In addition, to correct the area, an area error of 2.7% may be applied, and the corrected value may be determined as the actual area value of the final object by multiplying the calculated result of the actual size A by 0.973 times.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features, the embodiments described above should be understood as illustrative and not restrictive in all aspects. Should be. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

따라서, 본 발명이 제공하는 영상의 실물 크기 계산 방법을 이용하여, 촬영 영상에서, 관심 영역의 크기 계산을 신속히 처리할 수 있으며, 촬영 영상의 메타 정보를 이용하여 관심 영역의 실제 크기를 계산할 수 있다. 또한, 본 발명은 의료 분야에서, 환자의 환부 촬영 시에, 환부의 실제 면적을 보다 정확히 측정할 수 있는 장점이 있다. Therefore, using the real-size calculation method of the image provided by the present invention, it is possible to quickly calculate the size of the ROI in the captured image, and calculate the actual size of the ROI using the meta information of the captured image. . In addition, in the medical field, the present invention has an advantage of more accurately measuring the actual area of the affected area during imaging of the affected part.

Claims (15)

영상에 찍힌 대상의 실제 크기를 구하는 방법에 있어서, In the method of obtaining the actual size of the object captured in the image, 상기 영상에 찍힌 대상에 관여된 화소수(N)를 구하는 단계;Obtaining a number N of pixels related to an object captured in the image; 상기 대상에 관여된 화소수(N)를 상기 영상의 최대 화소수로 나누고, 촬상 소자의 사이즈를 곱하여 상기 영상에 찍힌 대상의 상의 크기를 구하는 단계; 및Dividing the number N of pixels involved in the object by the maximum number of pixels of the image and multiplying the size of an image pickup device to obtain a size of an image of the object captured in the image; And 상기 대상의 상의 크기를 렌즈 공식에 대입하여 상기 대상의 실제 크기를 구하는 단계를 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 방법. And calculating the actual size of the object by substituting the size of the image of the object into a lens formula. 제1항에서, In claim 1, 상기 영상의 최대 화소수는 디지털 카메라의 메타 정보로부터 획득한 정보인 것을 특징으로 하는 영상의 실물 크기 계산 방법. And the maximum number of pixels of the image is information obtained from meta information of a digital camera. 제1항에서, In claim 1, 상기 대상에 관여된 화소수(N)를 구하는 단계는, Obtaining the number N of pixels involved in the object, 영상 분할 기법을 사용하여 상기 대상에 관여된 화소수(N)를 구하는 것을 특징으로 하는 영상의 실물 크기 계산 방법.A method of calculating the real size of an image, characterized by obtaining the number of pixels N involved in the object by using an image segmentation technique. 제3항에서, In claim 3, 상기 영상 분할 기법을 사용하여 상기 대상에 관여된 화소수(N)를 구하는 단 계는, The step of obtaining the number N of pixels involved in the object by using the image segmentation technique, 상기 대상의 경계를 검출하는 단계; 및Detecting a boundary of the object; And 상기 경계 및 상기 경계 내에 해당하는 화소를 1, 그 외에 해당하는 화소를 0으로 하는 이진 영상을 구성하는 단계를 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 방법. And constructing a binary image in which the boundary and one pixel corresponding to the boundary and one pixel other than the pixel are set to zero. 제1항에서, In claim 1, 상기 대상에 관여된 화소수(N)를 구하는 단계는, Obtaining the number N of pixels involved in the object, 상기 대상에 관여된 화소수(N)를 적어도 두 번 이상 측정하는 단계; 및Measuring the number of pixels N involved in the object at least twice; And 상기 두 번 이상 측정한 각각의 결과 값에 따른 평균값을 도출하여 상기 대상에 관여된 화소수(N)를 구하는 단계를 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 방법. And obtaining the number of pixels (N) involved in the object by deriving an average value according to each result value measured two or more times. 제1항에서, In claim 1, 상기 영상을 찍은 촬상 소자의 최대 화소수와 실제 화소수의 차이에 기인하는 실제 크기의 오차를 보정하는 단계를 더 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 방법. And correcting an error of an actual size resulting from the difference between the maximum number of pixels and the actual number of pixels of the image capturing device taking the image. 영상에 찍힌 대상의 실제 크기를 구하는 방법에 있어서, In the method of obtaining the actual size of the object captured in the image, 상기 영상에 찍힌 대상의 측정하고자 하는 길이의 시작 화소와 끝 화소를 가 로축과 세로축으로 표시되는 좌표상에 배열하는 단계;Arranging a start pixel and an end pixel of a length to be measured of the object captured in the image on coordinates indicated by horizontal and vertical axes; 상기 가로축과 세로축이 직교하여 이루어진 교점과 상기 시작 화소가 만나 이루어지는 가로 방향 선과, 상기 교점과 상기 끝 화소가 만나 이루어지는 세로 방향 선에 대한 각각의 화소수(I, J)를 구하는 단계;Obtaining a number of pixels (I, J) for each of the horizontal lines formed by the intersection of the horizontal axis and the vertical axis and the start pixel and the vertical line formed by the intersection of the intersection pixel and the end pixel; 상기 I 및 J 값과, 상기 영상의 최대 화소수 및 촬상 소자의 사이즈를 참조하여, 상기 대상의 상의 크기에 대한 상기 가로 방향 선 및 상기 세로 방향 선의 크기를 각각 구하는 단계; 및Obtaining sizes of the horizontal line and the vertical line with respect to the size of the image of the object by referring to the I and J values, the maximum number of pixels of the image, and the size of the image pickup device; And 상기 가로 방향 선 및 상기 세로 방향 선의 크기를 피타고라스의 정리 및 렌즈 공식에 대입하여 상기 대상의 실제 크기를 구하는 단계를 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 방법.And substituting the magnitudes of the horizontal line and the vertical line into Pythagorean theorem and lens formula to obtain the actual size of the object. 제7항에서, In claim 7, 상기 대상의 상의 크기에 대한 상기 가로 방향 선 및 상기 세로 방향 선의 크기를 각각 구하는 단계는, Obtaining the size of the horizontal line and the vertical line with respect to the size of the image of the object, 상기 I를 상기 영상의 가로 방향 최대 화소수로 나누고, 촬상 소자의 가로 방향 사이즈를 곱하여 상기 대상의 상의 크기에 대한 상기 가로 방향 선의 크기를 구하는 단계; 및Dividing I by the horizontal maximum pixel number and multiplying the horizontal size of the image pickup device to obtain the size of the horizontal line with respect to the size of the image of the object; And 상기 J를 상기 영상의 세로 방향 최대 화소수로 나누고, 촬상 소자의 세로 방향 사이즈를 곱하여 상기 대상의 상의 크기에 대한 상기 세로 방향 선의 크기를 구하는 단계를 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 방법. Dividing J by the maximum number of pixels in the vertical direction of the image and multiplying the vertical size of the image pickup device to obtain the size of the vertical line with respect to the size of the image of the object. . 제7항에서, In claim 7, 상기 가로 방향 선 및 상기 세로 방향 선의 크기를 피타고라스의 정리 및 렌즈 공식에 대입하여 상기 대상의 실제 크기를 구하는 단계는,Obtaining the actual size of the object by substituting the magnitude of the horizontal line and the vertical line into Pythagorean theorem and lens formula,
Figure 112007031269675-PAT00016
Figure 112007031269675-PAT00016
또는,or,
Figure 112007031269675-PAT00017
Figure 112007031269675-PAT00017
의 수학식에 따라 계산하는 것을 특징으로 하는 영상의 실물 크기 계산 방법. The real size calculation method of an image, characterized in that the calculation according to the equation.
제7항에서, In claim 7, 상기 가로 방향 선과, 상기 세로 방향 선에 대한 각각의 화소수(I, J)를 구하는 단계는, Obtaining the number of pixels (I, J) for the horizontal line and the vertical line, 상기 I 및 J를 각각 적어도 두 번 이상 측정하고, 상기 두 번 이상 측정한 각각의 결과 값에 따른 평균값을 도출하여 상기 I 및 J를 구하는 것을 특징으로 하는 영상의 실물 크기 계산 방법. And measuring I and J at least twice, and deriving an average value according to each result value measured at least twice to obtain I and J. 제7항에서, In claim 7, 상기 영상을 찍은 촬상 소자의 최대 화소수와 실제 화소수의 차이에 기인하는 실제 크기의 오차를 보정하는 단계를 더 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 방법. And correcting an error of an actual size resulting from the difference between the maximum number of pixels and the actual number of pixels of the image capturing device taking the image. 메타 정보를 탑재하는 카메라부; 및A camera unit for loading meta information; And 상기 카메라부로부터 촬영한 영상을 전송받고, 상기 영상에 찍힌 대상에 대한 정보를 입력받아, 상기 대상의 실제 크기를 계산하여 출력하는 분석 처리부를 포함하는 영상의 실물 크기 계산 시스템.And an analysis processing unit which receives the image captured by the camera unit, receives information on the object captured by the image, and calculates and outputs the actual size of the object. 제12항에서, In claim 12, 상기 카메라부는, 초광대역(UWB: ultra wideband) 무선 통신 방식의 무선 전송부를 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 시스템. The camera unit, a real-size calculation system of the image, characterized in that it comprises a wireless transmission unit of ultra wideband (UWB) wireless communication. 제12항에서, In claim 12, 상기 분석 처리부는, The analysis processing unit, 상기 카메라부로부터 전송 받은 영상에서 대상에 대한 정보를 입력받는 입력부; 및An input unit for receiving information on an object from an image received from the camera unit; And 상기 대상에 관여된 화소수(N) 및 상기 메타 정보를 토대로 렌즈 공식을 적용하여 상기 대상에 실제 크기를 계산하는 계산 처리부를 포함하는 것을 특징으로 하는 영상의 실물 크기 계산 시스템. And a calculation processor configured to calculate an actual size of the object by applying a lens formula based on the number of pixels (N) involved in the object and the meta information. 제14항에서, The method of claim 14, 상기 계산 처리부는, The calculation processing unit, 상기 대상에 관여된 화소수(N)를 상기 영상의 최대 화소수로 나누고, 촬상 소자의 사이즈를 곱하여 상기 영상에 찍힌 대상의 상의 크기를 구하고, 상기 대상의 상의 크기를 렌즈 공식에 대입하여 상기 대상의 실제 크기를 계산하는 것을 특징으로 하는 영상의 실물 크기 계산 시스템.Divide the number N of pixels involved in the object by the maximum number of pixels in the image, multiply the size of an image pickup device to obtain the size of the image of the object captured in the image, and substitute the size of the image of the object in a lens formula to The actual size calculation system of the image, characterized in that to calculate the actual size of the image.
KR1020070040348A 2007-04-25 2007-04-25 Calculating method of actual size of object and system thereof KR100881958B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070040348A KR100881958B1 (en) 2007-04-25 2007-04-25 Calculating method of actual size of object and system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070040348A KR100881958B1 (en) 2007-04-25 2007-04-25 Calculating method of actual size of object and system thereof

Publications (2)

Publication Number Publication Date
KR20080095616A true KR20080095616A (en) 2008-10-29
KR100881958B1 KR100881958B1 (en) 2009-02-04

Family

ID=40155242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070040348A KR100881958B1 (en) 2007-04-25 2007-04-25 Calculating method of actual size of object and system thereof

Country Status (1)

Country Link
KR (1) KR100881958B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210015433A (en) * 2019-08-02 2021-02-10 한림대학교 산학협력단 Apparatus and method for length measurement of clavicle ct image
CN113469952A (en) * 2021-06-09 2021-10-01 浙江大华技术股份有限公司 Method and device for detecting large object on conveyer belt and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101188476B1 (en) 2011-12-13 2012-10-08 한국 한의학 연구원 Apparatus and method for calculating photographing distance and correcting horizontality distance of subject
KR101190795B1 (en) 2012-04-27 2012-10-12 경북대학교 산학협력단 Method and apparatus of detecting real size of ordan or lesion in medical image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0157544B1 (en) * 1995-01-17 1998-11-16 김광호 Method & apparatus for measuring object size
KR100652685B1 (en) 2004-10-09 2006-12-07 엘지전자 주식회사 Length measuring method for mobile communication terminal
KR20060109669A (en) * 2005-04-18 2006-10-23 최인선 A measuring method for length of image by setting of reference length
KR100741367B1 (en) * 2005-07-22 2007-07-20 공현택 Camera for providing information of real size of a subject and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210015433A (en) * 2019-08-02 2021-02-10 한림대학교 산학협력단 Apparatus and method for length measurement of clavicle ct image
CN113469952A (en) * 2021-06-09 2021-10-01 浙江大华技术股份有限公司 Method and device for detecting large object on conveyer belt and storage medium

Also Published As

Publication number Publication date
KR100881958B1 (en) 2009-02-04

Similar Documents

Publication Publication Date Title
US10306165B2 (en) Image generating method and dual-lens device
JP5932476B2 (en) Image processing apparatus, imaging apparatus, distance measuring method, and distance measuring program
TWI393980B (en) The method of calculating the depth of field and its method and the method of calculating the blurred state of the image
US8558942B2 (en) Focusing measurement device, focusing measurement method, and program
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN107517346B (en) Photographing method and device based on structured light and mobile device
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP5901447B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
KR20110089021A (en) Apparatus and method for obtaining 3d location information
KR100881958B1 (en) Calculating method of actual size of object and system thereof
JP2015073185A (en) Image processing device, image processing method and program
WO2019031086A1 (en) Image processing system, server device, image processing method, and image processing program
WO2019123988A1 (en) Calibration data generating device, calibration data generating method, calibration system, and control program
JP2012058978A (en) Image processor, image processing method and program
JP5003406B2 (en) Focus measurement device, focus measurement method and program
EP2106128B1 (en) Compound eye photographing apparatus, control method therefor, and program
JP2006302195A (en) Image processing method and image processing device
JP5115138B2 (en) Focus measurement device, focus measurement method and program
JP5167614B2 (en) Distance image generating apparatus, distance image generating method and program
KR101857977B1 (en) Image apparatus for combining plenoptic camera and depth camera, and image processing method
JP2008310418A (en) Image processing apparatus, image processing program, and digital camera equipped therewith
JP5342977B2 (en) Image processing method
JP2009239391A (en) Compound eye photographing apparatus, control method therefor, and program
JP5219024B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2004354234A (en) Camera calibration method for photogrammetry

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130108

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140115

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150120

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160125

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee