KR20090078447A - The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method - Google Patents
The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method Download PDFInfo
- Publication number
- KR20090078447A KR20090078447A KR1020080004283A KR20080004283A KR20090078447A KR 20090078447 A KR20090078447 A KR 20090078447A KR 1020080004283 A KR1020080004283 A KR 1020080004283A KR 20080004283 A KR20080004283 A KR 20080004283A KR 20090078447 A KR20090078447 A KR 20090078447A
- Authority
- KR
- South Korea
- Prior art keywords
- damage
- area
- distance
- image
- camera
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000014509 gene expression Effects 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 16
- 230000008921 facial expression Effects 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 8
- 230000008878 coupling Effects 0.000 claims description 8
- 238000010168 coupling process Methods 0.000 claims description 8
- 238000005859 coupling reaction Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 5
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 claims description 4
- 230000005855 radiation Effects 0.000 claims description 4
- 239000000463 material Substances 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 229910052742 iron Inorganic materials 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 238000000691 measurement method Methods 0.000 claims 1
- 238000011835 investigation Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 13
- 230000008901 benefit Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 230000002265 prevention Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은, 디지털카메라로 거리 및 면적을 측정하는 방법과, 이를 이용하여 재해(災害)지역의 피해범위를 간편하면서도 정확하게 측정하여 피해액을 산출하는 방법과, 이에 사용되는 피해정보 산출시스템에 관한 것이다.The present invention relates to a method for measuring distance and area with a digital camera, a method for calculating damage by simply and accurately measuring a damage range of a disaster area using the same, and a damage information calculation system used therein. .
즉, 본 발명에서는, 2대의 디지털카메라를 사용하여 촬영한 영상 데이터를, 영상 처리 기법 및 3 차원 좌표 판독방법의 개선을 통해 3차원적인 데이터로 변환할 수 있도록 함으로써, 이를 통해 촬영지역의 거리 및 면적을 비교적 정확하게 산출할 수 있도록 한다.That is, in the present invention, it is possible to convert the image data photographed using two digital cameras to three-dimensional data through the improvement of the image processing technique and the three-dimensional coordinate reading method, through which the distance and The area can be calculated relatively accurately.
또한, 본 발명에서는, 디지털카메라로 거리 및 면적을 측정하는 방법을 재해(災害)지역의 피해범위를 산출하는데에 적용함으로써, 목측(目測)에 의존하던 종래의 방법에 비해서 훨씬 정확하고 설득력있는 재해정보(피해지역의 거리 및 면적) 를 제공할 수 있도록 한다.Furthermore, in the present invention, the method of measuring the distance and the area with a digital camera is applied to calculate the damage range of the disaster area, so that the disaster is much more accurate and convincing than the conventional method depending on the neck. Provide information (distance and area of the affected area).
98년 이후로 빈번하게 발생하던 기상이변은 더 이상 기상이변으로 받아들여지지 않는 새로운 트랜드로써 인식되고 있으며, 이러한 기상의 변화로 인한 풍수해는 발생빈도가 빈번해지고 피해의 규모면에서도 역시 막대한 피해결과를 가져옴으로 인해 더 이상 관가할 수 없는 국가 역량의 주요 관심사로 대두되고 있는 실정이다. Frequent weather events since 1998 have been recognized as new trends that are no longer accepted as extreme weather events, and the feng shui damage caused by such weather changes frequently results in frequent damages and also results in enormous damage. As a result, it is emerging as a major concern of national capacity that can no longer be observed.
현재 국내 실정으로는 재난을 대비하는 예방시스템에 주력하기 보다는 재난 발생후에 대응하는 대응시스템으로 방재시스템이 구축되어있으며, 현실적으로 재난복구를 위한 조사마저도 통일된 조사체계를 갖추지 못하고 있다. At present, domestic disaster prevention system is established as a response system after disaster occurrence, rather than focusing on the prevention system for disaster preparedness, and even the investigation for disaster recovery does not have a uniform survey system.
각종 풍수해로 인해 발생한 피해에 대한 현재 국내의 피해조사체계는 조사인원 및 시간부족 등과 같은 방재시스템의 미정비, 막대한 국가예산의 추가적인 지출, 부정확한 피해추정액 산정으로 인한 국고낭비의 발생 가능성 등 근본적인 문제점을 내제하고 있고, 막대한 인원보충을 통한 피해조사는 현실적으로 어려운 상황이므로, 다양한 피해양상에 대한 통일된 피해조사 체계가 절실히 요구되고 있는 실정이다. The current damage investigation system for damage caused by various feng shui damages is a fundamental problem such as the lack of disaster prevention system such as the lack of time and the number of investigators, additional expenditure of enormous national budget, and the possibility of national waste due to inaccurate estimates. Since it is difficult to investigate damages through huge replenishment, a unified damage investigation system for various types of damages is urgently needed.
또한, 빈번하게 발생하는 풍수해로 인한 피해조사와 피해추정액 산정은 정보 왜곡에 의한 잘못된 결과를 초래할 수도 있으므로 피해지역을 합리적이고 과학적인 방법으로 조사하여 신속하고 정확한 피해추정액 산정이 요구된다. 그리고 조기 재 해복구를 합리적으로 실시하기 위해 신속하고 정확한 피해추정액 집계와 합리적인 피해현황 파악을 위한 시스템의 개발이 필요하다. In addition, damage investigation and estimation of damage estimate due to frequently occurring feng shui damage may lead to incorrect results due to information distortion, and therefore, it is required to calculate damage estimate quickly and accurately by investigating the damage area in a rational and scientific way. In order to rationalize early disaster recovery, it is necessary to develop a system for quickly and accurately counting damage estimates and identifying reasonable damages.
현재 국가에서 주로 수행하고 있는 공공시설물에 대한 피해조사의 범위는 대체적으로 국부적 혹은 국지적인 피해현장의 조사이다. 국지적 피해현장의 조사는 방재인력만으로 현장에서 직접 피해 범위를 관측하여 객관적인 피해물량 산출의 근거가 부족하고 신속한 산출이 어려운 실정이며, 피해정보의 유지관리에도 어려움이 있다. The scope of damage investigations on public facilities, which are currently mainly carried out in the country, is generally surveys of local or local damage sites. In the investigation of the local damage site, the damage range is directly observed on the site only by disaster prevention personnel, so the grounds for objective damage calculation are insufficient and the calculation of the damage is difficult, and the maintenance of damage information is also difficult.
따라서, 공공시설물에 대해 국지 피해지역으로부터 디지털 피해영상자료를 이용하여 재해정보를 취득하기 위한 장비와 기술, 피해지역의 피해추정액 산정이 가능한 시스템이 일부 개발되어 있으며, 본 연구의 이전연구결과에서도 피해영상자료를 이용하여 재해정보를 취득하고 피해추정액 산정이 용이한 기술이 개발되어 있는 단계이다. Therefore, some systems and techniques for acquiring disaster information using digital damage image data from local damaged areas and systems for estimating the damage estimation amount of damaged areas have been developed for public facilities. It is a stage where technology to acquire disaster information by using video data and to easily estimate damage estimate is developed.
그러나 현장피해영상의 처리속도, 송수신 기술과 더불어 피해추정액 산정을 위한 모듈의 개선 등이 지속적으로 요구되는 상황으로써 재해현장 영상정보 촬영시스템의 표준화를 위한 기술과 디지털 현장 피해자료의 정확한 재해정보를 취득하기 위한 기술 개선이 시급한 실정이다. However, it is necessary to improve the processing speed and transmission technology of on-site damage video, and to improve the module for estimating damage estimation. There is an urgent need for technical improvement.
따라서 본 연구에서는 재해현장 영상정보 촬영시스템의 표준화와 공공시설물의 국지 피해지역으로부터 보다 정확한 재해정보를 취득하여 객관적이고 신뢰성 높은 재해정보와 피해추정액 산정을 위한 기술개선을 하고자 한다.Therefore, this study aims to improve the technology for objective and reliable disaster information and estimation of damage estimates by standardizing disaster scene image information system and acquiring more accurate disaster information from local damage area of public facilities.
본 발명은 상기된 문제점을 해소하기 위해 안출된 것으로써, The present invention has been made to solve the above problems,
과거에는 주로 목측(目測)이나 줄자에 의존하던 재해범위(재해지역의 거리 및 면적)의 측정방법을, 2대의 디지털카메라에 의한 영상 데이터에 의해 간편하게 산출할 수 있도록 함으로써, 재해정보를 소수의 인력만으로도 간편하게 산출할 수 있도록 함을 첫 번째 목적으로 한다.In the past, the method of measuring the disaster range (distance and area of the disaster area), which mainly depended on the neck or tape measure, can be easily calculated using image data from two digital cameras. The first purpose is to make it easy to calculate.
또한, 2대의 디지털카메라에 의해 제공된 2차원적인 영상 데이터를, 본 발명에서 제공하는 개선된 영상 처리 기법 및 3 차원 좌표 판독방법에 의해 먼저 3차원적인 데이터로 변환한 다음, 이 값에 의해 재해지역의 거리및 면적을 산출할 수 있도록 함으로써, 실제와 별 차이가 없는 데이터를 사진 촬영만에 의해 산출할 수 있도록 함을 두 번째 목적으로 한다.In addition, the two-dimensional image data provided by the two digital cameras is first converted into three-dimensional data by the improved image processing method and the three-dimensional coordinate reading method provided by the present invention, and then the disaster area by this value. By calculating the distance and area of the second object is to be able to calculate the data that is not much different from the actual by only photographing.
마지막으로, 재해정보를 산출하기 위한 장비가 콤펙트하고 안정한 상태가 되도록 함으로써, 전문인력이 아니더라도 편리하게 사용할 수 있도록 함을 세 번째 목적으로 한다.Finally, the third purpose is to make the equipment for calculating disaster information to be in a compact and stable state so that it can be used conveniently even if it is not a professional man.
본 발명에서는,In the present invention,
2대의 카메라와, 상기 카메라에서 촬영한 2차원 영상데이터들이 전달되어지는 컴퓨터와, 컴퓨터 내에서 2차원 영상 데이터를 3차원 데이터로 변환하여 각 좌 표간의 거리, 면적을 산출해내기 위한 피해물량 산출프로그램과, 산출된 피해물량(거리 또는 면적)에 의해 피해추정액을 산출해내기 위한 피해추정액 프로그램에 의해, 본 발명의 목적들이 달성되어진다.Two cameras, a computer to which two-dimensional image data captured by the camera are transmitted, and damage quantity calculation for calculating distance and area between coordinates by converting two-dimensional image data into three-dimensional data in the computer. By the program and the damage estimating program for calculating the damage estimating amount by the calculated damage amount (distance or area), the objects of the present invention are achieved.
즉, 촬영시스템, 피해물량 및 피해추정액 산정프로그램이 하나의 시스템으로 연동되어 피해현장에서 피해상황 및 원인분석, 피해물량산정, 피해추정액 산정 등이 이루어지므로 별도의 작업이 불필요하게 되고 적은 인원으로 많은 피해지역을 조사할 수 있게되는 것이다.That is, the shooting system, damage quantity and damage estimation program are linked to one system, so damage situation and cause analysis, damage quantity calculation, damage estimation amount calculation, etc. are done at the damage site. The affected area can be investigated.
한편, 디지털 카메라에서는 광전자센서와 다양한 크기의 촬상소자(CCD) 배열센서들에 의하여 기하학적으로 충실도가 높은 영상을 별도의 저장과 처리과정 없이 실시간으로 얻을 수 있으므로, 렌즈를 통해 입사한 빛으로 만들어낸 상(image)을 필름 대신 CCD나 CMOS등의 촬상소자에 맺히게 한 다음, 여기서 얻어지는 모자이크 형태의 영상정보를 픽셀수에 의해 거리를 측정하되, 2대의 카메라에 의해 촬영한 영상정보를 일부 중첩시킨 상태에서 거리를 산출해냄으로써 2차원 영상 데이터를 3차원 데이터로 변환할 수 있도록 하였다.On the other hand, in the digital camera, a geometrically faithful image can be obtained in real time without a separate storing and processing process by using an optoelectronic sensor and an array of image sensor (CCD) array sensors of various sizes. The image is formed on an image pickup device such as a CCD or a CMOS instead of a film, and the mosaic-shaped image information obtained here is measured by the number of pixels, but the image information captured by two cameras is partially overlapped. By calculating the distance from, we can convert 2D image data into 3D data.
특히, 본 발명에서는 먼저 카메라 특성에 맞는 내부표정요소(카메라의 주점 이동량, 초점거리, 렌즈왜곡계수)를 결정한 다음, 현장에서는 외부표정요소()를 결정한 후에야 비로소 2차원 영상 데이터를 3차원 데이터로 변환하여 각 좌표간의 거리 또는 면적을 산출해내게되므로, 사진 촬영만으로도 실제값에 가까운 데이터를 얻을 수 있도록 한다.In particular, in the present invention, first, the internal expression element (the amount of movement of the principal point of the camera, the focal length, the lens distortion coefficient) suitable for the camera characteristic is determined, and then the external expression element ( ) Is determined before the two-dimensional image data is converted into three-dimensional data to calculate the distance or area between the coordinates.
또한, 본 발명에 따른 피해정보 산출시스템은, 2대의 카메라와, 카메라에 의한 영상정보로부터 각 좌표간의 거리 또는 면적을 산출해내기 위한 프로그램과, 각 좌표간의 거리 또는 면적으로부터 피해액 등을 산출해내기 위한 프로그램과, 상기 프로그램들을 포함하며 이를 실행하기 위한 컴퓨터와, 상기 2대의 카메라가 촬영중에 흔들리지 않도록 이를 안정되게 지지하기 위한 지지대만으로 구성되는 바, 시스템의 구성이 매우 간단하며 장비전체의 무게도 가벼우므로 장비 이동성이 좋을 뿐만 아니라 작업에 많은 인원을 필요로 하지 않는 장점이 있는 것이다.In addition, the damage information calculation system according to the present invention includes two cameras, a program for calculating the distance or the area between the coordinates from the image information by the camera, and the damage amount or the like from the distance or the area between the coordinates. It consists of a program, a computer including and executing the programs, and a support for stably supporting the two cameras so as not to shake during shooting. The configuration of the system is very simple and the overall weight of the equipment is light. Therefore, not only the mobility of the equipment is good but also has the advantage that does not require a large number of people to work.
과거에는 주로 목측(目測)이나 줄자에 의한 측정방법에 의해 재해범위(재해지역의 거리 및 면적)를 측정했었으나, 본 발명에서는 디지털 카메라로 촬영한 영상데이터만으로 재해범위의 측정 및 보상금액의 산출이 가능케되었으므로, 종래에 비해 작업인원을 대폭 경감할 수 있을뿐만 아니라 보다 신속한 작업이 가능케된다.In the past, the extent of the disaster (distance and area of the disaster area) was mainly measured by a measuring method using a tape measure or a tape measure. However, in the present invention, the measurement of the damage range and calculation of compensation amount are only performed using image data photographed with a digital camera. Since it is possible, not only can drastically reduce the number of working people, but also enables a faster work.
또한, 2대의 디지털카메라에 의해 제공된 2차원적인 영상 데이터를, 본 발명에서 제공하는 개선된 영상 처리 기법 및 3 차원 좌표 판독방법에 의해 먼저 3차원적인 데이터로 변환한 후에 이 값에 의해 재해지역의 거리및 면적을 산출해냄으로써, 정확도가 높은 데이터를 얻을 수 있다.In addition, two-dimensional image data provided by two digital cameras is first converted into three-dimensional data by the improved image processing method and three-dimensional coordinate reading method provided by the present invention, and then the value of By calculating the distance and area, highly accurate data can be obtained.
마지막으로, 본 발명에 따른 피해정보 산출시스템은, 2대의 카메라와, 각종 프로그램이 수록된 컴퓨터와, 상기 2대의 카메라가 촬영중에 흔들리지 않도록 이를 안정되게 지지하기 위한 지지대만으로 구성되는 바, 시스템 구성이 간단하고 콤펙트하므로 장비 이동성이 좋은 특징이 있다. Finally, the damage information calculation system according to the present invention is composed of only two cameras, a computer containing various programs, and a support for stably supporting the two cameras so as not to shake during shooting. Because of its compactness and compactness, it has good mobility.
이하, 첨부도면에 의해 본 발명의 바람직한 실시예를 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명에 따른 피해정보 산출시스템의 분리사시도 및 사진이며, 도 2는 본 발명에서의 내부표정을 위한 실내모형판의 사진이며, 도 3은 발명에 의한 피해규모 정밀산정 프로그램의 모니터 화면사진이며, 도 4는 본 발명에 의한 피해규모 정밀산정 프로그램 운용절차의 흐름도이며, 도 5는 본 발명에 의한 피해산출과정을 개략적으로 설명한 도면이다.1 is an exploded perspective view and a photograph of a damage information calculation system according to the present invention, FIG. 2 is a photograph of an indoor model board for internal expression in the present invention, and FIG. 3 is a monitor screen of a damage scale precision estimation program according to the present invention. Figure 4 is a flow chart of the damage scale precision calculation program operating procedure according to the present invention, Figure 5 is a view schematically illustrating the damage calculation process according to the present invention.
본 발명에서 제시하는 피해 조사 산출방법은 일선의 피해조사자가 피해현장을 디지털 영상처리기법 및 사진기 등을 이용하여 실측함으로써 피해물량을 산출하는 방법이다. The damage investigation calculation method proposed by the present invention is a method of calculating damage quantity by a damage investigator of a first line by measuring a damage spot using a digital image processing technique and a camera.
이러한 방법은 신속하고 정확하게 피해물량을 산출하여 피해액을 집계할 수 있고 피해조사 장비의 경우 비교적 저렴한 비용으로 피해조사를 실시할 수 있는 장점이 있다. This method has the advantage that the damage amount can be aggregated by calculating the damage quantity quickly and accurately, and the damage investigation equipment has the advantage of performing the damage investigation at a relatively low cost.
공공시설물의 국지피해 경우, 길이측정 및 디지털 영상처리를 통하여 대부분 피해물량 산출이 가능하며 그 중 하천제방 및 시설물의 경우에는 홍수로 인한 피해현장 접근성이 불가능하여 직접 길이측정이 불가능한 경우가 상당할 것으로 판단된다. In the case of local damage of public facilities, most damages can be calculated through length measurement and digital image processing. Among them, river embankments and facilities cannot be directly accessed due to flood damage. Judging.
이러한 피해위치, 규모, 기상상황, 피해지역의 접근성 등으로 직접적인 길이측정이 불가능할 경우 본 연구에서 개발되어진 촬영시스템을 활용하여 원거리의 피 해영상자료를 현장에서 취득하여 비교적 간편하게 피해물량을 산출하는 것이 좋은 대안이 될 것으로 판단된다. If direct length measurement is not possible due to the location, size, weather conditions, and accessibility of the affected area, it is relatively easy to calculate the damage quantity by using remote imaging system from the field. It would be a good alternative.
그러므로 본 발명에 따른 피해조사 산출방법은 국지피해조사에 있어 적용가능성이 매우 높을 것으로 여겨진다. Therefore, the damage investigation calculation method according to the present invention is considered to be very applicable in the local damage investigation.
또한 공공시설에 국한한 피해조사에서 디지털 영상처리 기법은 다양한 시설에서 적용가능하며 현장에서 영상자료를 취득하고 피해물량 및 피해추정액을 산출할 수 있으므로 피해현장에서 신속하게 피해조사가 이루어 질 수 있는 장점이 있다. In addition, the digital image processing technique can be applied to various facilities in the investigation of damages limited to public facilities, and the damage can be quickly acquired at the damage site by acquiring the image data at the site and calculating the damage quantity and the damage estimate. There is this.
피해영상 취득은 전문적인 지식이 필요하지 않으므로 비전문가도 손쉽게 피해조사를 성공적으로 수행할 수 있을 것으로 판단된다.Acquisition of damage images does not require specialized knowledge, so it is expected that non-experts can easily carry out damage investigation.
사진측량의 효용성이 증대됨에 따라 최근 수치화된 영상을 처리하여 대상물에 대한 위치정보를 취득하는 수치사진측량에 대한 연구가 활발하게 진행되고 있다. 수치화된 영상을 취득할 수 있는 각종 기기들이 개발되어 일반적으로 널리 이용되고 있으며 이중 디지털 카메라는 비교적 저가의 기기로서 손쉽게 수치영상을 취득할 수 있고, 저장매체도 메모리 카드, 하드디스크, CD-ROM 등 각종 장치를 이용할 수 있으므로 자료의 저장 및 재생에도 많은 장점을 가지고 있다.As the effectiveness of photogrammetry increases, research on digital photogrammetry, which acquires positional information on an object by processing digitized images, has been actively conducted. Various devices for acquiring digitized images have been developed and are widely used in general. Among them, digital cameras are relatively inexpensive devices and can easily acquire numerical images, and storage media are memory cards, hard disks, CD-ROMs, etc. Since various devices are available, there are many advantages in storing and reproducing data.
영상을 취득하는 과정은 수치화된 영상을 직접적으로 얻을 수 있는 사진기의 경우와 일반적인 사진기를 이용하여 촬영후 인화된 음화 또는 양화에 대하여 스캐너를 이용하므로써 수치영상을 취득하는 방법이 있다. The process of acquiring an image includes a camera capable of directly obtaining a digitized image and a method of acquiring a digital image by using a scanner for negative or positive print after printing using a general camera.
그러나 실시간 사진측량 또는 로봇 영상 인식(robot vision)분야에서는 수치 사진기를 이용하여 수치영상을 직접 취득하지만 일반적으로 수치영상은 사진을 스캐닝하므로써 간접적으로 취득된다. However, in the field of real-time photogrammetry or robot vision, digital images are acquired directly by using a digital camera. However, digital images are generally obtained indirectly by scanning a photo.
이때 촬영된 사진과 수치영상간에는 인화과정과 스캐닝과정에서 발생하는 오차가 포함되며 영상처리과정에서도 오차가 포함된다.In this case, the error between the photographed image and the numerical image includes the printing process and the scanning process, and the image processing process also includes the error.
최근 광전자센서와 다양한 크기의 촬상소자(CCD) 배열센서들에 의하여 기하학적으로 충실도가 높은 영상을 별도의 저장과 처리과정 없이 실시간으로 얻을 수 있으므로 관측의 자동화를 필요로 하는 외형적 품질검사, 로봇제어, 의학, 토목, 건축 등 관측을 요하는 각 분야에서 그 중요성이 부각되고 있다. Recently, high quality geometrically faithful images can be obtained in real time without separate storage and processing by photoelectric sensors and array of image sensor (CCD) array sensors. Its importance is highlighted in each field that requires observation, such as medicine, civil engineering, and architecture.
일반 측량용 사진에 대한 관측은 고가의 좌표관측기를 사용해야 하지만, 수치영상의 경우에는 영상내의 측점의 위치가 영상소배열의 행렬 수에 근거하여 관측될 수 있다.In the case of general survey photos, expensive coordinate observers should be used, but in the case of digital images, the position of the points in the image can be observed based on the number of matrixes of the image array.
수치화된 영상을 취득할 수 있는 각종 기기들이 개발되어 일반적으로 널리 이용되고 있으며 이중 디지털 카메라는 비교적 저가의 기기로서 손쉽게 수치영상을 취득할 수 있고, 저장매체도 메모리 카드, 하드디스크, CD-ROM 등 각종 장치를 이용할 수 있으므로 자료의 저장 및 재생에도 많은 장점을 가지고 있다.Various devices for acquiring digitized images have been developed and are widely used in general. Among them, digital cameras are relatively inexpensive devices and can easily acquire numerical images, and storage media are memory cards, hard disks, CD-ROMs, etc. Since various devices are available, there are many advantages in storing and reproducing data.
디지털 카메라는 한마디로 필름이 필요 없는 카메라라고 정의할 수 있다. 촬상소자(CCD)를 통해 영상을 포착하고, 이를 기존의 방식인 필름 대신 반도체에 저장하여, 필름현상과 인화과정을 거치지 않고 PC나 프린터를 통해 화면을 자유롭게 바꾸거나 재생할 수 있는 차세대 영상기기이다.In short, a digital camera can be defined as a camera that does not require film. It is a next-generation imaging device that captures an image through an imaging device (CCD) and stores it in a semiconductor instead of a film, which is a conventional method, so that the screen can be freely changed or reproduced through a PC or a printer without undergoing film development and printing.
일반적인 필름카메라와 마찬가지로 디지털카메라도 영상 처리 부분을 제외한 다른 광학적 기능을 수행하는 부분은 필름카메라와 같다. 렌즈를 통해 입사한 빛으로 만들어낸 상(image)을 필름 대신 CCD나 CMOS등의 촬상소자에 맺히게 한 다음, 여기서 얻어지는 모자이크 형태의 영상정보를 이미지 프로세서로 보내어서 우기가 컴퓨터를 통해 불러와서 모니터를 통해 보거나 혹은 포토프린터를 사용하여 바로 인화지에 출력 가능한 컴퓨터파일을 생성하게 한다. Like a general film camera, a digital camera performs the same optical functions as a film camera except for an image processing part. The image produced by the light incident through the lens is condensed on the image pickup device such as CCD or CMOS instead of the film, and then the mosaic image information is sent to the image processor. Create a computer file that can be viewed or printed directly on photo paper using a photo printer.
디지털카메라의 해상도 차이는 정확도에 어느 정도 영향을 준다고 판단된다. 영상에서 한 픽셀의 차이는 근거리에서는 차이가 크지 않지만 촬영거리가 원거리일 경우 차이는 매우 크기 때문에 선명도나 색상감이 뛰어난 고해상도 카메라를 사용하여 영상을 취득하는 것이 유리하다.The difference in resolution of the digital camera is considered to affect the accuracy to some extent. The difference of one pixel in the image is not large at close range, but the difference is very large when the shooting distance is far. Therefore, it is advantageous to acquire the image by using a high resolution camera having excellent clarity and color.
한편, 두 대의 디지털 카메라를 이용하여 제작된 촬영시스템으로부터 취득한 디지털 영상을 이용하여 대상물의 3차원 좌표 정보를 취득하기 위해서는 표정과정이 필요한데, 두 대의 사진기에 대한 투영중심의 위치와 사진기 촬영방향에 해당하는 3차원 각을 촬영 전에 미리 결정하여야만 기준점 정보 없이 대상물의 3차원 좌 표 추출이 가능하다. On the other hand, in order to acquire the three-dimensional coordinate information of the object using a digital image acquired from a photographing system manufactured using two digital cameras, the facial expression process is required, which corresponds to the position of the projection center and the camera shooting direction for the two cameras. It is possible to extract three-dimensional coordinates of an object without reference point information only if the three-dimensional angle is determined before shooting.
본 발명에 따른 피해정보 산출시스템의 주목적은 2차원의 영상 두 장으로부터 대상공간상의 피해대상물에 대한 3차원 정보를 추출하는데 있다. 영상촬영시스템을 통해 3차원 정보를 보다 정확하고 안정적으로 취득하기 위해서는 카메라 특성에 맞는 기하학적인 모델을 적용하여야 한다. 촬영된 영상과 대상공간과의 기하학적인 모델을 수립하기 위해서는 카메라 특성에 맞는 내부표정요소가 결정되어야 하며 내부표정요소는 초점거리, 주점의 위치, 영상왜곡 계수로 표현될 수 있다.The main purpose of the damage information calculation system according to the present invention is to extract three-dimensional information on the damaged object in the object space from two two-dimensional images. In order to acquire 3D information more accurately and reliably through the image capturing system, a geometric model suitable for camera characteristics should be applied. In order to establish a geometric model between the photographed image and the target space, an internal expression element suitable for the characteristics of the camera must be determined, and the internal expression element can be represented by a focal length, a position of a main point, and an image distortion coefficient.
각각의 카메라가 가지는 고유의 특성을 표현하는 내부표정요소를 결정하기 위해서는 대상공간에 여러 기준점을 설치하고 이를 이용하여 사진의 기하학적인 모델로부터 구하는 방법을 적용할 수 있다. 일반 시중의 디지털 카메라는 측량용으로 제작된 제품이 아니기 때문에 정확한 초점거리 및 주점의 위치를 알 수 없으며 정확히 측량한 기준점으로부터 구해야 한다. In order to determine the internal expression elements expressing the unique characteristics of each camera, various reference points may be installed in the object space and the method of obtaining them from the geometric model of the photograph may be applied. Since commercial digital cameras are not designed for surveying, the exact focal length and location of the pub are unknown and must be obtained from a precisely measured reference point.
직접선형변환방식에 의해 디지털 카메라 고유의 내부표정요소 및 외부표정요소를 구하고자 할 경우에는, 사진좌표나 초점거리를 필요로 하지 않으며 영상의 좌표와 대상공간의 3차원 좌표가 선형식의 관계로 표현되는 장점을 가지고 있다. In order to obtain the internal and external expression elements unique to the digital camera by the direct linear transformation method, no photo coordinates or focal lengths are required, and the coordinates of the image and the three-dimensional coordinates of the object space are linearly related. It has the advantage of being expressed.
그리고 Bundle 기법에 비해 초기 값의 입력과 반복계산에 의한 표정요소 계산과정을 수행하지 않아도 된다. 그러나 직접선형변환의 경우 대상좌표의 정확도가 다소 떨어지기 때문에 정확도 개선을 위해 아래 그림과 같은 기하학적 모형을 이용한 self-calibration bundle기법을 적용하였다.And compared to the Bundle method, it is not necessary to perform the calculation process of facial expression elements by inputting initial values and iterative calculation. However, in the case of direct linear transformation, the accuracy of the target coordinates is somewhat reduced, so the self-calibration bundle method using geometric model is applied to improve the accuracy.
카메라 내부표정요소 중 영상왜곡의 영향은 방사 왜곡과 편심 왜곡, 대기 굴절로 대표될 수 있으며, 왜곡보정계수로서 수학적으로 모델링될 수 있다. 방사 왜곡은 광선이 렌즈의 투영중심을 통과할 때 이동경로가 변경되는 과정에서 발생하며 주점으로부터 방사방향을 따라 발생한다. 방사방향의 왜곡을 보정하는 계수는 아래식(1-1)과 같이 표현할 수 있다. The effects of image distortion among the camera's internal components can be represented by radiation distortion, eccentric distortion, and atmospheric refraction, and can be mathematically modeled as distortion correction coefficients. Radiation distortion occurs in the process of changing the path of travel as the ray passes through the projection center of the lens and along the radial direction from the main point. The coefficient for correcting the distortion in the radial direction can be expressed as Equation (1-1) below.
(1.1) (1.1)
여기에서, 는 방사방향 왜곡에 대한 계수이고 r은 다음과 같이 표현되는 주점에서부터의 방사거리(radial distance)이다. From here, Is the coefficient for radial distortion and r is the radial distance from the principal point as
(1.2) (1.2)
이때, (, )는 임의의 상점에 대한 사진좌표이고, (, )는 주점의 사진좌표이다. 광각이 좁은 카메라나 정확도의 요구가 크지 않은 경우 항 하나만을 고려하여도 되며 항은 보다 높은 정확도가 요구되거나 카메라의 렌즈가 광각인 경우 적용할 수 있다.At this time, ( , ) Is the photo coordinate for any store, and ( , ) Is the photo coordinate of the tavern. Narrow wide angle cameras or accuracy requirements are not high You may consider only one term The term can be applied when higher accuracy is required or when the lens of the camera is wide angle.
편심왜곡(decentering distortion)은 일반적으로 방사방향 왜곡보다 작은 양이며 주점에 대해 비대칭이다. x와 y방향에 대한 편심왜곡성분은 식 (1.3)과 같다. Decentering distortion is generally less than radial distortion and asymmetrical about the principal point. The eccentric distortion component in the x and y directions is given by Equation (1.3).
(1.3) (1.3)
이때 P1, P2는 무한 초점거리에서의 조합렌즈에 대한 편심왜곡의 계수로서, 대부분의 근거리 사진측량에서는 P1, P2만을 고려하나, 편심왜곡의 경우 주점의 위치와 상관성이 높아 이를 고려하더라도 정확도의 향상의 효과는 미미한 편이다.In this case, P1 and P2 are coefficients of eccentric distortion of the combined lens at infinite focal length. In most near field surveying, only P 1 and P 2 are considered. The effect of the improvement is minimal.
방사왜곡과 편심왜곡을 결합한 왜곡보정 계수는 식 (1.4)과 같다. The distortion correction factor combining the radial and eccentric distortions is given by Equation (1.4).
(1.4) (1.4)
카메라 표정의 과정에는 정확한 3차원 좌표를 가지고 있는 모형이 필요하며 충분한 타겟점이 공간상에 분포하여야 한다. The process of camera expression requires a model with accurate three-dimensional coordinates and sufficient target points must be distributed in space.
왜곡보정계수들을 포함한 확장된 공선조건식은 식 (1.5)와 같으며 대상공간상의 점과 영상상의 점사이의 수학적인 관계식을 의미한다.The extended collinear condition equation including distortion correction coefficients is shown in Equation (1.5), which means the mathematical relationship between the point in the object space and the point in the image.
(1.5) (1.5)
여기서, : 영상좌표, : 주점의 위치, : 초점거리, : 회전행 렬, : 대상물좌표, : 렌즈 투영중심의 위치이다. here, : Image coordinate, : Location of pub, : Focal length, : Rotation matrix, : Object coordinates, : Position of lens projection center.
여기에서 보면, 주점의 위치와 초점거리가 새로운 미지변수로 적용되며 외부표정요소 6개가 독립적으로 적용되는데, 미지변수의 개수는 외부표정요소 6개, 주점의 위치 2개, 초점거리 1개로 기본적으로 9개이며, 카메라 왜곡계수를 어떻게 적용하느냐에 따라 최소 2개에서 많게는 6개 그 이상으로 늘어날 수도 있다. Here, the position and focal length of the tavern are applied as a new unknown variable and six external expression elements are applied independently. The number of unknown variables is six external expression elements, two positions of the tavern, and one focal length. Nine, and can range from at least two to as many as six, depending on how the camera distortion coefficient is applied.
식 (1.5)는 비선형식이기 때문에 카메라의 내부표정요소와 외부표정요소를 계산하기 위해 이를 Taylor 급수를 이용하여 선형화 하면 식 (1.6), (1.7)과 같다.Equation (1.5) is nonlinear, so if we linearize it using Taylor series to calculate the internal and external expression elements of the camera, we can get the equations (1.6) and (1.7).
(1.6) (1.6)
(1.7) (1.7)
여기에서, 는 근사값 를 함수 에 대입하여 얻은 값, 는 보정량, 는 잔차이다. From here, Is an approximation Function The value obtained by substituting for Is the correction amount, Is the residual.
식 (1.6), 식 (1.7)을 행렬로 표시하면 식 (1.8)과 같다.If equations (1.6) and (1.7) are expressed as matrices, they are as shown in equation (1.8).
(1.8) (1.8)
식(1.8)에서 각각의 행렬을 간략히 표현하면 식 (1.9)와 같이 간단하게 나타낼 수 있다. In Equation (1.8), each matrix can be simply expressed as Equation (1.9).
(1.9) (1.9)
식 (1.9)에서 B 계수행렬의 요소 중 일부만 표현해보면 외부표정요소의 경우 식 (1.10)과 같다. If only some of the elements of the B coefficient matrix are expressed in Eq. (1.9), then for externally expressed elements, Eq. (1.10) is used.
(1.10) (1.10)
여기서, here,
. .
카메라의 외부표정요소와 왜곡보정계수를 포함하는 내부표정요소가 결정되면 확장된 공선조건식을 이용하여 사진 상의 점으로부터 대상 공간상의 대상물좌표를 계산할 수 있다. 좌우사진에서 동일지점 과 를 찾았을 경우, 외부표정요소를 변수로 하는 선형방정식을 형성하여 삼차원 위치를 결정할 수 있다.When the internal expression element including the external expression element and distortion correction coefficient of the camera is determined, the object coordinate in the object space can be calculated from the point on the photograph using the extended collinear condition. Same point in left and right pictures and If we find, we can determine the three-dimensional position by forming a linear equation with the external expression element as a variable.
, 점에 대해 식(1.11), 식(1.12)와 같은 공선조건식을 구성할 수 있다. 이때, 영상좌표는 주점의 위치()와 렌즈왜곡계수()가 고려된 좌표이다. , For the point, we can construct collinear conditional expressions such as equations (1.11) and (1.12). At this time, The image coordinate is the location of the tavern ( ) And lens distortion coefficient ( ) Is considered coordinates.
(1.11a) (1.11a)
(1.11b) (1.11b)
(1.12a) (1.12a)
(1.12b) (1.12b)
식(1.11), (1.12)에서 좌우 사진의 외부표정요소를 알고 있을 때 곧바로 지상기준점 좌표 P(X, Y, Z)를 계산할 수 있다. 각각 X, Y, Z에 대해 정리하면 When Equations (1.11) and (1.12) are known, the ground reference point coordinates P (X, Y, Z) can be calculated immediately. For each of X, Y, and Z,
(1.13a) (1.13a)
(1.13b) (1.13b)
(1.14a) (1.14a)
(1.14b) (1.14b)
와 같다. 식(1.13), (1.14)은 다시 몇 개의 기호를 사용하여 식 (1.15), 식 (1.16)과 같이 간략화 시킬 수 있다.Same as Equations (1.13) and (1.14) can be simplified again using Equations (1.15) and (1.16).
(1.15a) (1.15a)
(1.15b) (1.15b)
(1.16c) (1.16c)
(1.16d) (1.16d)
이때, At this time,
이다. 위 식을 행렬형태로 나타내면 식 (1.17)과 같다.to be. If the above expression is expressed in matrix form, it is the same as Equation (1.17).
(1.17) (1.17)
이를 간단히 하면 식 (1.18)과 같이 나타낼 수 있고 Simply put, we can write this as (1.18)
(1.18) (1.18)
최소제곱에 의한 해 는 식 (1.19)와 같이 구해진다.Solution by least squares Is given by equation (1.19).
(1.19) (1.19)
이렇게 구해진 해는 공선조건식을 Taylor 급수 전개하여 X, Y, Z의 초기값을 대입하고 구한해와 거의 일치하는 결과를 얻을 수 있으며 지상에서 대상물을 관측하는 경우 거리방향의 초기값을 추정하기가 어렵기 때문에 효과적으로 이용될 수 있다. In this solution, the collinear conditional equation is expanded by Taylor series, and the initial values of X, Y, and Z are substituted, and the result is almost identical to the solution obtained. It is difficult to estimate the initial value of the distance direction when the object is observed from the ground. Can be effectively used.
위에 기술한 수학적인 모형식을 바탕으로 프로그램을 코딩하고 디지털 카메라에 적용하였다. 적용한 모델은 Sony R1모델이며 적용한 모형은 도 2와 같으며 10cm 간격의 그리드에 81개의 봉을 수직으로 장착하였다. 두 대의 데오돌라이트를 이용하여 취득한 기준점의 좌표는 아래표와 같다. Based on the mathematical model described above, the program was coded and applied to a digital camera. The applied model is the Sony R1 model and the applied model is the same as that of FIG. 2, and 81 rods are vertically mounted on a grid of 10 cm intervals. The coordinates of the reference point acquired using two deodorites are shown in the table below.
*모형 기준점좌표 Model reference point coordinates
총 81점의 기준점을 이용하여 아래도표에서와 같이 공선조건식의 외부표정요소와 초점거리 주점의 위치 렌즈왜곡계수를 계산하였다. 이때 렌즈왜곡계수는 편심왜곡계수는 생략하였으며 방사방향의 경우 수평방향과 수직방향의 방사왜곡이 차이가 있음으로 해서 각각 따로 적용하였으며 3차항까지 적용하였다.A total of 81 reference points were used to calculate the position lens distortion coefficients of the external expression element and focal length main point of the collinear condition equation. In this case, the eccentric distortion coefficient is omitted in the lens distortion coefficient, and in the radial direction, the radial distortion in the horizontal direction and the vertical direction are different.
* 계산된 카메라 내부 및 외부표정요소 및 왜곡계수* Calculated camera internal and external expression factors and distortion coefficients
이때 각 영상좌표에 대한 평균제곱근잔차는 x좌표 방향으로 0.404 픽셀, y좌표 방향으로는 0.384 픽셀로 1픽셀 이내로 들어오는 결과를 얻을 수 있었다. In this case, the root mean square residual for each image coordinate was 0.404 pixels in the x-coordinate direction and 0.384 pixels in the y-coordinate direction.
본 영상촬영시스템은 대략 80~90%의 중복도로 촬영되며 일반적인 영상정합은 전체 영상을 공액 영상소를 찾기 위한 탐색영역으로 고려한다. 그러나 이렇게 하면 계산 시간이 매우 길어지기 때문에 탐색영역은 공액점 부근의 일정영역으로 한정되어야 할 필요가 있다. This imaging system takes about 80 ~ 90% redundancy and general image matching considers the entire image as a search area to find the conjugated image. However, since the calculation time becomes very long, the search area needs to be limited to a certain area near the conjugate point.
영상정합에 있어서 보다 정확하고 보다 신속하게 공액점을 찾기 위한 공액점 위치에 대한 중요한 제약은 에피폴라 선(epipolar line)이다. An important limitation on the conjugate point position for finding the conjugate point more accurately and quickly in image registration is the epipolar line.
위의 그림은 에피폴라 기하를 나타내고 있다. 에피폴라 평면 (epipolar plane)은 투영정심 과 지상의 점 P에 의해서 정의된다. 에피폴라 선은 영상평면과 에피폴라 평면의 교차면이다. 따라서 공액점은 에피폴라 선상에 반드시 위치한다. 이러한 이유로 에피폴라 선은 영상 정합시 탐색영역을 상당히 감소시킬 수 있다. 에피폴라 선을 계산하기 위해서는 입체영상의 표정요소를 미리 알고 있어야 한다.The figure above shows the epipolar geometry. Epipolar plane is projected And point P on the ground. The epipolar line is the intersection of the image plane and the epipolar plane. Therefore, the conjugate point must be located on the epipolar line. For this reason, the epipolar line can significantly reduce the search area during image registration. In order to calculate the epipolar line, it is necessary to know the facial expressions of the stereoscopic image.
수치영상에서의 영상의 각 행이 에피폴라 선에 평행하도록 재배열한 영상을 에피폴라 영상이라고 부른다. 이러한 영상을 이용해 영상정합을 행할 경우 공액점에 대한 탐색영역은 다른 영상에서의 동일한 행으로 제한된다. 그렇다고 에피폴라 선 전체를 따라서 탐색을 할 필요는 없다. 공액점 위치를 예측함으로써 보다 탐색영역을 줄일 수 있다. An image rearranged such that each row of images in the numerical image is parallel to the epipolar line is called an epipolar image. When image registration is performed using such an image, the search region for the conjugate point is limited to the same row in another image. That doesn't mean you have to search the entire epipolar line. By predicting the conjugate point position, the search area can be further reduced.
위의 그림에서는 공액점 위치를 에피폴라선 상에서 예측하는 원리를 보여주고 있다. 여기서 는 대상물의 예상 촬영거리를 나타내며 일반적으로 대상 지역 내에 있는 대상물에 촬영거리의 평균을 취해서 구한다. The figure above shows the principle of predicting the conjugate point position on the epipolar line. here Represents the expected shooting distance of the object and is usually obtained by taking the average of the shooting distances on the object within the target area.
한편, 값으로 예상 촬영거리에 대한 최대치와 최소치를 정의한다. 그러나 실제로 값을 예측하는 것은 대단히 어렵다. 일반적인 사진에 대해서 다음과 같은 식을 이용하여 공액점의 근사 위치를 추정할 수 있다.Meanwhile, The value defines the maximum and minimum values for the expected shooting distance. But actually Predicting the value is very difficult. For general photographs, the approximate location of the conjugate point can be estimated using the equation
(1.20) (1.20)
(1.21) (1.21)
(1.22) (1.22)
여기서, 는 촬영기선길이, 는 주점기선길이, 는 점의 시차를 나타낸다.here, The length of the camera, Is the tavern line length, Point Indicates the time difference.
시차방정식을 이용하여 탐색영역 를 결정한다. 연직사진이라고 가정하면 시차방정식은 다음과 같다.Search Area Using Parallax Equation Determine. Assuming a vertical picture, the parallax equation is as follows.
(1.23) (1.23)
여기서, : 점L의 시차here, : Time difference of point L
: 점U의 시차 : Time difference of point U
: 점U와 L의 시차차 : Time difference between point U and L
따라서 탐색영역 는 다음 식으로 표현된다.So search area Is expressed by the following equation.
(1.24) (1.24)
(1.25) (1.25)
(1.26) (1.26)
(1.27) (1.27)
여기서 는 주점기선길이(), 는 기준면에서 촬영거리, 는 점에서의 촬영거리, 는 대상물의 예상 촬영거리, 는 의 추정범위를 나타낸다.here Is the tavern line length ( ), Is the shooting distance from the reference plane, Point Distance from, Is the estimated shooting distance of the object, Is It shows the estimated range of.
입체모형 상의 최대거리와 최소거리는 실제 대상물에 대해 가정된 최대거리와 최소거리를 초점거리와 촬영고도의 비로 환산하여 설정할 수 있다. The maximum and minimum distances on the stereoscopic model can be set by converting the maximum and minimum distances assumed for the actual object as the ratio of the focal length and the photographing altitude.
각 특징점들의 모형좌표 초기값을 기준으로 입체모형의 최대거리와 최소거리에 해당하는 범위를 우측영상에서 탐색영역으로 설정하고 상관계수 영상정합에 의 해 정합을 실시함으로써 대상공간 영상정합을 수행할 수 있다. Target space image registration can be performed by setting the maximum and minimum distances of the stereoscopic model from the right image to the search area based on the initial value of the model coordinates of each feature point, and performing matching by correlation coefficient image registration. have.
기존의 DLT식을 이용한 내외부표정에서 확장공선조건식을 이용한 내부표정과 외부표정과정을 분리하여 시스템의 안정성과 정확도를 향상시켰다. The stability and accuracy of the system are improved by separating the internal and external expression processes using the extended collinear condition from the internal and external expressions using the existing DLT equation.
도 6은 시스템 표정과정 개선을 간략하게 표현한 도면으로서,6 is a view briefly expressing the improvement of the system facial expression process,
내부표정에서는 카메라의 주점이동량, 초점거리, 렌즈왜곡계수를 정확히 계산한다. 이러한 내부표정요소는 카메라 고유값으로 한번 결정되면 지속적으로 사용가능하다. 내부표정 작업은 기존의 실내모형판을 통하여 계산되었으며 계산된 내부표정요소들은 아래의 표와 같다. The internal expression accurately calculates the principal movement of the camera, the focal length, and the lens distortion coefficient. This internal expression element can be used continuously once it is determined by the camera unique value. The internal expression work was calculated using the existing indoor model board and the calculated internal expression elements are shown in the table below.
한편, 외부표정은 스테레오 카메라 시스템에서 2대의 카메라의 위치 및 자세각을 정확히 계산해 낸다. 이러한 외부표정요소는 각각의 시스템마다 고유값이므로 한번 결정되면 지속적으로 사용이 가능하나, 외부환경적인 요인에 의해 틀어질 경우 다시 표정하여야 한다. 외부표정 작업은 실외에 타겟을 설치하여 표정요소들을 계산하였으며 계산된 외부표정요소들은 아래의 표와 같다. The external expression, on the other hand, accurately calculates the position and attitude of the two cameras in the stereo camera system. Since these external expression factors are unique for each system, they can be used continuously once determined, but must be re-expressed if they are distorted by external environmental factors. The external expression work calculates facial expressions by installing a target outdoors and the calculated external expression elements are shown in the table below.
한편, 도 1은 본 발명에 따른 피해정보 산출시스템의 분리사시도 및 사진으 로서,On the other hand, Figure 1 is an exploded perspective view and photograph of the damage information calculation system according to the present invention,
본 발명에 따른 피해정보 산출시스템은, Damage information calculation system according to the present invention,
횡방향으로 길게 형성된 가로대(4)와, 상기 가로대(4)의 상부에서 측방향으로 일정간격만큼 이격되고 각각 정면을 향하도록 배치되는 2대의 카메라(1)와, 상기 가로대(4)를 지면으로부터 지지하기 위한 지지대(3)와, 상기 카메라(1)에서 촬영한 영상정보를 수신 및 저장하고 내부 수록된 프로그램에 의해 피해지역의 범위(거리 및 면적) 및 피해보상 금액을 산출하도록 이루어진 컴퓨터(2)로 구성된다.A crossbar 4 formed in the transverse direction, two
한편, 상기 카메라(1)는 가로대(4)의 상부에 일정간격만큼 이격되도록 설치되며, 분리 및 결합을 용이하도록 하기 위해 퀵슈와 같은 결합수단(5)에 의해 결합되어진다.On the other hand, the
컴퓨터(2)는 이동성을 고려하여 노트북 타입을 사용하는 것이 바람직하고, 카메라(1)에서 촬영한 영상정보를 수신하기 위해서는 카메라(1)로부터 유선으로 연결되어야 한다.The
카메라(1)에서 촬영한 영상정보를 컴퓨터(2)에 전송하기 위해서는 USB연결케이블이 너무 길지 않도록 하며, 장비를 콤팩트화 하기 위해서는 도 1에서와 같이 컴퓨터(2)를 2대의 카메라(1) 사이에 위치하도록 구성하는 것이 바람직하다.In order to transfer the image information captured by the
즉, 컴퓨터(2)는 가로대(4)의 중앙 상부에 위치한 작업대(6)상에 설치되어지며, 별도의 USB케이블(미도시함)이 상기 컴퓨터(2)와 카메라(1)간에 각각 연결되어진다.That is, the
또한, 상기 작업대(6)는 철의 재질로 구성하고, 상기 가로대(4)에는 상기 작 업대(6)가 위치할 부위에 마그넷(7)를 결합함으로써, 장비의 설비 및 해체작업이 용이하게 이뤄지도록 구성할 수 있을 것이다.In addition, the
상기 지지대(3)는 이동성을 고려한다면 형태가 고정된 타입보다는 접었다 폈다할 수 있는 타입의 것이 바람직하며, 도시된 예에서와 같이 카메라 삼각대와 같은 삼발이 형태로 된 것을 사용할 수도 있을 것이다.The support 3 is preferably of a type that can be folded and retracted, rather than a fixed type in consideration of mobility, it may be used in the form of a tripod, such as a camera tripod, as in the illustrated example.
한편, 지지대(3)와 가로대(4)간의 분리 및 결합을 용이하도록 하기 위해, 상기 지지대(3)의 상단에는 퀵슈와 같은 결합수단(8)이 결합되어 있다.On the other hand, in order to facilitate the separation and coupling between the support (3) and the crosspiece (4), the coupling means 8, such as a quick shoe is coupled to the upper end of the support (3).
상기 가로대(4)는 카메라(1)의 무게에 의해 처짐이 발생될 수 있으므로 알루미늄 재질의 강성 플레이트를 사용하는 것이 바람직하다.Since the crossbar 4 may cause sagging due to the weight of the
한편, 영상촬영시스템을 이용한 피해구조물의 피해정보 추출은 영상자료로부터 추출되어지기 때문에 영상촬영방법은 정확도 및 영상처리 과정의 편리성을 높이기 위해 중요하다. 영상촬영방법은 크게 카메라간의 기선길이, 촬영각 설정, 촬영시스템의 위치 및 자세에 의해 달라지며 각각의 경우 장단점이 존재하며 몇 가지 필수적인 정해진 촬영지침에 따라 촬영하는 것이 필요하다. On the other hand, since the damage information extraction of the damage structure using the image capturing system is extracted from the image data, the image capturing method is important to increase the accuracy and convenience of the image processing process. The imaging method is largely dependent on the base length between the cameras, the setting of the shooting angle, the position and the posture of the shooting system. In each case, there are advantages and disadvantages, and it is necessary to shoot according to some essential shooting guidelines.
디지털 카메라의 경우 영상촬영을 위한 다양한 옵션이 존재하며, 이 중 영상 해상도, 초점은 영상표정과 직접적으로 관계되기 때문에 일정 값으로 고정해주는 것이 필요하다. In the case of digital cameras, there are various options for image capturing. Among them, the image resolution and focus are directly related to the image expression.
2대의 카메라간의 간격(카메라 기선길이)은 대개 1m 정도로 고정하였다. 기하학적인 측면에서 볼 때 기선길이는 취득하려는 대상점의 위치에서 두 대의 카메라에서 나오는 광선이 직교할 때 가장 정확도가 높다 The distance between the two cameras (camera base length) is usually fixed at about 1m. From a geometric point of view, the baseline length is most accurate when the rays from two cameras are orthogonal at the location of the target point to be acquired.
따라서 촬영거리가 대개 10m~50m 정도로 볼 때 기선길이도 이에 버금가는 정도의 크기를 가지는 것이 정확도 측면에서는 가장 좋다고 할 것이다. 그러나 촬영시스템의 물리적인 한계로 기선길이 1m 이상은 이동과 촬영에 매우 불편하기 때문에 불가능하므로 본 시스템은 1m 정도로 설정하였다. Therefore, when the shooting distance is generally about 10m to 50m, the baseline length should be as large as this, which is the best in terms of accuracy. However, due to the physical limitations of the shooting system, the baseline length of more than 1m is impossible because it is very inconvenient to move and shoot, so this system is set to about 1m.
또한 기선길이가 매우 길 경우 좌측과 우측영상에서 보이는 대상물의 면의 서로 다를 수 있어 자동영상정합을 이용하는 영상처리에서 상관계수에 의한 영상정합이 실패할 확률이 매우 높아지며 정합의 정확도 또한 기대하기 어렵다. In addition, if the length of the base line is very long, the surface of the object seen in the left and right images may be different from each other, and thus the probability of image registration failure due to the correlation coefficient becomes very high in image processing using automatic image matching, and the accuracy of matching is difficult to expect.
따라서 촬영거리가 매우 먼 경우(100m 이상)에서는 위치정확도를 높이기 위하여 기선길이를 최대한으로 늘리고 보통의 경우 표준(1m)으로 하며, 매우 근접 촬영할 경우(10m 이내)는 최소로 맞추는 것이 바람직하다. 기선길이를 자유롭게 조절하는 것은 그때 마다 표정요소가 바뀌게 되기 때문에 불가능하며 3단계 정도로만 제한적으로 조절하는 것은 표정파일을 2가지로 제공하면 되므로 가능하다. Therefore, if the shooting distance is very distant (more than 100m), it is desirable to increase the baseline length to the maximum in order to increase the position accuracy, and to make the standard (1m) in the normal case, and to minimize the case of very close shooting (within 10m). It is impossible to freely adjust the length of the baseline because the facial expressions change every time, and only three steps can be limited to provide two facial expression files.
카메라 촬영각에 따른 촬영방법은 다음의 세 가지로 나누어진다. 수직수평촬영은 두 대의 디지털 카메라의 촬영축이 촬영기선에 대해 직각방향으로 향하게 하여 촬영하는 것으로 가장 일반적인 촬영방법이며, 본 촬영시스템에서 권장하는 방법이다. The shooting method according to the camera shooting angle is divided into three types. Vertical horizontal shooting is the most common shooting method with the shooting axis of two digital cameras pointing at right angles to the shooting baseline. This is the recommended method for this shooting system.
편각수평촬영은 두 대의 카메라 촬영축이 촬영기선에 대해 일정 각도만큼 좌 또는 우측으로 편향되게 촬영하는 방법으로 이 경우에는 카메라의 편각을 정확히 읽을 수 있는 장치가 설치되어야 한다. The horizontal angle shooting is a method in which two camera shooting axes are deflected left or right by a predetermined angle with respect to the base line. In this case, a device capable of accurately reading the angle of the camera should be installed.
수렴수평촬영은 두 대의 카메라 촬영축이 촬영기선에 대하여 일정 각도만큼 내측으로 수렴된 각으로 촬영하는 방법으로 카메라의 광축이 서로 교차한다. Converged horizontal photography is a method in which two camera photographing axes are photographed at an angle converged inwardly by a predetermined angle with respect to a photographing base line, and the optical axes of the cameras cross each other.
이와 같은 촬영방법은 촬영기선이 길어진 것과 같은 효과를 얻기 때문에 매우 높은 정확도가 얻어진다. 그러나 촬영거리에 따라 중복되는 입체 영상의 영역이 달라지기 때문에 두 장의 영상중복도를 고려하여 수렴각을 정해야 하는 단점과 영상정합의 실패확률이 높아지는 단점이 존재한다. Such a photographing method obtains the same effect as that of the photographic base line, so that very high accuracy is obtained. However, there are disadvantages of determining the convergence angle in consideration of two image redundancies and increasing the probability of failure of image registration because the area of overlapping stereoscopic images varies depending on the shooting distance.
촬영시스템의 자세는 수준계를 이용하여 지면에 수평을 유지하여야 한다. 지면에 수평을 유지하여야만 대상물의 표고차 정보를 정확히 구할 수 있으며 정사투영된 면적도 계산할 수 있다. 만약 수평을 맞추지 못하면 추출된 대상점의 3차원 좌표는 촬영시스템이 기울어진 만큼 기울어진 지상좌표계 상의 좌표로 계산되어 진다. The posture of the imaging system should be level on the ground using a level meter. It is necessary to keep the ground level so that the information on the elevation difference of the object can be obtained accurately, and the projected area can be calculated. If it is not leveled, the extracted three-dimensional coordinates of the target point are calculated as the coordinates of the ground coordinate system inclined as much as the photographing system is inclined.
이 경우 기울어진 각을 측정하지 않을 경우 대상점 간의 상대 거리의 계산은 문제가 없으나, 정확한 표고차 및 정사투영된 면적은 계산이 불가능하다.In this case, if the inclination angle is not measured, the calculation of the relative distance between the target points is not a problem, but the exact elevation difference and orthogonal area cannot be calculated.
현장 촬영시 피해대상물은 매우 길게 존재하는데 현장의 지형지물(산, 하천, 건물)의 문제로 촬영거리가 확보되지 않아 대상물의 전체를 촬영하지 못하고 일부만을 촬영하여야 하는 경우가 발생할 수 있다. 이 때는 대상물의 일부를 30%정도 중복되게 연속으로 이동하면서 촬영하여야 한다. When shooting the site, the damage target exists very long, but due to the problems of the site's features (mountains, rivers, buildings), the shooting distance is not secured, so it may occur that only a part of the target cannot be taken. In this case, part of the object should be photographed while moving in succession about 30%.
한편, 이와 같이 촬영된 영상정보는 컴퓨터(2)에 전송되며, 컴퓨터(2)에서는 내부에 수록된 피해범위 및 피해액 산출 프로그램에 의해 피해범위(거리 및 면적)와 피해액이 용이하게 산출되어진다. Meanwhile, the image information photographed as described above is transmitted to the
본 발명에서 사용된 피해추정액 산정 프로그램은, 피해현장의 촬영시스템으로부터 피해영상자료를 취득하여 피해물량을 산정하고 이를 피해액 산정 프로그램에 입력하여 최종적으로 피해추정액을 산정한다. In the damage estimation program used in the present invention, the damage amount is calculated by acquiring the damage image data from the photographing system of the damage site and input the same into the damage calculation program to finally calculate the damage estimate.
즉, 입력된 피해영상자료로부터 피해물량을 산출하고 피해단가를 적용하여 공종별 부분별 피해액을 계산하여 이를 재해자료 D/B에 저장하여 피해상황 및 피해액을 체계적으로 저장하도록 하였다. In other words, the damage volume was calculated from the input damage image data, the damage cost was calculated by applying the damage unit cost, and the damage situation and damage amount were systematically stored by storing them in the disaster data D / B.
이는 기존의 피해액 산출방법을 상당히 개선한 것으로 현재는 현장에서 길이, 면적을 직접 측량하여 피해물량을 구하고 피해단가표를 참고하여 피해액을 산출하여 재해대장 등에 기입하여 보존하도록 되어있다. This is a significant improvement of the existing damage calculation method. At present, it is required to directly measure the length and area of the damage at the site to obtain the damage, and to calculate the damage by referring to the damage unit price table and fill it in the disaster register.
따라서 현장에서 길이, 면적 측량시에 많은 피해조사시간이 소요되고 이를 통하여 피해액 및 지역별, 공종별 피해상황을 정리하는데 어려움이 있다. Therefore, it takes a lot of damage investigation time when surveying the length and area at the site, and it is difficult to arrange the damage amount and damage situation by region and type.
하지만 본 발명에서 제시하는 피해액 산정 프로그램은 이와 같은 일련의 피해물량 산정, 피해액 산정 및 자료정리 등을 프로그램화 하여 피해조사시 소요되는 시간을 상당히 감소시킬 수 있을 것으로 판단된다.However, the damage calculation program proposed in the present invention may considerably reduce the time required for damage investigation by programming such a series of damage calculation, damage calculation and data cleanup.
도 3은 본 발명에 의한 피해규모 산정프로그램의 모니터 화면사진이며, 도 4는 본 발명에 의한 피해규모 산정 프로그램 운용절차의 흐름도이다. 3 is a monitor screen picture of the damage scale calculation program according to the present invention, Figure 4 is a flow chart of the damage scale calculation program operating procedure according to the present invention.
먼저 피해추정액 산정을 위해서 일련의 과정에 따른 버튼을 도 4에 제시된 바와 같이 ①번 항목과 같이 순차적으로 진행할 수 있도록 하였다. 진행방법은 먼저 피해상황에 대한 입력을 하고 피해현장에서 취득된 피해영상을 올리고 피해물량프로그램을 활성화시켜 피해물량을 산정한다.First, in order to calculate the damage estimation amount, buttons according to a series of processes were sequentially performed as shown in
산정된 피해물량을 기반으로 피해추정액을 산정하고 이를 데이터베이스에 입력한다. 입력된 데이터베이스는 요약 및 출력 버튼에 따라 인쇄가 가능하다.Based on the estimated damages, the damage estimate is calculated and entered into the database. The input database can be printed according to the summary and output buttons.
②번 항목에서 피해상황은 피해현장에서 최소한 작성자가 입력해야 하는 피해현황에 대한 자료를 나타내고 있으며 항목으로는 작성자, 하천명, 관리청, 피해일시, 피해지역, 피해원인을 간략하게 입력할 수 있도록 하였다. 특히, 피해일시와 같은 입력은 전자달력을 숨기기능으로 표시하여 필요시에만 사용자에게 나타나게 표시하였다. In
③번 항목은 피해영상을 수록하는 부분으로 피해현장에서 수집된 영상정보를 입력하여 현실감을 높여주는 효과가 있을 것이다. 또한 확대, 축소기능 및 피해영상의 위치정보를 볼 수 있으므로 사용자는 보다 편리하게 피해추정 프로그램을 사용할 수 있을 것으로 판단된다. Item ③ is the part that contains the damage image, and it will have the effect of enhancing the reality by inputting the image information collected at the damage site. In addition, the user can use the damage estimation program more conveniently because the user can view the zoom in, zoom out and location information of the damage image.
④번 항목의 경우에는 제방공종에 대한 내용을 표시하고 있으며 제방등급, 제방재료, 피해길이를 입력하도록 하였다. In case of item ④, the contents of the embankment type are displayed and the dike grade, dike material, and damage length are entered.
⑤번 항목은 입력된 피해물량을 기반으로 피해추정액을 산정하는 부분이다. 이 부분에서는 아래도표와 같은 소방방재청 "자연재난조사 및 복구계획수립 지침" 을 기준으로 피해단가가 프로그램내에 내장되어 있으므로 편리하게 피해액을 산정할 수 있는 장점이 있다.
기존의 방법에 의하면 별도의 엑셀 및 계산기를 이용하는 내부작업이 필요하지만 본 프로그램을 이용한다면 피해현장에서 곧바로 피해추정액을 산정할 수 있는 장점이 있다. 따라서 기존의 방법과 비교해서 정확도 및 신속성면에서 매우 향상된 피해추정방법이라고 판단된다. According to the existing method, an internal work using a separate Excel and a calculator is required, but using this program has an advantage of estimating the damage estimation amount immediately at the damage site. Therefore, it is considered to be a very improved damage estimation method in terms of accuracy and speed.
* 하천제방 피해단가표(단위:원)* River bank damage unit price list (Unit: KRW)
⑥번 항목은 이상에서 입력 및 계산된 피해상황에 대한 내용을 체계적으로 관리하기 위한 데이터베이스를 나타내고 있다. 이러한 데이터베이스는 개인 PC기반으로 사용되므로 비교적 간단하게 사용할 수 있는 엑세스 프로그램을 이용하였다. 따라서 본 프로그램을 이용하기 위해서는 기본적으로 MS Office 2003 버전이 PC에 내장되어 있어야 한다.
⑦번 항목은 피해추정액 산정근거를 도시할 수 있는 기능을 나타낸다. 이때 확인버튼을 누르면 피해추정액 산출근거를 볼 수 있으며 취소버튼을 누르면 다시 피해영상사진으로 화면전환이 된다.
⑧번 항목은 데이터베이스에서 데이터의 처리부분에 해당되며 주요기능으로 데이터의 삽입, 삭제, 저장, 분류 등의 기능을 수행한다. 앞서 기술한 바와 같이 이러한 데이터베이스는 엑세스로 구성되어 있으며 입력창 및 D/B에서 직접 수정 가능하도록 구성하였다. 특히 데이터의 분류항목에서 사용자의 편의성을 고려하여 피해유형별, 작성자별, 피해일시별, 피해규모별로 데이터를 분류할 수 있는 기능을 추가하여 많은 자료를 일괄적으로 처리할 수 있도록 하였다.
향후 이러한 분류기능을 개선 및 발전시키기 위한 한가지 방법으로 통계기능을 추가할 예정이다. 이러한 통계기능을 이용하여 하천별, 작성자별, 피해일시별, 피해규모별 피해현황을 도표나 그림으로 표시되어 한층 사용자의 이해를 쉽게 할 수 있을 것으로 판단된다. In the future, the statistical function will be added as a way to improve and develop the classification function. By using these statistical functions, the damage status by river, author, damage date and time and damage scale is displayed in a chart or a figure, which makes it easier to understand users.
⑨번 항목은 프로그램의 다른 공종으로 이동하거나 닫기기능을 수행하며 사용자의 편리성을 고려하여 설계하였다. Item ⑨ is designed to consider the user's convenience by moving to another model of the program or performing a closing function.
이와 같이 구성된 피해액 산정 프로그램에 의해, 키메라에서 촬영한 영상정보에 의해 피해범위 및 피해액을 용이하게 산정할 수 있게되는 것이다. The damage amount calculation program configured as described above makes it possible to easily estimate the damage range and damage amount based on the image information photographed by the chimera.
도 1은 본 발명에 따른 피해정보 산출시스템의 분리사시도 및 사진,1 is an exploded perspective view and photograph of a damage information calculation system according to the present invention;
도 2는 본 발명에서의 내부표정을 위한 실내모형판의 사진,Figure 2 is a photograph of the indoor model plate for the internal expression in the present invention,
도 3은 본 발명에 의한 피해규모 정밀산정 프로그램의 모니터 화면사진,3 is a monitor screen picture of the damage scale precision calculation program according to the present invention,
도 4는 본 발명에 의한 피해규모 정밀산정 프로그램 운용절차의 흐름도,4 is a flowchart of a damage scale precision calculation program operating procedure according to the present invention;
도 5는 본 발명에 의한 피해산출과정을 개략적으로 설명한 도면.5 is a view schematically illustrating a damage calculation process according to the present invention.
* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings
1 : 카메라 2 : 컴퓨터1: camera 2: computer
3 : 지지대 4 : 가로대3: support 4: crossbar
5 : 결합수단 6 : 작업대5: coupling means 6: work table
7 : 자석 8 : 결합수단 7: magnet 8: coupling means
9 : 가로선 10 : 세로선9: horizontal line 10: vertical line
11 : 봉 12 : 타겟점11
14 : 표정판14: face plate
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080004283A KR20090078447A (en) | 2008-01-15 | 2008-01-15 | The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080004283A KR20090078447A (en) | 2008-01-15 | 2008-01-15 | The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20090078447A true KR20090078447A (en) | 2009-07-20 |
Family
ID=41336545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080004283A KR20090078447A (en) | 2008-01-15 | 2008-01-15 | The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20090078447A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140139443A (en) * | 2013-05-27 | 2014-12-05 | (주)지에스엠솔루션 | Positional information construction method using omnidirectional image |
KR101595067B1 (en) | 2014-08-27 | 2016-02-18 | 고려대학교 산학협력단 | Device and method for analysizing three dimensional shapes |
KR101991094B1 (en) | 2018-04-23 | 2019-06-19 | 주식회사 울프슨랩 | Method for distance measurement, Apparatus for distance measurement, Computer program for the same, and Recording medium storing computer program for the same |
-
2008
- 2008-01-15 KR KR1020080004283A patent/KR20090078447A/en not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140139443A (en) * | 2013-05-27 | 2014-12-05 | (주)지에스엠솔루션 | Positional information construction method using omnidirectional image |
KR101595067B1 (en) | 2014-08-27 | 2016-02-18 | 고려대학교 산학협력단 | Device and method for analysizing three dimensional shapes |
KR101991094B1 (en) | 2018-04-23 | 2019-06-19 | 주식회사 울프슨랩 | Method for distance measurement, Apparatus for distance measurement, Computer program for the same, and Recording medium storing computer program for the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sapirstein | Accurate measurement with photogrammetry at large sites | |
JP4191449B2 (en) | Image calibration method, image calibration processing device, image calibration processing terminal | |
Golparvar-Fard et al. | Evaluation of image-based modeling and laser scanning accuracy for emerging automated performance monitoring techniques | |
CN101998136B (en) | Homography matrix acquisition method as well as image pickup equipment calibrating method and device | |
JP4529157B2 (en) | Three-dimensional survey system and electronic storage medium | |
CN100523715C (en) | Multi-view-point video capturing system | |
AU2011312140C1 (en) | Rapid 3D modeling | |
JP4052382B2 (en) | Non-contact image measuring device | |
WO2023046211A1 (en) | Photogrammetry method, apparatus and device, and storage medium | |
CN110146030A (en) | Side slope surface DEFORMATION MONITORING SYSTEM and method based on gridiron pattern notation | |
CN110345925A (en) | One kind is for five mesh aerial photograph quality testings and empty three processing methods | |
KR20160117143A (en) | Method, device and system for generating an indoor two dimensional plan view image | |
Scaioni et al. | Some applications of 2-D and 3-D photogrammetry during laboratory experiments for hydrogeological risk assessment | |
CN112308926A (en) | Camera external reference calibration method without public view field | |
Zhang et al. | Digital camera calibration method based on PhotoModeler | |
Cardenal et al. | Evaluation of a digital non metric camera (Canon D30) for the photogrammetric recording of historical buildings | |
CN107421503A (en) | Simple detector three-linear array stereo mapping imaging method and system | |
KR20090078447A (en) | The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method | |
JP3732653B2 (en) | Appearance measuring method and apparatus by two-dimensional image comparison | |
JP2008076405A (en) | Three-dimensional surveying apparatus and electronic storage medium | |
CN116563460A (en) | Three-dimensional reconstruction optimization method and device, medium and equipment | |
Ahmad et al. | Photogrammetric capabilities of the Kodak DC40, DCS420 and DCS460 digital cameras | |
Elhalawani et al. | Implementation of close range photogrammetry using modern non-metric digital cameras for architectural documentation | |
JP4282361B2 (en) | Photogrammetry method and photogrammetry program | |
Zahradník et al. | Possible approaches for processing of spherical images using sfm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |