KR20090078447A - The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method - Google Patents

The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method Download PDF

Info

Publication number
KR20090078447A
KR20090078447A KR1020080004283A KR20080004283A KR20090078447A KR 20090078447 A KR20090078447 A KR 20090078447A KR 1020080004283 A KR1020080004283 A KR 1020080004283A KR 20080004283 A KR20080004283 A KR 20080004283A KR 20090078447 A KR20090078447 A KR 20090078447A
Authority
KR
South Korea
Prior art keywords
damage
area
distance
image
camera
Prior art date
Application number
KR1020080004283A
Other languages
Korean (ko)
Inventor
최성열
김기홍
이종국
Original Assignee
주식회사 방재안전기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 방재안전기술원 filed Critical 주식회사 방재안전기술원
Priority to KR1020080004283A priority Critical patent/KR20090078447A/en
Publication of KR20090078447A publication Critical patent/KR20090078447A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

A method for measuring distance and surface through a digital camera and a method for calculating disaster information and a disaster information calculating system are provided to calculate disaster information produced by the decimal manpower by calculating the disaster information. A horizontal bar(4) is formed longer than into a traverse direction. Two cameras are separated at constant interval in an upper part of the horizontal bar. The cameras are arranged in order to face the respective front side. A support unit(3) supports arm from the surface. A computer stores and receives image information which the cameras take a picture. The computer computes a range and damage compensation amount of money of the damaged area on basis of a program.

Description

디지털카메라로 거리 및 면적을 측정하는 방법과, 이를 이용하여 피해정보를 산출하는 방법과, 이에 사용되는 피해정보 산출시스템{The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method} The measuring method for distance and area by digital cameras, and the calcurating method for damage information by a method of measuring distance and area using a digital camera, a method of calculating damage information using the same, and a damage information calculating system used therein the same measuring method, and the calcurating system for damage information which is used in the same calcurating method}

본 발명은, 디지털카메라로 거리 및 면적을 측정하는 방법과, 이를 이용하여 재해(災害)지역의 피해범위를 간편하면서도 정확하게 측정하여 피해액을 산출하는 방법과, 이에 사용되는 피해정보 산출시스템에 관한 것이다.The present invention relates to a method for measuring distance and area with a digital camera, a method for calculating damage by simply and accurately measuring a damage range of a disaster area using the same, and a damage information calculation system used therein. .

즉, 본 발명에서는, 2대의 디지털카메라를 사용하여 촬영한 영상 데이터를, 영상 처리 기법 및 3 차원 좌표 판독방법의 개선을 통해 3차원적인 데이터로 변환할 수 있도록 함으로써, 이를 통해 촬영지역의 거리 및 면적을 비교적 정확하게 산출할 수 있도록 한다.That is, in the present invention, it is possible to convert the image data photographed using two digital cameras to three-dimensional data through the improvement of the image processing technique and the three-dimensional coordinate reading method, through which the distance and The area can be calculated relatively accurately.

또한, 본 발명에서는, 디지털카메라로 거리 및 면적을 측정하는 방법을 재해(災害)지역의 피해범위를 산출하는데에 적용함으로써, 목측(目測)에 의존하던 종래의 방법에 비해서 훨씬 정확하고 설득력있는 재해정보(피해지역의 거리 및 면적) 를 제공할 수 있도록 한다.Furthermore, in the present invention, the method of measuring the distance and the area with a digital camera is applied to calculate the damage range of the disaster area, so that the disaster is much more accurate and convincing than the conventional method depending on the neck. Provide information (distance and area of the affected area).

98년 이후로 빈번하게 발생하던 기상이변은 더 이상 기상이변으로 받아들여지지 않는 새로운 트랜드로써 인식되고 있으며, 이러한 기상의 변화로 인한 풍수해는 발생빈도가 빈번해지고 피해의 규모면에서도 역시 막대한 피해결과를 가져옴으로 인해 더 이상 관가할 수 없는 국가 역량의 주요 관심사로 대두되고 있는 실정이다. Frequent weather events since 1998 have been recognized as new trends that are no longer accepted as extreme weather events, and the feng shui damage caused by such weather changes frequently results in frequent damages and also results in enormous damage. As a result, it is emerging as a major concern of national capacity that can no longer be observed.

현재 국내 실정으로는 재난을 대비하는 예방시스템에 주력하기 보다는 재난 발생후에 대응하는 대응시스템으로 방재시스템이 구축되어있으며, 현실적으로 재난복구를 위한 조사마저도 통일된 조사체계를 갖추지 못하고 있다. At present, domestic disaster prevention system is established as a response system after disaster occurrence, rather than focusing on the prevention system for disaster preparedness, and even the investigation for disaster recovery does not have a uniform survey system.

각종 풍수해로 인해 발생한 피해에 대한 현재 국내의 피해조사체계는 조사인원 및 시간부족 등과 같은 방재시스템의 미정비, 막대한 국가예산의 추가적인 지출, 부정확한 피해추정액 산정으로 인한 국고낭비의 발생 가능성 등 근본적인 문제점을 내제하고 있고, 막대한 인원보충을 통한 피해조사는 현실적으로 어려운 상황이므로, 다양한 피해양상에 대한 통일된 피해조사 체계가 절실히 요구되고 있는 실정이다. The current damage investigation system for damage caused by various feng shui damages is a fundamental problem such as the lack of disaster prevention system such as the lack of time and the number of investigators, additional expenditure of enormous national budget, and the possibility of national waste due to inaccurate estimates. Since it is difficult to investigate damages through huge replenishment, a unified damage investigation system for various types of damages is urgently needed.

또한, 빈번하게 발생하는 풍수해로 인한 피해조사와 피해추정액 산정은 정보 왜곡에 의한 잘못된 결과를 초래할 수도 있으므로 피해지역을 합리적이고 과학적인 방법으로 조사하여 신속하고 정확한 피해추정액 산정이 요구된다. 그리고 조기 재 해복구를 합리적으로 실시하기 위해 신속하고 정확한 피해추정액 집계와 합리적인 피해현황 파악을 위한 시스템의 개발이 필요하다. In addition, damage investigation and estimation of damage estimate due to frequently occurring feng shui damage may lead to incorrect results due to information distortion, and therefore, it is required to calculate damage estimate quickly and accurately by investigating the damage area in a rational and scientific way. In order to rationalize early disaster recovery, it is necessary to develop a system for quickly and accurately counting damage estimates and identifying reasonable damages.

현재 국가에서 주로 수행하고 있는 공공시설물에 대한 피해조사의 범위는 대체적으로 국부적 혹은 국지적인 피해현장의 조사이다. 국지적 피해현장의 조사는 방재인력만으로 현장에서 직접 피해 범위를 관측하여 객관적인 피해물량 산출의 근거가 부족하고 신속한 산출이 어려운 실정이며, 피해정보의 유지관리에도 어려움이 있다. The scope of damage investigations on public facilities, which are currently mainly carried out in the country, is generally surveys of local or local damage sites. In the investigation of the local damage site, the damage range is directly observed on the site only by disaster prevention personnel, so the grounds for objective damage calculation are insufficient and the calculation of the damage is difficult, and the maintenance of damage information is also difficult.

따라서, 공공시설물에 대해 국지 피해지역으로부터 디지털 피해영상자료를 이용하여 재해정보를 취득하기 위한 장비와 기술, 피해지역의 피해추정액 산정이 가능한 시스템이 일부 개발되어 있으며, 본 연구의 이전연구결과에서도 피해영상자료를 이용하여 재해정보를 취득하고 피해추정액 산정이 용이한 기술이 개발되어 있는 단계이다. Therefore, some systems and techniques for acquiring disaster information using digital damage image data from local damaged areas and systems for estimating the damage estimation amount of damaged areas have been developed for public facilities. It is a stage where technology to acquire disaster information by using video data and to easily estimate damage estimate is developed.

그러나 현장피해영상의 처리속도, 송수신 기술과 더불어 피해추정액 산정을 위한 모듈의 개선 등이 지속적으로 요구되는 상황으로써 재해현장 영상정보 촬영시스템의 표준화를 위한 기술과 디지털 현장 피해자료의 정확한 재해정보를 취득하기 위한 기술 개선이 시급한 실정이다. However, it is necessary to improve the processing speed and transmission technology of on-site damage video, and to improve the module for estimating damage estimation. There is an urgent need for technical improvement.

따라서 본 연구에서는 재해현장 영상정보 촬영시스템의 표준화와 공공시설물의 국지 피해지역으로부터 보다 정확한 재해정보를 취득하여 객관적이고 신뢰성 높은 재해정보와 피해추정액 산정을 위한 기술개선을 하고자 한다.Therefore, this study aims to improve the technology for objective and reliable disaster information and estimation of damage estimates by standardizing disaster scene image information system and acquiring more accurate disaster information from local damage area of public facilities.

본 발명은 상기된 문제점을 해소하기 위해 안출된 것으로써, The present invention has been made to solve the above problems,

과거에는 주로 목측(目測)이나 줄자에 의존하던 재해범위(재해지역의 거리 및 면적)의 측정방법을, 2대의 디지털카메라에 의한 영상 데이터에 의해 간편하게 산출할 수 있도록 함으로써, 재해정보를 소수의 인력만으로도 간편하게 산출할 수 있도록 함을 첫 번째 목적으로 한다.In the past, the method of measuring the disaster range (distance and area of the disaster area), which mainly depended on the neck or tape measure, can be easily calculated using image data from two digital cameras. The first purpose is to make it easy to calculate.

또한, 2대의 디지털카메라에 의해 제공된 2차원적인 영상 데이터를, 본 발명에서 제공하는 개선된 영상 처리 기법 및 3 차원 좌표 판독방법에 의해 먼저 3차원적인 데이터로 변환한 다음, 이 값에 의해 재해지역의 거리및 면적을 산출할 수 있도록 함으로써, 실제와 별 차이가 없는 데이터를 사진 촬영만에 의해 산출할 수 있도록 함을 두 번째 목적으로 한다.In addition, the two-dimensional image data provided by the two digital cameras is first converted into three-dimensional data by the improved image processing method and the three-dimensional coordinate reading method provided by the present invention, and then the disaster area by this value. By calculating the distance and area of the second object is to be able to calculate the data that is not much different from the actual by only photographing.

마지막으로, 재해정보를 산출하기 위한 장비가 콤펙트하고 안정한 상태가 되도록 함으로써, 전문인력이 아니더라도 편리하게 사용할 수 있도록 함을 세 번째 목적으로 한다.Finally, the third purpose is to make the equipment for calculating disaster information to be in a compact and stable state so that it can be used conveniently even if it is not a professional man.

본 발명에서는,In the present invention,

2대의 카메라와, 상기 카메라에서 촬영한 2차원 영상데이터들이 전달되어지는 컴퓨터와, 컴퓨터 내에서 2차원 영상 데이터를 3차원 데이터로 변환하여 각 좌 표간의 거리, 면적을 산출해내기 위한 피해물량 산출프로그램과, 산출된 피해물량(거리 또는 면적)에 의해 피해추정액을 산출해내기 위한 피해추정액 프로그램에 의해, 본 발명의 목적들이 달성되어진다.Two cameras, a computer to which two-dimensional image data captured by the camera are transmitted, and damage quantity calculation for calculating distance and area between coordinates by converting two-dimensional image data into three-dimensional data in the computer. By the program and the damage estimating program for calculating the damage estimating amount by the calculated damage amount (distance or area), the objects of the present invention are achieved.

즉, 촬영시스템, 피해물량 및 피해추정액 산정프로그램이 하나의 시스템으로 연동되어 피해현장에서 피해상황 및 원인분석, 피해물량산정, 피해추정액 산정 등이 이루어지므로 별도의 작업이 불필요하게 되고 적은 인원으로 많은 피해지역을 조사할 수 있게되는 것이다.That is, the shooting system, damage quantity and damage estimation program are linked to one system, so damage situation and cause analysis, damage quantity calculation, damage estimation amount calculation, etc. are done at the damage site. The affected area can be investigated.

한편, 디지털 카메라에서는 광전자센서와 다양한 크기의 촬상소자(CCD) 배열센서들에 의하여 기하학적으로 충실도가 높은 영상을 별도의 저장과 처리과정 없이 실시간으로 얻을 수 있으므로, 렌즈를 통해 입사한 빛으로 만들어낸 상(image)을 필름 대신 CCD나 CMOS등의 촬상소자에 맺히게 한 다음, 여기서 얻어지는 모자이크 형태의 영상정보를 픽셀수에 의해 거리를 측정하되, 2대의 카메라에 의해 촬영한 영상정보를 일부 중첩시킨 상태에서 거리를 산출해냄으로써 2차원 영상 데이터를 3차원 데이터로 변환할 수 있도록 하였다.On the other hand, in the digital camera, a geometrically faithful image can be obtained in real time without a separate storing and processing process by using an optoelectronic sensor and an array of image sensor (CCD) array sensors of various sizes. The image is formed on an image pickup device such as a CCD or a CMOS instead of a film, and the mosaic-shaped image information obtained here is measured by the number of pixels, but the image information captured by two cameras is partially overlapped. By calculating the distance from, we can convert 2D image data into 3D data.

특히, 본 발명에서는 먼저 카메라 특성에 맞는 내부표정요소(카메라의 주점 이동량, 초점거리, 렌즈왜곡계수)를 결정한 다음, 현장에서는 외부표정요소(

Figure 112008003217218-PAT00004
)를 결정한 후에야 비로소 2차원 영상 데이터를 3차원 데이터로 변환하여 각 좌표간의 거리 또는 면적을 산출해내게되므로, 사진 촬영만으로도 실제값에 가까운 데이터를 얻을 수 있도록 한다.In particular, in the present invention, first, the internal expression element (the amount of movement of the principal point of the camera, the focal length, the lens distortion coefficient) suitable for the camera characteristic is determined, and then the external expression element (
Figure 112008003217218-PAT00004
) Is determined before the two-dimensional image data is converted into three-dimensional data to calculate the distance or area between the coordinates.

또한, 본 발명에 따른 피해정보 산출시스템은, 2대의 카메라와, 카메라에 의한 영상정보로부터 각 좌표간의 거리 또는 면적을 산출해내기 위한 프로그램과, 각 좌표간의 거리 또는 면적으로부터 피해액 등을 산출해내기 위한 프로그램과, 상기 프로그램들을 포함하며 이를 실행하기 위한 컴퓨터와, 상기 2대의 카메라가 촬영중에 흔들리지 않도록 이를 안정되게 지지하기 위한 지지대만으로 구성되는 바, 시스템의 구성이 매우 간단하며 장비전체의 무게도 가벼우므로 장비 이동성이 좋을 뿐만 아니라 작업에 많은 인원을 필요로 하지 않는 장점이 있는 것이다.In addition, the damage information calculation system according to the present invention includes two cameras, a program for calculating the distance or the area between the coordinates from the image information by the camera, and the damage amount or the like from the distance or the area between the coordinates. It consists of a program, a computer including and executing the programs, and a support for stably supporting the two cameras so as not to shake during shooting. The configuration of the system is very simple and the overall weight of the equipment is light. Therefore, not only the mobility of the equipment is good but also has the advantage that does not require a large number of people to work.

과거에는 주로 목측(目測)이나 줄자에 의한 측정방법에 의해 재해범위(재해지역의 거리 및 면적)를 측정했었으나, 본 발명에서는 디지털 카메라로 촬영한 영상데이터만으로 재해범위의 측정 및 보상금액의 산출이 가능케되었으므로, 종래에 비해 작업인원을 대폭 경감할 수 있을뿐만 아니라 보다 신속한 작업이 가능케된다.In the past, the extent of the disaster (distance and area of the disaster area) was mainly measured by a measuring method using a tape measure or a tape measure. However, in the present invention, the measurement of the damage range and calculation of compensation amount are only performed using image data photographed with a digital camera. Since it is possible, not only can drastically reduce the number of working people, but also enables a faster work.

또한, 2대의 디지털카메라에 의해 제공된 2차원적인 영상 데이터를, 본 발명에서 제공하는 개선된 영상 처리 기법 및 3 차원 좌표 판독방법에 의해 먼저 3차원적인 데이터로 변환한 후에 이 값에 의해 재해지역의 거리및 면적을 산출해냄으로써, 정확도가 높은 데이터를 얻을 수 있다.In addition, two-dimensional image data provided by two digital cameras is first converted into three-dimensional data by the improved image processing method and three-dimensional coordinate reading method provided by the present invention, and then the value of By calculating the distance and area, highly accurate data can be obtained.

마지막으로, 본 발명에 따른 피해정보 산출시스템은, 2대의 카메라와, 각종 프로그램이 수록된 컴퓨터와, 상기 2대의 카메라가 촬영중에 흔들리지 않도록 이를 안정되게 지지하기 위한 지지대만으로 구성되는 바, 시스템 구성이 간단하고 콤펙트하므로 장비 이동성이 좋은 특징이 있다. Finally, the damage information calculation system according to the present invention is composed of only two cameras, a computer containing various programs, and a support for stably supporting the two cameras so as not to shake during shooting. Because of its compactness and compactness, it has good mobility.

이하, 첨부도면에 의해 본 발명의 바람직한 실시예를 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 피해정보 산출시스템의 분리사시도 및 사진이며, 도 2는 본 발명에서의 내부표정을 위한 실내모형판의 사진이며, 도 3은 발명에 의한 피해규모 정밀산정 프로그램의 모니터 화면사진이며, 도 4는 본 발명에 의한 피해규모 정밀산정 프로그램 운용절차의 흐름도이며, 도 5는 본 발명에 의한 피해산출과정을 개략적으로 설명한 도면이다.1 is an exploded perspective view and a photograph of a damage information calculation system according to the present invention, FIG. 2 is a photograph of an indoor model board for internal expression in the present invention, and FIG. 3 is a monitor screen of a damage scale precision estimation program according to the present invention. Figure 4 is a flow chart of the damage scale precision calculation program operating procedure according to the present invention, Figure 5 is a view schematically illustrating the damage calculation process according to the present invention.

본 발명에서 제시하는 피해 조사 산출방법은 일선의 피해조사자가 피해현장을 디지털 영상처리기법 및 사진기 등을 이용하여 실측함으로써 피해물량을 산출하는 방법이다. The damage investigation calculation method proposed by the present invention is a method of calculating damage quantity by a damage investigator of a first line by measuring a damage spot using a digital image processing technique and a camera.

이러한 방법은 신속하고 정확하게 피해물량을 산출하여 피해액을 집계할 수 있고 피해조사 장비의 경우 비교적 저렴한 비용으로 피해조사를 실시할 수 있는 장점이 있다. This method has the advantage that the damage amount can be aggregated by calculating the damage quantity quickly and accurately, and the damage investigation equipment has the advantage of performing the damage investigation at a relatively low cost.

공공시설물의 국지피해 경우, 길이측정 및 디지털 영상처리를 통하여 대부분 피해물량 산출이 가능하며 그 중 하천제방 및 시설물의 경우에는 홍수로 인한 피해현장 접근성이 불가능하여 직접 길이측정이 불가능한 경우가 상당할 것으로 판단된다. In the case of local damage of public facilities, most damages can be calculated through length measurement and digital image processing. Among them, river embankments and facilities cannot be directly accessed due to flood damage. Judging.

이러한 피해위치, 규모, 기상상황, 피해지역의 접근성 등으로 직접적인 길이측정이 불가능할 경우 본 연구에서 개발되어진 촬영시스템을 활용하여 원거리의 피 해영상자료를 현장에서 취득하여 비교적 간편하게 피해물량을 산출하는 것이 좋은 대안이 될 것으로 판단된다. If direct length measurement is not possible due to the location, size, weather conditions, and accessibility of the affected area, it is relatively easy to calculate the damage quantity by using remote imaging system from the field. It would be a good alternative.

그러므로 본 발명에 따른 피해조사 산출방법은 국지피해조사에 있어 적용가능성이 매우 높을 것으로 여겨진다. Therefore, the damage investigation calculation method according to the present invention is considered to be very applicable in the local damage investigation.

또한 공공시설에 국한한 피해조사에서 디지털 영상처리 기법은 다양한 시설에서 적용가능하며 현장에서 영상자료를 취득하고 피해물량 및 피해추정액을 산출할 수 있으므로 피해현장에서 신속하게 피해조사가 이루어 질 수 있는 장점이 있다.    In addition, the digital image processing technique can be applied to various facilities in the investigation of damages limited to public facilities, and the damage can be quickly acquired at the damage site by acquiring the image data at the site and calculating the damage quantity and the damage estimate. There is this.

피해영상 취득은 전문적인 지식이 필요하지 않으므로 비전문가도 손쉽게 피해조사를 성공적으로 수행할 수 있을 것으로 판단된다.Acquisition of damage images does not require specialized knowledge, so it is expected that non-experts can easily carry out damage investigation.

사진측량의 효용성이 증대됨에 따라 최근 수치화된 영상을 처리하여 대상물에 대한 위치정보를 취득하는 수치사진측량에 대한 연구가 활발하게 진행되고 있다. 수치화된 영상을 취득할 수 있는 각종 기기들이 개발되어 일반적으로 널리 이용되고 있으며 이중 디지털 카메라는 비교적 저가의 기기로서 손쉽게 수치영상을 취득할 수 있고, 저장매체도 메모리 카드, 하드디스크, CD-ROM 등 각종 장치를 이용할 수 있으므로 자료의 저장 및 재생에도 많은 장점을 가지고 있다.As the effectiveness of photogrammetry increases, research on digital photogrammetry, which acquires positional information on an object by processing digitized images, has been actively conducted. Various devices for acquiring digitized images have been developed and are widely used in general. Among them, digital cameras are relatively inexpensive devices and can easily acquire numerical images, and storage media are memory cards, hard disks, CD-ROMs, etc. Since various devices are available, there are many advantages in storing and reproducing data.

영상을 취득하는 과정은 수치화된 영상을 직접적으로 얻을 수 있는 사진기의 경우와 일반적인 사진기를 이용하여 촬영후 인화된 음화 또는 양화에 대하여 스캐너를 이용하므로써 수치영상을 취득하는 방법이 있다.    The process of acquiring an image includes a camera capable of directly obtaining a digitized image and a method of acquiring a digital image by using a scanner for negative or positive print after printing using a general camera.

그러나 실시간 사진측량 또는 로봇 영상 인식(robot vision)분야에서는 수치 사진기를 이용하여 수치영상을 직접 취득하지만 일반적으로 수치영상은 사진을 스캐닝하므로써 간접적으로 취득된다. However, in the field of real-time photogrammetry or robot vision, digital images are acquired directly by using a digital camera. However, digital images are generally obtained indirectly by scanning a photo.

이때 촬영된 사진과 수치영상간에는 인화과정과 스캐닝과정에서 발생하는 오차가 포함되며 영상처리과정에서도 오차가 포함된다.In this case, the error between the photographed image and the numerical image includes the printing process and the scanning process, and the image processing process also includes the error.

최근 광전자센서와 다양한 크기의 촬상소자(CCD) 배열센서들에 의하여 기하학적으로 충실도가 높은 영상을 별도의 저장과 처리과정 없이 실시간으로 얻을 수 있으므로 관측의 자동화를 필요로 하는 외형적 품질검사, 로봇제어, 의학, 토목, 건축 등 관측을 요하는 각 분야에서 그 중요성이 부각되고 있다.    Recently, high quality geometrically faithful images can be obtained in real time without separate storage and processing by photoelectric sensors and array of image sensor (CCD) array sensors. Its importance is highlighted in each field that requires observation, such as medicine, civil engineering, and architecture.

일반 측량용 사진에 대한 관측은 고가의 좌표관측기를 사용해야 하지만, 수치영상의 경우에는 영상내의 측점의 위치가 영상소배열의 행렬 수에 근거하여 관측될 수 있다.In the case of general survey photos, expensive coordinate observers should be used, but in the case of digital images, the position of the points in the image can be observed based on the number of matrixes of the image array.

수치화된 영상을 취득할 수 있는 각종 기기들이 개발되어 일반적으로 널리 이용되고 있으며 이중 디지털 카메라는 비교적 저가의 기기로서 손쉽게 수치영상을 취득할 수 있고, 저장매체도 메모리 카드, 하드디스크, CD-ROM 등 각종 장치를 이용할 수 있으므로 자료의 저장 및 재생에도 많은 장점을 가지고 있다.Various devices for acquiring digitized images have been developed and are widely used in general. Among them, digital cameras are relatively inexpensive devices and can easily acquire numerical images, and storage media are memory cards, hard disks, CD-ROMs, etc. Since various devices are available, there are many advantages in storing and reproducing data.

디지털 카메라는 한마디로 필름이 필요 없는 카메라라고 정의할 수 있다. 촬상소자(CCD)를 통해 영상을 포착하고, 이를 기존의 방식인 필름 대신 반도체에 저장하여, 필름현상과 인화과정을 거치지 않고 PC나 프린터를 통해 화면을 자유롭게 바꾸거나 재생할 수 있는 차세대 영상기기이다.In short, a digital camera can be defined as a camera that does not require film. It is a next-generation imaging device that captures an image through an imaging device (CCD) and stores it in a semiconductor instead of a film, which is a conventional method, so that the screen can be freely changed or reproduced through a PC or a printer without undergoing film development and printing.

일반적인 필름카메라와 마찬가지로 디지털카메라도 영상 처리 부분을 제외한 다른 광학적 기능을 수행하는 부분은 필름카메라와 같다. 렌즈를 통해 입사한 빛으로 만들어낸 상(image)을 필름 대신 CCD나 CMOS등의 촬상소자에 맺히게 한 다음, 여기서 얻어지는 모자이크 형태의 영상정보를 이미지 프로세서로 보내어서 우기가 컴퓨터를 통해 불러와서 모니터를 통해 보거나 혹은 포토프린터를 사용하여 바로 인화지에 출력 가능한 컴퓨터파일을 생성하게 한다.   Like a general film camera, a digital camera performs the same optical functions as a film camera except for an image processing part. The image produced by the light incident through the lens is condensed on the image pickup device such as CCD or CMOS instead of the film, and then the mosaic image information is sent to the image processor. Create a computer file that can be viewed or printed directly on photo paper using a photo printer.

Figure 112008003217218-PAT00005
Figure 112008003217218-PAT00005

디지털카메라의 해상도 차이는 정확도에 어느 정도 영향을 준다고 판단된다. 영상에서 한 픽셀의 차이는 근거리에서는 차이가 크지 않지만 촬영거리가 원거리일 경우 차이는 매우 크기 때문에 선명도나 색상감이 뛰어난 고해상도 카메라를 사용하여 영상을 취득하는 것이 유리하다.The difference in resolution of the digital camera is considered to affect the accuracy to some extent. The difference of one pixel in the image is not large at close range, but the difference is very large when the shooting distance is far. Therefore, it is advantageous to acquire the image by using a high resolution camera having excellent clarity and color.

한편, 두 대의 디지털 카메라를 이용하여 제작된 촬영시스템으로부터 취득한 디지털 영상을 이용하여 대상물의 3차원 좌표 정보를 취득하기 위해서는 표정과정이 필요한데, 두 대의 사진기에 대한 투영중심의 위치와 사진기 촬영방향에 해당하는 3차원 각을 촬영 전에 미리 결정하여야만 기준점 정보 없이 대상물의 3차원 좌 표 추출이 가능하다. On the other hand, in order to acquire the three-dimensional coordinate information of the object using a digital image acquired from a photographing system manufactured using two digital cameras, the facial expression process is required, which corresponds to the position of the projection center and the camera shooting direction for the two cameras. It is possible to extract three-dimensional coordinates of an object without reference point information only if the three-dimensional angle is determined before shooting.

본 발명에 따른 피해정보 산출시스템의 주목적은 2차원의 영상 두 장으로부터 대상공간상의 피해대상물에 대한 3차원 정보를 추출하는데 있다. 영상촬영시스템을 통해 3차원 정보를 보다 정확하고 안정적으로 취득하기 위해서는 카메라 특성에 맞는 기하학적인 모델을 적용하여야 한다. 촬영된 영상과 대상공간과의 기하학적인 모델을 수립하기 위해서는 카메라 특성에 맞는 내부표정요소가 결정되어야 하며 내부표정요소는 초점거리, 주점의 위치, 영상왜곡 계수로 표현될 수 있다.The main purpose of the damage information calculation system according to the present invention is to extract three-dimensional information on the damaged object in the object space from two two-dimensional images. In order to acquire 3D information more accurately and reliably through the image capturing system, a geometric model suitable for camera characteristics should be applied. In order to establish a geometric model between the photographed image and the target space, an internal expression element suitable for the characteristics of the camera must be determined, and the internal expression element can be represented by a focal length, a position of a main point, and an image distortion coefficient.

각각의 카메라가 가지는 고유의 특성을 표현하는 내부표정요소를 결정하기 위해서는 대상공간에 여러 기준점을 설치하고 이를 이용하여 사진의 기하학적인 모델로부터 구하는 방법을 적용할 수 있다. 일반 시중의 디지털 카메라는 측량용으로 제작된 제품이 아니기 때문에 정확한 초점거리 및 주점의 위치를 알 수 없으며 정확히 측량한 기준점으로부터 구해야 한다.   In order to determine the internal expression elements expressing the unique characteristics of each camera, various reference points may be installed in the object space and the method of obtaining them from the geometric model of the photograph may be applied. Since commercial digital cameras are not designed for surveying, the exact focal length and location of the pub are unknown and must be obtained from a precisely measured reference point.

직접선형변환방식에 의해 디지털 카메라 고유의 내부표정요소 및 외부표정요소를 구하고자 할 경우에는, 사진좌표나 초점거리를 필요로 하지 않으며 영상의 좌표와 대상공간의 3차원 좌표가 선형식의 관계로 표현되는 장점을 가지고 있다.    In order to obtain the internal and external expression elements unique to the digital camera by the direct linear transformation method, no photo coordinates or focal lengths are required, and the coordinates of the image and the three-dimensional coordinates of the object space are linearly related. It has the advantage of being expressed.

그리고 Bundle 기법에 비해 초기 값의 입력과 반복계산에 의한 표정요소 계산과정을 수행하지 않아도 된다. 그러나 직접선형변환의 경우 대상좌표의 정확도가 다소 떨어지기 때문에 정확도 개선을 위해 아래 그림과 같은 기하학적 모형을 이용한 self-calibration bundle기법을 적용하였다.And compared to the Bundle method, it is not necessary to perform the calculation process of facial expression elements by inputting initial values and iterative calculation. However, in the case of direct linear transformation, the accuracy of the target coordinates is somewhat reduced, so the self-calibration bundle method using geometric model is applied to improve the accuracy.

카메라 내부표정요소 중 영상왜곡의 영향은 방사 왜곡과 편심 왜곡, 대기 굴절로 대표될 수 있으며, 왜곡보정계수로서 수학적으로 모델링될 수 있다. 방사 왜곡은 광선이 렌즈의 투영중심을 통과할 때 이동경로가 변경되는 과정에서 발생하며 주점으로부터 방사방향을 따라 발생한다. 방사방향의 왜곡을 보정하는 계수는 아래식(1-1)과 같이 표현할 수 있다.   The effects of image distortion among the camera's internal components can be represented by radiation distortion, eccentric distortion, and atmospheric refraction, and can be mathematically modeled as distortion correction coefficients. Radiation distortion occurs in the process of changing the path of travel as the ray passes through the projection center of the lens and along the radial direction from the main point. The coefficient for correcting the distortion in the radial direction can be expressed as Equation (1-1) below.

Figure 112008003217218-PAT00006
(1.1)
Figure 112008003217218-PAT00006
(1.1)

여기에서,

Figure 112008003217218-PAT00007
는 방사방향 왜곡에 대한 계수이고 r은 다음과 같이 표현되는 주점에서부터의 방사거리(radial distance)이다. From here,
Figure 112008003217218-PAT00007
Is the coefficient for radial distortion and r is the radial distance from the principal point as

Figure 112008003217218-PAT00008
(1.2)
Figure 112008003217218-PAT00008
(1.2)

이때, (

Figure 112008003217218-PAT00009
,
Figure 112008003217218-PAT00010
)는 임의의 상점에 대한 사진좌표이고, (
Figure 112008003217218-PAT00011
,
Figure 112008003217218-PAT00012
)는 주점의 사진좌표이다. 광각이 좁은 카메라나 정확도의 요구가 크지 않은 경우
Figure 112008003217218-PAT00013
항 하나만을 고려하여도 되며
Figure 112008003217218-PAT00014
항은 보다 높은 정확도가 요구되거나 카메라의 렌즈가 광각인 경우 적용할 수 있다.At this time, (
Figure 112008003217218-PAT00009
,
Figure 112008003217218-PAT00010
) Is the photo coordinate for any store, and (
Figure 112008003217218-PAT00011
,
Figure 112008003217218-PAT00012
) Is the photo coordinate of the tavern. Narrow wide angle cameras or accuracy requirements are not high
Figure 112008003217218-PAT00013
You may consider only one term
Figure 112008003217218-PAT00014
The term can be applied when higher accuracy is required or when the lens of the camera is wide angle.

편심왜곡(decentering distortion)은 일반적으로 방사방향 왜곡보다 작은 양이며 주점에 대해 비대칭이다. x와 y방향에 대한 편심왜곡성분은 식 (1.3)과 같다.   Decentering distortion is generally less than radial distortion and asymmetrical about the principal point. The eccentric distortion component in the x and y directions is given by Equation (1.3).

Figure 112008003217218-PAT00015
(1.3)
Figure 112008003217218-PAT00015
(1.3)

이때 P1, P2는 무한 초점거리에서의 조합렌즈에 대한 편심왜곡의 계수로서, 대부분의 근거리 사진측량에서는 P1, P2만을 고려하나, 편심왜곡의 경우 주점의 위치와 상관성이 높아 이를 고려하더라도 정확도의 향상의 효과는 미미한 편이다.In this case, P1 and P2 are coefficients of eccentric distortion of the combined lens at infinite focal length. In most near field surveying, only P 1 and P 2 are considered. The effect of the improvement is minimal.

방사왜곡과 편심왜곡을 결합한 왜곡보정 계수는 식 (1.4)과 같다.   The distortion correction factor combining the radial and eccentric distortions is given by Equation (1.4).

Figure 112008003217218-PAT00016
(1.4)
Figure 112008003217218-PAT00016
(1.4)

카메라 표정의 과정에는 정확한 3차원 좌표를 가지고 있는 모형이 필요하며 충분한 타겟점이 공간상에 분포하여야 한다.    The process of camera expression requires a model with accurate three-dimensional coordinates and sufficient target points must be distributed in space.

왜곡보정계수들을 포함한 확장된 공선조건식은 식 (1.5)와 같으며 대상공간상의 점과 영상상의 점사이의 수학적인 관계식을 의미한다.The extended collinear condition equation including distortion correction coefficients is shown in Equation (1.5), which means the mathematical relationship between the point in the object space and the point in the image.

Figure 112008003217218-PAT00017
(1.5)
Figure 112008003217218-PAT00017
(1.5)

여기서,

Figure 112008003217218-PAT00018
: 영상좌표,
Figure 112008003217218-PAT00019
: 주점의 위치,
Figure 112008003217218-PAT00020
: 초점거리,
Figure 112008003217218-PAT00021
: 회전행 렬,
Figure 112008003217218-PAT00022
: 대상물좌표,
Figure 112008003217218-PAT00023
: 렌즈 투영중심의 위치이다. here,
Figure 112008003217218-PAT00018
: Image coordinate,
Figure 112008003217218-PAT00019
: Location of pub,
Figure 112008003217218-PAT00020
: Focal length,
Figure 112008003217218-PAT00021
: Rotation matrix,
Figure 112008003217218-PAT00022
: Object coordinates,
Figure 112008003217218-PAT00023
: Position of lens projection center.

여기에서 보면, 주점의 위치와 초점거리가 새로운 미지변수로 적용되며 외부표정요소 6개가 독립적으로 적용되는데, 미지변수의 개수는 외부표정요소 6개, 주점의 위치 2개, 초점거리 1개로 기본적으로 9개이며, 카메라 왜곡계수를 어떻게 적용하느냐에 따라 최소 2개에서 많게는 6개 그 이상으로 늘어날 수도 있다. Here, the position and focal length of the tavern are applied as a new unknown variable and six external expression elements are applied independently. The number of unknown variables is six external expression elements, two positions of the tavern, and one focal length. Nine, and can range from at least two to as many as six, depending on how the camera distortion coefficient is applied.

식 (1.5)는 비선형식이기 때문에 카메라의 내부표정요소와 외부표정요소를 계산하기 위해 이를 Taylor 급수를 이용하여 선형화 하면 식 (1.6), (1.7)과 같다.Equation (1.5) is nonlinear, so if we linearize it using Taylor series to calculate the internal and external expression elements of the camera, we can get the equations (1.6) and (1.7).

Figure 112008003217218-PAT00024
(1.6)
Figure 112008003217218-PAT00024
(1.6)

Figure 112008003217218-PAT00025
(1.7)
Figure 112008003217218-PAT00025
(1.7)

여기에서,

Figure 112008003217218-PAT00026
는 근사값
Figure 112008003217218-PAT00027
를 함수
Figure 112008003217218-PAT00028
에 대입하여 얻은 값,
Figure 112008003217218-PAT00029
는 보정량,
Figure 112008003217218-PAT00030
는 잔차이다. From here,
Figure 112008003217218-PAT00026
Is an approximation
Figure 112008003217218-PAT00027
Function
Figure 112008003217218-PAT00028
The value obtained by substituting for
Figure 112008003217218-PAT00029
Is the correction amount,
Figure 112008003217218-PAT00030
Is the residual.

식 (1.6), 식 (1.7)을 행렬로 표시하면 식 (1.8)과 같다.If equations (1.6) and (1.7) are expressed as matrices, they are as shown in equation (1.8).

Figure 112008003217218-PAT00031
(1.8)
Figure 112008003217218-PAT00031
(1.8)

식(1.8)에서 각각의 행렬을 간략히 표현하면 식 (1.9)와 같이 간단하게 나타낼 수 있다.    In Equation (1.8), each matrix can be simply expressed as Equation (1.9).

Figure 112008003217218-PAT00032
(1.9)
Figure 112008003217218-PAT00032
(1.9)

식 (1.9)에서 B 계수행렬의 요소 중 일부만 표현해보면 외부표정요소의 경우 식 (1.10)과 같다.   If only some of the elements of the B coefficient matrix are expressed in Eq. (1.9), then for externally expressed elements, Eq. (1.10) is used.

Figure 112008003217218-PAT00033
Figure 112008003217218-PAT00033

Figure 112008003217218-PAT00034
Figure 112008003217218-PAT00034

Figure 112008003217218-PAT00035
Figure 112008003217218-PAT00035

Figure 112008003217218-PAT00036
Figure 112008003217218-PAT00036

Figure 112008003217218-PAT00037
Figure 112008003217218-PAT00037

Figure 112008003217218-PAT00038
(1.10)
Figure 112008003217218-PAT00038
(1.10)

여기서,

Figure 112008003217218-PAT00039
here,
Figure 112008003217218-PAT00039

Figure 112008003217218-PAT00040
Figure 112008003217218-PAT00040

Figure 112008003217218-PAT00041
.
Figure 112008003217218-PAT00041
.

카메라의 외부표정요소와 왜곡보정계수를 포함하는 내부표정요소가 결정되면 확장된 공선조건식을 이용하여 사진 상의 점으로부터 대상 공간상의 대상물좌표를 계산할 수 있다. 좌우사진에서 동일지점

Figure 112008003217218-PAT00042
Figure 112008003217218-PAT00043
를 찾았을 경우, 외부표정요소를 변수로 하는 선형방정식을 형성하여 삼차원 위치를 결정할 수 있다.When the internal expression element including the external expression element and distortion correction coefficient of the camera is determined, the object coordinate in the object space can be calculated from the point on the photograph using the extended collinear condition. Same point in left and right pictures
Figure 112008003217218-PAT00042
and
Figure 112008003217218-PAT00043
If we find, we can determine the three-dimensional position by forming a linear equation with the external expression element as a variable.

Figure 112008003217218-PAT00044
,
Figure 112008003217218-PAT00045
점에 대해 식(1.11), 식(1.12)와 같은 공선조건식을 구성할 수 있다. 이때,
Figure 112008003217218-PAT00046
영상좌표는 주점의 위치(
Figure 112008003217218-PAT00047
)와 렌즈왜곡계수(
Figure 112008003217218-PAT00048
)가 고려된 좌표이다.
Figure 112008003217218-PAT00044
,
Figure 112008003217218-PAT00045
For the point, we can construct collinear conditional expressions such as equations (1.11) and (1.12). At this time,
Figure 112008003217218-PAT00046
The image coordinate is the location of the tavern (
Figure 112008003217218-PAT00047
) And lens distortion coefficient (
Figure 112008003217218-PAT00048
) Is considered coordinates.

Figure 112008003217218-PAT00049
(1.11a)
Figure 112008003217218-PAT00049
(1.11a)

Figure 112008003217218-PAT00050
(1.11b)
Figure 112008003217218-PAT00050
(1.11b)

Figure 112008003217218-PAT00051
(1.12a)
Figure 112008003217218-PAT00051
(1.12a)

Figure 112008003217218-PAT00052
(1.12b)
Figure 112008003217218-PAT00052
(1.12b)

식(1.11), (1.12)에서 좌우 사진의 외부표정요소를 알고 있을 때 곧바로 지상기준점 좌표 P(X, Y, Z)를 계산할 수 있다. 각각 X, Y, Z에 대해 정리하면   When Equations (1.11) and (1.12) are known, the ground reference point coordinates P (X, Y, Z) can be calculated immediately. For each of X, Y, and Z,

Figure 112008003217218-PAT00053
Figure 112008003217218-PAT00053

Figure 112008003217218-PAT00054
(1.13a)
Figure 112008003217218-PAT00054
(1.13a)

Figure 112008003217218-PAT00055
Figure 112008003217218-PAT00055

Figure 112008003217218-PAT00056
Figure 112008003217218-PAT00056

Figure 112008003217218-PAT00057
(1.13b)
Figure 112008003217218-PAT00057
(1.13b)

Figure 112008003217218-PAT00058
Figure 112008003217218-PAT00058

Figure 112008003217218-PAT00059
(1.14a)
Figure 112008003217218-PAT00059
(1.14a)

Figure 112008003217218-PAT00060
Figure 112008003217218-PAT00060

Figure 112008003217218-PAT00061
Figure 112008003217218-PAT00061

Figure 112008003217218-PAT00062
(1.14b)
Figure 112008003217218-PAT00062
(1.14b)

와 같다. 식(1.13), (1.14)은 다시 몇 개의 기호를 사용하여 식 (1.15), 식 (1.16)과 같이 간략화 시킬 수 있다.Same as Equations (1.13) and (1.14) can be simplified again using Equations (1.15) and (1.16).

Figure 112008003217218-PAT00063
(1.15a)
Figure 112008003217218-PAT00063
(1.15a)

Figure 112008003217218-PAT00064
(1.15b)
Figure 112008003217218-PAT00064
(1.15b)

Figure 112008003217218-PAT00065
(1.16c)
Figure 112008003217218-PAT00065
(1.16c)

Figure 112008003217218-PAT00066
(1.16d)
Figure 112008003217218-PAT00066
(1.16d)

이때,

Figure 112008003217218-PAT00067
At this time,
Figure 112008003217218-PAT00067

Figure 112008003217218-PAT00068
Figure 112008003217218-PAT00068

Figure 112008003217218-PAT00069
Figure 112008003217218-PAT00069

Figure 112008003217218-PAT00070
Figure 112008003217218-PAT00070

Figure 112008003217218-PAT00071
Figure 112008003217218-PAT00071

Figure 112008003217218-PAT00072
Figure 112008003217218-PAT00072

Figure 112008003217218-PAT00073
Figure 112008003217218-PAT00073

Figure 112008003217218-PAT00074
Figure 112008003217218-PAT00074

Figure 112008003217218-PAT00075
Figure 112008003217218-PAT00075

Figure 112008003217218-PAT00076
Figure 112008003217218-PAT00076

이다. 위 식을 행렬형태로 나타내면 식 (1.17)과 같다.to be. If the above expression is expressed in matrix form, it is the same as Equation (1.17).

Figure 112008003217218-PAT00077
(1.17)
Figure 112008003217218-PAT00077
(1.17)

이를 간단히 하면 식 (1.18)과 같이 나타낼 수 있고   Simply put, we can write this as (1.18)

Figure 112008003217218-PAT00078
(1.18)
Figure 112008003217218-PAT00078
(1.18)

최소제곱에 의한 해

Figure 112008003217218-PAT00079
는 식 (1.19)와 같이 구해진다.Solution by least squares
Figure 112008003217218-PAT00079
Is given by equation (1.19).

Figure 112008003217218-PAT00080
(1.19)
Figure 112008003217218-PAT00080
(1.19)

이렇게 구해진 해는 공선조건식을 Taylor 급수 전개하여 X, Y, Z의 초기값을 대입하고 구한해와 거의 일치하는 결과를 얻을 수 있으며 지상에서 대상물을 관측하는 경우 거리방향의 초기값을 추정하기가 어렵기 때문에 효과적으로 이용될 수 있다.   In this solution, the collinear conditional equation is expanded by Taylor series, and the initial values of X, Y, and Z are substituted, and the result is almost identical to the solution obtained. It is difficult to estimate the initial value of the distance direction when the object is observed from the ground. Can be effectively used.

위에 기술한 수학적인 모형식을 바탕으로 프로그램을 코딩하고 디지털 카메라에 적용하였다. 적용한 모델은 Sony R1모델이며 적용한 모형은 도 2와 같으며 10cm 간격의 그리드에 81개의 봉을 수직으로 장착하였다. 두 대의 데오돌라이트를 이용하여 취득한 기준점의 좌표는 아래표와 같다.   Based on the mathematical model described above, the program was coded and applied to a digital camera. The applied model is the Sony R1 model and the applied model is the same as that of FIG. 2, and 81 rods are vertically mounted on a grid of 10 cm intervals. The coordinates of the reference point acquired using two deodorites are shown in the table below.

측점번호Station number XX YY ZZ 측점번호Station number XX YY ZZ 1One 2464.882464.88 559.27559.27 8515.758515.75 6161 3514.333514.33 -339.65-339.65 8530.58530.5 22 2611.592611.59 560.6560.6 8415.738415.73 6262 3514.333514.33 -339.65-339.65 8530.58530.5 33 2761.072761.07 558.31558.31 8517.368517.36 6363 3661.463661.46 -338.59-338.59 8332.268332.26 44 2910.732910.73 552.31552.31 8217.748217.74 6464 2467.452467.45 -488.37-488.37 8520.018520.01 55 3063.073063.07 557.16557.16 8320.198320.19 6565 2612.942612.94 -481.21-481.21 8320.238320.23 66 3212.953212.95 558.26558.26 8420.628420.62 6666 2757.312757.31 -486.43-486.43 8220.198220.19 77 3360.93360.9 556.79556.79 8523.058523.05 6767 2913.62913.6 -489.08-489.08 8522.068522.06 88 3513.053513.05 558.34558.34 8525.068525.06 6868 3062.663062.66 -487.75-487.75 8422.218422.21 99 3661.633661.63 558.06558.06 8425.098425.09 6969 3213.753213.75 -482.58-482.58 8323.838323.83 1010 2462.772462.77 410.69410.69 84198419 7070 3367.253367.25 -481.52-481.52 8224.48224.4 1111 2614.182614.18 405.37405.37 8320.668320.66 7171 3515.463515.46 -486.93-486.93 8426.348426.34 1212 2761.262761.26 409.48409.48 8419.738419.73 7272 3656.93656.9 -491.57-491.57 8529.98529.9 1313 2914.132914.13 407.23407.23 8321.468321.46 7373 2459.182459.18 -628.27-628.27 8412.768412.76 1414 3055.413055.41 397.5397.5 8223.088223.08 7474 2615.512615.51 -634.99-634.99 8514.338514.33 1515 3212.13212.1 411.69411.69 8524.958524.95 7575 2764.762764.76 -630.96-630.96 8413.898413.89 1616 3363.313363.31 409.53409.53 8425.448425.44 7676 2917.52917.5 -627.53-627.53 8317.518317.51 1717 3509.693509.69 400.98400.98 8227.818227.81 7777 3066.643066.64 -623.87-623.87 8218.498218.49 1818 3656.43656.4 410.81410.81 8529.38529.3 7878 3215.923215.92 -632.11-632.11 8417.988417.98 1919 2465.722465.72 265.23265.23 8521.768521.76 7979 3364.683364.68 -637.02-637.02 8520.538520.53 2020 2613.512613.51 256.48256.48 8222.248222.24 8080 3519.233519.23 -629.38-629.38 8321.618321.61

*모형 기준점좌표 Model reference point coordinates

총 81점의 기준점을 이용하여 아래도표에서와 같이 공선조건식의 외부표정요소와 초점거리 주점의 위치 렌즈왜곡계수를 계산하였다. 이때 렌즈왜곡계수는 편심왜곡계수는 생략하였으며 방사방향의 경우 수평방향과 수직방향의 방사왜곡이 차이가 있음으로 해서 각각 따로 적용하였으며 3차항까지 적용하였다.A total of 81 reference points were used to calculate the position lens distortion coefficients of the external expression element and focal length main point of the collinear condition equation. In this case, the eccentric distortion coefficient is omitted in the lens distortion coefficient, and in the radial direction, the radial distortion in the horizontal direction and the vertical direction are different.

매개변수parameter value XoXo 3092.6 mm3092.6 mm YoYo -77.6 mm-77.6 mm ZoZo 7284.6 mm7284.6 mm oo 0.035422 rad0.035422 rad pp -0.020732 rad-0.020732 rad kk 0.014048 rad0.014048 rad xpxp 0.051139 mm0.051139 mm ypyp -0.074984 mm-0.074984 mm ff 14.449 mm14.449 mm xk1xk1 0.00046953 0.00046953 xk2xk2 0.00000003 0.00000003 xk3xk3 -0.00000001 -0.00000001 yk1yk1 0.00046171 0.00046171 yk2yk2 0.00000009 0.00000009 yk3yk3 -0.00000001 -0.00000001

* 계산된 카메라 내부 및 외부표정요소 및 왜곡계수* Calculated camera internal and external expression factors and distortion coefficients

이때 각 영상좌표에 대한 평균제곱근잔차는 x좌표 방향으로 0.404 픽셀, y좌표 방향으로는 0.384 픽셀로 1픽셀 이내로 들어오는 결과를 얻을 수 있었다.   In this case, the root mean square residual for each image coordinate was 0.404 pixels in the x-coordinate direction and 0.384 pixels in the y-coordinate direction.

본 영상촬영시스템은 대략 80~90%의 중복도로 촬영되며 일반적인 영상정합은 전체 영상을 공액 영상소를 찾기 위한 탐색영역으로 고려한다. 그러나 이렇게 하면 계산 시간이 매우 길어지기 때문에 탐색영역은 공액점 부근의 일정영역으로 한정되어야 할 필요가 있다.    This imaging system takes about 80 ~ 90% redundancy and general image matching considers the entire image as a search area to find the conjugated image. However, since the calculation time becomes very long, the search area needs to be limited to a certain area near the conjugate point.

Figure 112008003217218-PAT00081
Figure 112008003217218-PAT00081

영상정합에 있어서 보다 정확하고 보다 신속하게 공액점을 찾기 위한 공액점 위치에 대한 중요한 제약은 에피폴라 선(epipolar line)이다.    An important limitation on the conjugate point position for finding the conjugate point more accurately and quickly in image registration is the epipolar line.

위의 그림은 에피폴라 기하를 나타내고 있다. 에피폴라 평면 (epipolar plane)은 투영정심

Figure 112008003217218-PAT00082
과 지상의 점 P에 의해서 정의된다. 에피폴라 선은 영상평면과 에피폴라 평면의 교차면이다. 따라서 공액점은 에피폴라 선상에 반드시 위치한다. 이러한 이유로 에피폴라 선은 영상 정합시 탐색영역을 상당히 감소시킬 수 있다. 에피폴라 선을 계산하기 위해서는 입체영상의 표정요소를 미리 알고 있어야 한다.The figure above shows the epipolar geometry. Epipolar plane is projected
Figure 112008003217218-PAT00082
And point P on the ground. The epipolar line is the intersection of the image plane and the epipolar plane. Therefore, the conjugate point must be located on the epipolar line. For this reason, the epipolar line can significantly reduce the search area during image registration. In order to calculate the epipolar line, it is necessary to know the facial expressions of the stereoscopic image.

수치영상에서의 영상의 각 행이 에피폴라 선에 평행하도록 재배열한 영상을 에피폴라 영상이라고 부른다. 이러한 영상을 이용해 영상정합을 행할 경우 공액점에 대한 탐색영역은 다른 영상에서의 동일한 행으로 제한된다. 그렇다고 에피폴라 선 전체를 따라서 탐색을 할 필요는 없다. 공액점 위치를 예측함으로써 보다 탐색영역을 줄일 수 있다.    An image rearranged such that each row of images in the numerical image is parallel to the epipolar line is called an epipolar image. When image registration is performed using such an image, the search region for the conjugate point is limited to the same row in another image. That doesn't mean you have to search the entire epipolar line. By predicting the conjugate point position, the search area can be further reduced.

위의 그림에서는 공액점 위치를 에피폴라선 상에서 예측하는 원리를 보여주고 있다. 여기서

Figure 112008003217218-PAT00083
는 대상물의 예상 촬영거리를 나타내며 일반적으로 대상 지역 내에 있는 대상물에 촬영거리의 평균을 취해서 구한다. The figure above shows the principle of predicting the conjugate point position on the epipolar line. here
Figure 112008003217218-PAT00083
Represents the expected shooting distance of the object and is usually obtained by taking the average of the shooting distances on the object within the target area.

한편,

Figure 112008003217218-PAT00084
값으로 예상 촬영거리에 대한 최대치와 최소치를 정의한다. 그러나 실제로
Figure 112008003217218-PAT00085
값을 예측하는 것은 대단히 어렵다. 일반적인 사진에 대해서 다음과 같은 식을 이용하여 공액점의 근사 위치를 추정할 수 있다.Meanwhile,
Figure 112008003217218-PAT00084
The value defines the maximum and minimum values for the expected shooting distance. But actually
Figure 112008003217218-PAT00085
Predicting the value is very difficult. For general photographs, the approximate location of the conjugate point can be estimated using the equation

Figure 112008003217218-PAT00086
(1.20)
Figure 112008003217218-PAT00086
(1.20)

Figure 112008003217218-PAT00087
(1.21)
Figure 112008003217218-PAT00087
(1.21)

Figure 112008003217218-PAT00088
(1.22)
Figure 112008003217218-PAT00088
(1.22)

여기서,

Figure 112008003217218-PAT00089
는 촬영기선길이,
Figure 112008003217218-PAT00090
는 주점기선길이,
Figure 112008003217218-PAT00091
는 점
Figure 112008003217218-PAT00092
의 시차를 나타낸다.here,
Figure 112008003217218-PAT00089
The length of the camera,
Figure 112008003217218-PAT00090
Is the tavern line length,
Figure 112008003217218-PAT00091
Point
Figure 112008003217218-PAT00092
Indicates the time difference.

Figure 112008003217218-PAT00093
Figure 112008003217218-PAT00093

시차방정식을 이용하여 탐색영역

Figure 112008003217218-PAT00094
를 결정한다. 연직사진이라고 가정하면 시차방정식은 다음과 같다.Search Area Using Parallax Equation
Figure 112008003217218-PAT00094
Determine. Assuming a vertical picture, the parallax equation is as follows.

Figure 112008003217218-PAT00095
(1.23)
Figure 112008003217218-PAT00095
(1.23)

여기서,

Figure 112008003217218-PAT00096
: 점L의 시차here,
Figure 112008003217218-PAT00096
: Time difference of point L

Figure 112008003217218-PAT00097
: 점U의 시차
Figure 112008003217218-PAT00097
: Time difference of point U

Figure 112008003217218-PAT00098
: 점U와 L의 시차차
Figure 112008003217218-PAT00098
: Time difference between point U and L

따라서 탐색영역

Figure 112008003217218-PAT00099
는 다음 식으로 표현된다.So search area
Figure 112008003217218-PAT00099
Is expressed by the following equation.

Figure 112008003217218-PAT00100
(1.24)
Figure 112008003217218-PAT00100
(1.24)

Figure 112008003217218-PAT00101
(1.25)
Figure 112008003217218-PAT00101
(1.25)

Figure 112008003217218-PAT00102
(1.26)
Figure 112008003217218-PAT00102
(1.26)

Figure 112008003217218-PAT00103
(1.27)
Figure 112008003217218-PAT00103
(1.27)

여기서

Figure 112008003217218-PAT00104
는 주점기선길이(
Figure 112008003217218-PAT00105
),
Figure 112008003217218-PAT00106
는 기준면에서 촬영거리,
Figure 112008003217218-PAT00107
는 점
Figure 112008003217218-PAT00108
에서의 촬영거리,
Figure 112008003217218-PAT00109
는 대상물의 예상 촬영거리,
Figure 112008003217218-PAT00110
Figure 112008003217218-PAT00111
의 추정범위를 나타낸다.here
Figure 112008003217218-PAT00104
Is the tavern line length (
Figure 112008003217218-PAT00105
),
Figure 112008003217218-PAT00106
Is the shooting distance from the reference plane,
Figure 112008003217218-PAT00107
Point
Figure 112008003217218-PAT00108
Distance from,
Figure 112008003217218-PAT00109
Is the estimated shooting distance of the object,
Figure 112008003217218-PAT00110
Is
Figure 112008003217218-PAT00111
It shows the estimated range of.

입체모형 상의 최대거리와 최소거리는 실제 대상물에 대해 가정된 최대거리와 최소거리를 초점거리와 촬영고도의 비로 환산하여 설정할 수 있다.   The maximum and minimum distances on the stereoscopic model can be set by converting the maximum and minimum distances assumed for the actual object as the ratio of the focal length and the photographing altitude.

각 특징점들의 모형좌표 초기값을 기준으로 입체모형의 최대거리와 최소거리에 해당하는 범위를 우측영상에서 탐색영역으로 설정하고 상관계수 영상정합에 의 해 정합을 실시함으로써 대상공간 영상정합을 수행할 수 있다.   Target space image registration can be performed by setting the maximum and minimum distances of the stereoscopic model from the right image to the search area based on the initial value of the model coordinates of each feature point, and performing matching by correlation coefficient image registration. have.

기존의 DLT식을 이용한 내외부표정에서 확장공선조건식을 이용한 내부표정과 외부표정과정을 분리하여 시스템의 안정성과 정확도를 향상시켰다. The stability and accuracy of the system are improved by separating the internal and external expression processes using the extended collinear condition from the internal and external expressions using the existing DLT equation.

도 6은 시스템 표정과정 개선을 간략하게 표현한 도면으로서,6 is a view briefly expressing the improvement of the system facial expression process,

내부표정에서는 카메라의 주점이동량, 초점거리, 렌즈왜곡계수를 정확히 계산한다. 이러한 내부표정요소는 카메라 고유값으로 한번 결정되면 지속적으로 사용가능하다. 내부표정 작업은 기존의 실내모형판을 통하여 계산되었으며 계산된 내부표정요소들은 아래의 표와 같다. The internal expression accurately calculates the principal movement of the camera, the focal length, and the lens distortion coefficient. This internal expression element can be used continuously once it is determined by the camera unique value. The internal expression work was calculated using the existing indoor model board and the calculated internal expression elements are shown in the table below.

좌 측left side xp = 0.056708 mm yp = -0.074506 mm f = 14.357671 mm xk1 = 0.00031947136450 xk2 = 0.00000180604403 xk3 = -0.00000001609305 yk1 = 0.00033444832411 yk2 = 0.00000126198297 yk3 = -0.00000001255092 xp = 0.056708 mm yp = -0.074506 mm f = 14.357671 mm xk1 = 0.00031947136450 xk2 = 0.00000180604403 xk3 = -0.00000001609305 yk1 = 0.00033444832411 yk2 = 0.00000126198297 yk3 = -0.00000001255092 우 측right xp = 0.027394 mm yp = 0.000894 mm f = 14.418808 mm xk1 = 0.00054136263417 xk2 = -0.00000145609288 xk3 = -0.00000000237742 yk1 = 0.00057959190347 yk2 = -0.00000245105580 yk3 = 0.00000000356984 xp = 0.027394 mm yp = 0.000894 mm f = 14.418808 mm xk1 = 0.00054136263417 xk2 = -0.00000145609288 xk3 = -0.00000000237742 yk1 = 0.00057959190347 yk2 = -0.00000245105580 yk3 = 0.00000000356984

한편, 외부표정은 스테레오 카메라 시스템에서 2대의 카메라의 위치 및 자세각을 정확히 계산해 낸다. 이러한 외부표정요소는 각각의 시스템마다 고유값이므로 한번 결정되면 지속적으로 사용이 가능하나, 외부환경적인 요인에 의해 틀어질 경우 다시 표정하여야 한다. 외부표정 작업은 실외에 타겟을 설치하여 표정요소들을 계산하였으며 계산된 외부표정요소들은 아래의 표와 같다.   The external expression, on the other hand, accurately calculates the position and attitude of the two cameras in the stereo camera system. Since these external expression factors are unique for each system, they can be used continuously once determined, but must be re-expressed if they are distorted by external environmental factors. The external expression work calculates facial expressions by installing a target outdoors and the calculated external expression elements are shown in the table below.

좌 측 left side Xo = 2860.98 mm Yo = -76.75 mm Zo = 6417.96 mm ω = -0.016091 rad φ = 0.085359 rad κ = 0.023859 rad Xo = 2860.98 mm Yo = -76.75 mm Zo = 6417.96 mm ω = -0.016091 rad φ = 0.085359 rad κ = 0.023859 rad 우 측 right Xo = 3758.04 mm Yo = -59.11 mm Zo = 6333.517 mm ω = -0.027395 rad φ = 0.094415 rad κ = 0.021807 rad Xo = 3758.04 mm Yo = -59.11 mm Zo = 6333.517 mm ω = -0.027395 rad φ = 0.094415 rad κ = 0.021807 rad

한편, 도 1은 본 발명에 따른 피해정보 산출시스템의 분리사시도 및 사진으 로서,On the other hand, Figure 1 is an exploded perspective view and photograph of the damage information calculation system according to the present invention,

본 발명에 따른 피해정보 산출시스템은, Damage information calculation system according to the present invention,

횡방향으로 길게 형성된 가로대(4)와, 상기 가로대(4)의 상부에서 측방향으로 일정간격만큼 이격되고 각각 정면을 향하도록 배치되는 2대의 카메라(1)와, 상기 가로대(4)를 지면으로부터 지지하기 위한 지지대(3)와, 상기 카메라(1)에서 촬영한 영상정보를 수신 및 저장하고 내부 수록된 프로그램에 의해 피해지역의 범위(거리 및 면적) 및 피해보상 금액을 산출하도록 이루어진 컴퓨터(2)로 구성된다.A crossbar 4 formed in the transverse direction, two cameras 1 arranged to be spaced apart from each other by a predetermined distance from the top of the crossbar 4 and facing the front, and the crossbar 4 from the ground A computer (2) configured to receive and store a support (3) for supporting and image information photographed by the camera (1), and calculate a range (distance and area) and damage compensation amount of the damage area by a program stored therein. It consists of.

한편, 상기 카메라(1)는 가로대(4)의 상부에 일정간격만큼 이격되도록 설치되며, 분리 및 결합을 용이하도록 하기 위해 퀵슈와 같은 결합수단(5)에 의해 결합되어진다.On the other hand, the camera 1 is installed to be spaced apart by a predetermined interval on the top of the crosspiece 4, is coupled by a coupling means 5, such as a quick shoe to facilitate separation and coupling.

컴퓨터(2)는 이동성을 고려하여 노트북 타입을 사용하는 것이 바람직하고, 카메라(1)에서 촬영한 영상정보를 수신하기 위해서는 카메라(1)로부터 유선으로 연결되어야 한다.The computer 2 preferably uses a notebook type in consideration of mobility, and in order to receive image information photographed by the camera 1, the computer 2 must be connected by wire from the camera 1.

카메라(1)에서 촬영한 영상정보를 컴퓨터(2)에 전송하기 위해서는 USB연결케이블이 너무 길지 않도록 하며, 장비를 콤팩트화 하기 위해서는 도 1에서와 같이 컴퓨터(2)를 2대의 카메라(1) 사이에 위치하도록 구성하는 것이 바람직하다.In order to transfer the image information captured by the camera 1 to the computer 2, the USB connection cable is not too long, and to compact the equipment, the computer 2 is connected between two cameras 1 as shown in FIG. It is preferable to configure so as to be located at.

즉, 컴퓨터(2)는 가로대(4)의 중앙 상부에 위치한 작업대(6)상에 설치되어지며, 별도의 USB케이블(미도시함)이 상기 컴퓨터(2)와 카메라(1)간에 각각 연결되어진다.That is, the computer 2 is installed on the worktable 6 located at the center of the crosspiece 4, and a separate USB cable (not shown) is connected between the computer 2 and the camera 1, respectively. Lose.

또한, 상기 작업대(6)는 철의 재질로 구성하고, 상기 가로대(4)에는 상기 작 업대(6)가 위치할 부위에 마그넷(7)를 결합함으로써, 장비의 설비 및 해체작업이 용이하게 이뤄지도록 구성할 수 있을 것이다.In addition, the worktable 6 is made of a material of iron, by combining the magnet (7) to the place where the worktable (6) is located on the crosspiece (4), the installation and dismantling work of the equipment is made easy It can be configured to

상기 지지대(3)는 이동성을 고려한다면 형태가 고정된 타입보다는 접었다 폈다할 수 있는 타입의 것이 바람직하며, 도시된 예에서와 같이 카메라 삼각대와 같은 삼발이 형태로 된 것을 사용할 수도 있을 것이다.The support 3 is preferably of a type that can be folded and retracted, rather than a fixed type in consideration of mobility, it may be used in the form of a tripod, such as a camera tripod, as in the illustrated example.

한편, 지지대(3)와 가로대(4)간의 분리 및 결합을 용이하도록 하기 위해, 상기 지지대(3)의 상단에는 퀵슈와 같은 결합수단(8)이 결합되어 있다.On the other hand, in order to facilitate the separation and coupling between the support (3) and the crosspiece (4), the coupling means 8, such as a quick shoe is coupled to the upper end of the support (3).

상기 가로대(4)는 카메라(1)의 무게에 의해 처짐이 발생될 수 있으므로 알루미늄 재질의 강성 플레이트를 사용하는 것이 바람직하다.Since the crossbar 4 may cause sagging due to the weight of the camera 1, it is preferable to use a rigid plate made of aluminum.

한편, 영상촬영시스템을 이용한 피해구조물의 피해정보 추출은 영상자료로부터 추출되어지기 때문에 영상촬영방법은 정확도 및 영상처리 과정의 편리성을 높이기 위해 중요하다. 영상촬영방법은 크게 카메라간의 기선길이, 촬영각 설정, 촬영시스템의 위치 및 자세에 의해 달라지며 각각의 경우 장단점이 존재하며 몇 가지 필수적인 정해진 촬영지침에 따라 촬영하는 것이 필요하다. On the other hand, since the damage information extraction of the damage structure using the image capturing system is extracted from the image data, the image capturing method is important to increase the accuracy and convenience of the image processing process. The imaging method is largely dependent on the base length between the cameras, the setting of the shooting angle, the position and the posture of the shooting system. In each case, there are advantages and disadvantages, and it is necessary to shoot according to some essential shooting guidelines.

디지털 카메라의 경우 영상촬영을 위한 다양한 옵션이 존재하며, 이 중 영상 해상도, 초점은 영상표정과 직접적으로 관계되기 때문에 일정 값으로 고정해주는 것이 필요하다. In the case of digital cameras, there are various options for image capturing. Among them, the image resolution and focus are directly related to the image expression.

2대의 카메라간의 간격(카메라 기선길이)은 대개 1m 정도로 고정하였다. 기하학적인 측면에서 볼 때 기선길이는 취득하려는 대상점의 위치에서 두 대의 카메라에서 나오는 광선이 직교할 때 가장 정확도가 높다    The distance between the two cameras (camera base length) is usually fixed at about 1m. From a geometric point of view, the baseline length is most accurate when the rays from two cameras are orthogonal at the location of the target point to be acquired.

따라서 촬영거리가 대개 10m~50m 정도로 볼 때 기선길이도 이에 버금가는 정도의 크기를 가지는 것이 정확도 측면에서는 가장 좋다고 할 것이다. 그러나 촬영시스템의 물리적인 한계로 기선길이 1m 이상은 이동과 촬영에 매우 불편하기 때문에 불가능하므로 본 시스템은 1m 정도로 설정하였다. Therefore, when the shooting distance is generally about 10m to 50m, the baseline length should be as large as this, which is the best in terms of accuracy. However, due to the physical limitations of the shooting system, the baseline length of more than 1m is impossible because it is very inconvenient to move and shoot, so this system is set to about 1m.

또한 기선길이가 매우 길 경우 좌측과 우측영상에서 보이는 대상물의 면의 서로 다를 수 있어 자동영상정합을 이용하는 영상처리에서 상관계수에 의한 영상정합이 실패할 확률이 매우 높아지며 정합의 정확도 또한 기대하기 어렵다. In addition, if the length of the base line is very long, the surface of the object seen in the left and right images may be different from each other, and thus the probability of image registration failure due to the correlation coefficient becomes very high in image processing using automatic image matching, and the accuracy of matching is difficult to expect.

따라서 촬영거리가 매우 먼 경우(100m 이상)에서는 위치정확도를 높이기 위하여 기선길이를 최대한으로 늘리고 보통의 경우 표준(1m)으로 하며, 매우 근접 촬영할 경우(10m 이내)는 최소로 맞추는 것이 바람직하다. 기선길이를 자유롭게 조절하는 것은 그때 마다 표정요소가 바뀌게 되기 때문에 불가능하며 3단계 정도로만 제한적으로 조절하는 것은 표정파일을 2가지로 제공하면 되므로 가능하다. Therefore, if the shooting distance is very distant (more than 100m), it is desirable to increase the baseline length to the maximum in order to increase the position accuracy, and to make the standard (1m) in the normal case, and to minimize the case of very close shooting (within 10m). It is impossible to freely adjust the length of the baseline because the facial expressions change every time, and only three steps can be limited to provide two facial expression files.

카메라 촬영각에 따른 촬영방법은 다음의 세 가지로 나누어진다. 수직수평촬영은 두 대의 디지털 카메라의 촬영축이 촬영기선에 대해 직각방향으로 향하게 하여 촬영하는 것으로 가장 일반적인 촬영방법이며, 본 촬영시스템에서 권장하는 방법이다. The shooting method according to the camera shooting angle is divided into three types. Vertical horizontal shooting is the most common shooting method with the shooting axis of two digital cameras pointing at right angles to the shooting baseline. This is the recommended method for this shooting system.

편각수평촬영은 두 대의 카메라 촬영축이 촬영기선에 대해 일정 각도만큼 좌 또는 우측으로 편향되게 촬영하는 방법으로 이 경우에는 카메라의 편각을 정확히 읽을 수 있는 장치가 설치되어야 한다. The horizontal angle shooting is a method in which two camera shooting axes are deflected left or right by a predetermined angle with respect to the base line. In this case, a device capable of accurately reading the angle of the camera should be installed.

수렴수평촬영은 두 대의 카메라 촬영축이 촬영기선에 대하여 일정 각도만큼 내측으로 수렴된 각으로 촬영하는 방법으로 카메라의 광축이 서로 교차한다. Converged horizontal photography is a method in which two camera photographing axes are photographed at an angle converged inwardly by a predetermined angle with respect to a photographing base line, and the optical axes of the cameras cross each other.

이와 같은 촬영방법은 촬영기선이 길어진 것과 같은 효과를 얻기 때문에 매우 높은 정확도가 얻어진다. 그러나 촬영거리에 따라 중복되는 입체 영상의 영역이 달라지기 때문에 두 장의 영상중복도를 고려하여 수렴각을 정해야 하는 단점과 영상정합의 실패확률이 높아지는 단점이 존재한다. Such a photographing method obtains the same effect as that of the photographic base line, so that very high accuracy is obtained. However, there are disadvantages of determining the convergence angle in consideration of two image redundancies and increasing the probability of failure of image registration because the area of overlapping stereoscopic images varies depending on the shooting distance.

경우Occation 촬영각 설정Shooting angle setting 표준Standard 수직수평Vertical horizontal 장애물이 있을시If there are obstacles 편각수평Declination 근접대상물의 높은 정확도 요구시When high accuracy of proximity object is required 수렴수평Convergence

촬영시스템의 자세는 수준계를 이용하여 지면에 수평을 유지하여야 한다. 지면에 수평을 유지하여야만 대상물의 표고차 정보를 정확히 구할 수 있으며 정사투영된 면적도 계산할 수 있다. 만약 수평을 맞추지 못하면 추출된 대상점의 3차원 좌표는 촬영시스템이 기울어진 만큼 기울어진 지상좌표계 상의 좌표로 계산되어 진다.    The posture of the imaging system should be level on the ground using a level meter. It is necessary to keep the ground level so that the information on the elevation difference of the object can be obtained accurately, and the projected area can be calculated. If it is not leveled, the extracted three-dimensional coordinates of the target point are calculated as the coordinates of the ground coordinate system inclined as much as the photographing system is inclined.

이 경우 기울어진 각을 측정하지 않을 경우 대상점 간의 상대 거리의 계산은 문제가 없으나, 정확한 표고차 및 정사투영된 면적은 계산이 불가능하다.In this case, if the inclination angle is not measured, the calculation of the relative distance between the target points is not a problem, but the exact elevation difference and orthogonal area cannot be calculated.

현장 촬영시 피해대상물은 매우 길게 존재하는데 현장의 지형지물(산, 하천, 건물)의 문제로 촬영거리가 확보되지 않아 대상물의 전체를 촬영하지 못하고 일부만을 촬영하여야 하는 경우가 발생할 수 있다. 이 때는 대상물의 일부를 30%정도 중복되게 연속으로 이동하면서 촬영하여야 한다.   When shooting the site, the damage target exists very long, but due to the problems of the site's features (mountains, rivers, buildings), the shooting distance is not secured, so it may occur that only a part of the target cannot be taken. In this case, part of the object should be photographed while moving in succession about 30%.

한편, 이와 같이 촬영된 영상정보는 컴퓨터(2)에 전송되며, 컴퓨터(2)에서는 내부에 수록된 피해범위 및 피해액 산출 프로그램에 의해 피해범위(거리 및 면적)와 피해액이 용이하게 산출되어진다. Meanwhile, the image information photographed as described above is transmitted to the computer 2, and the damage range (distance and area) and the damage amount are easily calculated by the damage range and damage calculation program stored therein.

본 발명에서 사용된 피해추정액 산정 프로그램은, 피해현장의 촬영시스템으로부터 피해영상자료를 취득하여 피해물량을 산정하고 이를 피해액 산정 프로그램에 입력하여 최종적으로 피해추정액을 산정한다. In the damage estimation program used in the present invention, the damage amount is calculated by acquiring the damage image data from the photographing system of the damage site and input the same into the damage calculation program to finally calculate the damage estimate.

즉, 입력된 피해영상자료로부터 피해물량을 산출하고 피해단가를 적용하여 공종별 부분별 피해액을 계산하여 이를 재해자료 D/B에 저장하여 피해상황 및 피해액을 체계적으로 저장하도록 하였다. In other words, the damage volume was calculated from the input damage image data, the damage cost was calculated by applying the damage unit cost, and the damage situation and damage amount were systematically stored by storing them in the disaster data D / B.

이는 기존의 피해액 산출방법을 상당히 개선한 것으로 현재는 현장에서 길이, 면적을 직접 측량하여 피해물량을 구하고 피해단가표를 참고하여 피해액을 산출하여 재해대장 등에 기입하여 보존하도록 되어있다.    This is a significant improvement of the existing damage calculation method. At present, it is required to directly measure the length and area of the damage at the site to obtain the damage, and to calculate the damage by referring to the damage unit price table and fill it in the disaster register.

따라서 현장에서 길이, 면적 측량시에 많은 피해조사시간이 소요되고 이를 통하여 피해액 및 지역별, 공종별 피해상황을 정리하는데 어려움이 있다. Therefore, it takes a lot of damage investigation time when surveying the length and area at the site, and it is difficult to arrange the damage amount and damage situation by region and type.

하지만 본 발명에서 제시하는 피해액 산정 프로그램은 이와 같은 일련의 피해물량 산정, 피해액 산정 및 자료정리 등을 프로그램화 하여 피해조사시 소요되는 시간을 상당히 감소시킬 수 있을 것으로 판단된다.However, the damage calculation program proposed in the present invention may considerably reduce the time required for damage investigation by programming such a series of damage calculation, damage calculation and data cleanup.

도 3은 본 발명에 의한 피해규모 산정프로그램의 모니터 화면사진이며, 도 4는 본 발명에 의한 피해규모 산정 프로그램 운용절차의 흐름도이다. 3 is a monitor screen picture of the damage scale calculation program according to the present invention, Figure 4 is a flow chart of the damage scale calculation program operating procedure according to the present invention.

먼저 피해추정액 산정을 위해서 일련의 과정에 따른 버튼을 도 4에 제시된 바와 같이 ①번 항목과 같이 순차적으로 진행할 수 있도록 하였다. 진행방법은 먼저 피해상황에 대한 입력을 하고 피해현장에서 취득된 피해영상을 올리고 피해물량프로그램을 활성화시켜 피해물량을 산정한다.First, in order to calculate the damage estimation amount, buttons according to a series of processes were sequentially performed as shown in item ① as shown in FIG. 4. In order to proceed, first input the damage situation, upload the damage image acquired at the damage site, and activate the damage quantity program to calculate the damage quantity.

산정된 피해물량을 기반으로 피해추정액을 산정하고 이를 데이터베이스에 입력한다. 입력된 데이터베이스는 요약 및 출력 버튼에 따라 인쇄가 가능하다.Based on the estimated damages, the damage estimate is calculated and entered into the database. The input database can be printed according to the summary and output buttons.

②번 항목에서 피해상황은 피해현장에서 최소한 작성자가 입력해야 하는 피해현황에 대한 자료를 나타내고 있으며 항목으로는 작성자, 하천명, 관리청, 피해일시, 피해지역, 피해원인을 간략하게 입력할 수 있도록 하였다. 특히, 피해일시와 같은 입력은 전자달력을 숨기기능으로 표시하여 필요시에만 사용자에게 나타나게 표시하였다.   In item ②, the damage status indicates data on the damage that should be input by the author at least at the damage site, and the items include the author, river name, management office, damage date and time, damage area, and cause of damage. . In particular, an input such as damage date and time is displayed to the user only when necessary by displaying the electronic calendar as a hiding ability.

③번 항목은 피해영상을 수록하는 부분으로 피해현장에서 수집된 영상정보를 입력하여 현실감을 높여주는 효과가 있을 것이다. 또한 확대, 축소기능 및 피해영상의 위치정보를 볼 수 있으므로 사용자는 보다 편리하게 피해추정 프로그램을 사용할 수 있을 것으로 판단된다.   Item ③ is the part that contains the damage image, and it will have the effect of enhancing the reality by inputting the image information collected at the damage site. In addition, the user can use the damage estimation program more conveniently because the user can view the zoom in, zoom out and location information of the damage image.

④번 항목의 경우에는 제방공종에 대한 내용을 표시하고 있으며 제방등급, 제방재료, 피해길이를 입력하도록 하였다.    In case of item ④, the contents of the embankment type are displayed and the dike grade, dike material, and damage length are entered.

⑤번 항목은 입력된 피해물량을 기반으로 피해추정액을 산정하는 부분이다. 이 부분에서는 아래도표와 같은 소방방재청 "자연재난조사 및 복구계획수립 지침" 을 기준으로 피해단가가 프로그램내에 내장되어 있으므로 편리하게 피해액을 산정할 수 있는 장점이 있다.    Item ⑤ is the part that calculates damage estimation amount based on the input damage quantity. In this part, the damage cost is built into the program based on the "National Disaster Investigation and Recovery Plan Establishment Guide" as shown in the following chart, which has the advantage of being easy to calculate the damage amount.

기존의 방법에 의하면 별도의 엑셀 및 계산기를 이용하는 내부작업이 필요하지만 본 프로그램을 이용한다면 피해현장에서 곧바로 피해추정액을 산정할 수 있는 장점이 있다. 따라서 기존의 방법과 비교해서 정확도 및 신속성면에서 매우 향상된 피해추정방법이라고 판단된다. According to the existing method, an internal work using a separate Excel and a calculator is required, but using this program has an advantage of estimating the damage estimation amount immediately at the damage site. Therefore, it is considered to be a very improved damage estimation method in terms of accuracy and speed.

* 하천제방 피해단가표(단위:원)* River bank damage unit price list (Unit: KRW)

공 종 별Ball bell 규 격standard 단위unit 단 가unit price 비 고Remarks 하천제방축조River Dike Construction - 국 가 하 천 (축제+블럭) - (축제+블럭+돌망태) - (축제+블럭+사석) - 지방1급하천 (축제+블럭) - (축제+블럭+돌망태) - (축제+블럭+사석) - 지방2급하천 (축제+블럭) - (축제+블럭+돌망태) - (축제+블럭+사석)-National Rivers (Festivals + Blocks)-(Festivals + Blocks + Gabions)-(Festivals + Blocks + Buddhism)-Local Class 1 Rivers (Festivals + Blocks)-(Festivals + Blocks + Gabions)-(Festivals + Blocks + Buddhism)-Local Class 2 River (Festivals + Blocks)-(Festivals + Blocks + Gabions)-(Festivals + Blocks + Saddles) m 〃 〃 〃 〃 〃 〃 〃 〃m 〃 〃 〃 〃 〃 〃 〃 〃 1,412,110 1,532,950 1,810,030 1,097,650 1,266,720 1,604,990 633,740 762,040 975,4501,412,110 1,532,950 1,810,030 1,097,650 1,266,720 1,604,990 633,740 762,040 975,450

⑥번 항목은 이상에서 입력 및 계산된 피해상황에 대한 내용을 체계적으로 관리하기 위한 데이터베이스를 나타내고 있다. 이러한 데이터베이스는 개인 PC기반으로 사용되므로 비교적 간단하게 사용할 수 있는 엑세스 프로그램을 이용하였다. 따라서 본 프로그램을 이용하기 위해서는 기본적으로 MS Office 2003 버전이 PC에 내장되어 있어야 한다.Item ⑥ represents a database for systematically managing the contents of damages entered and calculated above. Since this database is used on a personal PC basis, the access program can be used relatively simply. Therefore, in order to use this program, MS Office 2003 version should be built in PC.

⑦번 항목은 피해추정액 산정근거를 도시할 수 있는 기능을 나타낸다. 이때 확인버튼을 누르면 피해추정액 산출근거를 볼 수 있으며 취소버튼을 누르면 다시 피해영상사진으로 화면전환이 된다.   Item ⑦ shows the function that can show the basis for estimating the damage estimate. At this time, if you press the OK button, you can see the damage estimate calculation basis. If you press the Cancel button, the screen is converted back to the damage picture.

⑧번 항목은 데이터베이스에서 데이터의 처리부분에 해당되며 주요기능으로 데이터의 삽입, 삭제, 저장, 분류 등의 기능을 수행한다. 앞서 기술한 바와 같이 이러한 데이터베이스는 엑세스로 구성되어 있으며 입력창 및 D/B에서 직접 수정 가능하도록 구성하였다. 특히 데이터의 분류항목에서 사용자의 편의성을 고려하여 피해유형별, 작성자별, 피해일시별, 피해규모별로 데이터를 분류할 수 있는 기능을 추가하여 많은 자료를 일괄적으로 처리할 수 있도록 하였다.Item ⑧ corresponds to the data processing part in the database. Its main function is to insert, delete, save, and sort data. As described above, this database is composed of access and can be modified directly in the input window and D / B. In particular, in the classification categories of data, a function to classify the data by damage type, author, damage date and time, and damage size was added in consideration of the user's convenience, so that many data can be processed in a batch.

향후 이러한 분류기능을 개선 및 발전시키기 위한 한가지 방법으로 통계기능을 추가할 예정이다. 이러한 통계기능을 이용하여 하천별, 작성자별, 피해일시별, 피해규모별 피해현황을 도표나 그림으로 표시되어 한층 사용자의 이해를 쉽게 할 수 있을 것으로 판단된다.   In the future, the statistical function will be added as a way to improve and develop the classification function. By using these statistical functions, the damage status by river, author, damage date and time and damage scale is displayed in a chart or a figure, which makes it easier to understand users.

⑨번 항목은 프로그램의 다른 공종으로 이동하거나 닫기기능을 수행하며 사용자의 편리성을 고려하여 설계하였다.   Item ⑨ is designed to consider the user's convenience by moving to another model of the program or performing a closing function.

이와 같이 구성된 피해액 산정 프로그램에 의해, 키메라에서 촬영한 영상정보에 의해 피해범위 및 피해액을 용이하게 산정할 수 있게되는 것이다.  The damage amount calculation program configured as described above makes it possible to easily estimate the damage range and damage amount based on the image information photographed by the chimera.

도 1은 본 발명에 따른 피해정보 산출시스템의 분리사시도 및 사진,1 is an exploded perspective view and photograph of a damage information calculation system according to the present invention;

도 2는 본 발명에서의 내부표정을 위한 실내모형판의 사진,Figure 2 is a photograph of the indoor model plate for the internal expression in the present invention,

도 3은 본 발명에 의한 피해규모 정밀산정 프로그램의 모니터 화면사진,3 is a monitor screen picture of the damage scale precision calculation program according to the present invention,

도 4는 본 발명에 의한 피해규모 정밀산정 프로그램 운용절차의 흐름도,4 is a flowchart of a damage scale precision calculation program operating procedure according to the present invention;

도 5는 본 발명에 의한 피해산출과정을 개략적으로 설명한 도면.5 is a view schematically illustrating a damage calculation process according to the present invention.

* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

1 : 카메라 2 : 컴퓨터1: camera 2: computer

3 : 지지대 4 : 가로대3: support 4: crossbar

5 : 결합수단 6 : 작업대5: coupling means 6: work table

7 : 자석 8 : 결합수단 7: magnet 8: coupling means

9 : 가로선 10 : 세로선9: horizontal line 10: vertical line

11 : 봉 12 : 타겟점11 rod 12 target point

14 : 표정판14: face plate

Claims (14)

디지털카메라에 의해 거리 및 면적을 측정하는 방법에 있어서,In the method of measuring the distance and area by a digital camera, 2대의 카메라에 의해 영상 해상도 및 초점거리가 동일한 상태에서 사물을 각각 촬영하되 일부가 서로 중첩되도록 촬영하는 과정과,Photographing objects with two cameras having the same image resolution and focal length, but partially overlapping each other; 촬영된 영상자료에 의해 카메라 특성에 맞는 내부표정요소(카메라의 주점 이동량, 초점거리, 렌즈왜곡계수)를 결정하는 과정과, A process of determining the internal expression factors (the amount of movement of the principal point of the camera, the focal length, and the lens distortion coefficient) according to the characteristics of the camera based on the captured image data; 카메라의 외부표정요소(
Figure 112008003217218-PAT00112
)와 왜곡보정계수를 포함하는 내부표정요소가 결정되면 확장된 공선조건식을 이용하여 사진 상의 점으로부터 대상 공간상의 대상물좌표를 계산하고, 2대 카메라에 의한 좌우사진에서의 동일지점
Figure 112008003217218-PAT00113
Figure 112008003217218-PAT00114
를 찾았을 경우 외부표정요소를 변수로 하는 선형방정식을 형성하여 삼차원 위치를 결정하는 과정과,
External expression elements of the camera (
Figure 112008003217218-PAT00112
) And internal distortion factors including distortion correction coefficients are determined using the extended collinear condition equation to calculate the object coordinates in the object space from the point on the photo, and the same point in the left and right pictures by two cameras.
Figure 112008003217218-PAT00113
and
Figure 112008003217218-PAT00114
If we find, we determine the three-dimensional position by forming a linear equation with the external expression element as a variable,
결정된 삼차원 위치로부터 두 지점간의 거리 또는 면적을 산출하는 과정으로 이루어진 것을 특징으로 하는 디지털카메라에 의해 거리 및 면적을 측정하는 방법.Comprising a step of calculating the distance or area between the two points from the determined three-dimensional position method for measuring the distance and area by a digital camera.
제 1항에 있어서,The method of claim 1, 카메라 내부표정요소 중 영상왜곡의 영향은 방사 왜곡과 편심 왜곡, 대기 굴절에 의한 것으로 왜곡보정계수로서 수학적으로 모델링되며,The effects of image distortion among the camera's internal components are caused by radiation distortion, eccentric distortion, and atmospheric refraction, and are mathematically modeled as distortion correction coefficients. 방사방향의 왜곡을 보정하는 계수는 아래식과 같이 표현되고,The coefficient to correct the distortion in the radial direction is expressed as
Figure 112008003217218-PAT00115
Figure 112008003217218-PAT00115
(여기에서,
Figure 112008003217218-PAT00116
는 방사방향 왜곡에 대한 계수이고, r은 주점에서부터의 방사거리)
(From here,
Figure 112008003217218-PAT00116
Is the coefficient for radial distortion and r is the radial distance from the main point)
x와 y방향에 대한 편심왜곡성분은 아래식과 같이 표현되며,The eccentric distortion component in the x and y directions is expressed as
Figure 112008003217218-PAT00117
Figure 112008003217218-PAT00117
(여기에서, P1, P2는 무한 초점거리에서의 조합렌즈에 대한 편심왜곡의 계수)Where P1 and P2 are coefficients of eccentric distortion for the combined lens at infinite focal length. 방사왜곡과 편심왜곡을 결합한 왜곡보정 계수는 The distortion correction coefficient combining radiation and eccentric distortion is
Figure 112008003217218-PAT00118
로서,
Figure 112008003217218-PAT00118
as,
Figure 112008003217218-PAT00119
Figure 112008003217218-PAT00119
(여기서,
Figure 112008003217218-PAT00120
: 영상좌표,
Figure 112008003217218-PAT00121
: 주점의 위치,
Figure 112008003217218-PAT00122
: 초점거리,
Figure 112008003217218-PAT00123
: 회전행렬,
Figure 112008003217218-PAT00124
: 대상물좌표,
Figure 112008003217218-PAT00125
: 렌즈 투영중심의 위치)
(here,
Figure 112008003217218-PAT00120
: Image coordinate,
Figure 112008003217218-PAT00121
: Location of pub,
Figure 112008003217218-PAT00122
: Focal length,
Figure 112008003217218-PAT00123
: Rotation matrix,
Figure 112008003217218-PAT00124
: Object coordinates,
Figure 112008003217218-PAT00125
: Position of lens projection center)
위와 같은 공선조건식에 의해 사진 상의 점으로부터 대상 공간상의 대상물좌표를 산출해내는 것을 특징으로 하는 디지털카메라에 의해 거리 및 면적을 측정하는 방법. A method for measuring distance and area by a digital camera, comprising calculating an object coordinate in an object space from a point on a photograph by the above collinear conditional equation.
제 1항에 있어서, The method of claim 1, 2대의 카메라에 의해 일부 중첩되도록 촬영하는 영상은 80~90%의 중복도로 촬영되는 것을 특징으로 하는 디지털카메라에 의해 거리 및 면적을 측정하는 방법.Method for measuring the distance and area by a digital camera, characterized in that the video is taken to be partially overlapped by the two cameras 80 to 90% of the degree of overlap. 제 1항 내지 제 3항중 어느 한항에 따른 거리 및 면적 측정방법을 사용하여 피해지역의 범위 및 피해액을 산출하는 방법에 있어서,In the method for calculating the range and damage amount of the damaged area by using the distance and area measurement method according to any one of claims 1 to 3, 2대의 카메라에 의해 피해지역을 촬영한 영상 데이터들로부터 피해지역에 대한 거리 또는 면적을 산출하고,The distance or area of the damaged area is calculated from the image data photographing the damaged area by two cameras, 산출된 거리 또는 면적에 대해서는 해당장소에 대한 피해단가를 곱해줌으로써 피해액을 산출하게되는 것을 특징으로 하는 디지털카메라에 의해 피해지역의 범위 및 피해액을 산출하는 방법.The calculated distance or area is calculated by multiplying the cost of damage to the location, the method of calculating the range and the amount of damage area by a digital camera. 제 4항에 있어서,The method of claim 4, wherein 피해범위(거리 및 면적) 및 피해액에 대한 산출은 컴퓨터에 수록된 피해액 산출프로그램에 의해 산출되는 것을 특징으로 하는 디지털카메라에 의해 피해지역의 범위 및 피해액을 산출하는 방법. The calculation of the damage range (distance and area) and the damage amount is calculated by the damage calculation program stored in the computer. 디지털카메라로 촬영한 영상정보에 의해 피해정보를 산출하는 시스템에 있어서, In the system for calculating damage information based on the image information taken with a digital camera, 횡방향으로 길게 형성된 가로대와, 상기 가로대의 상부에서 측방향으로 일정간격만큼 이격되고 각각 정면을 향하도록 배치되는 2대의 카메라와, 상기 가로대를 지면으로부터 지지하기 위한 지지대와, 상기 카메라에서 촬영한 영상정보를 수신 및 저장하고 내부 수록된 프로그램에 의해 피해지역의 범위(거리 및 면적) 및 피해보상 금액을 산출하도록 이루어진 컴퓨터로 구성된 것을 특징으로 하는 디지털카메라로 촬영한 영상정보에 의한 피해정보 산출하는 시스템.A cross-section formed to extend in the lateral direction, two cameras spaced apart by a predetermined distance from the top of the cross-section and facing each other, a support for supporting the cross-section from the ground, and an image photographed by the camera And a computer configured to receive and store information, and calculate a range (distance and area) of damage area and a compensation amount by a program stored therein. 제 6항에 있어서, The method of claim 6, 상기 카메라는 가로대의 상부에 일정간격만큼 이격되도록 설치되며, 분리 및 결합을 용이하도록 하기 위해 퀵슈와 같은 결합수단에 의해 결합된 것을 특징으로 하는 디지털카메라로 촬영한 영상정보에 의한 피해정보 산출하는 시스템.The camera is installed so as to be spaced apart by a predetermined interval on the top of the cross, system for calculating the damage information by the image information taken with a digital camera, characterized in that coupled by a coupling means such as a quick shoe to facilitate separation and coupling . 제 6항에 있어서, The method of claim 6, 상기 컴퓨터는 노트북 타입으로서, 카메라에서 촬영한 영상정보를 수신할 수 있도록 상기 카메라로부터 유선 또는 무선으로 연결된 것을 특징으로 하는 디지털 카메라로 촬영한 영상정보에 의한 피해정보 산출하는 시스템.The computer is a notebook type, the system for calculating damage information by the image information taken with a digital camera, characterized in that connected to the wired or wireless from the camera to receive the image information taken by the camera. 제 8항에 있어서, The method of claim 8, 유선 연결방식인 경우에는 상기 컴퓨터는 2대의 카메라 사이에 위치하되, 컴퓨터는 상기 가로대의 중앙 상부에 위치한 작업대 상에 설치되어지며, 별도의 USB케이블이 상기 컴퓨터와 카메라 간에 각각 연결되어진 것을 특징으로 하는 디지털카메라로 촬영한 영상정보에 의한 피해정보 산출하는 시스템.In the case of a wired connection method, the computer is located between two cameras, and the computer is installed on a workbench located at the center of the crossbar, and a separate USB cable is connected between the computer and the camera. A system for calculating damage information based on image information taken with a digital camera. 제 9항에 있어서, The method of claim 9, 상기 작업대는 철의 재질로 구성하고, 상기 가로대에는 상기 작업대가 위치할 부위에 마그넷를 결합함으로써, 장비의 설비 및 해체작업이 용이하게 이뤄지도록 구성된 것을 특징으로 하는 디지털카메라로 촬영한 영상정보에 의한 피해정보 산출하는 시스템.The workbench is made of iron material, and the crossbar is coupled to the magnet to the site where the workbench is located, the damage caused by the image information captured by the digital camera, characterized in that the equipment and dismantling work of the equipment is configured to be easily performed Information calculating system. 제 6항에 있어서, The method of claim 6, 2대의 카메라간의 간격(기선길이)은, 촬영거리가 매우 먼 경우(100m 이상)에는 위치정확도를 높이기 위하여 최대한으로 늘리고, 보통의 경우에는 표준(약 1m) 으로 하며, 매우 근접 촬영할 경우(10m 이내)는 최소가 되도록 함으로써, 3단계로 조절되도록 구성된 것을 특징으로 하는 디지털카메라로 촬영한 영상정보에 의한 피해정보 산출하는 시스템.The distance between the two cameras (baseline length) is increased as much as possible to increase the position accuracy when the shooting distance is very long (more than 100m), and in the normal case, the standard (about 1m), and when shooting very close (within 10m) ) Is to minimize the damage information by the digital camera, characterized in that configured to be adjusted in three steps. 제 6항에 있어서, The method of claim 6, 상기 컴퓨터에서는 모니터 화면을 통해, 피해상황에 대한 입력과 피해물량프로그램을 활성화하기 위한 기능과,In the computer, through the monitor screen, the function for inputting the damage situation and activating the damage quantity program, 산정된 피해물량을 기반으로 피해추정액을 산정하고 이를 데이터베이스에 입력하기 위한 기능과,A function for estimating damage estimation amount based on the estimated damage quantity and inputting it to the database; 피해현황에 대한 자료, 즉 작성자, 하천명, 관리청, 피해일시, 피해지역, 피해원인 등에 대해 입력할 수 있는 기능과,Data on the damage status, such as the author, river name, management agency, damage date and time, damage area, cause of damage, etc., 입력된 피해물량을 기반으로 피해추정액을 산정하는 기능과,A function of estimating the damage estimation amount based on the damage amount inputted, 이와 같이 입력된 데이터들을 체계적으로 관리하기 위한 데이터베이스 기능과,Database function for systematically managing the data entered in this way, 데이터의 삽입, 삭제, 저장, 분류를 가능토록 하고 피해유형별, 작성자별, 피해일시별, 피해규모별로 데이터를 분류할 수 있도록 하는 기능이 구비된 것을 특징으로 하는 디지털카메라로 촬영한 영상정보에 의한 피해정보 산출하는 시스템.It is possible to insert, delete, save, and classify data, and to classify the data by damage type, author, damage date and time, damage size. Damage information calculation system. 제 1항 내지 제 3항에 의한 거리 및 면적 측정방법에서 사용되는 디지털영상 표정판에 있어서,In the digital image facial expression plate used in the distance and area measuring method according to claim 1, 편평한 표정판의 면상에는 다수개의 가로선과 세로선이 등 간격으로 표시되어 있으며, 상기 가로선과 세로선이 교차하는 지점에는 서로 길이가 다른 다수의 봉 들이 입설되어있고, 상기 봉 들의 선단에는 타겟점이 표시된 것을 특징으로 하는 디지털영상 표정판.On the face of the flat face plate, a plurality of horizontal lines and vertical lines are displayed at equal intervals, and a plurality of rods having different lengths are installed at the intersection points of the horizontal lines and the vertical lines, and the target points are displayed at the ends of the rods. Digital facial expression board. 제 13항에 있어서, The method of claim 13, 상기 표정판은 정면을 향하도록 설치되고,The face plate is installed to face the front, 휴대성을 위하여 2개의 판재로 분리 구성하되 중간에 경첩으로 연결되고, 봉은 표정판에 탈부착이 용이하도록 결합된 것을 특징으로 하는 디지털영상 표정판.Separately composed of two plates for portability, but connected by a hinge in the middle, the digital image facial expression plate, characterized in that the rod is coupled to the expression plate to be easily removable.
KR1020080004283A 2008-01-15 2008-01-15 The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method KR20090078447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080004283A KR20090078447A (en) 2008-01-15 2008-01-15 The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080004283A KR20090078447A (en) 2008-01-15 2008-01-15 The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method

Publications (1)

Publication Number Publication Date
KR20090078447A true KR20090078447A (en) 2009-07-20

Family

ID=41336545

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080004283A KR20090078447A (en) 2008-01-15 2008-01-15 The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method

Country Status (1)

Country Link
KR (1) KR20090078447A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140139443A (en) * 2013-05-27 2014-12-05 (주)지에스엠솔루션 Positional information construction method using omnidirectional image
KR101595067B1 (en) 2014-08-27 2016-02-18 고려대학교 산학협력단 Device and method for analysizing three dimensional shapes
KR101991094B1 (en) 2018-04-23 2019-06-19 주식회사 울프슨랩 Method for distance measurement, Apparatus for distance measurement, Computer program for the same, and Recording medium storing computer program for the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140139443A (en) * 2013-05-27 2014-12-05 (주)지에스엠솔루션 Positional information construction method using omnidirectional image
KR101595067B1 (en) 2014-08-27 2016-02-18 고려대학교 산학협력단 Device and method for analysizing three dimensional shapes
KR101991094B1 (en) 2018-04-23 2019-06-19 주식회사 울프슨랩 Method for distance measurement, Apparatus for distance measurement, Computer program for the same, and Recording medium storing computer program for the same

Similar Documents

Publication Publication Date Title
Sapirstein Accurate measurement with photogrammetry at large sites
JP4191449B2 (en) Image calibration method, image calibration processing device, image calibration processing terminal
Golparvar-Fard et al. Evaluation of image-based modeling and laser scanning accuracy for emerging automated performance monitoring techniques
CN101998136B (en) Homography matrix acquisition method as well as image pickup equipment calibrating method and device
JP4529157B2 (en) Three-dimensional survey system and electronic storage medium
CN100523715C (en) Multi-view-point video capturing system
AU2011312140C1 (en) Rapid 3D modeling
JP4052382B2 (en) Non-contact image measuring device
WO2023046211A1 (en) Photogrammetry method, apparatus and device, and storage medium
CN110146030A (en) Side slope surface DEFORMATION MONITORING SYSTEM and method based on gridiron pattern notation
CN110345925A (en) One kind is for five mesh aerial photograph quality testings and empty three processing methods
KR20160117143A (en) Method, device and system for generating an indoor two dimensional plan view image
Scaioni et al. Some applications of 2-D and 3-D photogrammetry during laboratory experiments for hydrogeological risk assessment
CN112308926A (en) Camera external reference calibration method without public view field
Zhang et al. Digital camera calibration method based on PhotoModeler
Cardenal et al. Evaluation of a digital non metric camera (Canon D30) for the photogrammetric recording of historical buildings
CN107421503A (en) Simple detector three-linear array stereo mapping imaging method and system
KR20090078447A (en) The measuring method for distance and area by digital cameras, and the calcurating method for damage information by the same measuring method, and the calcurating system for damage information which is used in the same calcurating method
JP3732653B2 (en) Appearance measuring method and apparatus by two-dimensional image comparison
JP2008076405A (en) Three-dimensional surveying apparatus and electronic storage medium
CN116563460A (en) Three-dimensional reconstruction optimization method and device, medium and equipment
Ahmad et al. Photogrammetric capabilities of the Kodak DC40, DCS420 and DCS460 digital cameras
Elhalawani et al. Implementation of close range photogrammetry using modern non-metric digital cameras for architectural documentation
JP4282361B2 (en) Photogrammetry method and photogrammetry program
Zahradník et al. Possible approaches for processing of spherical images using sfm

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application