KR102319289B1 - Image processing system securing captured image of natural ground features - Google Patents

Image processing system securing captured image of natural ground features Download PDF

Info

Publication number
KR102319289B1
KR102319289B1 KR1020210072571A KR20210072571A KR102319289B1 KR 102319289 B1 KR102319289 B1 KR 102319289B1 KR 1020210072571 A KR1020210072571 A KR 1020210072571A KR 20210072571 A KR20210072571 A KR 20210072571A KR 102319289 B1 KR102319289 B1 KR 102319289B1
Authority
KR
South Korea
Prior art keywords
image
information
module
buffer
coupled
Prior art date
Application number
KR1020210072571A
Other languages
Korean (ko)
Inventor
김승현
김현동
정학수
장성욱
Original Assignee
한국공간정보(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국공간정보(주) filed Critical 한국공간정보(주)
Priority to KR1020210072571A priority Critical patent/KR102319289B1/en
Application granted granted Critical
Publication of KR102319289B1 publication Critical patent/KR102319289B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

The present invention provides an image processing system comprising: a mobile mapping device including a captured image acquisition module for acquiring image information from a plurality of cameras, a GPS receiving module for receiving GPS information from an artificial satellite and acquiring the current location information of the cameras, an inertia measurement module for acquiring the horizontal information of the cameras using a plurality of sensors, an image processing module for correcting the image information based on the image information, the current location information and the horizontal information, a control module for controlling the image information, the current location information and the horizontal information to be transmitted to the image processing module, and a buffer for storing the image information; an aerial photography database for receiving the image information from the mobile mapping device and storing the same or receiving aerial photography data from an external database and storing the same; and a data processing module including an object extraction module for extracting a target object from a corrected image acquired from the image processing module, an object location determining module for acquiring the coordinate information of the target object based on the central point of the extracted target object, an aerial photograph extraction module for extracting the coordinate information of an aerial photograph corresponding to the image information from the aerial photography database, a coordinate comparison module for comparing the coordinate information of the target object with the coordinate information of the aerial photograph to check whether objects match each other, and a spatial information generating module for acquiring spatial information using the coordinate information of the target object acquired from the checking result of matching. Therefore, provided is an image processing system capable of easily securing a captured image of natural ground features.

Description

지형지물의 촬영 영상을 용이하게 확보할 수 있는 영상처리시스템 {Image processing system securing captured image of natural ground features}Image processing system securing captured image of natural ground features

본 발명은 영상 왜곡을 정밀하게 보정할 수 있는 영상처리시스템에 관한 것으로서, 영상 왜곡 매개변수를 이용하여 촬영 영상을 보정하되, 차량 이동 중이라도 카메라에 전달되는 진동 등의 영향을 최소화하여 정밀한 촬영 영상의 취득 및 왜곡 보정이 가능하도록 구성된 영상처리시스템에 관한 것이다.The present invention relates to an image processing system capable of precisely correcting image distortion, correcting a captured image using an image distortion parameter, and minimizing the effect of vibration transmitted to a camera even while the vehicle is moving to produce a precise captured image. It relates to an image processing system configured to enable acquisition and distortion correction.

기존의 항공측량을 이용한 3D 공간 모델링 방법은 획득된 건물의 촬영된 부위까지만 이용할 수 있어 강제적으로 건물의 끝부분까지 영상을 확장시켜 완성시키는 작업 과정이 필수적으로 포함될 수 밖에 없었다. The existing 3D spatial modeling method using aerial surveying can only use the acquired part of the building, so it was inevitable to include the work process of forcibly extending the image to the end of the building and completing it.

그러나, 이와 같이 영상을 강제적으로 확장시키는 방식은 가시성이 현저히 떨어짐과 더불어 객체에 대한 정확한 좌표 정보도 획득하기 어려워 모델링 작업 완료 후에도 사용자에게 보다 현실감 있는 영상 데이터를 제공하기 어려운 난점이 있었다. However, this method of forcibly expanding the image has a difficulty in providing more realistic image data to the user even after the modeling work is completed because visibility is significantly lowered and accurate coordinate information about the object is difficult to obtain.

그리고, 종래의 공간 모델링 방법은 현장조사를 통해 수작업으로 구축된 데이터를 활용함으로써 과도한 인력 및 비용이 소요되었고, 게다가 수작업으로 인한 지리정보의 오류가 빈번하게 발생될 뿐만 아니라 그 수정 및 갱신이 어렵다는 단점이 있어서, 이를 극복하기 위해 모바일 매핑 시스템(Mobile Mapping System) 등을 이용하여 건물 및 도로 시설물에 대한 지리정보 데이터를 구축하고 있다. In addition, the conventional spatial modeling method requires excessive manpower and cost by utilizing data constructed manually through field surveys, and in addition, errors in geographic information due to manual work occur frequently and it is difficult to correct and update the data. In order to overcome this problem, geographic information data for buildings and road facilities is being constructed using a mobile mapping system or the like.

그러나, 이와 같은 최신 측량기기를 이용하는 방식도 보정점 측량 등으로 인해 비용이 많이 소요될 뿐만 아니라, 측정된 영상의 왜곡 등으로 인해 정확한 좌표 정보를 획득하기 어려운 점은 마찬가지였고, 더 나아가 복잡한 도심지에서는 정보 정확도가 떨어질 수 밖에 없어서 지리 정보 데이터 베이스 구축에 여전히 많은 문제점을 내포하고 있다. However, the method using the latest surveying equipment is also expensive due to correction point measurement, and it is difficult to obtain accurate coordinate information due to distortion of the measured image. There are still many problems in building a geographic information database because the accuracy is inevitably low.

또한, 모바일 매핑 시스템을 이용하여 건물 및 도로 시설물에 대한 지리정보 데이터를 구축함에 있어서, 향후에는 모바일 매핑 시스템 및 지리 정보를 이용하는 단말들이 통신 시스템을 활용하여 방대한 양의 데이터를 송수신하게 될 것이다. 따라서, 이러한 방대한 양의 영상 데이터를 보다 효율적으로 송수신하기 위해서는 데이터 전송량을 효율적으로 관리할 필요가 대두되고 있다.In addition, in constructing geographic information data on buildings and road facilities using the mobile mapping system, in the future, terminals using the mobile mapping system and geographic information will transmit and receive a vast amount of data using a communication system. Accordingly, in order to more efficiently transmit/receive such a vast amount of image data, there is a need to efficiently manage the data transmission amount.

또한, 광범위한 지역에 대한 지형지물 측정을 위해서는 카메라를 차량에 탑재하여 이동하면서 지형지물을 측지 및 측량할 필요가 있다. 일반적인 영상처리용 카메라는 차량에 설치되어 운전자가 도로를 따라 운행하는 과정에서 지형, 도로, 건축물 등의 현장 지형지물을 직접 촬영하여 영상이미지를 확보하였고, 영상이미지를 확보하는데 사용되는 영상카메라는 고배율, 고화질의 비교적 가격이 비싼 고가 장비에 해당하며 정교한 구성에 의하여 관리와 취급 또한 매우 조심스럽게 운용하여야 하였다. In addition, in order to measure a feature over a wide area, it is necessary to measure and measure the feature while moving a camera mounted on a vehicle. A general image processing camera is installed in a vehicle and in the process of driving along the road, the driver directly photographed the on-site topographical features such as terrain, roads, and buildings to obtain image images. However, it is a high-quality, relatively expensive equipment, and due to its elaborate configuration, management and handling had to be operated very carefully.

그러나 차량을 이용하여 지형지물의 현장 영상이미지를 확보하는데 있어서 해당 현장에 돌출된 장애물이거나 평탄하지 못한 도로 현황 등과 같은 다양한 장애물이 존재하고 있으며 이러한 장애물에 의하여 발생되는 진동, 충격 등은 고가이며 정교한 영상 카메라를 파손시키거나 장애를 발생시킬 수 있었고, 지형지물의 영상이미지를 확보하는 과정에서 현장 또는 차량 자체로부터 인가되는 진동, 충격 등으로부터 촬영 영상 자체에 오류가 발생하는 문제점이 있었고, 이를 해결할 기술이 요구되고 있다. However, various obstacles such as protruding obstacles or uneven road conditions exist in obtaining on-site image images of landmarks using a vehicle. In the process of securing the image image of a geographical feature, there was a problem in that an error occurred in the captured image itself from vibration or shock applied from the site or the vehicle itself, and technology to solve this problem was required. have.

본 발명은 전술한 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 이동 측량 장비(MMS)를 통해 획득된 영상을 획득한 후 필터링 과정을 통해 영상의 휘어짐 현상을 보정함으로써 보다 정확한 3차원 공간좌표 정보를 획득하고, 영상 보정을 위한 매개변수 추출시 가중치가 적용된 임계값을 이용하여 필터링을 수행함으로써 보다 세밀한 영상 보정을 수행할 수 있는 영상처리시스템을 제공하는데 그 목적이 있다. The present invention has been devised to solve the problems of the prior art described above, and more accurate three-dimensional spatial coordinate information by correcting the distortion of the image through a filtering process after acquiring an image acquired through a mobile surveying equipment (MMS) An object of the present invention is to provide an image processing system capable of performing more detailed image correction by performing filtering using a weighted threshold value when extracting parameters for image correction.

또한, 본 발명은, 차량의 이동 중 카메라의 촬영시 차량 및 외부의 진동 등 충격에도 카메라의 미세한 흔들림을 방지하거나 최소화하여 정밀한 촬영 영상을 확보하고, 차량에 설치되는 카메라의 좌우 이동 및 높낮이를 자유롭게 조절할 수 있도록 하여 각종 지형지물의 촬영 영상을 용이하고 확보할 수 있는 영상처리시스템을 제공하는데 또 다른 목적이 있다.In addition, the present invention secures a precise photographed image by preventing or minimizing the slight shaking of the camera even when the camera is photographed while the vehicle is in motion, even in impacts such as vibrations from the vehicle and the outside, and freely moves the left and right movement and height of the camera installed in the vehicle. It is another object of the present invention to provide an image processing system that can easily and secure captured images of various topographical features by allowing them to be adjusted.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 발명의 기재로부터 당해 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art from the description of the present invention. .

본 발명은 전술한 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 2개의 카메라들로부터 영상 정보를 획득하는 촬영 영상 획득 모듈; 인공 위성으로부터 GPS 정보를 수신하여 상기 카메라의 현재 위치 정보를 획득하는 GPS 수신 모듈; 복수개의 센서를 이용하여 상기 카메라의 수평 정보를 획득하는 관성 측정 모듈; 상기 영상 정보, 현재 위치 정보 및 수평 정보에 기초하여 상기 영상 정보를 보정하는 영상 처리 모듈; 상기 영상 정보, 현재 위치 정보 및 수평 정보를 상기 영상 처리 모듈로 전송할 수 있도록 제어하는 컨트롤 모듈; 및 영상 정보를 저장하는 버퍼를 포함하는 모바일 매핑 장치; 상기 모바일 매핑 장치로부터 상기 영상 정보를 수신하여 저장하거나 외부 데이터베이스로부터 항공사진 데이터를 수신하여 저장하는 항공사진 데이터베이스; 및 상기 영상 처리 모듈에서 획득된 보정 영상으로부터 대상 객체를 추출하는 객체 추출 모듈; 상기 추출된 대상 객체의 중심점에 기초하여 상기 대상 객체의 좌표 정보를 획득하는 객체 위치 결정 모듈; 상기 항공사진 데이터베이스로부터 상기 영상 정보에 대응되는 항공사진의 좌표 정보를 추출하는 항공사진 추출 모듈; 상기 대상 객체의 좌표 정보와 상기 항공사진의 좌표 정보를 비교하여 객체들 간의 매칭 여부를 확인하는 좌표비교 모듈; 및 상기 매칭 여부 확인 결과로부터 획득된 대상 객체의 좌표 정보를 이용하여 공간 정보를 획득하는 공간정보 생성모듈;을 포함하는 데이터 처리 모듈;을 포함하되, 상기 촬영 영상 획득 모듈에 영상 정보를 공급하는 2개의 카메라(700)는 차량의 상부에 탑재되되, 차량의 상부 좌단 및 차량의 상부 우단에 각각 2개씩 장착되는 완충지지대(600), 차량의 상부 좌단 및 우단에 맞춰 평행하도록 2개가 장착되되, 2개의 완충지지대 상에서 횡으로 결합되는 좌우이동부(400), 2개 좌우이동부의 상단에 각각 결합되되, 그 상부에 카메라(700)를 구비하는 높낮이 조절부(500)를 더 포함하고, 상기 완충지지대(600)는, 좌우이동부(400)의 하단에 결합되며 원판 형태를 갖는 완충체결부(611) 및 완충체결부(611)의 하부 중앙에 연장되는 원통 형태의 완충원통부(612)로 이루어지는 완충로드(610); 내부가 비어있는 원통형으로 형성되며 완충로드(610)의 하단이 수용되는 완충케이스(620); 완충로드(610)의 완충원통부(612)의 하부 외측면에 결합되는 완충스토퍼(630); 완충로드(610)의 하부에 결합되며 완충로드(610)와 완충케이스(620)의 내측면 사이를 연결하되 십(十)자 형태의 단면을 갖는 완충연결부(640); 완충스토퍼(630)의 외측면과 완충케이스(620)의 내측면 사이에 결합되는 완충굴곡부(650);를 구비하고, 상기 좌우이동부(400)는, 완충지지대의 상부에 결합되며 상부면에 길이방향을 따라 이동홀이 형성되는 좌우케이스(410); 좌우케이스의 내부 양측에 결합되며 길이방향을 따라 슬라이딩홀이 형성되는 한 쌍의 슬라이딩부(420); 한 쌍의 슬라이딩부에 각각 일단이 슬라이딩 가능하도록 삽입되는 한 쌍의 좌우로드부(430); 한 쌍의 좌우로드부의 중앙에 결합되는 금속 소재의 중앙금속부(440); 중앙금속부의 상부로 연장되며 이동홀을 통해 외부로 노출되는 상하로드부(450); 좌우케이스의 내부 하단 중앙에 결합되며 자성을 띠는 중앙자석(460); 중앙자석을 기준으로 양측에 이격하여 배치되며 자성을 띠는 한 쌍의 좌우자석(461); 좌우케이스의 상부면에 결합되며 길이방향을 따라 이동홀을 기준으로 전후방향으로 양측에 결합되는 한 쌍의 이동레일(470); 및 상하로드부의 측부에 결합되며 한 쌍의 이동레일에 수용되어 길이방향을 따라 슬라이딩 이동 가능한 레일이동부(480);를 구비하며, 상기 높낮이 조절부(500)는, 내부가 비어있는 원통형의 높낮이케이스(510); 높낮이케이스(510)에 상하로 슬라이딩 가능하도록 수용되며 측면에 다수의 고정홈(521)이 형성되는 높낮이로드(520); 및 높낮이케이스(510)의 상단에 결합되며 다수의 고정홈(521)으로 진입 가능한 고정로드(532);를 구비하고, 상기 카메라(700)는, 높낮이 조절부(500)의 상부에 결합되되, 그 내부의 회전모터를 통해 촬영 각도의 조절이 가능한 것을 특징으로 한다. The present invention has been devised to solve the problems of the prior art, and includes: a captured image acquisition module for acquiring image information from two cameras; a GPS receiving module for receiving GPS information from an artificial satellite to obtain current location information of the camera; an inertial measurement module for acquiring horizontal information of the camera using a plurality of sensors; an image processing module for correcting the image information based on the image information, current location information, and horizontal information; a control module for controlling to transmit the image information, current location information, and horizontal information to the image processing module; and a mobile mapping device including a buffer for storing image information; an aerial photograph database for receiving and storing the image information from the mobile mapping device or for receiving and storing aerial photograph data from an external database; and an object extraction module for extracting a target object from the corrected image obtained by the image processing module; an object positioning module for obtaining coordinate information of the target object based on the extracted center point of the target object; an aerial photograph extraction module for extracting coordinate information of an aerial photograph corresponding to the image information from the aerial photograph database; a coordinate comparison module that compares the coordinate information of the target object with the coordinate information of the aerial photograph to confirm whether objects are matched; and a spatial information generating module for acquiring spatial information by using the coordinate information of the target object obtained from the matching result checking result; a data processing module including; The two cameras 700 are mounted on the upper part of the vehicle, and two are mounted parallel to the buffer support 600, which are respectively mounted on the upper left end and the upper right end of the vehicle, respectively, in line with the upper left end and right end of the vehicle, 2 The left and right moving part 400 coupled horizontally on the four buffer supports, each coupled to the upper end of the two left and right moving parts, further comprising a height adjusting part 500 having a camera 700 on the upper part, the buffer support ( 600) is coupled to the lower end of the left and right moving part 400 and a buffer rod consisting of a buffer fastening part 611 having a disk shape and a buffering cylindrical part 612 of a cylindrical shape extending to the center of the lower part of the buffer fastening part 611 (610); The buffer case 620 is formed in an empty cylindrical interior and the lower end of the buffer rod 610 is accommodated; a buffer stopper 630 coupled to the lower outer surface of the buffer cylinder 612 of the buffer rod 610; It is coupled to the lower portion of the buffer rod 610 and connects between the buffer rod 610 and the inner surface of the buffer case 620, but a buffer connection part 640 having a cross-section in the shape of a ten (十); A buffer bent portion 650 coupled between the outer surface of the buffer stopper 630 and the inner surface of the buffer case 620 is provided, and the left and right moving part 400 is coupled to the upper portion of the buffer support and has a length on the upper surface. Left and right cases 410 in which moving holes are formed along the direction; a pair of sliding parts 420 coupled to both inner sides of the left and right cases and having sliding holes formed along the longitudinal direction; A pair of left and right rod parts 430 inserted so that one end is slidable in each of the pair of sliding parts; a central metal part 440 of a metal material coupled to the center of a pair of left and right rod parts; an upper and lower rod portion 450 extending to the upper portion of the central metal portion and exposed to the outside through a moving hole; a central magnet 460 coupled to the center of the inner lower end of the left and right cases; A pair of left and right magnets 461 spaced apart from each other on the basis of the central magnet and exhibiting magnetism; A pair of moving rails 470 coupled to the upper surface of the left and right cases and coupled to both sides in the front and rear directions based on the moving holes along the longitudinal direction; and a rail moving unit 480 coupled to the side of the upper and lower rods and accommodated in a pair of moving rails to be slidably movable along the longitudinal direction, wherein the height adjusting unit 500 has an empty cylindrical height. case 510; a height rod 520 which is accommodated in the height case 510 so as to be slidable up and down and has a plurality of fixing grooves 521 formed on the side thereof; and a fixing rod 532 coupled to the upper end of the height case 510 and capable of entering a plurality of fixing grooves 521; the camera 700 is coupled to the upper portion of the height adjustment unit 500, It is characterized in that it is possible to adjust the shooting angle through the rotation motor inside.

본 발명의 영상 왜곡을 정밀하게 보정할 수 있는 영상처리시스템에 의하면, 이동 측량 장비(MMS)를 통해 획득된 영상을 획득한 후 필터링 과정을 통해 영상의 휘어짐 현상을 보정함으로써 보다 정확한 3차원 공간좌표 정보를 획득하고, 영상 보정을 위한 매개변수 추출시 가중치가 적용된 임계값을 이용하여 필터링을 수행함으로써 보다 세밀한 영상 보정을 수행할 수 있는 효과가 있다. According to the image processing system capable of precisely correcting image distortion of the present invention, more accurate three-dimensional spatial coordinates are obtained by correcting the image warpage through a filtering process after acquiring an image obtained through a mobile surveying equipment (MMS). There is an effect that more detailed image correction can be performed by obtaining information and performing filtering using a weighted threshold value when extracting parameters for image correction.

또한, 본 발명에 의하면, 차량에 설치되는 카메라의 좌우 이동 및 높낮이를 자유롭게 조절할 수 있도록 하여 각종 지형지물의 촬영 영상을 용이하고 확보할 수 있고, 차량의 이동 중 카메라의 촬영시 차량 및 외부의 진동 등 충격에도 카메라의 미세한 흔들림을 방지하거나 최소화하여 정밀한 촬영 영상을 확보하여 원천적으로 촬영영상의 오류를 최소화할 수 있는 효과가 있다. In addition, according to the present invention, it is possible to freely and freely adjust the left and right movement and height of the camera installed in the vehicle, so that it is possible to easily and secure the photographed images of various features, and when the camera is photographed while the vehicle is moving, the vehicle and external vibration, etc. It has the effect of minimizing or preventing micro-shake of the camera even in the event of an impact to secure a precise captured image, thereby minimizing errors in the captured image.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명에 따른 영상처리 시스템의 구성 블록도.
도 2는 본 발명에 따른 촬영 영상 획득 모듈의 구성 블록도.
도 3a는 본 발명에 따른 영상 처리 모듈의 구성 블록도.
도 3b는 본 발명에 따른 후처리부의 구성 블록도.
도 4a는 본 발명에 따른 제 1 보정 그룹과 제 2 보정 그룹을 정의함으로써 영상 보정을 수행하는 방법을 설명하기 위한 좌표계의 예시도.
도 4b는 본 발명에 따른 영상 보정을 위해 가중치 적용된 임계값 산출 과정을 설명하기 위한 좌표계의 예시도.
도 5는 본 발명에 따른 데이터 처리 모듈의 구성 블록도.
도 6은 본 발명에 따른 대상 객체의 좌표 정보를 이용하여 3차원 좌표 정보를 모델링하는 방법을 설명하기 위한 예시도.
도 7a 및 도 7b는 본 발명에 따른 촬영 영상 획득 모듈에 영상 정보를 공급하는 2개의 카메라가 차량의 상부에 탑재된 모습을 나타낸 예시도.
도 8은 본 발명에 따른 완충지지대의 단면도.
도 9a 및 도 9b는 본 발명에 따른 좌우이동부의 사시도 및 단면도.
도 10은 본 발명에 따른 높낮이 조절부의 단면도.
도 11은 본 발명에 따른 영상 왜곡을 보정하여 3차원 공간 모델링을 수행하는 방식의 순서도.
도 12은 본 발명에 따른 카메라로부터 획득된 영상을 보정하는 방법을 설명하기 위한 순서도.
도 13은 본 발명에 따른 보정된 영상으로부터 대상 객체의 좌표 정보를 획득하기 위한 방법을 설명하기 위한 순서도.
1 is a block diagram of an image processing system according to the present invention;
2 is a block diagram of a captured image acquisition module according to the present invention;
3A is a block diagram of an image processing module according to the present invention;
3b is a block diagram of a post-processing unit according to the present invention;
4A is an exemplary view of a coordinate system for explaining a method of performing image correction by defining a first correction group and a second correction group according to the present invention;
4B is an exemplary view of a coordinate system for explaining a weighted threshold value calculation process for image correction according to the present invention.
5 is a block diagram of a data processing module according to the present invention;
6 is an exemplary diagram for explaining a method of modeling three-dimensional coordinate information using coordinate information of a target object according to the present invention.
7A and 7B are exemplary views showing a state in which two cameras for supplying image information to the captured image acquisition module according to the present invention are mounted on the top of the vehicle;
Figure 8 is a cross-sectional view of the buffer support according to the present invention.
9A and 9B are a perspective view and a cross-sectional view of a left and right moving part according to the present invention.
10 is a cross-sectional view of a height adjustment unit according to the present invention.
11 is a flowchart of a method of performing 3D spatial modeling by correcting image distortion according to the present invention.
12 is a flowchart for explaining a method of correcting an image obtained from a camera according to the present invention.
13 is a flowchart for explaining a method for obtaining coordinate information of a target object from a corrected image according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, and the inventor should properly understand the concept of the term in order to best describe his invention. Based on the principle that it can be defined, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the configuration shown in the embodiments and drawings described in the present specification is only the most preferred embodiment of the present invention and does not represent all the technical spirit of the present invention, so at the time of the present application, various It should be understood that there may be equivalents and variations.

먼저, 본 발명은 후술되는 선등록특허 제1879859호를 그대로 이용한다. 때문에, 이하 설명되는 장치 구성상 특징들은 모두 등록특허 제1879859호에 기재된 사항들이다. 다만, 본 발명은 상기 등록특허 제1879859호에 개시된 구성들 중 촬영영상 획득모듈과 연계된 복수의 카메라의 차량장착 상태 및 카메라 흔들림 방지 구조를 개선한 부분이 가장 핵심적인 구성상 특징을 이룬다. 따라서, 이하 설명되는 영상처리에 이용되는 모듈 구성, 특징 및 작동관계는 등록특허 제1879859호의 내용을 그대로 인용하기로 하며, 도 7a 내지 도 10과 관련된 부분에서 본 발명의 주된 특징과 관련된 구성에 대하여 구체적으로 설명하기로 한다.First, the present invention uses as it is, prior Patent No. 1879859, which will be described later. Therefore, all of the device configuration features described below are those described in Korean Patent Registration No. 1879859. However, in the present invention, among the configurations disclosed in Patent Registration No. 1879859, the most essential configuration feature is the improvement of the vehicle mounting state of a plurality of cameras linked to the captured image acquisition module and the camera shake prevention structure. Accordingly, the module configuration, features, and operation relationship used for image processing described below will be cited as it is in Patent Registration No. 1879859, and the configuration related to the main features of the present invention in the parts related to FIGS. 7A to 10 . It will be described in detail.

한편, 본 발명의 영상처리시스템에 적용되는 공간 모델링 시스템(Space Modeling System)은 공간상 위치를 점유하는 지리 자료와 이에 관련된 속성 자료를 통합하여 처리하는 정보 시스템으로서 다양한 형태의 지리 정보를 효율적으로 수집, 저장, 갱신, 처리, 분석, 출력하기 위해 이용되는 하드웨어, 소프트웨어, 지리자료, 인적자원의 총체적 조직체라고 정의할 수 있다. 최근 지리 정보 시스템의 이용에 따라 공간 정보의 다양한 활용이 용이해졌고, 따라서, 급변하는 도심 내의 보다 명확하고 현실감있는 지리 정보를 제공하기 위해서는 이동 측량 데이터를 효율적으로 이용할 필요가 있다. 이하에서는 이동 측량 데이터를 효율적으로 이용하여 보다 명확한 공간 모델링 정보를 생성하는 실시예들을 살펴보도록 한다.On the other hand, the space modeling system applied to the image processing system of the present invention is an information system that integrates and processes geographic data occupying a spatial location and related attribute data, and efficiently collects various types of geographic information. It can be defined as the total organization of hardware, software, geographic data, and human resources used to store, update, process, analyze, and output data. Recently, various uses of spatial information have become easier according to the use of geographic information systems. Therefore, it is necessary to efficiently use mobile survey data to provide clearer and more realistic geographic information within a rapidly changing city center. Hereinafter, examples of generating clearer spatial modeling information by efficiently using movement survey data will be described.

도 1은 본 발명에 따른 영상처리시스템의 구성 블록도이다. 1 is a block diagram of an image processing system according to the present invention.

상기 도 1을 참조하면, 본 발명의 영상처리시스템은 크게 모바일 매핑 장치(100), 통신 모듈(200), 업데이트 모듈(210), 항공사진 데이터베이스(310) 및 데이터 처리 모듈(300)로 구성되고, 상기 모바일 매핑 장치(100)는 촬영 영상 획득 모듈(110), 영상처리 모듈(120), 관성측정 모듈(130), GPS 수신모듈(140), 컨트롤 모듈(150) 및 버퍼(160)로 구성될 수 있다. Referring to FIG. 1 , the image processing system of the present invention is largely composed of a mobile mapping device 100 , a communication module 200 , an update module 210 , an aerial photograph database 310 , and a data processing module 300 , and , the mobile mapping device 100 is composed of a captured image acquisition module 110 , an image processing module 120 , an inertial measurement module 130 , a GPS reception module 140 , a control module 150 , and a buffer 160 . can be

본 발명의 영상처리시스템은 공간 정보를 생성하는 영상처리시스템일 수 있으며, 여기서, 공간 모델이란 3차원 이미지 내에서 공간을 차지하는 객체, 예를 들어, 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등을 의미할 수 있다. 그리고, 공간 모델 정보라 함은, 상기 객체, 즉 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등의 위치, 거리, 면적, 속성 정보 등을 의미할 수 있다. The image processing system of the present invention may be an image processing system that generates spatial information, where the spatial model is an object occupying space in a three-dimensional image, for example, road facilities, buildings, road occupancy facilities, and auxiliary facilities. can mean In addition, the spatial model information may refer to location, distance, area, attribute information, etc. of the object, that is, a road facility, a building, a road occupancy facility, and ancillary facilities.

상기 모바일 매핑 장치(100)는 대상 지역 내의 경로를 이동하면서 대상 지역 내의 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등을 측량할 수 있다. 여기서, 모바일 매핑 장치(100)는 이동하면서 측량 가능한 장치를 의미하며, 그 예로 측량 가능한 카메라를 장착한 자동차, 비행기 등을 들 수 있다. The mobile mapping device 100 may measure road facilities, buildings, road occupancy facilities, and auxiliary facilities in the target area while moving a path within the target area. Here, the mobile mapping device 100 means a device that can be surveyed while moving, and examples thereof include a car or an airplane equipped with a surveyable camera.

상기 촬영 영상 획득 모듈(110)는 좌안 영상 카메라와 우안 영상 카메라 등 적어도 2개 이상의 카메라를 구비할 수 있으며, 좌안 영상 카메라와 우안 영상 카메라를 이용하여 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등을 촬영함으로서 스테레오 영상을 획득할 수 있다.The photographed image acquisition module 110 may include at least two or more cameras such as a left eye image camera and a right eye image camera, and use the left eye image camera and the right eye image camera to obtain road facilities, buildings, road occupancy facilities, and auxiliary facilities. A stereo image can be obtained by photographing .

도 2는 본 발명에 따른, 촬영 영상 획득 모듈의 블록도이다. 2 is a block diagram of a captured image acquisition module according to the present invention.

상기 촬영 영상 획득 모듈(110)는 이미지 센싱부(111), 비디오 코딩부(112), 버퍼(113) 및 데이터 출력부(114)를 포함하여 구성될 수 있다.The captured image acquisition module 110 may include an image sensing unit 111 , a video coding unit 112 , a buffer 113 , and a data output unit 114 .

상기 이미지 센싱부(111)는 좌안 영상 카메라와 우안 영상 카메라를 이용하여 도로 시설물, 건물, 도로 점용 시설 및 부대 시설을 촬영함으로서 스테레오 영상을 획득할 수 있다. 상기 이미지 센싱부(111)로부터 출력된 영상 신호는 RGB의 파장 정보를 포함하는 아날로그 전기 신호일 수 있다. 다만, 설명의 편의를 위해 상기 이미지 센싱부(111)는 아날로그-디지털 변환기를 포함함으로써 RGB 원시 이미지 데이터(RGB RAW IMAGE DATA)를 출력할 수 있다. 상기 이미지 센싱부(111)로부터 출력된 RGB 원시 이미지 데이터는 버퍼(113)에 저장될 수 있으며, 비디오 코딩부(112)로 입력될 수 있다.The image sensing unit 111 may acquire a stereo image by photographing road facilities, buildings, road occupancy facilities, and auxiliary facilities using a left-eye image camera and a right-eye image camera. The image signal output from the image sensing unit 111 may be an analog electrical signal including RGB wavelength information. However, for convenience of description, the image sensing unit 111 may output RGB RAW image data by including an analog-to-digital converter. The RGB raw image data output from the image sensing unit 111 may be stored in the buffer 113 and may be input to the video coding unit 112 .

상기 비디오 코딩부(112)에서는 수신된 영상 정보를 압축하여 전송함으로써 효율적인 신호 처리를 수행할 수 있다. 본 발명이 적용되는 실시예로서, 상기 비디오 코딩부(112)는 적응적 필터링부(미도시)를 포함할 수 있으며, 상기 적응적 필터링부에서는 각 프레임에 적응적인 필터링을 수행함으로써 효율적인 신호 처리가 가능할 수 있다. 상기 적응적 필터링부는 공지의 필터 계수를 생성할 수 있다.The video coding unit 112 may perform efficient signal processing by compressing and transmitting the received image information. As an embodiment to which the present invention is applied, the video coding unit 112 may include an adaptive filtering unit (not shown), and the adaptive filtering unit performs adaptive filtering on each frame to efficiently process a signal. It may be possible. The adaptive filtering unit may generate known filter coefficients.

필터 계수를 현재 프레임에 적용함으로써 현재 프레임에 대한 정확성을 향상시킬 수 있으며, 이 경우, 상기 비디오 코딩부(112)는 상기 생성된 필터 계수를 상기 데이터 출력부(114)를 통해 영상 처리 모듈(120) 또는 데이터 처리 모듈로 전송할 수 있다. 그러나, 필터 계수의 적용이 신호 처리의 효율성을 현저하게 향상시키지 않는 경우에는 필터 계수를 전송하지 않고 필터 계수 적용 여부를 나타내는 플래그를 사용함으로써 현재 프레임에 필터 계수를 적용하지 않을 수 있다. 이 경우, 상기 비디오 코딩부(112)는 상기 플래그 정보를 상기 데이터 출력부(114)를 통해 영상 처리 모듈(120) 또는 데이터 처리 모듈로 전송할 수 있다.By applying the filter coefficients to the current frame, the accuracy of the current frame can be improved. In this case, the video coding unit 112 applies the generated filter coefficients to the image processing module 120 through the data output unit 114 . ) or to the data processing module. However, when the application of the filter coefficients does not significantly improve the efficiency of signal processing, the filter coefficients may not be applied to the current frame by using a flag indicating whether the filter coefficients are applied without transmitting the filter coefficients. In this case, the video coding unit 112 may transmit the flag information to the image processing module 120 or the data processing module through the data output unit 114 .

또한, 상기 촬영 영상 획득 모듈(110)은 상기 모바일 매핑 장치(100)의 흔들림으로 인한 촬영 당시의 카메라 흔들림 또는 카메라 렌즈 자체가 가지고 있는 휘어짐 문제 등으로 인해 획득된 영상의 보정이 필요하게 된다. In addition, the captured image acquisition module 110 needs to correct the acquired image due to camera shake at the time of shooting due to the shaking of the mobile mapping device 100 or a warpage problem of the camera lens itself.

따라서, 본 발명이 적용되는 실시예에서는 원천적으로 모바일 매핑 장치(100) 및 카메라(700)의 흔들림을 방지하기 위해 차량의 상부 좌단 및 차량의 상부 우단에 각각 2개씩 장착되는 완충지지대(600), 차량의 상부 좌단 및 우단에 맞춰 평행하도록 2개가 장착되되, 2개의 완충지지대 상에서 횡으로 결합되는 좌우이동부(400), 2개 좌우이동부의 상부에 각각 결합되며 그 상부에 카메라를 결합하는 높낮이 조절부(500)를 구비한다. 또한, 위와 같은 영상의 보정을 위해 보정 매개변수를 추정하는 방법 및 가중치를 적용한 새로운 임계값 산정 방법을 적용할 수 있는데 이에 대해서는 후술하기로 한다. Therefore, in the embodiment to which the present invention is applied, in order to fundamentally prevent the shaking of the mobile mapping device 100 and the camera 700, the buffer support 600 is installed two each on the upper left end of the vehicle and the upper right end of the vehicle; Two are mounted parallel to the upper left and right ends of the vehicle, the left and right moving parts 400 that are horizontally coupled on the two buffer supports, the two left and right moving parts are respectively coupled to the upper part and a height adjustment unit that combines the camera on the upper part (500) is provided. In addition, a method of estimating a correction parameter and a new method of calculating a threshold value to which a weight is applied may be applied to correct the above image, which will be described later.

상기 촬영 영상 획득 모듈(110)은 모바일 매핑 장치(100) 내 장착된 카메라(700)로부터 획득된 좌안 영상과 우안 영상을 획득하고, 상기 GPS 수신 모듈(140)로부터 획득된 모바일 매핑 장치(100)의 위치 정보를 이용하여 좌안 영상과 우안 영상의 현재 위치 정보를 획득할 수 있다. 그리고, 좌안 영상과 우안 영상의 현재 위치 정보로부터 상기 모바일 매핑 장치(100)의 이동 경로를 생성할 수 있다. 즉, 상기 모바일 매핑 장치(100)의 위치 정보로부터 이동 경로를 결정하고 각 이동 경로마다, 상기 카메라(700)로부터 획득된 좌안 영상과 우안 영상을 매칭시킬 수 있다. The captured image acquisition module 110 acquires the left eye image and the right eye image acquired from the camera 700 mounted in the mobile mapping device 100 , and the mobile mapping device 100 acquired from the GPS reception module 140 . Current location information of the left-eye image and the right-eye image may be acquired using the location information of . In addition, a movement path of the mobile mapping apparatus 100 may be generated from the current location information of the left-eye image and the right-eye image. That is, it is possible to determine a movement path from the location information of the mobile mapping apparatus 100 and match the left eye image and the right eye image obtained from the camera 700 for each movement path.

상기 관성측정 모듈(130)은 다중 센서를 이용하여 센싱 정보를 수신함으로써 상기 모바일 매핑 장치(100)의 수평 정보를 획득할 수 있고, 이러한 수평 정보를 활용하여 보다 세밀한 영상 보정을 수행할 수 있다. 본 발명이 적용되는 실시예로, 상기 관성측정 모듈(130)은 200Hz 간격으로 데이터를 로깅할 수 있다.The inertial measurement module 130 may obtain horizontal information of the mobile mapping apparatus 100 by receiving sensing information using multiple sensors, and may perform more detailed image correction by using the horizontal information. In an embodiment to which the present invention is applied, the inertial measurement module 130 may log data at an interval of 200 Hz.

상기 GPS 수신 모듈(140)은 인공 위성으로부터 GPS 정보를 수신받아 상기 모바일 매핑 장치(100)의 현재 위치 정보를 획득할 수 있다. 상기 모바일 매핑 장치(100)는, GPS 수신 모듈(140)을 통해 도심지에서의 차량의 위치 정보를 획득하고, 다중 센서 정보의 시각 동기화를 위해 IMU(Inertial Measurement Unit), 데이터 동기화 장치 등을 통해 수평 정보를 획득함으로써 보다 정확한 3D 공간 모델링을 수행할 수 있게 된다. 본 발명이 적용되는 실시예로, 상기 GPS 수신 모듈(140)은 2Hz 간격으로 데이터를 로깅할 수 있다.The GPS receiving module 140 may receive GPS information from an artificial satellite to obtain current location information of the mobile mapping device 100 . The mobile mapping device 100 obtains the location information of the vehicle in the city center through the GPS receiving module 140, and horizontally through an Inertial Measurement Unit (IMU), a data synchronization device, etc. for time synchronization of multi-sensor information. By acquiring information, more accurate 3D spatial modeling can be performed. In an embodiment to which the present invention is applied, the GPS receiving module 140 may log data at an interval of 2 Hz.

상기 영상처리 모듈(120)은 획득된 영상의 보정을 위해 관성측정 모듈(130)로부터 획득된 수평 정보 및 GPS 수신 모듈(140)로부터 획득된 위치 정보를 활용하여 매개변수를 산출하게 된다. 본 발명이 적용되는 상기 매개변수 산출 방법은 3D 영상에서의 직선은 2D 영상으로 변환되어도 직선이 된다는 점을 이용하게 된다. 즉, 3D 영상의 직선이 아닌 선들을 검출하고 이를 배제한 후 영상 보정을 수행함으로써 보다 명확한 3D 공간 모델링이 가능할 수 있다. 또한, 상기 매개변수를 산출하는 과정에서 임계치를 벗어나는 선들을 배제함으로써 보다 빠른 3D 공간 모델링이 가능할 수 있다. The image processing module 120 calculates parameters by using the horizontal information obtained from the inertial measurement module 130 and the position information obtained from the GPS receiving module 140 to correct the obtained image. The parameter calculation method to which the present invention is applied uses the point that a straight line in a 3D image becomes a straight line even if it is converted into a 2D image. That is, clearer 3D spatial modeling may be possible by detecting non-straight lines of a 3D image, excluding them, and then performing image correction. In addition, faster 3D spatial modeling may be possible by excluding lines that exceed the threshold in the process of calculating the parameter.

상기 컨트롤 모듈(150)은 촬영 영상 획득 모듈(110)로부터 획득된 좌안 영상과 우안 영상, 관성측정 모듈(130)로부터 획득된 수평 정보 및 GPS 수신 모듈(140)로부터 획득된 위치 정보를 각각 영상처리 모듈(120)로 전송하도록 제어하고, 상기 영상처리 모듈(120)에서 상기 영상 정보, 수평 정보, 위치 정보 등을 이용하여 매개변수를 산출하도록 제어할 수 있다. 상기 컨트롤 모듈(150)은 촬영 영상 획득 모듈(110), 관성측정 모듈(130) 및 GPS 수신 모듈(140) 사이의 동기화를 제어하며, 일 실시예로 GPS 수신 모듈(140)로부터 획득된 GPS 시간을 기초로 하여 트리거에서 제공되는 전압 신호를 촬영 영상 획득 모듈(110), 관성측정 모듈(130) 및 GPS 수신 모듈(140)에 각각 전송함으로써 동기화시킬 수 있다.The control module 150 image-processes the left-eye image and the right-eye image obtained from the captured image obtaining module 110 , the horizontal information obtained from the inertial measurement module 130 , and the location information obtained from the GPS receiving module 140 , respectively. It can be controlled to transmit to the module 120 , and the image processing module 120 can be controlled to calculate parameters using the image information, horizontal information, position information, and the like. The control module 150 controls synchronization between the captured image acquisition module 110 , the inertial measurement module 130 , and the GPS reception module 140 , and in one embodiment, the GPS time acquired from the GPS reception module 140 . Based on , the voltage signal provided from the trigger may be synchronized by transmitting the captured image acquisition module 110 , the inertial measurement module 130 , and the GPS reception module 140 , respectively.

상기 버퍼(160)는 촬영 영상 획득 모듈(110)로부터 획득된 좌안 영상과 우안 영상에 대한 영상 정보를 버퍼에 저장하고, 외부로부터 영상 정보를 요청받을 경우 요청받은 영상 정보를 제공하게 된다. 상기 버퍼(160)는 메모리와 메모리 제어 모듈로 구성될 수 있으며, 로그 분석 등을 통해 메모리를 재배열함으로써 보다 신속한 공간 데이터 서비스를 제공할 수 있다. 예를 들어, 수신된 요청 정보가 빈번하게 요청되는 영상 정보인지 로그 분석을 통해 판단하고, 그에 따라 영상 정보를 다른 방식으로 처리할 수 있다. 수신된 요청 정보가 빈번하게 요청되는 영상 정보인 경우에는 상기 영상 정보를 레이어 단위로 메모리에 캐싱하고 자동으로 업데이트를 수행할 수 있다. 반면, 빈번하게 요청되는 영상 정보가 아닌 경우에는 해당 영상 정보를 메모리에서 삭제하거나, 기존에 요청된 적이 없는 영상 정보인 경우에는 해당 영상 정보를 테이블 정보에 업데이트하고 그에 대응되는 코드를 생성하여 저장할 수 있다. The buffer 160 stores image information on the left-eye image and the right-eye image obtained from the captured image acquisition module 110 in a buffer, and provides the requested image information when the image information is requested from the outside. The buffer 160 may be composed of a memory and a memory control module, and may provide a faster spatial data service by rearranging the memory through log analysis or the like. For example, whether the received requested information is frequently requested image information may be determined through log analysis, and the image information may be processed in a different manner accordingly. When the received request information is frequently requested image information, the image information may be cached in a memory layer by layer and automatically updated. On the other hand, if the image information is not frequently requested, the corresponding image information can be deleted from the memory, or if the image information has never been requested before, the image information is updated in the table information and a corresponding code is generated and stored. have.

상기 통신 모듈(200)은 사용자로부터 공간 모델링 서비스에 대한 요청 정보를 수신할 경우 모바일 매핑 장치(100), 업데이트 모듈(210), 항공사진 데이터베이스(310) 및 데이터 처리 모듈(300)로 전송한다. 그리고, 수신된 요청 정보가 모바일 매핑 장치(100)의 영상 정보를 필요로 하는 경우, 모바일 매핑 장치(100)에 해당 요청 정보를 전송하며, 상기 모바일 매핑 장치(100)로부터 상기 요청 정보에 대응되는 공간 데이터를 수신할 수 있다. 상기 통신 모듈(200)은 사용자 단말(미도시)과 외부 단말(미도시) 사이, 모바일 매핑 장치(100)와 데이터 처리 모듈(300) 사이의 통신을 관리하며, 이러한 통신 모듈(100)은 LAN(local area network), WLAN(wireless LAN), Wibro(wireless broadband), Wi-Fi, 블루투스 또는 그 밖의 다양한 통신 규격을 지원할 수 있다.When the communication module 200 receives the request information for the spatial modeling service from the user, it transmits it to the mobile mapping device 100 , the update module 210 , the aerial photograph database 310 , and the data processing module 300 . And, when the received request information requires image information of the mobile mapping device 100 , the request information is transmitted to the mobile mapping device 100 , and the request information corresponding to the request information is transmitted from the mobile mapping device 100 . It can receive spatial data. The communication module 200 manages communication between a user terminal (not shown) and an external terminal (not shown) and between the mobile mapping device 100 and the data processing module 300, and the communication module 100 is a LAN (local area network), WLAN (wireless LAN), Wibro (wireless broadband), Wi-Fi, Bluetooth or other various communication standards may be supported.

상기 업데이트 모듈(210)은 모바일 매핑 장치(100) 내 버퍼(160)에 저장된 데이터를 영상처리 모듈(120) 또는 데이터 처리모듈(300) 등을 통해 수정된 데이터로 업데이트를 수행할 수 있다. 또한, 상기 항공사진 데이터베이스(310)에 저장된 데이터에 대해서도 영상처리 모듈(120) 또는 데이터 처리모듈(300) 등을 통해 수정된 데이터로 업데이트를 수행할 수 있다. The update module 210 may update the data stored in the buffer 160 in the mobile mapping device 100 to data corrected through the image processing module 120 or the data processing module 300 . Also, the data stored in the aerial photograph database 310 may be updated with corrected data through the image processing module 120 or the data processing module 300 .

한편, 항공사진 데이터베이스(310)는 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등의 면적, 길이, 위치에 대한 정보 등을 포함하고 있으며, 모바일 매핑 장치(100)로부터 데이터를 수신하거나 외부 데이터베이스로부터 항공사진 데이터를 수신할 수 있다.On the other hand, the aerial photograph database 310 includes information on the area, length, and location of road facilities, buildings, road occupancy facilities and auxiliary facilities, etc., and receives data from the mobile mapping device 100 or from an external database. It is possible to receive aerial photo data.

상기 항공사진 데이터베이스(310)는 메모리와 메모리 제어 모듈로 구성될 수 있으며, 로그 분석 등을 통해 메모리를 재배열함으로써 보다 신속한 공간 데이터 서비스를 제공할 수 있다. 예를 들어, 수신된 요청 정보가 빈번하게 요청되는 항공사진 데이터인지 로그 분석을 통해 판단하고, 그에 따라 항공사진 데이터를 다른 방식으로 처리할 수 있다. 수신된 요청 정보가 빈번하게 요청되는 항공사진 데이터인 경우에는 항공사진 데이터를 레이어 단위로 메모리에 캐싱하고 자동으로 업데이트를 수행할 수 있다. 반면, 빈번하게 요청되는 항공사진 데이터가 아닌 경우에는 해당 항공사진 데이터를 메모리에서 삭제하거나, 기존에 요청된 적이 없는 항공사진 데이터인 경우에는 해당 항공사진 데이터를 테이블 정보에 업데이트하고 그에 대응되는 코드를 생성하여 저장할 수 있다. The aerial photograph database 310 may be composed of a memory and a memory control module, and may provide a faster spatial data service by rearranging the memory through log analysis or the like. For example, it is determined through log analysis whether the received request information is frequently requested aerial photograph data, and accordingly, the aerial photograph data can be processed in a different way. When the received request information is frequently requested aerial photograph data, the aerial photograph data may be cached in a memory layer by layer and automatically updated. On the other hand, if the aerial photograph data is not frequently requested, the aerial photograph data is deleted from the memory, or in the case of aerial photograph data that has not been requested before, the aerial photograph data is updated in the table information and the corresponding code is added. can be created and saved.

상기 데이터 처리 모듈(300)은 상기 모바일 매핑 장치(100)와 상기 항공사진 데이터베이스(310)로부터 획득된 데이터를 이용하여 3D 공간 모델링 정보를 생성한다. 상기 데이터 처리 모듈(300)은 객체 추출 모듈(301), 항공사진 추출 모듈(302), 객체위치결정 모듈(303), 좌표비교 모듈(304) 및 3차원 모델링 모듈(305)을 구비하여 형성될 수 있다. The data processing module 300 generates 3D spatial modeling information by using data obtained from the mobile mapping device 100 and the aerial photograph database 310 . The data processing module 300 includes an object extraction module 301, an aerial photograph extraction module 302, an object positioning module 303, a coordinate comparison module 304 and a three-dimensional modeling module 305 to be formed. can

도 3a는 본 발명에 따른, 영상 처리 모듈(120)의 구성 블록도이다.3A is a block diagram of the image processing module 120 according to the present invention.

도 3a에서 볼 수 있듯이, 상기 영상 처리 모듈(120)은 매개변수 추출 모듈(121), 필터링 모듈(123), 영상보정 모듈(125) 및 후처리부(127)를 구비할 수 있다. As shown in FIG. 3A , the image processing module 120 may include a parameter extraction module 121 , a filtering module 123 , an image correction module 125 , and a post-processing unit 127 .

통상 렌즈를 사용하는 카메라는 대부분 직선이 곡선으로 휘어지는 문제를 가지고 있으며, 영상이 휘어진 중심으로부터 방사상으로 확장되거나 축소되는 현상이 발생하게 된다. 이러한 휘어짐 현상에 대한 보정이 제대로 이루어지지 않으면 3D 영상을 시청하는 경우나 디지털 이미지 분석시 심각한 문제가 야기될 수 있다.In general, most cameras using lenses have a problem in that straight lines are bent into curves, and a phenomenon in which an image is radially expanded or reduced from a bent center occurs. If correction for this warpage is not properly performed, serious problems may occur when viewing 3D images or analyzing digital images.

이를 해결하기 위해서는 휘어짐 현상을 수학적으로 모델링하여 휘어짐 정도를 결정하는 매개변수를 추정하고 이를 역변환함으로써 보정을 수행할 수 있다. 그리고, 영상 내의 커브를 검출하고 이 중 3D 좌표 상에서 직선이 아닌 선들을 제 1 보정 그룹으로 정의하여 제거한 후 보정을 수행한다. 더 나아가, 본 발명의 일실시예에서는 3D 좌표 상에서 커브가 아님에도 불구하고 매개변수 추정에 방해가 되는 선들을 제 2 보정 그룹으로 정의하여 제거할 수 있다.In order to solve this problem, correction can be performed by mathematically modeling the curvature phenomenon, estimating a parameter determining the degree of curvature, and inversely transforming it. Then, a curve in the image is detected, and non-linear lines are defined as a first correction group among them, and then corrected. Furthermore, in an embodiment of the present invention, even though they are not curves on 3D coordinates, lines that interfere with parameter estimation can be defined and removed as a second correction group.

도 4a 및 도 4b는 본 발명이 적용되는 일실시예들로서, 도 4a는 상기 제 1 보정 그룹과 상기 제 2 보정 그룹을 정의함으로써 영상 보정을 수행하는 방법을 설명하기 위한 좌표계를 나타내고, 도 4b는 영상 보정을 위해 가중치 적용된 임계값 산출 과정을 설명하기 위한 좌표계를 나타낸다.4A and 4B are exemplary embodiments to which the present invention is applied, and FIG. 4A shows a coordinate system for explaining a method of performing image correction by defining the first correction group and the second correction group. A coordinate system for explaining a process of calculating a weighted threshold value for image correction is shown.

상기 도 4a를 살펴보면, 기본 영상을 R이라 하고, 볼록 휘어짐 영상을 V, 오목 휘어짐 영상을 C라고 할 때, 중심점 A를 기준으로 휘어지지 않은 점의 좌표를 O =(X,Y)라 하고, 휘어진 점의 좌표를 Oc =(Xc,Yc)라 하면, 양 좌표 간의 관계는 아래 수학식 1 및 수학식 2와 같이 나타낼 수 있다. Gi는 영상의 휘어짐 정도를 반영하는 매개변수를 나타내고, Gi>0이면 볼록 휘어짐을 나타내고, Gi<0 오목 휘어짐을 나타낸다.Referring to FIG. 4a, when the basic image is R, the convex warp image is V, and the concave warp image is C, the coordinates of the point that are not curved with respect to the central point A are O = (X, Y), If the coordinates of the curved point are Oc = (Xc, Yc), the relationship between the two coordinates can be expressed as in Equations 1 and 2 below. Gi represents a parameter reflecting the degree of curvature of the image, Gi>0 represents convex curvature, and Gi<0 represents concave curvature.

Figure 112021064716102-pat00001
Figure 112021064716102-pat00001

Figure 112021064716102-pat00002
Figure 112021064716102-pat00002

여기서, a는 영상의 중심점 A로부터 볼록 휘어짐 영상의 좌표 Oc까지의 거리를 나타내고, a는 아래 수학식 3과 같다.Here, a represents the distance from the center point A of the image to the coordinates Oc of the convex curved image, and a is the same as in Equation 3 below.

Figure 112021064716102-pat00003
Figure 112021064716102-pat00003

이어서, 본 발명에 따른, 상기 매개변수를 산출하는 방법을 설명하도록 한다. 상기 매개변수 추출 모듈(121)은 먼저 영상 내에 존재하는 세그먼트를 서치하고, 상기 세그먼트 내의 각 픽셀의 변화율과 각도를 산출한다. 그리고 동일한 직선을 이루고 있는 픽셀들을 하나의 그룹으로 만듦으로써 세그먼트를 검출할 수 있다. 주어진 임계값보다 높은 변화율을 갖는 픽셀을 시작점으로 하여 기설정된 크기의 윈도우 내에 가장 큰 변화율을 갖는 픽셀을 하나의 그룹으로 설정하여 그 픽셀을 시작점으로 하여 다시 윈도우를 통해 다음 픽셀을 찾는다. 이때, 상기 기설정된 크기의 윈도우는 3x3, 4x4 또는 5x5 윈도우를 이용할 수 있다.Next, a method for calculating the parameter according to the present invention will be described. The parameter extraction module 121 first searches a segment existing in an image, and calculates a change rate and an angle of each pixel in the segment. In addition, a segment can be detected by grouping pixels forming the same straight line into one group. Using a pixel having a change rate higher than a given threshold as a starting point, pixels having the largest change rate within a window of a preset size are set as a group, and the next pixel is searched again through the window using the pixel as a starting point. In this case, a 3x3, 4x4, or 5x5 window may be used as the window of the preset size.

상기 과정을 통해 검출된 픽셀들로 구성된 그룹으로부터 세그먼트들을 연결시켜 커브를 형성할 수 있다. 이때, 두 세그먼트의 끝점 사이의 거리, 두 세그먼트 사이의 각도, 두 세그먼트의 수직거리를 산출하고, 상기 산출된 값들이 기설정된 임계값보다 작은 경우에는 상기 세그먼트들을 연결하여 하나의 선으로 간주할 수 있다.A curve may be formed by connecting segments from a group consisting of pixels detected through the above process. At this time, the distance between the end points of the two segments, the angle between the two segments, and the vertical distance of the two segments are calculated. have.

상기 세그먼트들로 연결되어 이루어진 선 중 3D 좌표 상 커브로 간주되는 선은 제 1 보정 그룹으로 설정할 수 있고, 상기 제 1 보정 그룹은 영상 내에서 제거될 수 있다.예를 들어, F 개의 커브들 중 하나의 타겟 라인을 Lm (m=1~M)이라 하고, Lm을 구성하는 Nm개의 픽셀들을 Pn = (Xn, Yn) (n=1~Nm) 이라 하면, Nm개의 픽셀들이 최대한 직선이 될 때의 매개변수 Gi를 구할 수 있다. 이렇게 산출된 Gi를 다른 커브들에도 적용하여 Pn을 구할 수 있다. Pn에 대해 직선과의 차이를 각 픽셀의 오차 En이라 정의하고 En 절대값이 기설정된 임계값 δm을 넘는 픽셀들이 하나의 커브에서 기설정된 퍼센티지를 초과하는 경우 이들을 제 1 보정 그룹으로 설정하고, 상기 제 1 보정 그룹을 영상 내에서 제거할 수 있다. 이러한 과정을 통해, 상기 제 1 보정 그룹이 제거된 선들 중 최대한 직선이 되게 하는 매개변수 Gi를 산출할 수 있게 된다. Among the lines connected to the segments, a line regarded as a curve on 3D coordinates may be set as a first correction group, and the first correction group may be removed from the image. For example, among the F curves, Assuming that one target line is Lm (m=1~M) and Nm pixels constituting Lm are Pn = (Xn, Yn) (n=1~Nm), when Nm pixels are as straight as possible We can find the parameter Gi of By applying Gi calculated in this way to other curves, Pn can be obtained. For Pn, a difference from a straight line is defined as the error En of each pixel, and when pixels whose absolute value of En exceeds a predetermined threshold value δm exceed a predetermined percentage in one curve, they are set as a first correction group, and the The first correction group may be removed from the image. Through this process, it is possible to calculate a parameter Gi that makes the first correction group as straight as possible among the removed lines.

상기 필터링 모듈(123)은 3D 좌표 상에서 커브가 아님에도 불구하고 매개변수 산출시 에러 요소로 작용하는 선들을 제 2 보정 그룹으로 정의하여 필터링할 수 있다. 중심점 근처에 위치한 선들에 대해서는 임계값을 좀더 세밀하게 설정함으로써 매개변수가 적용되는 범위를 좁힐 수 있다. 예를 들어, 상기 도 4b를 살펴보면, 각 픽셀들의 오차가 기설정된 임계값을 넘는지 판단할 때, 영상 중심에서 곡선 Lm에 이르는 거리에 따라 임계값에 가중치를 적용하여 제 2 보정 그룹에 해당하는지 여부를 판단할 수 있다.The filtering module 123 may filter by defining as a second correction group lines that act as an error factor when calculating parameters even though they are not curves on 3D coordinates. For lines located near the center point, the range to which the parameter is applied can be narrowed by setting the threshold more precisely. For example, referring to FIG. 4B , when determining whether the error of each pixel exceeds a preset threshold, a weight is applied to the threshold according to the distance from the center of the image to the curve Lm to determine whether the pixel corresponds to the second correction group. can determine whether

영상 중심점 A에서 곡선 Lm에 이르는 거리는 직선 F에 내린 수선의 길이 am으로 정의할 수 있고, 가중치는 0과 1 사이의 범위로 정규화할 수 있다. 이때, am 은 아래 수학식 4와 같이 정의할 수 있다.The distance from the image center point A to the curve Lm can be defined as the length am of the perpendicular drawn on the straight line F, and the weight can be normalized to a range between 0 and 1. In this case, am can be defined as in Equation 4 below.

Figure 112021064716102-pat00004
Figure 112021064716102-pat00004

정규화를 위한 상기 가중치가 0인 경우에는 am 이 0으로 선이 영상의 중심을 지날 때이고, 상기 가중치가 1인 경우는 am 이 영상의 중심에서 대각선 꼭지점까지의 거리일 때이다. 가중치를 적용한 새로운 임계값 δm_new 를 식으로 나타내면 아래 수학식 5와 같다.When the weight for normalization is 0, am is 0 when the line passes through the center of the image, and when the weight is 1, am is the distance from the center of the image to the diagonal vertex. A new threshold value δm_new to which a weight is applied is expressed as Equation 5 below.

Figure 112021064716102-pat00005
Figure 112021064716102-pat00005

여기서, R은 영상 대각선의 길이를 나타내고, m = 1~M , M은 선의 개수를 나타내며, ψ는 사용자 파라미터를 나타낸다. Here, R represents the length of an image diagonal, m = 1 to M , M represents the number of lines, and ψ represents a user parameter.

상기와 같이 영상의 중심에서부터 선의 거리에 따라 임계값에 가중치를 줌으로써 새로운 임계값 δm_new를 산출할 수 있고, 이를 통해 보다 정확한 매개변수 Gi를 획득함으로써 보다 정확한 영상 보정이 가능하게 된다. As described above, a new threshold value δm_new can be calculated by weighting the threshold value according to the distance of the line from the center of the image, and through this, more accurate image correction is possible by obtaining a more accurate parameter Gi.

상기 영상보정 모듈(125)은 상기와 같은 과정을 통해 획득된 매개변수를 이용하여 영상의 휘어짐 현상을 보정할 수 있다. 상기 영상보정 모듈(125)을 통해 보정된 영상은 후처리부(127)로 전송되며, 상기 후처리부(127)에서는 대상 영상의 고주파 성분에 기초하여 영상 처리 함수를 획득함으로써 영상 개선을 수행할 수 있다.The image correction module 125 may correct the image warpage by using the parameters obtained through the above process. The image corrected through the image correction module 125 is transmitted to the post-processing unit 127, and the post-processing unit 127 may perform image enhancement by obtaining an image processing function based on a high-frequency component of the target image. .

도 3b는 본 발명에 따른 후처리부의 구성 블록도이다. 3B is a block diagram of a post-processing unit according to the present invention.

상기 후처리부(127)는 도메인 변환부(127-1), 고주파 필터링부(127-2), 도메인 역변환부(127-3) 및 역필터링부(127-4)를 포함하여 구성될 수 있다. The post-processing unit 127 may include a domain transform unit 127-1, a high-frequency filtering unit 127-2, an inverse domain transform unit 127-3, and an inverse filtering unit 127-4.

일 실시예로서, 상기 후처리부(127)에서는 대상 영상의 고주파 성분에 기초하여 영상 처리 함수를 획득함으로써 영상 개선을 수행할 수 있다. 상기 영상 처리 함수를 획득하기 위해서는 다양한 실시예들을 적용할 수 있다. 예를 들어, 고주파 필터링부(127-2)에서는 개선하고자 하는 영상의 고주파 성분을 획득할 수 있다. 그리고, 상기 고주파 성분에 기초하여 상기 영상 처리 함수를 획득할 수 있다. 구체적 예로, YUV 도메인에서 역필터링을 고려하여 영상 처리 함수를 획득할 수 있다. 이때, 도메인 변환이 필요할 수 있는데, 이는 도메인 변환부(127-1)에서 수행될 수 있다. 또한, 이를 출력하기 위해서는 다시 역변환이 필요한데, 이는 도메인 역변환부(127-3)에서 수행될 수 있다. As an embodiment, the post-processing unit 127 may perform image enhancement by acquiring an image processing function based on a high-frequency component of the target image. In order to obtain the image processing function, various embodiments may be applied. For example, the high frequency filtering unit 127 - 2 may acquire a high frequency component of an image to be improved. In addition, the image processing function may be obtained based on the high frequency component. As a specific example, an image processing function may be obtained by considering inverse filtering in the YUV domain. In this case, domain conversion may be required, which may be performed by the domain conversion unit 127 - 1 . In addition, inverse transform is required again to output it, which may be performed by the domain inverse transform unit 127 - 3 .

본 발명이 적용되는 다른 실시예로, RGB 도메인에서 역필터링부(127-4)를 통해 역필터링을 이용하여 영상 처리 함수를 획득할 수 있다. 예를 들어, 상기 촬영 영상 획득 모듈을 통해 입력된 영상이 모바일 매핑 장치(100)를 통하여 출력되는 과정을 가정할 때, 각각의 영상을 1차원 행렬로 나타내고 상기 촬영 영상 획득 모듈의 렌즈에 의한 시스템 함수를 순환 토플리츠 행렬의 모양으로 나타낸 것을 x, y, D 라 하면, 다음 수학식 6과 같이 나타낼 수 있다.As another embodiment to which the present invention is applied, an image processing function may be obtained by inverse filtering in the RGB domain through the inverse filtering unit 127 - 4 . For example, assuming a process in which an image input through the captured image acquisition module is output through the mobile mapping device 100, each image is represented by a one-dimensional matrix and a system using the lens of the captured image acquisition module Assuming that a function expressed in the form of a cyclic Toplitz matrix is x, y, D, it can be expressed as in Equation 6 below.

Figure 112021064716102-pat00006
Figure 112021064716102-pat00006

이 경우, 획득한 영상은 y, 개선을 위한 대상 영상은 x, 그리고 광전달함수를 이용하여 추정한 점확산함수에 의한 시스템 함수가 D가 된다. 따라서, 렌즈의 전달 함수를 정확하게 아는 경우 시스템 함수의 역행렬을 이용하여 다음 수학식 7과 같이 원본 입력 영상을 구할 수 있다.In this case, the acquired image becomes y, the target image for improvement becomes x, and the system function by the point spread function estimated using the optical transfer function becomes D. Accordingly, when the transfer function of the lens is accurately known, the original input image can be obtained as shown in Equation 7 below by using the inverse matrix of the system function.

Figure 112021064716102-pat00007
Figure 112021064716102-pat00007

여기에서 H는 D의 역행렬과 동일한 것으로, 역 광전달함수의 역 푸리에 변환으로 추정한 역 점확산함수의 행렬 표현이다. 영상 개선을 위해 후처리하고자 하는 대상 영상을 다음 수학식 8와 같이 영상의 고주파 성분과 저주파 성분으로 나눌 수 있다.Here, H is the same as the inverse matrix of D, and is the matrix expression of the inverse point spread function estimated by the inverse Fourier transform of the inverse optical transfer function. A target image to be post-processed for image improvement can be divided into a high-frequency component and a low-frequency component of the image as shown in Equation 8 below.

Figure 112021064716102-pat00008
Figure 112021064716102-pat00008

또한, 상기 모바일 매핑 장치(100)를 통해 얻은 영상은 렌즈에 의해 저주파 성분만이 남은 영상이라 할 수 있으므로, 저주파 성분은 다음 수학식 9처럼 고려할 수 있다.In addition, since the image obtained through the mobile mapping apparatus 100 can be said to be an image in which only the low-frequency component is left by the lens, the low-frequency component can be considered as in Equation 9 below.

Figure 112021064716102-pat00009
Figure 112021064716102-pat00009

그리고, 고주파 성분은 획득한 영상으로부터 고주파 필터링을 통해 얻을 수 있다. 예를 들어, 입력 영상 중 임의 채널에 대해 고주파 성분을 획득할 수 있다. 이때, 임의의 고주파 필터를 이용할 수 있는데, 상기 임의의 고주파 필터는 다음 수학식 10과 같이 나타낼 수 있다.And, the high-frequency component can be obtained from the obtained image through high-frequency filtering. For example, a high-frequency component may be obtained for an arbitrary channel of the input image. In this case, an arbitrary high-frequency filter may be used, and the arbitrary high-frequency filter may be expressed as in Equation 10 below.

Figure 112021064716102-pat00010
Figure 112021064716102-pat00010

따라서, 추정하고자 하는 영상을 획득한 영상과 임의의 고주파 필터를 이용하여 다음 수학식 11과 같이 나타낼 수 있다.Therefore, it can be expressed as in Equation 11 below by using an image obtained from the image to be estimated and an arbitrary high-frequency filter.

Figure 112021064716102-pat00011
Figure 112021064716102-pat00011

이때, x와 y의 역필터링 관계를 고려하면 위 수학식 11은 다음 수학식 12와 같이 나타낼 수 있다.In this case, considering the inverse filtering relationship between x and y, Equation 11 above can be expressed as Equation 12 below.

Figure 112021064716102-pat00012
Figure 112021064716102-pat00012

따라서, 고주파 필터는 추정한 역필터로부터 다음 수학식 13과 같이 구할 수 있다.Therefore, the high-frequency filter can be obtained from the estimated inverse filter as in Equation 13 below.

Figure 112021064716102-pat00013
Figure 112021064716102-pat00013

상기 수학식들을 이용하여 획득된 고주파 성분에 기초하여 상기 임의 채널에 대한 영상 처리 함수를 획득할 수 있다. 상기 획득된 영상 처리 함수는 다음 수학식 14와 같다.An image processing function for the arbitrary channel may be obtained based on the high frequency component obtained using the above equations. The obtained image processing function is expressed by the following Equation (14).

Figure 112021064716102-pat00014
Figure 112021064716102-pat00014

여기에서 x'(i,j)는 (i,j) 픽셀 위치에서의 고주파가 복원된 영상을 나타내고, HF(i,j)는 앞서 구한 고주파 필터를 바탕으로 획득한 영상의 고주파 성분을 나타낸다. 또한, E{y(i,j)}는 획득한 영상 y의 평균을 의미할 수 있다. 상기 수학식 14는 에지(edge), 패턴(pattern), 플랫(flat) 영역에 대해 서로 다른 방법을 적용할 수 있다. Here, x'(i,j) represents an image in which the high frequency at the pixel position (i,j) is reconstructed, and HF(i,j) represents the high frequency component of the image obtained based on the high frequency filter obtained above. Also, E{y(i,j)} may mean an average of the acquired image y. In Equation 14, different methods may be applied to an edge, a pattern, and a flat region.

예를 들어, 에지 영역의 경우, 고주파 성분이 많은 영역이기 때문에 획득한 영상을 유지하면서도 잃어버린 고주파 성분을 더해줄 수 있다. 평탄 영역의 경우, 영상 개선의 부작용인 잡음의 영향이 커지는 것을 막기 위해 획득 영상의 평균에 고주파 성분을 더해줄 수 있다. 패턴 영역은 평탄 영역과 에지 영역을 포함하고 있으므로 고주파 성분을 조절해야 한다. 과도하게 고주파 성분을 더해주면 평탄 영역에서 잡음을 키우는 역할을 하고, 작게 고주파 성분을 더해주면 에지 영역에서 에지 개선이 잘 이루어지지 않을 수 있다. 따라서, 상기 패턴 영역은 에지, 플랫 영역의 중간 정도로 고주파 성분을 더해줄 수 있다. 각각의 고주파 성분에 대해서는 α,β,γ라는 파라미터를 이용하여 조절하고, 영역에 따라 다르게 적용함으로써 보다 자연스러운 영상으로 복원할 수 있다. 이처럼, 상기 영상 처리 함수를 이용하여 개선된 영상을 복원할 수 있게 된다.For example, in the case of the edge region, since it is a region with many high-frequency components, it is possible to add a lost high-frequency component while maintaining an acquired image. In the case of a flat region, a high-frequency component may be added to the average of the acquired image to prevent the effect of noise, which is a side effect of image improvement, from increasing. Since the pattern region includes a flat region and an edge region, a high-frequency component must be adjusted. If a high frequency component is added excessively, it plays a role of increasing noise in the flat region, and if a small high frequency component is added, edge improvement may not be performed well in the edge region. Accordingly, the pattern region may add a high-frequency component to an intermediate level between the edge and the flat region. A more natural image can be restored by adjusting each high-frequency component using parameters α, β, and γ and applying it differently depending on the region. As such, it is possible to reconstruct an improved image using the image processing function.

상기 모바일 매핑 장치(100)는 상기와 같은 과정을 통해 영상을 보정 및 개선하고, 보정 및 개선된 영상은 데이터 처리 모듈(300)로 전송된다.The mobile mapping apparatus 100 corrects and improves the image through the above process, and the corrected and improved image is transmitted to the data processing module 300 .

도 5는 본 발명에 따른 데이터 처리 모듈의 구성 블록도이다.5 is a block diagram of a data processing module according to the present invention.

상기 데이터 처리 모듈(300)은 객체 추출 모듈(301), 항공사진 추출 모듈(302), 객체위치결정 모듈(303), 좌표비교 모듈(304) 및 3차원 모델링 모듈(305)를 포함하여 구성될 수 있다. The data processing module 300 is to be configured to include an object extraction module 301, an aerial photograph extraction module 302, an object positioning module 303, a coordinate comparison module 304 and a three-dimensional modeling module 305 can

상기 객체 추출 모듈(301)은 상기 모바일 매핑 장치(100)로부터 획득된 보정 영상으로부터 사용자가 원하는 대상 객체를 추출하고 상기 대상 객체의 좌표 정보를 획득할 수 있다. 상기 대상 객체를 추출하기 위해 서치 영역을 설정하고, 상기 서치 영역에 따라 상기 보정 영상으로부터 대상 객체를 추출할 수 있다. 이 때, 상기 대상 객체는 상기 보정 영상의 각 픽셀 RGB값을 이용할 수 있으며, 예를 들어, 대상 픽셀과 인접한 8개의 픽셀 정수값을 확인함으로써 동일한 특성을 갖는 픽셀을 검출할 수 있다. 상기 과정을 통해 추출된 대상 객체가 복수개일 경우에는 대상 객체의 이전 위치에서 가장 가까운 거리의 객체가 선택될 수 있으며, 어떠한 대상 객체도 추출되지 않는 경우에는 사용자의 입력에 의해 객체가 선택될 수 있다.The object extraction module 301 may extract a target object desired by the user from the corrected image obtained from the mobile mapping device 100 and obtain coordinate information of the target object. A search area may be set to extract the target object, and the target object may be extracted from the corrected image according to the search area. In this case, the target object may use the RGB values of each pixel of the corrected image, for example, by checking integer values of 8 pixels adjacent to the target pixel, pixels having the same characteristics may be detected. When there are a plurality of target objects extracted through the above process, the object closest to the previous position of the target object may be selected, and if no target object is extracted, the object may be selected by a user input. .

상기 객체위치결정 모듈(303)은 상기 객체 추출 모듈(301)로부터 추출된 대상 객체에 대하여 중심점을 결정함으로써 대상 객체의 좌표 정보를 획득할 수 있다. 상기 중심점은 아래 수학식 15에 의해 결정될 수 있다.The object positioning module 303 may obtain coordinate information of the target object by determining the center point of the target object extracted from the object extraction module 301 . The central point may be determined by Equation 15 below.

Figure 112021064716102-pat00015
Figure 112021064716102-pat00015

Figure 112021064716102-pat00016
Figure 112021064716102-pat00016

여기서, x, y는 중심점의 좌표를 나타내고, n은 x축 방향의 픽셀 개수, N은 y축 방향의 픽셀 개수를 나타낸다.Here, x and y represent the coordinates of the center point, n represents the number of pixels in the x-axis direction, and N represents the number of pixels in the y-axis direction.

상기 항공사진 추출 모듈(302)은 상기 항공사진 데이터베이스(310)로부터 해당 영상에 대응되는 항공사진 좌표 정보를 추출할 수 있다. 이때, 상기 항공사진 추출 모듈(302)은 상기 GPS 수신 모듈(140)로부터 획득된 위치 정보에 따라 상기 위치 정보에 대응되는 해당 영상을 상기 항공사진 데이터베이스(310)로부터 추출할 수 있다. The aerial photograph extraction module 302 may extract aerial photograph coordinate information corresponding to the image from the aerial photograph database 310 . In this case, the aerial photograph extraction module 302 may extract a corresponding image corresponding to the location information from the aerial photograph database 310 according to the location information obtained from the GPS receiving module 140 .

상기 좌표비교 모듈(304)은 상기 객체위치결정 모듈(303)로부터 획득된 대상 객체의 좌표 정보와 상기 항공사진 추출 모듈(302)로부터 획득된 항공사진 좌표 정보를 비교함으로써 객체들 간의 매칭 여부를 확인할 수 있다. 예를 들어, 서로 다른 방향과 크기를 갖는 영상들로부터 크기와 회전에 불변한 공통점들을 추출함으로써 매칭 여부를 확인할 수 있다. 상기 항공사진 데이터베이스(310)로부터 추출된 항공사진 영상을 다양한 분산값을 갖는 가우시안 필터에 통과시키고, 통과된 영상들을 스케일에 따라 순차적으로 감산하여 오차 영상을 생성할 수 있다. 이는 아래 수학식 16에 의해 수행될 수 있다.The coordinate comparison module 304 compares the coordinate information of the target object obtained from the object positioning module 303 with the aerial photograph coordinate information obtained from the aerial photograph extraction module 302 to check whether objects are matched. can For example, matching may be checked by extracting common points that are invariant in size and rotation from images having different directions and sizes. An error image may be generated by passing an aerial photographic image extracted from the aerial photographic database 310 through a Gaussian filter having various variance values, and sequentially subtracting the passed images according to a scale. This can be performed by Equation 16 below.

Figure 112021064716102-pat00017
Figure 112021064716102-pat00017

Figure 112021064716102-pat00018
Figure 112021064716102-pat00018

여기서, L(x,y,σ)는 가우시안 필터를 통과한 영상의 함수값을 나타내고, G(x,y,σ)는 가우시안 필터를 나타내며, D(x,y,σ)는 스케일된 영상과의 차이값을 나타낸다. 상기 생성된 오차 영상으로부터 극값(최대, 최소값)에 해당하는 픽셀의 위치를 추출할 수 있다. 여기서, 상기 극값(최대, 최소값)에 해당하는 픽셀의 위치는 선택된 픽셀값이 그에 이웃하는 8개의 픽셀과 스케일된 상,하 영상의 9개 픽셀씩, 총 26개의 픽셀값보다 크거나 작을 경우로 결정된다. 즉, 상기 극값(최대, 최소값)에 해당하는 픽셀이 공통점으로써 추출될 수 잇다. 상기 추출된 공통점들 중에서 노이즈 제거 및 강한 에지 성분을 제거하고, 남은 공통점들에 대하여 방향 정보 및 크기를 설정한다. 방향 정보와 크기는 각각 아래 수학식 17 및 수학식 18에 의해 결정된다.Here, L(x,y,σ) represents the function value of the image that has passed through the Gaussian filter, G(x,y,σ) represents the Gaussian filter, and D(x,y,σ) represents the scaled image and represents the difference between Positions of pixels corresponding to extreme values (maximum and minimum) may be extracted from the generated error image. Here, the position of the pixel corresponding to the extreme value (maximum and minimum) is a case where the selected pixel value is greater than or less than a total of 26 pixel values, each of which is 8 pixels adjacent thereto and 9 pixels of the scaled upper and lower images. it is decided That is, pixels corresponding to the extreme values (maximum and minimum values) may be extracted as a common point. From among the extracted common points, noise is removed and a strong edge component is removed, and direction information and magnitude are set for the remaining common points. The direction information and the size are determined by Equations 17 and 18 below, respectively.

Figure 112021064716102-pat00019
Figure 112021064716102-pat00019

Figure 112021064716102-pat00020
Figure 112021064716102-pat00020

상기 공통점을 중심으로 16x16 블록을 설정하고, 블록 내의 각 픽셀에 대하여 변화 방향을 측정한다. 상기 변화 방향은 변화 기울기에 비례하도록 설정되며, 변화 기울기가 클수록 변화 방향의 확률분포도 커지게 된다. 상기 변화 방향에 대한 확률분포는 8개의 방향으로 구분되어 저장되고, 이는 16x16 블록에 대하여 128 차원의 벡터 형태로 표현된다. 이와 같이 얻어진 상기 항공사진 영상의 공통점 벡터 정보와 상기 보정 영상의 공통점 벡터 정보를 비교하여 객체들 간의 매칭 여부를 확인할 수 있다. 그리고, 상기 매칭 확인 결과에 기초하여 상기 대상 객체의 좌표 정보를 추출할 수 있다. A 16x16 block is set based on the common point, and the direction of change is measured for each pixel in the block. The change direction is set to be proportional to the change gradient, and the greater the change gradient, the greater the probability distribution in the change direction. The probability distribution for the change direction is divided into 8 directions and stored, which is expressed in the form of a 128-dimensional vector for a 16x16 block. By comparing the common vector information of the obtained aerial photographic image with the common point vector information of the corrected image, it is possible to check whether objects are matched. And, based on the matching check result, coordinate information of the target object may be extracted.

본 발명이 적용되는 다른 실시예로서, 상기 대상 객체 식별을 위해 필터링을 이용할 수 있다. 먼저, 영상 내 객체의 경계 영역을 확인하고 상기 경계 영역의 기하학적 특성을 이용하여 대상 객체를 식별할 수 있다. 예를 들어, 건물, 간판, 가로수 등은 각각의 기하학적 특성을 가지고 있으므로, 상기 건물, 간판, 가로수 등을 이루는 선분과 각 선분이 만나는 모서리의 점들만을 추출하여 비교함으로써 대상 객체를 식별할 수 있다.As another embodiment to which the present invention is applied, filtering may be used to identify the target object. First, a boundary region of an object in an image may be checked, and a target object may be identified using geometric characteristics of the boundary region. For example, since buildings, signboards, and street trees have their respective geometric characteristics, the target object can be identified by extracting and comparing only the points of the corners where each line segment meets the line segments constituting the building, signboard, street tree, etc. .

상기 3차원 모델링 모듈(305)은 상기 대상 객체의 좌표 정보를 이용하여 3차원 좌표 정보를 모델링할 수 있다. The 3D modeling module 305 may model 3D coordinate information using the coordinate information of the target object.

도 6은 본 발명에 따른, 대상 객체의 좌표 정보를 이용하여 3차원 좌표 정보를 모델링하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of modeling 3D coordinate information using coordinate information of a target object according to the present invention.

도 6을 참조하면, 3차원 좌표 정보를 모델링하기 위하여 먼저 두 대의 좌우 카메라(700)가 객체를 촬영하고 있다고 가정할 때, 삼각형의 내각과 좌우 카메라로부터 객체까지의 거리를 아래 수학식 19 내지 26을 이용하여 구할 수 있다.Referring to FIG. 6 , assuming that two left and right cameras 700 photograph an object in order to model three-dimensional coordinate information, the interior angle of the triangle and the distance from the left and right cameras to the object are calculated by Equations 19 to 26 below. can be obtained using

Figure 112021064716102-pat00021
Figure 112021064716102-pat00021

Figure 112021064716102-pat00022
Figure 112021064716102-pat00022

Figure 112021064716102-pat00023
Figure 112021064716102-pat00023

Figure 112021064716102-pat00024
Figure 112021064716102-pat00024

Figure 112021064716102-pat00025
Figure 112021064716102-pat00025

대상 객체 O의 3차원 좌표 (X_o, Y_o, Z_o)는 아래 수학식 24 내지 26에 의해 획득될 수 있으며, 이 중 Z_o 좌표는 좌측 카메라로부터 획득된 영상의 Y_l 좌표와 우측 카메라로부터 획득된 영상 Y_r 좌표의 평균값, 초점거리 정보 및 객체까지의 Y축 상 거리를 이용하여 획득할 수 있다. The three-dimensional coordinates (X_o, Y_o, Z_o) of the target object O may be obtained by Equations 24 to 26 below, among which the Z_o coordinate is the Y_l coordinate of the image obtained from the left camera and the image Y_r obtained from the right camera. It can be obtained using the average value of the coordinates, focal length information, and the distance on the Y-axis to the object.

Figure 112021064716102-pat00026
Figure 112021064716102-pat00026

Figure 112021064716102-pat00027
Figure 112021064716102-pat00027

Figure 112021064716102-pat00028
Figure 112021064716102-pat00028

상기 수학식 24 내지 26에 의해 획득된 대상 객체 O의 3차원 좌표 (X_o, Y_o, Z_o)를 이용하여 3차원 공간 모델링을 수행할 수 있게 된다.It is possible to perform 3D spatial modeling using the 3D coordinates (X_o, Y_o, Z_o) of the target object O obtained by Equations 24 to 26 above.

도 7a 및 도 7b는 본 발명에 따른 촬영 영상 획득 모듈에 영상 정보를 공급하는 2개의 카메라가 차량의 상부에 탑재된 모습을 나타낸 예시도이다. 7A and 7B are exemplary views showing a state in which two cameras for supplying image information to the captured image acquisition module according to the present invention are mounted on the top of the vehicle.

전술한 바대로 본 발명에서 모바일 매핑 장치(100)가 포함하는 2개의 카메라, 즉 좌안 및 우안 카메라(700)는 차량의 상부 앞쪽에 배치되어 넓은 각도의 범위를 커버하며 촬영 및 각종 지형지물 영상 획득이 가능하다. As described above, in the present invention, the two cameras included in the mobile mapping device 100, that is, the left eye and the right eye camera 700, are disposed in the upper front of the vehicle to cover a wide range of angles, and to capture and acquire images of various features. This is possible.

다만, 일반적인 광각 카메라 배치 모듈은 차량(V)의 일 영역에 부착되어 차량과 함께 이동하게 되는 바, 저속 주행이 아닌 경우에는 차량 속도에 따라 외부 공기의 흐름에 영향을 받아 카메라가 흔들릴 위험성이 상존하며, 카메라의 미세한 좌우 이동 및 높이 이동에 제한이 있는 경우가 많다. However, since the general wide-angle camera arrangement module is attached to one area of the vehicle V and moves with the vehicle, there is a constant risk of the camera shaking due to the influence of the external air flow depending on the vehicle speed in the case of non-low-speed driving. In many cases, there is a limit to the fine left-right movement and height movement of the camera.

따라서, 본 발명에서 상기 촬영 영상 획득 모듈(110)에 영상 정보를 공급하는 2개의 카메라(700)는 차량의 상부에 탑재되되, 차량의 상부 좌단 및 차량의 상부 우단에 각각 2개씩 장착되는 완충지지대(600), 차량의 상부 좌단 및 우단에 맞춰 평행하도록 2개가 장착되되 2개의 완충지지대 상에서 횡으로 결합되는 좌우이동부(400), 2개 좌우이동부의 상부에 각각 결합되되, 그 상단에 카메라(700)를 지지하는 높낮이 조절부(500)를 더 구비하게 된다. Accordingly, in the present invention, the two cameras 700 for supplying image information to the captured image acquisition module 110 are mounted on the top of the vehicle, and are mounted on the upper left end of the vehicle and the upper right end of the vehicle, respectively, two buffer supports. (600), two mounted parallel to the upper left and right ends of the vehicle, the left and right moving parts 400 that are horizontally coupled on the two buffer supports, respectively coupled to the upper parts of the two left and right moving parts, the camera 700 at the top ) is further provided with a height adjustment unit 500 to support the.

즉, 도 7b에서 볼 수 있듯이, 차량(V)의 좌상단 및 우상단에 카메라 배치 모듈이 각각 설치되어 좌안 카메라 및 우안 카메라가 이와 같은 카메라 배치 모듈 상에 결합되어 운용되게 된다. That is, as can be seen in FIG. 7B , camera arrangement modules are installed at the upper left and right upper ends of the vehicle V, respectively, so that the left eye camera and the right eye camera are coupled and operated on such a camera arrangement module.

이와 같이 좌안 및 우안 카메라를 설치함에 있어서, 각각 한 쌍의 완충지지대(600)를 구비하면 차체 또는 외부로부터 전달되는 진동, 충격을 감쇄하여 카메라(700)의 흔들림을 방지하거나 최소화하여 보다 더 정밀한 촬영 영상의 획득이 가능하다. In this way, in installing the left and right eye cameras, if a pair of buffer supports 600 are provided, vibration and shock transmitted from the vehicle body or the outside are attenuated to prevent or minimize the shaking of the camera 700, so that more precise shooting It is possible to acquire images.

또한, 한 쌍의 완충지지대(600) 상에 좌우 이동부(400)를 구비함으로써, 좌우 이동부(400)의 상부에 위치하는 카메라는 차량의 종방향으로 미세 이동이 가능해지며, 상기 높낮이 조절부(500)를 구비함으로써, 카메라(700)의 미세한 높이 조절이 가능해진다. 그리고, 카메라(700)와 높낮이 조절부(500)의 연결 부위에 근접한 카메라(700)의 내부에 회전모터(미도시)를 구비함으로써 카메라의 촬영각도를 조절할 수 있다. In addition, by providing the left and right moving unit 400 on the pair of buffer supports 600 , the camera located on the upper side of the left and right moving unit 400 enables fine movement in the longitudinal direction of the vehicle, and the height adjustment unit By providing 500 , it is possible to finely adjust the height of the camera 700 . In addition, by providing a rotating motor (not shown) inside the camera 700 close to the connection portion between the camera 700 and the height adjustment unit 500 , it is possible to adjust the shooting angle of the camera.

본 발명의 카메라(700)와 관련하여, 상기 카메라(700)의 렌즈 표면에는 퍼플루오르폴리에테르 100 중량부에 대하여 퍼플루오르메틸비닐에테르 10 내지 18 중량부, 퍼플루오르인산화염 6 내지 12 중량부, 테트라플루오르에틸렌 8 내지 14 중량부 및 플루오르아크릴아마이드 5 내지 13 중량부를 포함하며, 28dyne/cm 이하의 표면장력을 가지고 0.1 이하의 동마찰계수를 갖는 코팅층을 구비할 수 있다. With respect to the camera 700 of the present invention, 10 to 18 parts by weight of perfluoromethyl vinyl ether, 6 to 12 parts by weight of perfluorophosphate salt, It may include a coating layer containing 8 to 14 parts by weight of tetrafluoroethylene and 5 to 13 parts by weight of fluoroacrylamide, having a surface tension of 28 dyne/cm or less and a kinetic friction coefficient of 0.1 or less.

상기 카메라(700) 렌즈의 코팅층은 20 내지 40nm의 두께로 도포되는 것이 바람직하며, 이는 상기 코팅층이 20nm 미만의 두께로 도포되면 렌즈 자체의 보호 기능을 수행하기 어렵고, 코팅층이 40nm 초과의 두께로 도포되면 광 투과율이 악화되기 때문이다.The coating layer of the lens of the camera 700 is preferably applied to a thickness of 20 to 40 nm, which is difficult to protect the lens itself when the coating layer is applied to a thickness of less than 20 nm, and the coating layer is applied to a thickness of more than 40 nm This is because the light transmittance deteriorates.

또한, 상기 코팅층은 28dyne/cm 이하의 표면장력을 가지고 0.1 이하의 동마찰계수를 가지는 재료로 형성되는데, 낮은 표면장력 및 높은 슬립을 가지는 물질로 렌즈의 코팅층을 형성함으로써, 렌즈 표면의 이물질에 의한 오염을 방지할 수 있을 뿐만 아니라 광 투과율이 낮아지는 문제점을 개선할 수 있다.In addition, the coating layer is formed of a material having a surface tension of 28 dyne / cm or less and a dynamic friction coefficient of 0.1 or less. It is possible to prevent contamination as well as improve the problem of low light transmittance.

이와 같이 본 발명에서 카메라(700)의 렌즈는 낮은 표면장력 및 높은 슬립을 가지는 물질로 코팅층을 구비함에 따라 렌즈를 외부환경으로부터 보호하면서도 렌즈에 이물질이 쉽게 부착되지 아니하고, 더불어서 광 투과율로 상승되는 바, 보다 더 정밀한 영상데이터를 획득할 수 있는 장점이 있다.As described above, in the present invention, as the lens of the camera 700 is provided with a coating layer made of a material having low surface tension and high slip, foreign substances are not easily attached to the lens while protecting the lens from the external environment, and the light transmittance is also increased. , it has the advantage of being able to acquire more precise image data.

상기 완충지지대(600), 좌우이동부(400) 및 높낮이 조절부(500)의 세부 구성에 대해서는 자세히 후술하기로 한다. The detailed configuration of the buffer support 600 , the left and right movement unit 400 , and the height adjustment unit 500 will be described later in detail.

도 8은 본 발명에 따른 완충지지대의 단면도이다. 8 is a cross-sectional view of the buffer support according to the present invention.

본 발명은 좌안 카메라를 지지하기 위해 2개의 완충지지대를 차량의 좌상단에 배치하고, 우안 카메라를 지지하기 위해 2개의 완충지지대를 차량의 우상단에 배치하게 된다. 이와 같은 한 커플의 완충지지대는 각각 좌안 카메라 측의 좌우이동부(400) 및 우안 카메라 측의 좌우이동부(400)를 지지하게 된다. The present invention is to arrange two buffer supports at the upper left end of the vehicle to support the left eye camera, and to arrange two buffer supports at the right upper end of the vehicle to support the right eye camera. The buffer support of such a couple supports the left and right moving part 400 on the left eye camera side and the left and right moving part 400 on the right eye camera side, respectively.

도 10을 참조하면, 상기 완충지지대(600)는 완충로드(610), 완충케이스(620), 완충스토퍼(630), 완충연결부(640) 및 완충굴곡부(650)를 포함하여 이루어지며, 차량(V)의 상단에 배치된다. Referring to FIG. 10 , the buffer support 600 is made to include a buffer rod 610 , a buffer case 620 , a buffer stopper 630 , a buffer connection part 640 and a buffer bending part 650 , and the vehicle ( V) is placed on top.

상기 완충로드(610)는 좌우이동부(400)의 하단에 결합되며, 원판 형태의 완충체결부(611) 및 완충체결부(611)의 하부 중앙에 연장되는 원통 형태의 완충원통부(612)로 이루어진다.The buffer rod 610 is coupled to the lower end of the left and right moving part 400, and the buffer fastening part 611 in the form of a disk and the buffering cylindrical part 612 in the form of a cylinder extending in the lower center of the buffer fastening part 611. is done

상기 완충케이스(620)는 내부가 비어있는 원통형으로 형성되며, 완충로드(610)의 하단이 수용된다. The buffer case 620 is formed in a cylindrical shape with an empty interior, and the lower end of the buffer rod 610 is accommodated.

상기 완충스토퍼(630)는 완충로드(610)의 완충원통부(612)의 하부 외측면에 결합된다. 완충스토퍼(630)는 링 형태로 형성되며, 완충케이스(620)의 내부에 배치되어 있다. 지면으로부터 큰 진동이나 충격이 가해져서 완충로드(610)가 크게 흔들릴때, 완충스토퍼(630)는 완충케이스(620)의 내측면에 접촉되어 대변위 제어를 수행한다. 상기 완충스토퍼(630)의 외측면과 완충케이스(620)의 내측면 사이에는 소정의 갭(G)이 형성된다.The buffer stopper 630 is coupled to the lower outer surface of the buffer cylinder portion 612 of the buffer rod (610). The buffer stopper 630 is formed in a ring shape and is disposed inside the buffer case 620 . When a large vibration or shock is applied from the ground and the buffer rod 610 is greatly shaken, the buffer stopper 630 is in contact with the inner surface of the buffer case 620 to perform large displacement control. A predetermined gap (G) is formed between the outer surface of the buffer stopper 630 and the inner surface of the buffer case 620 .

상기 완충연결부(640)는 완충로드(610)의 하부에 결합되며 완충로드(610)와 완충케이스(620)의 내측면 사이를 연결한다. 상기 완충스토퍼(630)와 완충연결부(640)는 고무 탄성체 조성물로 이루어질 수 있다. The buffer connection part 640 is coupled to the lower portion of the buffer rod 610 and connects between the buffer rod 610 and the inner surface of the buffer case 620 . The buffer stopper 630 and the buffer connection part 640 may be made of a rubber elastomer composition.

상기 완충스토퍼(630)와 완충연결부(640)를 형성하는 고무탄성체 조성물은, 원료고무 100 중량부에 대하여, 카본블랙 60 내지 80 중량부, 디쿠밀퍼옥사이드(dicumyl peroxide)을 포함하는 경화제 2 내지 4.5 중량부, 설퍼아마이드와 3-비스벤젠을 포함하는 촉진제 1.5 내지 2.5 중량부 및 트리메틸 퀴놀린 및 페닐다이아민을 포함하는 노화방지제 0.4 내지 4.7 중량부를 포함하되, 상기 카본블랙은 평균 입경이 60nm 내지 70nm인 제1카본블랙 50 내지 70 중량%; 및 평균 입경이 15nm 내지 35nm인 제2카본블랙 30 내지 50 중량%를 포함하는 고무 탄성체 조성물일 수 있다. The rubber elastomer composition forming the buffer stopper 630 and the buffer connection part 640 is, based on 100 parts by weight of the raw rubber, 60 to 80 parts by weight of carbon black, and a curing agent 2 to 4.5 containing dicumyl peroxide (dicumyl peroxide) 1 part by weight, 1.5 to 2.5 parts by weight of an accelerator containing sulfuramide and 3-bisbenzene, and 0.4 to 4.7 parts by weight of an antioxidant containing trimethyl quinoline and phenyldiamine, wherein the carbon black has an average particle diameter of 60 nm to 70 nm 50 to 70% by weight of the first carbon black; and 30 to 50 wt % of the second carbon black having an average particle diameter of 15 nm to 35 nm.

이와 같은 고무 탄성체 조성물로 완충스토퍼(630)와 완충연결부(640)를 형성할 경우, 상대적으로 입자의 크기가 큰 카본블랙을 사용함으로써 내구성, 내마모 특성은 물론 내열성도 향상시킬 수 있는 강점이 있다. When the buffer stopper 630 and the buffer connection part 640 are formed with such an elastic rubber composition, carbon black having a relatively large particle size is used to improve durability and abrasion resistance as well as heat resistance. .

상기 완충연결부(640)는 완충로드(610)의 하단과 완충케이스(620)의 내측 하부면 사이를 상하로 연결하는 완충상하부(641) 및 완충상하부(641)의 측부에 연장되어 완충케이스(620)의 내측 측면 사이를 좌우로 연결하는 완충좌우부(642)를 포함한다. 상기 완충연결부(640)는 전체적으로 '십(十)'자 형태의 단면을 가진다.The buffer connection portion 640 extends to the side of the buffer upper and lower portion 641 and the buffer upper and lower portion 641 connecting the lower end of the buffer rod 610 and the inner lower surface of the buffer case 620 in the up and down direction, the buffer case 620 ) includes a buffer left and right portion 642 that connects left and right between the inner side surfaces. The buffer connection part 640 has a 'ten (十)'-shaped cross-section as a whole.

상기 완충스토퍼(630)의 외측면과 완충케이스(620)의 내측면 사이, 즉 갭(G)에는 완충굴곡부(650)가 결합되어 완충스토퍼(630)와 완충케이스(620) 사이를 서로 연결한다.Between the outer surface of the buffer stopper 630 and the inner surface of the buffer case 620, that is, the buffer bending part 650 is coupled to the gap (G) to connect the buffer stopper 630 and the buffer case 620 with each other. .

구체적으로 상기 완충굴곡부(650)는 제1굴곡부(651), 제2굴곡부(652), 제3굴곡부(653), 제4굴곡부(654) 및 제5굴곡부(655)를 포함하여 이루어지며, 전체적으로 '지그재그' 형태의 단면을 가진다.Specifically, the buffer bending portion 650 is made including a first curved portion 651, a second curved portion 652, a third curved portion 653, a fourth curved portion 654 and a fifth curved portion 655, and as a whole It has a 'zigzag' cross section.

상기 제1굴곡부(651)는 완충스토퍼(630)의 외측면에 결합되며 1자 형태로 형성된다. 상기 제2굴곡부(652)는 제1굴곡부(651)의 하단으로부터 비스듬히 상부를 향해 연장된다. 상기 제3굴곡부(653)는 제2굴곡부(652)의 상단으로부터 하부로 연장되며 1자 형태로 형성된다. 상기 제4굴곡부(654)는 제3굴곡부(653)의 하단으로부터 비스듬히 상부를 향해 연장된다. 상기 제5굴곡부(655)는 제4굴곡부(654)의 상단으로부터 하부로 연장되고 1자 형태로 형성되며 완충케이스(620)의 내측면에 결합된다.The first curved part 651 is coupled to the outer surface of the buffer stopper 630 and is formed in a single shape. The second curved portion 652 extends obliquely upward from the lower end of the first curved portion 651 . The third curved portion 653 extends downward from the upper end of the second curved portion 652 and is formed in a single shape. The fourth curved portion 654 extends obliquely upward from the lower end of the third curved portion 653 . The fifth curved part 655 extends downward from the upper end of the fourth curved part 654 , is formed in a single shape, and is coupled to the inner surface of the buffer case 620 .

이때, 상기 제1굴곡부(651)의 상하 높이는 제3굴곡부(653)의 상하 높이보다 상대적으로 높게 형성되고, 제3굴곡부(653)의 상하 높이는 제5굴곡부(655)의 상하 높이보다 상대적으로 높게 형성된다. 즉, 상기 제1굴곡부(651)로부터 제5굴곡부(655) 방향으로 갈수록 완충굴곡부(650)의 전체적인 높이는 점차 낮아지게 된다.At this time, the vertical height of the first curved part 651 is formed to be relatively higher than the vertical height of the third curved part 653 , and the vertical height of the third curved part 653 is relatively higher than the vertical height of the fifth curved part 655 . is formed That is, the overall height of the buffer curved portion 650 gradually decreases from the first curved portion 651 toward the fifth curved portion 655 in the direction.

또한, 상기 제1굴곡부(651) 내지 제5굴곡부(655)의 두께는 전체적으로 동일하게 형성되는 것이 바람직하다. 제1굴곡부(651)와 제2굴곡부(652) 사이의 각도, 제2굴곡부(652)와 제3굴곡부(653) 사이의 각도, 제3굴곡부(653)와 제4굴곡부(654) 사이의 각도 및 제4굴곡부(654)와 제5굴곡부(655) 사이의 각도는 전체적으로 거의 동일하게 설정되는 것이 바람직하다.In addition, the thickness of the first bent portion 651 to the fifth bent portion 655 is preferably formed to be the same overall. An angle between the first curved part 651 and the second curved part 652 , an angle between the second curved part 652 and the third curved part 653 , and an angle between the third curved part 653 and the fourth curved part 654 . and the angle between the fourth curved portion 654 and the fifth curved portion 655 is preferably set to be substantially the same overall.

이와 같이, 본 발명의 완충지지대(600)는, 완충스토퍼(630)와 완충케이스(620) 사이의 물리적인 갭(G)은 그대로 유지하면서, 완충굴곡부(650)를 이용하여 실질적으로 간격을 줄이는 효과를 얻을 수 있으므로, 완충스토퍼(630)의 잦은 접촉으로 인한 소음은 줄이면서 대변위 진동 제어에는 유리한 특성이 있으며, 차량의 운행으로 인한 진동이나 외부 충격을 감쇄하여 카메라(700)의 정밀한 영상 촬영 및 영상 데이터 획득에 조력할 수 있다. In this way, the buffer support 600 of the present invention, while maintaining the physical gap (G) between the buffer stopper 630 and the buffer case 620 as it is, using the buffer bending portion 650 to substantially reduce the gap Since the effect can be obtained, there is an advantageous characteristic for controlling large displacement vibration while reducing noise caused by frequent contact of the buffer stopper 630, and by attenuating vibration or external shock caused by the operation of the vehicle, precise image shooting of the camera 700 and image data acquisition.

도 9a 및 도 9b는 본 발명에 따른 좌우이동부의 사시도 및 단면도이다.9A and 9B are a perspective view and a cross-sectional view of a left and right moving part according to the present invention.

본 발명에서 상기 좌우이동부(400)는 카메라(700)의 차량의 종방향으로의 미세이동이 가능하도록 기능한다. In the present invention, the left and right movement unit 400 functions to enable the camera 700 to move finely in the longitudinal direction of the vehicle.

상기 좌우이동부(400)는 좌우케이스(410), 한 쌍의 슬라이딩부(420), 한 쌍의 좌우로드부(430), 중앙금속부(440), 상하로드부(450), 중앙자석(460), 좌우자석(461), 한 쌍의 이동레일(470) 및 레일이동부(480)를 포함하여 구성될 수 있다. The left and right moving part 400 includes a left and right case 410 , a pair of sliding parts 420 , a pair of left and right rod parts 430 , a central metal part 440 , an upper and lower rod part 450 , and a central magnet 460 . ), left and right magnets 461 , a pair of moving rails 470 and a rail moving unit 480 may be included.

상기 좌우케이스(410)는 완충지지대(600)의 상부에 결합되는데, 좌우케이스(410)의 내부에는 각종 부품이 들어갈 수 있도록 공간이 형성되며, 좌우케이스(410)의 상부면에는 길이방향을 따라 이동홀(411)이 형성된다.The left and right cases 410 are coupled to the upper portion of the buffer support 600 , and a space is formed inside the left and right cases 410 to accommodate various parts, and the upper surface of the left and right cases 410 along the longitudinal direction. A moving hole 411 is formed.

상기 한 쌍의 슬라이딩부(420)는 좌우케이스(410)의 내부 양측에 결합되는데, 슬라이딩부(420)의 내부에는 길이방향을 따라 슬라이딩홀(421)이 관통 형성되고, 슬라이딩홀(421)의 하부면에는 다수의 인식홀(422)이 형성되며, 다수의 인식홀(422)은 서로 등간격으로 이격되어 있다. 상기 슬라이딩부(420)의 내부 하단에는 인식감지부(423)가 장착된다. 인식감지부(423)는 다수의 인식홀(422)로부터 아래로 일정 거리 이격되어 있으며, 슬라이딩홀(421)과 평행하게 배치된다.The pair of sliding parts 420 are coupled to both sides of the inside of the left and right case 410 , and a sliding hole 421 is formed through the sliding hole 421 in the longitudinal direction in the inside of the sliding part 420 , A plurality of recognition holes 422 are formed on the lower surface, and the plurality of recognition holes 422 are spaced apart from each other at equal intervals. A recognition sensing unit 423 is mounted at an inner lower end of the sliding unit 420 . The recognition sensing unit 423 is spaced a predetermined distance downward from the plurality of recognition holes 422 , and is disposed parallel to the sliding hole 421 .

상기 한 쌍의 좌우로드부(430)는 한 쌍의 슬라이딩부(420)에 각각 일단이 슬라이딩 가능하도록 삽입되고, 한 쌍의 좌우로드부(430)의 중앙에는 금속 소재의 중앙금속부(440)가 결합된다. The pair of left and right rod parts 430 are respectively inserted into the pair of sliding parts 420 so that one end is slidable, and the center of the pair of left and right rod parts 430 has a metal central metal part 440 . is combined

상기 좌우로드부(430)의 단부에는 인식부(431)가 결합되어 있으며, 이러한 인식부(431)의 이동 거리를 인식감지부(423)에서 체크할 수 있다. 다시 말하면, 좌우로드부(430)가 슬라이딩부(420)에서 슬라이딩 이동함에 따라 인식부(431)도 슬라이딩홀(421) 내부에서 좌우로 이동되는데, 이때 등간격으로 배치된 인식홀(422)을 인식부(431)가 지나게 되고, 이를 인식감지부(423)에서 인식하여 좌우로드부(430)의 이동거리를 측정할 수 있다.A recognition unit 431 is coupled to an end of the left and right rods 430 , and the movement distance of the recognition unit 431 can be checked by the recognition detection unit 423 . In other words, as the left and right rod part 430 slides on the sliding part 420, the recognition part 431 also moves left and right inside the sliding hole 421. At this time, the recognition holes 422 arranged at equal intervals are The recognition unit 431 passes, and it is recognized by the recognition detection unit 423 to measure the moving distance of the left and right rods 430 .

상기 상하로드부(450)는 중앙금속부(440)의 상부로 연장되며 이동홀(411)을 통해 외부로 노출된다. 상하로드부(450)의 측부에는 레일이동부(480)가 결합된다. 레일이동부(480)는 원판형으로 형성되며 한 쌍의 이동레일(470)에 수용되어 길이방향을 따라 슬라이딩 이동 가능하다.The upper and lower rod parts 450 extend to the upper part of the central metal part 440 and are exposed to the outside through the moving hole 411 . A rail moving part 480 is coupled to the side of the upper and lower rod part 450 . The rail moving part 480 is formed in a disk shape and is accommodated in a pair of moving rails 470 to be slidable along the longitudinal direction.

상기 한 쌍의 이동레일(470)은 좌우케이스(410)의 상부면에 결합되며 길이방향을 따라 이동홀(411)을 기준으로 전후방향으로 양측에 결합된다. 이동레일(470)은 'ㄱ'자 형태의 단면을 가지며, 상단이 상하로드부(450)에 접촉되고, 하단이 레일이동부(480)에 접촉된다.The pair of moving rails 470 is coupled to the upper surface of the left and right case 410 and coupled to both sides in the front and rear direction based on the moving hole 411 along the longitudinal direction. The moving rail 470 has a 'L'-shaped cross section, the upper end is in contact with the upper and lower rods 450 , and the lower end is in contact with the rail moving unit 480 .

상기 중앙자석(460)은 좌우케이스(410)의 내부 하단 중앙에 결합되고, 한 쌍의 좌우자석(461)은 중앙자석(460)을 기준으로 양측에 이격하여 배치된다. 중앙자석(460)과 한 쌍의 좌우자석(461)은 자성을 띠고 있으므로 금속 소재로 이루어진 중앙금속부(440)에 자기력을 가해 중앙금속부(440)를 멈출 수 있을 것이다.The central magnet 460 is coupled to the center of the inner lower end of the left and right case 410 , and a pair of left and right magnets 461 are spaced apart from each other on both sides with respect to the central magnet 460 . Since the central magnet 460 and the pair of left and right magnets 461 are magnetic, the central metal part 440 may be stopped by applying a magnetic force to the central metal part 440 made of a metal material.

상기 중앙자석(460)은 한 쌍의 좌우자석(461)보다 상대적으로 큰 크기를 가지며 상대적으로 큰 자성을 띤다. 평상시 중앙금속부(440)는 중앙자석(460)에 의해 가해지는 자기력에 의해 좌우케이스(410)의 중앙에 위치하고 있으며, 좌우케이스(410)가 일측으로 기울어짐에 따라 중앙금속부(440)의 자체의 자중과 좌우자석(461)의 자기력에 의해 중앙금속부(440)도 좌우케이스의 일측으로 이동하고, 좌우케이스(410)가 다시 수평으로 복귀하면 상대적으로 큰 자성을 띠는 중앙자석(460)의 자기력에 의해 중앙금속부(440)가 좌우케이스(410)의 중앙으로 복귀하게 된다.The central magnet 460 has a relatively larger size than the pair of left and right magnets 461 and has a relatively large magnetism. Normally, the central metal part 440 is located in the center of the left and right cases 410 by the magnetic force applied by the central magnet 460, and as the left and right cases 410 are inclined to one side, the central metal part 440 is The central metal part 440 also moves to one side of the left and right cases by its own weight and the magnetic force of the left and right magnets 461, and when the left and right cases 410 return to the horizontal again, the central magnet 460 exhibiting relatively large magnetism. ), the central metal part 440 returns to the center of the left and right cases 410 by the magnetic force.

상기 중앙금속부(440)가 좌우케이스(410)에서 좌측 또는 우측으로 이동함에 따라 상하로드부(450) 및 그 상부에 결합된 카메라(700)도 좌측 또는 우측, 즉 차량의 종방향으로 이동할 수 있으며, 이에 따라 카메라(700)에 의해 더 넓은 범위가 촬영되어 이미지의 중첩도도 더 높아지며, 정확도가 향상되는 효과가 있다.As the central metal part 440 moves to the left or right in the left and right case 410, the upper and lower rod parts 450 and the camera 700 coupled thereto can also move left or right, that is, in the longitudinal direction of the vehicle. Accordingly, a wider range is photographed by the camera 700, so that the degree of overlap of the images is higher, and the accuracy is improved.

한편, 본 발명에서 상기 중앙자석(460) 및 상하자석(461)은 각각, 네오디뮴 및 보론을 포함하는 희토류 원소로부터 선택된 적어도 1종으로서 13.4원자% 이상 19.7원자% 이하, 붕소(B) 4.3원자% 이상 7.4원자% 이하, 망간(Mn) 0.07원자% 이상 0.36원자% 이하, 첨가 원소로서 V, Nb, Mo, Ga, In, W, Hf, Bi, Ti, 및 Ta 으로 이루어지는 군으로부터 선택된 적어도 1종으로서 0.1 초과 4.6원자% 이하, 전이 금속으로 철(Fe) 및 코발트(Co)를 함유하는 잔량부로 형성되는 소결 자석을 적용할 수 있다. On the other hand, in the present invention, the central magnet 460 and the upper and lower magnet 461 are at least one selected from rare earth elements including neodymium and boron, respectively, and 13.4 atomic% or more and 19.7 atomic% or less, boron (B) 4.3 atomic% At least one selected from the group consisting of V, Nb, Mo, Ga, In, W, Hf, Bi, Ti, and Ta as an additive element and at least 7.4 atomic % or less, manganese (Mn) 0.07 atomic % or more and 0.36 atomic % or less It is possible to apply a sintered magnet formed of more than 0.1 and 4.6 atomic% or less, the balance containing iron (Fe) and cobalt (Co) as transition metals.

이와 같은 소결 자석을 적용하면, 실온 부근의 보자력을 개선함과 함께 60℃ 이상의 고온역에서도 종래의 자석보다 높은 보자력이 얻어질 수 있다. 또한, 소정량의 Mn의 첨가에 의해 소결 자석 제조 공정에 있어서 소결 반응을 촉진하므로, 저온 또는 단시간의 소결을 가능하게 하여 소결 조직이 균질화되는 장점이 있다. When such a sintered magnet is applied, the coercive force near room temperature can be improved, and a higher coercive force can be obtained even in a high temperature region of 60° C. or higher than that of a conventional magnet. In addition, since the sintering reaction is promoted in the sintered magnet manufacturing process by the addition of a predetermined amount of Mn, sintering at a low temperature or for a short time is possible and the sintered structure is homogenized.

도 10은 본 발명에 따른 높낮이 조절부의 단면도이다. 10 is a cross-sectional view of a height adjustment unit according to the present invention.

본 발명에서 상기 높낮이 조절부(500)는 카메라(700)의 미세 높낮이를 조절하는 기능을 수행한다. 도 10을 참조하면, 상기 높낮이 조절부(500)는, 내부가 비어있는 원통형의 높낮이케이스(510), 높낮이케이스(510)에 상하로 슬라이딩 가능하도록 수용되며 측면에 다수의 고정홈(521)이 형성되는 높낮이로드(520) 및 높낮이케이스(510)의 상단에 결합되며 다수의 고정홈(521)으로 진입 가능한 고정로드(532)를 구비하는 높낮이고정부(530)를 포함하여 형성될 수 있다. In the present invention, the height adjustment unit 500 performs a function of adjusting the fine height of the camera 700 . Referring to FIG. 10 , the height adjustment unit 500 is accommodated in an empty cylindrical height case 510 and the height case 510 to be slidable up and down, and has a plurality of fixing grooves 521 on the side surface. It is coupled to the upper end of the formed height rod 520 and the height case 510 and may be formed to include a height fixing part 530 having a fixing rod 532 that can enter into a plurality of fixing grooves 521 .

상기 높낮이케이스(510)는 좌우이동부(400)의 상하로드부(450)의 상부에 결합되며, 내부에 높낮이스프링(511)이 수용된다. 높낮이스프링(511)은 높낮이로드(520)의 하단과 높낮이케이스(510)의 내측 하단 사이를 연결하며, 높낮이로드(520)가 상부로 이동할 수 있도록 탄성력을 제공한다.The height case 510 is coupled to the upper portion of the upper and lower rod portion 450 of the left and right moving part 400, and the height spring 511 is accommodated therein. The height spring 511 connects between the lower end of the height rod 520 and the inner lower end of the height case 510, and provides an elastic force so that the height rod 520 can move upward.

상기 높낮이로드(520)는 높낮이케이스(510)에 상하로 이동 가능하도록 결합되며, 높낮이로드(520)의 상하 이동에 따라 그 상부에 결합된 카메라(700)의 높낮이도 가변될 수 있다.The height rod 520 is coupled to the height case 510 so as to be movable up and down, and the height of the camera 700 coupled thereto may be varied according to the vertical movement of the height rod 520 .

상기 높낮이고정부(530)는, 높낮이케이스(510)의 상단에 결합되는 고정케이스(531), 고정케이스(531)에 좌우로 슬라이딩 가능하도록 수용되며 단부가 다수의 고정홈(521)에 진입할 수 있는 고정로드(532), 고정케이스(531)의 내부에 수용되며 고정로드(532)의 우단과 고정케이스(531)의 내측 우단 사이를 연결하는 고정스프링(533) 및 고정케이스(531)의 상부에 장착되며 고정로드(532)의 움직임을 제한할 수 있는 고정제한부(534)를 포함하여 형성될 수 있다. The height fixing part 530 is accommodated in a fixed case 531 coupled to the upper end of the height case 510 so as to be slidable left and right in the fixed case 531, and the ends enter a plurality of fixing grooves 521. A fixed rod 532 that is capable of being accommodated inside the fixed case 531 and connected between the right end of the fixed rod 532 and the inner right end of the fixed case 531 and a fixed spring 533 and fixed case 531 of It is mounted on the upper portion and may be formed to include a fixing limiting portion 534 that can limit the movement of the fixing rod (532).

상기 고정케이스(531)는 내부가 비어있으며, 고정로드(532)를 수용할 수 있다. 고정케이스(531)의 상부면에는 후술되는 고정제한부(534)의 제한로드(538)가 진입할 수 있도록 제한홀(531a)이 형성된다.The fixing case 531 has an empty interior and can accommodate the fixing rod 532 . A limiting hole 531a is formed in the upper surface of the fixing case 531 so that the limiting rod 538 of the fixing limiting part 534, which will be described later, enters.

상기 고정로드(532)는 고정케이스(531)에 좌우로 이동 가능하도록 결합되며, 고정로드(532)의 단부는 쐐기 형태로 형성되어 있다. 고정로드(532)의 단부가 쐐기 형태로 형성되어 있으므로 고정로드(532)는 높낮이로드(520)에 형성된 다수의 고정홈(521)을 타고 넘을 수 있다. 즉, 높낮이로드(520)가 상하로 이동할 때, 고정로드(532)는 고정홈(521)이 위치한 부분에서는 좌측으로 이동하고, 고정홈(521)이 위치하지 않은 부분에서는 높낮이로드(520)의 외측면에 접촉되어 우측으로 이동하게 된다.The fixing rod 532 is coupled to the fixing case 531 so as to be movable from side to side, and an end of the fixing rod 532 is formed in a wedge shape. Since the end of the fixing rod 532 is formed in a wedge shape, the fixing rod 532 can ride over the plurality of fixing grooves 521 formed in the height rod 520 . That is, when the height rod 520 moves up and down, the fixed rod 532 moves to the left in the portion where the fixing groove 521 is located, and in the portion where the fixing groove 521 is not located, the height of the rod 520 . It comes into contact with the outer surface and moves to the right.

또한, 상기 고정스프링(533)에 의해 고정로드(532)는 좌우로 이동하였다가 원래 위치로 복귀할 수 있다. 고정로드(532)의 상부면에는 고정케이스(531)의 제한홀(531a)에 대응하는 위치에 로드홈(532a)이 형성된다. 이러한 로드홈(532a) 역시 후술되는 고정제한부(534)의 제한로드(538)가 진입할 수 있다.In addition, the fixing rod 532 can be moved to the left and right by the fixing spring 533 and return to its original position. A rod groove 532a is formed on the upper surface of the fixing rod 532 at a position corresponding to the limiting hole 531a of the fixing case 531 . This rod groove 532a can also enter the limiting rod 538 of the fixing limiting part 534 to be described later.

상기 고정제한부(534)는, 고정케이스(531)의 상부면에 결합되는 제한판(535), 제한판(535)의 상단에 결합되는 한 쌍의 제한스프링(536), 제한스프링(536)의 하단에 연결되는 링 형태의 제한이동부(537) 및 제한이동부(537)의 하단에 결합되는 제한로드(538)를 포함하여 이루어진다.The fixing limiting part 534 includes a limiting plate 535 coupled to the upper surface of the fixing case 531, a pair of limiting springs 536 coupled to the upper end of the limiting plate 535, and a limiting spring 536. It is made to include a limiting rod 538 coupled to the lower end of the ring-shaped limiting moving part 537 and the limiting moving part 537 connected to the lower end of the.

상기 한 쌍의 제한스프링(536)은 제한이동부(537) 및 제한로드(538)가 하부로 이동될 수 있도록 탄성력을 가한다. 상기 제한로드(538)는 고정케이스(531)의 제한홀(531a) 및 고정로드(532)의 로드홈(532a)에 진입할 수 있다.The pair of limiting springs 536 apply an elastic force so that the limiting moving part 537 and the limiting rod 538 can be moved downward. The limiting rod 538 may enter the limiting hole 531a of the fixing case 531 and the rod groove 532a of the fixing rod 532 .

종합하여 상기 높낮이 조절부(500)의 높이 조절 과정을 살펴보면, 먼저 제한이동부(537)가 한 쌍의 제한스프링(536)의 탄성력을 극복하고 상부로 이동된다. 제한이동부(537)의 이동에 따라 제한로드(538) 역시 제한홀(531a) 및 로드홈(532a)으로부터 이탈되고, 고정로드(532)는 자유롭게 좌우로 움직일 수 있게 된다.In summary, looking at the height adjustment process of the height adjustment unit 500, first, the limiting movement unit 537 overcomes the elastic force of the pair of limiting springs 536 and moves upward. According to the movement of the limiting moving part 537, the limiting rod 538 is also separated from the limiting hole 531a and the rod groove 532a, and the fixed rod 532 can freely move left and right.

그 다음, 높낮이로드(520)를 상하로 슬라이딩 이동시켜 높낮이로드(520)가 높낮이케이스(510)에 삽입되는 정도를 결정한다. 이때, 높낮이스프링(511)은 높낮이로드(520)가 상부로 이동할 수 있도록 탄성력을 제공한다.Next, by sliding the height rod 520 up and down to determine the degree to which the height rod 520 is inserted into the height case (510). At this time, the height spring 511 provides an elastic force so that the height rod 520 can move upward.

상기 높낮이로드(520)가 상하로 이동될 때 고정로드(532)는 다수의 고정홈(521)을 타고 넘을 수 있으며, 고정홈(521)이 위치한 부분에서는 좌측으로 이동하고, 고정홈(521)이 위치하지 않은 부분에서는 높낮이로드(520)의 외측면에 접촉되어 우측으로 이동하게 된다.When the height rod 520 is moved up and down, the fixing rod 532 can ride over the plurality of fixing grooves 521 and move to the left in the portion where the fixing groove 521 is located, and the fixing groove 521 . In a portion not located in this position, it comes into contact with the outer surface of the height rod 520 and moves to the right.

상기 높낮이로드(520)의 높낮이가 결정되면, 제한이동부(537)를 놓아 제한스프링(536)의 탄성력에 의해 제한로드(538)가 하부로 이동되도록 하고, 제한로드(538)의 하단은 제한홀(531a) 및 로드홈(532a)에 삽입되어 고정로드(532)가 더 이상 이동되지 않도록 한다. 이에 따라 높낮이 조절부(500)는 더 이상 상하로 움직이지 않고 높낮이가 고정되며, 높낮이 조절부(500)의 상부에 결합된 카메라(700)도 높낮이가 결정되어 고정될 수 있다.When the height of the lifting rod 520 is determined, the limiting moving part 537 is placed so that the limiting rod 538 is moved downward by the elastic force of the limiting spring 536, and the lower end of the limiting rod 538 is limited It is inserted into the hole 531a and the rod groove 532a to prevent the fixing rod 532 from moving any more. Accordingly, the height adjustment unit 500 does not move up and down anymore and is fixed in height, and the camera 700 coupled to the upper portion of the height adjustment unit 500 may also be fixed in height.

한편, 상기 높낮이케이스(510)는 전체 합금 중량 기준 중량 백분률로, 18.0 내지 30.0의 Ni, 16.0 내지 22.0의 Cr, 2.0 내지 6.0의 Mo, 1.0 내지 2.4의 Cu, 0.4 내지 2.7의 W, 2.0 내지 6.0의 Mn, 2.0 내지 4.0의 Al, 0.01 내지 0.03의 C, 0.1 내지 0.5의 Ru, 0.4 내지 0.6의 Zr, 0.2 내지 0.4의 Ti, 0.1 내지 0.2의 V, 0.01 내지 0.04의 P, 0.01 내지 0.04의 S, 및 8.0 내지 12.0의 Fe를 포함하는 합금으로 형성될 수 있다. On the other hand, the height case 510 is a weight percentage based on the total alloy weight, Ni of 18.0 to 30.0, Cr of 16.0 to 22.0, Mo of 2.0 to 6.0, Cu of 1.0 to 2.4, W of 0.4 to 2.7, 2.0 to Mn from 6.0, Al from 2.0 to 4.0, C from 0.01 to 0.03, Ru from 0.1 to 0.5, Zr from 0.4 to 0.6, Ti from 0.2 to 0.4, V from 0.1 to 0.2, P from 0.01 to 0.04, P from 0.01 to 0.04 It may be formed of an alloy including S, and Fe of 8.0 to 12.0.

위와 같은 합금으로 높낮이케이스(510)를 형성하면, 합금의 변형률 경화 후, 합금은 123 ksi 내지 228 ksi 범위의 최대 인장, 136 ksi 내지 208 ksi 범위의 항복 강도를 구비하게 되므로, 수직 방향으로 강직성을 구비하게 되어 종국적으로 카메라(700)의 진동 방지에 조력하게 된다. When the height case 510 is formed with the alloy as above, after strain hardening of the alloy, the alloy has a maximum tensile strength in the range of 123 ksi to 228 ksi, and yield strength in the range of 136 ksi to 208 ksi, so that rigidity in the vertical direction is obtained. In the end, it helps to prevent vibration of the camera 700 .

도 11은 본 발명에 따른 영상 왜곡을 보정하여 3차원 공간 모델링을 수행하는 방식의 순서도이다. 11 is a flowchart of a method of performing 3D spatial modeling by correcting image distortion according to the present invention.

먼저, 모바일 매핑 장치(100) 내 촬영 영상 획득 모듈(110)은 좌안 영상 카메라와 우안 영상 카메라를 구비하고, 이들 카메라로부터 각각 좌안 영상과 우안 영상을 획득할 수 있다(S710). 그리고, GPS 수신 모듈(140)로부터 상기 모바일 매핑 장치(100) 내의 카메라, 즉 획득된 좌안 영상과 우안 영상의 현재 위치 정보를 획득하고, 관성 측정 모듈(130)로부터 상기 카메라의 수평 정보를 획득할 수 있다(S720). First, the captured image acquisition module 110 in the mobile mapping device 100 includes a left-eye image camera and a right-eye image camera, and may acquire a left-eye image and a right-eye image from these cameras, respectively (S710). And, obtain the current position information of the camera in the mobile mapping device 100, that is, the acquired left-eye image and the right-eye image from the GPS receiving module 140, and obtain horizontal information of the camera from the inertial measurement module 130. It can be (S720).

영상 처리 모듈(120) 내 매개변수 추출 모듈(121)은 상기 카메라의 수평 정보 및 상기 현재 위치 정보를 이용하여 영상 보정을 위한 매개변수를 추출할 수 있다(S730). 이때, 필터링 모듈(123)은 상기 매개변수 추출시 가중치가 적용된 임계값을 이용하여 필터링을 수행할 수 있다(S740). 영상 보정 모듈(125)은 필터링까지 수행된 매개변수를 이용하여 영상 보정을 수행할 수 있다(S750).The parameter extraction module 121 in the image processing module 120 may extract a parameter for image correction by using the horizontal information of the camera and the current position information (S730). In this case, the filtering module 123 may perform filtering using a threshold value to which a weight is applied when extracting the parameter ( S740 ). The image correction module 125 may perform image correction using parameters performed up to filtering (S750).

데이터 처리 모듈(300) 내 객체추출 모듈(301)은 상기 모바일 매핑 장치(100)로부터 상기 보정된 영상을 전송받아 대상 객체를 추출할 수 있다(S760). 그리고, 객체 위치 결정 모듈(303)은 상기 추출된 대상 객체에 대하여 중심점을 결정함으로써 대상 객체의 좌표 정보를 획득할 수 있다(S770).The object extraction module 301 in the data processing module 300 may receive the corrected image from the mobile mapping device 100 and extract the target object (S760). Then, the object location determination module 303 may obtain coordinate information of the target object by determining the center point of the extracted target object (S770).

좌표 비교 모듈(304)은 상기 획득된 대상 객체의 좌표 정보와 그에 대응되는 항공사진의 좌표 정보를 비교함으로써 매칭 여부를 확인할 수 있다(S780).The coordinate comparison module 304 may check whether the obtained coordinate information is matched by comparing the obtained coordinate information of the target object with the coordinate information of the aerial photograph corresponding thereto (S780).

3차원 모델링 모듈(305)은 상기 대상 객체의 좌표 정보를 이용하여 3차원 공간 모델링을 수행할 수 있다(S790).The 3D modeling module 305 may perform 3D spatial modeling using the coordinate information of the target object (S790).

도 12는 본 발명에 따른 카메라로부터 획득된 영상을 보정하는 방법을 설명하기 위한 순서도이다.12 is a flowchart illustrating a method of correcting an image obtained from a camera according to the present invention.

먼저, 촬영 영상 획득 모듈(110)로부터 획득된 영상 정보로부터 커브를 검출할 수 있다(S810). 상기 검출된 커브 중 3차원 좌표 상에서 직선이 아닌 선들을 제 1 보정 그룹을 설정할 수 있다(S820). 상기 영상 정보로부터 상기 설정된 제 1 보정 그룹에 해당하는 선들을 제거할 수 있다(S830). First, a curve may be detected from image information obtained from the captured image obtaining module 110 ( S810 ). A first correction group may be set for lines that are not straight lines on the three-dimensional coordinates among the detected curves (S820). Lines corresponding to the set first correction group may be removed from the image information (S830).

그리고, 상기 제 1 보정 그룹이 제거된 영상으로부터 3차원 좌표 상에서 중심점으로부터 기설정된 임계값을 초과하는 선들을 검출하여 이를 제 2 보정 그룹으로 설정할 수 있다(S840). 이때, 좀더 정밀한 임계값을 재설정하기 위해 영상 중심점에서 곡선에 이르는 거리에 따라 가중치를 적용하여 새로운 임계값을 재설정할 수 있다. 재설정된 임계값에 기초하여 상기 제 2 보정 그룹을 설정할 수 있다. 상기 영상 정보로부터 상기 설정된 제 2 보정 그룹에 해당하는 선들을 제거할 수 있다(S850). Then, from the image from which the first correction group is removed, lines exceeding a preset threshold value may be detected from the center point on the three-dimensional coordinates and set as the second correction group (S840). In this case, in order to reset a more precise threshold, a new threshold may be reset by applying a weight according to the distance from the image center point to the curve. The second correction group may be set based on the reset threshold value. Lines corresponding to the set second correction group may be removed from the image information (S850).

상기 제 2 보정 그룹이 제거된 영상으로부터 매개변수를 추출할 수 있다(S860). 상기 추출된 매개변수를 이용하여 역변환을 수행함으로써 영상 보정을 수행할 수 있다(S870).A parameter may be extracted from the image from which the second correction group has been removed (S860). Image correction may be performed by performing inverse transformation using the extracted parameters (S870).

도 13은 본 발명에 따른 보정된 영상으로부터 대상 객체의 좌표 정보를 획득하기 위한 방법을 설명하기 위한 순서도이다.13 is a flowchart illustrating a method for obtaining coordinate information of a target object from a corrected image according to the present invention.

객체위치결정 모듈(303)로부터 획득된 대상 객체의 영상 정보를 추출할 수 있다(S910). 그리고, 항공사진 데이터베이스(310)로부터 상기 보정된 영상에 대응되는 항공사진의 좌표 정보를 획득할 수 있다(S920). It is possible to extract the image information of the target object obtained from the object positioning module 303 (S910). Then, coordinate information of the aerial photograph corresponding to the corrected image may be obtained from the aerial photograph database 310 (S920).

상기 대상 객체의 영상 정보와 상기 항공사진 좌표 정보를 비교함으로써 객체들 간의 매칭 여부를 확인할 수 있다. 예를 들어, 서로 다른 방향과 크기를 갖는 영상들로부터 크기와 회전에 불변한 공통점들을 추출함으로써 매칭 여부를 확인할 수 있다. 상기 항공사진 영상을 가우시안 필터에 통과시키고, 통과된 영상들을 스케일에 따라 순차적으로 감산하여 오차 영상을 생성할 수 있다(S930). By comparing the image information of the target object and the aerial photograph coordinate information, it is possible to check whether the objects match. For example, matching may be checked by extracting common points that are invariant in size and rotation from images having different directions and sizes. The aerial photographic image may be passed through a Gaussian filter, and the passed images may be sequentially subtracted according to a scale to generate an error image (S930).

상기 생성된 오차 영상으로부터 극값(최대, 최소값)에 해당하는 픽셀의 위치를 추출하여 공통점으로 설정할 수 있다(S940). 상기 추출된 공통점들 중에서 노이즈 제거 및 강한 에지 성분을 제거하고, 남은 공통점들에 대하여 방향 정보 및 크기를 설정함으로써 공통점 벡터 정보를 생성할 수 있다(S950).Positions of pixels corresponding to extreme values (maximum and minimum) may be extracted from the generated error image and set as a common point (S940). Common vector information may be generated by removing noise and a strong edge component from among the extracted common points, and setting direction information and magnitudes for the remaining common points (S950).

이와 같이 얻어진 상기 항공사진 영상의 공통점 벡터 정보와 보정 영상의 공통점 벡터 정보를 비교함으로써 객체들 간의 매칭 여부를 확인할 수 있다. 그리고, 상기 매칭 확인 결과에 기초하여 상기 대상 객체의 좌표 정보를 획득할 수 있다(S960). By comparing the common vector information of the obtained aerial photographic image with the common point vector information of the corrected image, it is possible to check whether the objects match. Then, coordinate information of the target object may be acquired based on the matching check result (S960).

이상 본 발명의 구체적 실시형태와 관련하여 본 발명을 설명하였으나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 범위를 벗어나지 않고 설명된 실시형태를 변경 또는 변형할 수 있으며, 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능하다.The present invention has been described above in relation to specific embodiments of the present invention, but this is merely an example and the present invention is not limited thereto. Those of ordinary skill in the art to which the present invention pertains can change or modify the described embodiments without departing from the scope of the present invention, within the technical spirit of the present invention and equivalent scope of the claims to be described below. Various modifications and variations are possible.

V: 차량 100: 모바일 매핑장치
110: 촬영영상 획득모듈 120: 영상처리모듈
130: 관성측정모듈 140: GPS 수신모듈
150: 컨트롤 모듈 160: 버퍼
200: 통신모듈 210: 업데이트 모듈
300: 데이터 처리모듈 310: 항공사진 데이터베이스
400 : 좌우이동부 410 : 좌우케이스
411 : 이동홀 420 : 슬라이딩부
421 : 슬라이딩홀 422 : 인식홀
423 : 인식감지부 430 : 좌우로드부
431 : 인식부 440 : 중앙금속부
450 : 상하로드부 460 : 중앙자석
461 : 좌우자석 470 : 이동레일
480 : 레일이동부 500 : 높낮이 조절부
510 : 높낮이케이스 511 : 높낮이스프
520 : 높낮이로드 521 : 고정홈
530 : 높낮이고정부 531 : 고정케이스
531a : 제한홀 532 : 고정로드
532a : 로드홈 533 : 고정스프링
534 : 고정제한부 535 : 제한판
536 : 제한스프링 537 : 제한이동부
538 : 제한로드 700: 카메라
V: Vehicle 100: Mobile mapping device
110: captured image acquisition module 120: image processing module
130: inertial measurement module 140: GPS receiving module
150: control module 160: buffer
200: communication module 210: update module
300: data processing module 310: aerial photograph database
400: left and right moving part 410: left and right case
411: moving hole 420: sliding part
421: sliding hole 422: recognition hole
423: recognition sensing unit 430: left and right rod unit
431: recognition unit 440: central metal unit
450: upper and lower rods 460: center magnet
461: left and right magnets 470: moving rail
480: rail moving part 500: height adjustment part
510: high and low case 511: high and low soup
520: height rod 521: fixed groove
530: high and low part 531: fixed case
531a: limiting hole 532: fixed rod
532a: rod groove 533: fixed spring
534: fixed limiting part 535: limiting plate
536: limit spring 537: limit moving part
538: limit load 700: camera

Claims (1)

2개의 카메라들로부터 영상 정보를 획득하는 촬영 영상 획득 모듈; 인공 위성으로부터 GPS 정보를 수신하여 상기 카메라의 현재 위치 정보를 획득하는 GPS 수신 모듈; 복수개의 센서를 이용하여 상기 카메라의 수평 정보를 획득하는 관성 측정 모듈; 상기 영상 정보, 현재 위치 정보 및 수평 정보에 기초하여 상기 영상 정보를 보정하는 영상 처리 모듈; 상기 영상 정보, 현재 위치 정보 및 수평 정보를 상기 영상 처리 모듈로 전송할 수 있도록 제어하는 컨트롤 모듈; 및 영상 정보를 저장하는 버퍼를 포함하는 모바일 매핑 장치;
상기 모바일 매핑 장치로부터 상기 영상 정보를 수신하여 저장하거나 외부 데이터베이스로부터 항공사진 데이터를 수신하여 저장하는 항공사진 데이터베이스; 및
상기 영상 처리 모듈에서 획득된 보정 영상으로부터 대상 객체를 추출하는 객체 추출 모듈; 상기 추출된 대상 객체의 중심점에 기초하여 상기 대상 객체의 좌표 정보를 획득하는 객체 위치 결정 모듈; 상기 항공사진 데이터베이스로부터 상기 영상 정보에 대응되는 항공사진의 좌표 정보를 추출하는 항공사진 추출 모듈; 상기 대상 객체의 좌표 정보와 상기 항공사진의 좌표 정보를 비교하여 객체들 간의 매칭 여부를 확인하는 좌표비교 모듈; 및 상기 매칭 여부 확인 결과로부터 획득된 대상 객체의 좌표 정보를 이용하여 공간 정보를 획득하는 공간정보 생성모듈;을 포함하는 데이터 처리 모듈;을 포함하는 영상처리시스템에 있어서,
상기 촬영 영상 획득 모듈에 영상 정보를 공급하는 2개의 카메라(700)는 차량의 상부에 탑재되되, 차량의 상부 좌단 및 차량의 상부 우단에 각각 2개씩 장착되는 완충지지대(600), 차량의 상부 좌단 및 우단에 맞춰 평행하도록 2개가 장착되되, 2개의 완충지지대 상에서 횡으로 결합되는 좌우이동부(400), 2개 좌우이동부의 상단에 각각 결합되되, 그 상부에 카메라(700)를 구비하는 높낮이 조절부(500)를 더 포함하고,
상기 완충지지대(600)는,
좌우이동부(400)의 하단에 결합되며 원판 형태를 갖는 완충체결부(611) 및 완충체결부(611)의 하부 중앙에 연장되는 원통 형태의 완충원통부(612)로 이루어지는 완충로드(610); 내부가 비어있는 원통형으로 형성되며 완충로드(610)의 하단이 수용되는 완충케이스(620); 완충로드(610)의 완충원통부(612)의 하부 외측면에 결합되는 완충스토퍼(630); 완충로드(610)의 하부에 결합되며 완충로드(610)와 완충케이스(620)의 내측면 사이를 연결하되 십(十)자 형태의 단면을 갖는 완충연결부(640); 완충스토퍼(630)의 외측면과 완충케이스(620)의 내측면 사이에 결합되는 완충굴곡부(650);를 구비하고,
상기 좌우이동부(400)는,
완충지지대의 상부에 결합되며 상부면에 길이방향을 따라 이동홀이 형성되는 좌우케이스(410); 좌우케이스의 내부 양측에 결합되며 길이방향을 따라 슬라이딩홀이 형성되는 한 쌍의 슬라이딩부(420); 한 쌍의 슬라이딩부에 각각 일단이 슬라이딩 가능하도록 삽입되는 한 쌍의 좌우로드부(430); 한 쌍의 좌우로드부의 중앙에 결합되는 금속 소재의 중앙금속부(440); 중앙금속부의 상부로 연장되며 이동홀을 통해 외부로 노출되는 상하로드부(450); 좌우케이스의 내부 하단 중앙에 결합되며 자성을 띠는 중앙자석(460); 중앙자석을 기준으로 양측에 이격하여 배치되며 자성을 띠는 한 쌍의 좌우자석(461); 좌우케이스의 상부면에 결합되며 길이방향을 따라 이동홀을 기준으로 전후방향으로 양측에 결합되는 한 쌍의 이동레일(470); 및 상하로드부의 측부에 결합되며 한 쌍의 이동레일에 수용되어 길이방향을 따라 슬라이딩 이동 가능한 레일이동부(480);를 구비하며,
상기 높낮이 조절부(500)는,
내부가 비어있는 원통형의 높낮이케이스(510); 높낮이케이스(510)에 상하로 슬라이딩 가능하도록 수용되며 측면에 다수의 고정홈(521)이 형성되는 높낮이로드(520); 및 높낮이케이스(510)의 상단에 결합되며 다수의 고정홈(521)으로 진입 가능한 고정로드(532);를 구비하고,
상기 카메라(700)는,
높낮이 조절부(500)의 상부에 결합되되, 그 내부의 회전모터를 통해 촬영 각도의 조절이 가능한 것을 특징으로 하는 지형지물의 촬영 영상을 용이하게 확보할 수 있는 영상처리시스템.
a photographed image acquisition module for acquiring image information from two cameras; a GPS receiving module for receiving GPS information from an artificial satellite to obtain current location information of the camera; an inertial measurement module for acquiring horizontal information of the camera using a plurality of sensors; an image processing module for correcting the image information based on the image information, current location information, and horizontal information; a control module for controlling to transmit the image information, current location information, and horizontal information to the image processing module; and a mobile mapping device including a buffer for storing image information;
an aerial photograph database for receiving and storing the image information from the mobile mapping device or for receiving and storing aerial photograph data from an external database; and
an object extraction module for extracting a target object from the corrected image obtained by the image processing module; an object positioning module for obtaining coordinate information of the target object based on the extracted center point of the target object; an aerial photograph extraction module for extracting coordinate information of an aerial photograph corresponding to the image information from the aerial photograph database; a coordinate comparison module that compares the coordinate information of the target object with the coordinate information of the aerial photograph to confirm whether objects are matched; and a data processing module comprising a; and a spatial information generating module for acquiring spatial information by using the coordinate information of the target object obtained from the matching result.
The two cameras 700 for supplying image information to the captured image acquisition module are mounted on the upper part of the vehicle, and the buffer support 600 is mounted on the upper left end of the vehicle and the upper right end of the vehicle, respectively, two at the upper left end of the vehicle. And two are mounted parallel to the right end, the left and right moving part 400 coupled horizontally on the two buffer supports, respectively coupled to the upper end of the two left and right moving parts, a height adjustment unit having a camera 700 on the upper part (500) further comprising,
The buffer support 600 is,
A buffer rod 610 coupled to the lower end of the left and right moving part 400 and comprising a buffer fastening part 611 having a disk shape and a buffering cylindrical part 612 of a cylindrical shape extending in the lower center of the buffer fastening part 611; The buffer case 620 is formed in an empty cylindrical interior and the lower end of the buffer rod 610 is accommodated; a buffer stopper 630 coupled to the lower outer surface of the buffer cylinder 612 of the buffer rod 610; It is coupled to the lower portion of the buffer rod 610 and connects between the buffer rod 610 and the inner surface of the buffer case 620, but a buffer connection portion 640 having a cross-section in the form of a ten (十); A buffer bent portion 650 coupled between the outer surface of the buffer stopper 630 and the inner surface of the buffer case 620;
The left and right moving part 400,
Left and right cases 410 coupled to the upper portion of the buffer support and having movable holes formed on the upper surface in the longitudinal direction; a pair of sliding parts 420 coupled to both inner sides of the left and right cases and having sliding holes formed along the longitudinal direction; A pair of left and right rod parts 430 inserted so that one end is slidable in each of the pair of sliding parts; a central metal part 440 of a metal material coupled to the center of a pair of left and right rod parts; an upper and lower rod portion 450 extending to the upper portion of the central metal portion and exposed to the outside through a moving hole; a central magnet 460 coupled to the center of the inner lower end of the left and right cases; A pair of left and right magnets 461 spaced apart from each other on the basis of the central magnet and exhibiting magnetism; a pair of moving rails 470 coupled to the upper surfaces of the left and right cases and coupled to both sides in the front and rear directions based on the moving holes along the longitudinal direction; and a rail moving unit 480 coupled to the side of the upper and lower rods and accommodated in a pair of moving rails and capable of sliding along the longitudinal direction;
The height adjustment unit 500,
Cylindrical height case 510 with an empty interior; a height rod 520 which is accommodated in the height case 510 so as to be slidable up and down and has a plurality of fixing grooves 521 formed on the side thereof; and a fixing rod 532 coupled to the upper end of the height case 510 and capable of entering into a plurality of fixing grooves 521;
The camera 700 is
Doedoe coupled to the upper part of the height adjustment unit 500, an image processing system capable of easily securing a photographed image of a feature, characterized in that the photographing angle can be adjusted through a rotation motor therein.
KR1020210072571A 2021-06-04 2021-06-04 Image processing system securing captured image of natural ground features KR102319289B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210072571A KR102319289B1 (en) 2021-06-04 2021-06-04 Image processing system securing captured image of natural ground features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210072571A KR102319289B1 (en) 2021-06-04 2021-06-04 Image processing system securing captured image of natural ground features

Publications (1)

Publication Number Publication Date
KR102319289B1 true KR102319289B1 (en) 2021-11-01

Family

ID=78519135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072571A KR102319289B1 (en) 2021-06-04 2021-06-04 Image processing system securing captured image of natural ground features

Country Status (1)

Country Link
KR (1) KR102319289B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102501258B1 (en) * 2022-06-29 2023-02-17 메타스타글로벌 주식회사 Global integrated real estate information platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101332042B1 (en) * 2013-06-01 2013-11-22 (주)지오투정보기술 A system for processing spatial image using location information and horizontality information of camera
KR101720761B1 (en) * 2016-10-14 2017-03-29 (주)엔토포스 system for building three-dimensional space information using MMS and multi-directional tilt aerial photos
KR101721467B1 (en) * 2016-07-27 2017-03-31 (주)대한지적기술단 Image processing apparatus having function of distortion image correction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101332042B1 (en) * 2013-06-01 2013-11-22 (주)지오투정보기술 A system for processing spatial image using location information and horizontality information of camera
KR101721467B1 (en) * 2016-07-27 2017-03-31 (주)대한지적기술단 Image processing apparatus having function of distortion image correction
KR101720761B1 (en) * 2016-10-14 2017-03-29 (주)엔토포스 system for building three-dimensional space information using MMS and multi-directional tilt aerial photos

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102501258B1 (en) * 2022-06-29 2023-02-17 메타스타글로벌 주식회사 Global integrated real estate information platform
KR102501265B1 (en) * 2022-06-29 2023-02-17 메타스타글로벌 주식회사 Real estate information provision system using data scraping and crawling

Similar Documents

Publication Publication Date Title
KR101931819B1 (en) Digital map gereration system for determining target object by comparing image information and aerial photograph data, and obtaining 3-dimensional coordination of target object using information obtained by camera
CN109690620B (en) Three-dimensional model generation device and three-dimensional model generation method
KR101879855B1 (en) Digital map generating system for performing spatial modelling through a distortion correction of image
CN112381919B (en) Information processing method, positioning method and device, electronic equipment and storage medium
CN106960454B (en) Depth of field obstacle avoidance method and equipment and unmanned aerial vehicle
US20150138322A1 (en) Image processing device and its control method, imaging apparatus, and storage medium
KR101234961B1 (en) Method and system for modeling automatic 3-dimensional space using aerial image and mobile mapping system technology
KR101332042B1 (en) A system for processing spatial image using location information and horizontality information of camera
KR20140134351A (en) Movement path extraction devices of mutual geometric relations fixed camera group and the method
KR101439213B1 (en) Method for 3D Location determination in single image using Rational Polynomial Coefficients information of stereo satellite images
KR102319289B1 (en) Image processing system securing captured image of natural ground features
KR102325634B1 (en) Image processing system having function of correcting distortion image
US9794483B1 (en) Video geolocation
KR102313438B1 (en) Method for estimation of river bed change rate using hyperspectral image
KR101234917B1 (en) Method and system for generating 3-dimensional space data using image correction by threshold applied a weight information
CN103905746A (en) Method and device for localization and superposition of sub-pixel-level image offset and video device
KR101879859B1 (en) A image processing system for correcting camera image using image distortion parameter
KR101277427B1 (en) Method and system for correcting a distortion of image data using a parameter and comparing the corrected image data and aerial photograph
KR101720761B1 (en) system for building three-dimensional space information using MMS and multi-directional tilt aerial photos
KR101879858B1 (en) Spatial modelling system for modelling spatial data by extracting common feature using comparison process between coordinate information of target object extracted from corrected image and coordinate information of arial photograph
JP6388532B2 (en) Image providing system and image providing method
KR101332093B1 (en) Spatial image processing system for obtaining 3-dimensional space data using coordination information of target object obtained by a plurality of sensors
KR101332077B1 (en) 3-dimensional coordination generation system for performing image correction using gps information and horizontality information obtained by sensor
KR101256340B1 (en) Method and system for generating space information using data compression based on adaptive filtering and image correction
KR20200084974A (en) Method for estimation of depth of water using hyperspectral image

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant