KR101783585B1 - Method for managing plant facilities - Google Patents

Method for managing plant facilities Download PDF

Info

Publication number
KR101783585B1
KR101783585B1 KR1020170068864A KR20170068864A KR101783585B1 KR 101783585 B1 KR101783585 B1 KR 101783585B1 KR 1020170068864 A KR1020170068864 A KR 1020170068864A KR 20170068864 A KR20170068864 A KR 20170068864A KR 101783585 B1 KR101783585 B1 KR 101783585B1
Authority
KR
South Korea
Prior art keywords
information
imaged
image
distance
route
Prior art date
Application number
KR1020170068864A
Other languages
Korean (ko)
Inventor
김창수
Original Assignee
김창수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김창수 filed Critical 김창수
Priority to KR1020170068864A priority Critical patent/KR101783585B1/en
Application granted granted Critical
Publication of KR101783585B1 publication Critical patent/KR101783585B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

이동체를 활용한 플랜트 시설물 관리 방법이 개시된다. 본 발명의 일 측면에 따르면, 이동체에 구현된 영상 촬상 장치가 촬상 대상 객체에 대한 최대 촬영 거리를 결정하는 단계; 상기 이동체가 상기 촬상 대상 객체에 대한 3차원 모델을 획득하는 단계; 상기 이동체가 상기 3차원 모델을 확장하여 상기 이동체의 이동 불가 영역을 설정하는 단계; 상기 이동체가 설정 이동 항로 상에서 상기 촬상 대상 객체를 스캔하는 단계; 상기 영상 촬상 장치가 상기 플랜트 시설물의 피사면에 대한 깊이 정보를 센싱하는 단계; 및 상기 영상 촬상 장치가 상기 깊이 정보를 기반으로 상기 피사면 내의 크랙에 대한 정보를 획득하는 단계를 포함하되, 상기 설정 이동 항로는 상기 최대 촬영 거리 내의 영역 중 상기 이동 불가 영역을 제외한 촬상 가능 영역에서 설정되고, 상기 설정 이동 항로는 촬영 타입에 따라 제1 항로 또는 제2 항로로 설정되고, 상기 제1 항로는 상기 촬상 대상 객체의 외곽선과 동일한 거리를 유지하도록 상기 외곽선을 따라 설정되고, 상기 제2 항로는 상기 촬상 대상 객체의 외곽선 중 상기 촬상 대상 객체를 기준으로 가장 먼 거리의 지점을 기준으로 직선 거리로 설정되고, 상기 제2 항로가 설정된 경우, 상기 영상 촬상 장치는 상기 3차원 모델을 기반으로 예상 초점 거리를 결정하고, 상기 영상 촬상 장치는 상기 이동체의 상기 제2 항로의 이동에 따라 상기 예상 초점 거리를 고려하여 상기 촬상 대상 객체에 대한 촬상을 수행하고, 상기 피사면은 상기 영상 촬상 장치에 구현된 영상 촬상부의 렌즈의 중심점을 기준으로 상기 렌즈를 관통하도록 수직으로 내린 직선과 만나는 상기 영상 촬상부에 의해 촬상되는 면이고, 상기 피사면이 굴곡이 없는 평면으로서 상기 직선과 수직인 경우, 상기 영상 촬상 장치는 상기 렌즈의 상기 중심점과 상기 피사면까지의 최단 거리인 피사면 거리에 대한 정보 및 상기 영상 촬상부의 광학계 특성 정보를 기반으로 상기 피사면의 4개의 꼭지점의 위치를 결정하고, 상기 피사면이 상기 굴곡이 없는 평면으로서 상기 직선과 수직이 아닌 경우, 상기 영상 촬상 장치는 상기 피사면 거리에 대한 정보, 상기 광학계 특성 정보 및 상기 영상 촬상부의 촬상 축의 뒤틀린 각도 정보를 기반으로 상기 피사면의 상기 4개의 꼭지점의 위치를 결정하고, 상기 피사면이 상기 굴곡이 존재하는 평면인 경우, 상기 영상 촬상 장치는 깊이 측정 어레이를 기반으로 상기 피사면 상에 위치한 복수의 측정 지점 각각에 대한 복수의 깊이 정보 각각을 측정하고, 상기 피사면 내의 크랙의 존재 여부는 상기 복수의 깊이 정보 각각을 기반으로 결정될 수 있다.A plant facility management method using a mobile object is disclosed. According to an aspect of the present invention, there is provided a method of controlling a moving object, comprising: determining a maximum photographing distance of an object to be imaged by an image capturing device implemented in a moving object; Acquiring a three-dimensional model of the object to be imaged by the moving object; Setting a non-movable region of the moving object by extending the three-dimensional model; The moving object scanning the imaging object on the setting movement route; Sensing the depth information on the surface to be inspected of the plant facility by the image pickup device; And acquiring information about a crack in the surface to be scanned based on the depth information, wherein the setting movement route is a position in the image capture area excluding the non-movable area, And the setting course is set to either the first route or the second route depending on the type of photographing, the first route is set along the outline so as to maintain the same distance as the outline of the object to be imaged, Wherein the route is set to a straight line distance based on a point at the farthest distance from the outline of the object to be picked up with reference to the object to be picked up and when the second route is set, And the image pickup device determines the estimated focal distance based on the movement of the moving object in the second route, Wherein the image pickup device is configured to perform imaging of the object to be picked up in consideration of the focal distance, and the surface to be imaged is an image picked up by the image pick- When the surface to be imaged is a plane free from bending and perpendicular to the straight line, the image capturing apparatus is provided with information on the minimum distance between the center point of the lens and the surface to be imaged, Wherein the position of the four vertexes of the surface to be inspected is determined based on the optical system characteristic information of the image sensing unit, and when the surface to be inspected is not the bend-free plane and is not perpendicular to the straight line, On the basis of the optical characteristic information and the angle information of the imaging axis of the imaging unit Wherein the image capturing device determines the positions of the four vertexes of the surface to be inspected based on the depth measurement array when the surface to be inspected is a plane on which the curvature exists, And the presence or absence of a crack in the surface to be etched may be determined based on each of the plurality of depth information.

Description

플랜트 시설물 관리 방법{Method for managing plant facilities}[0001] METHOD FOR MANAGING PLANT FACILITIES [0002]

본 발명은 플랜트 시설물 관리 방법에 관한 것으로서, 보다 상세하게는 플랜트 시설물의 객체 정보를 기반으로 이동체를 활용하여 플랜트 시설물을 관리하는 방법에 관한 것이다.[0001] The present invention relates to a plant facility management method, and more particularly, to a method of managing plant facilities using a moving object based on object information of a plant facility.

플랜트산업은 전력, 가스, 석유, 담수 등 제품을 생산할 수 있는 설비를 공급하거나 공장을 짓는 산업으로 원료나 에너지를 공급하여 물리적, 화학적 작용을 하게 하는 장치나 공장 시설이 될 수 있다. 이러한 플랜트 공장은 복잡한 시설물로 이루어져 있고 이런 시설물은 외부환경에 노출되어 있어 손상을 입을 수 있어 관리가 필요하다.The plant industry can be a device or a factory facility that supplies equipment that can produce products such as power, gas, oil, and fresh water, or that supplies raw materials or energy to the factory building industry to make physical and chemical effects. These plant factories are made up of complex facilities, which are exposed to the external environment and can be damaged, requiring management.

한편, 무인이동체의 대표격인 드론은 지상에서 리모콘이나 컨트롤러로 조종할 수 있는 무인 항공기다. 드론은 1960년대 미국과 소련의 냉전 시대에 상대방 진영을 정찰하는 군사용으로 개발됐다. 1990년대까지 중동 걸프전, 코소보 사태 등에서 군사용으로만 활용되던 드론은 무선 통신 기술의 발달로 활용 영역을 넓혀가고 있다.On the other hand, the drone, a representative of unmanned vehicles, is an unmanned aerial vehicle that can be controlled by a remote controller or a controller on the ground. The drones were developed for military use in the 1960s during the Cold War era of the United States and the Soviet Union. The drones, which were used only for military purposes in the Middle East Gulf and Kosovo conflicts by the 1990s, are expanding their application fields due to the development of wireless communication technologies.

최근 드론은 군사용뿐만 아니라 교통, 물류, 항공 촬영, 농업, 보안 등의 분야로 사용 영역이 무한 확장되고 있다.Recently, the use area of drones is expanding not only for military use but also for transportation, logistics, aerial photography, agriculture and security.

미국 방위 산업 컨설팅업체 틸 그룹은 드론 시장 규모가 연평균 35%씩 성장하여 2023년에 125억 달러로 증가한다고 예상했다. 한국항공우주연구원 관계자는 "항공 분야는 친환경, 무인화, 소형화 등 항공기의 경제성과 안전성, 효율성을 강화하는 방향으로 기술 개발이 이뤄지고 있다"며 "군사적 목적으로 개발되어 활용되던 무인기가 통신 중계, 지상 관측, 항공 촬영 등 민간 공공 분야로 급속히 확대되고 있다"고 설명했다.US defense industry consulting firm Till Group expects the drones market to grow at an annual average of 35%, to $ 12.5 billion in 2023. An official of the Korea Aerospace Research Institute said, "The technology development is being carried out in order to enhance the economic efficiency, safety and efficiency of the aircraft such as environment friendly, unmanned, and miniaturized." The UAV developed and used for military purposes is used for communication relay, And aerial photographing, "he said.

실제로 기업에서는 드론을 무인 택배 서비스를 위해 활용하려고 하고 있고, 국가적인 차원에서 드론을 재해 현장에 투입되어 사고 현장을 조사하기 위해 활용하려는 움직임을 보이고 있다. 이뿐만 아니라, 방송 사업에서도 영화나 스포츠 촬영시 전경을 담을 수 있는 '헬리캠' 촬영에도 드론이 활용되고 있다.In fact, companies are trying to utilize drones for unmanned delivery services, and they are making moves to use drones at the national level to investigate the accident sites. In addition to this, the drones are also used in the broadcasting business to shoot 'Heli-cam' which can capture the scenes of movies and sports shoots.

한편, 영상에서 깊이 정보를 획득하는 방법은 수동 방식과 능동 방식으로 나뉠 수 있다. 수동 방식은 스테레오 촬영 및 다시점 촬영을 기반으로 획득한 2차원 영상으로부터 깊이 정보를 획득하는 방식이다. 능동 방식은 깊이 카메라나 레이저 스캐너와 같이 직접적인 깊이 정보 측정을 위한 장치를 기반으로 영상에서 깊이 정보를 직접적으로 측정하는 방식이다.On the other hand, the method of acquiring depth information in an image can be divided into a passive method and an active method. The manual method is a method of acquiring depth information from a two-dimensional image acquired based on stereo photographing and multi-view photographing. The active method is a method of directly measuring depth information in an image based on a device for direct depth information measurement such as a depth camera or a laser scanner.

인간의 두 개의 눈의 시차(양안 시차)를 이용하여 3차원 입체 공간이 인식되듯이 스테레오 매칭 방법에 따른 스테레오 정합은 2차원 정보만을 입력받을 수 있는 카메라 센서를 사용하여 3차원 정보를 추출하는 방식이다. 공간적으로 나란히 떨어져있는 두 개의 카메라를 가지고 획득된 스테레오 이미지를 기반으로 깊이 정보가 추출될 수 있다. 스테레오 정합의 원리는 한 쪽 카메라의 영상의 임의의 패턴을 3차원 공간 상의 같은 지점으로 매칭되는 다른 카메라 영상에서 찾아낸 후 대응점들에 대해 삼각 기법을 사용하여 3차원 공간상의 좌표를 알아내는 것이다.As stereoscopic three-dimensional space is recognized by using human's two-eye parallax (binocular parallax), stereo matching by stereo matching method is a method of extracting three-dimensional information using a camera sensor capable of receiving only two- to be. Depth information can be extracted based on the acquired stereo image with two cameras spaced apart spatially. The principle of stereo matching is to find an arbitrary pattern of an image of one camera on another camera image matching the same point on the three dimensional space and then to find coordinates on the three dimensional space by using a triangle method on corresponding points.

또 영상에서 깊이 정보를 추출하기 위한 다른 방식으로 TOF(Time Of Flight) 방식의 깊이 카메라가 영상에서 깊이 정보를 획득하기 위해 사용될 수 있다. 깊이 카메라에서 거리 측정은 주행 시간 원리로 만들어진다. 기본적인 원리는 적외선과 같은 빛을 조사하여 광이 반사하여 돌아오는 시간, 즉 빛의 위상 차(phase shift)를 계산해서 깊이 값을 찾아내는 방식이다. 따라서, 측정된 거리는 카메라에서 물체까지 진행한 빛의 시간에 비례할 수 있다. 깊이 정보를 측정하기 위해 광-면(light wall)이 3D(dimension) 객체에 부딪치고, 객체 표면으로부터의 반사된 객체 모양의 파형을 기반으로 영상에서 객체의 깊이 정보가 측정될 수 있다.Another method for extracting depth information from an image is to use a time-of-flight (TOF) depth camera to acquire depth information from an image. The distance measurement from the depth camera is made on the principle of traveling time. The basic principle is to find the depth value by calculating the phase shift of the time that the light is reflected by irradiating light such as infrared ray. Thus, the measured distance may be proportional to the time of the light traveling from the camera to the object. To measure depth information, a light wall hits a 3D object and the depth information of the object in the image can be measured based on the waveform of the reflected object shape from the object surface.

본 발명은 플랜트 공장의 시설물을 드론을 활용하여 관리하는 것에 연관된다.The present invention relates to the management of facility facilities of plant factories by utilizing drone.

KR 10-2009-0111046KR 10-2009-0111046

본 발명의 목적은 이동체를 활용한 플랜트 시설물 관리 방법을 제공하는 것이다.An object of the present invention is to provide a plant facility management method using a moving object.

본 발명의 일 측면에 따르면, 이동체에 구현된 영상 촬상 장치가 촬상 대상 객체에 대한 최대 촬영 거리를 결정하는 단계; 상기 이동체가 상기 촬상 대상 객체에 대한 3차원 모델을 획득하는 단계; 상기 이동체가 상기 3차원 모델을 확장하여 상기 이동체의 이동 불가 영역을 설정하는 단계; 상기 이동체가 설정 이동 항로 상에서 상기 촬상 대상 객체를 스캔하는 단계; 상기 영상 촬상 장치가 상기 플랜트 시설물의 피사면에 대한 깊이 정보를 센싱하는 단계; 및 상기 영상 촬상 장치가 상기 깊이 정보를 기반으로 상기 피사면 내의 크랙에 대한 정보를 획득하는 단계를 포함하되, 상기 설정 이동 항로는 상기 최대 촬영 거리 내의 영역 중 상기 이동 불가 영역을 제외한 촬상 가능 영역에서 설정되고, 상기 설정 이동 항로는 촬영 타입에 따라 제1 항로 또는 제2 항로로 설정되고, 상기 제1 항로는 상기 촬상 대상 객체의 외곽선과 동일한 거리를 유지하도록 상기 외곽선을 따라 설정되고, 상기 제2 항로는 상기 촬상 대상 객체의 외곽선 중 상기 촬상 대상 객체를 기준으로 가장 먼 거리의 지점을 기준으로 직선 거리로 설정되고, 상기 제2 항로가 설정된 경우, 상기 영상 촬상 장치는 상기 3차원 모델을 기반으로 예상 초점 거리를 결정하고, 상기 영상 촬상 장치는 상기 이동체의 상기 제2 항로의 이동에 따라 상기 예상 초점 거리를 고려하여 상기 촬상 대상 객체에 대한 촬상을 수행하고, 상기 피사면은 상기 영상 촬상 장치에 구현된 영상 촬상부의 렌즈의 중심점을 기준으로 상기 렌즈를 관통하도록 수직으로 내린 직선과 만나는 상기 영상 촬상부에 의해 촬상되는 면이고, 상기 피사면이 굴곡이 없는 평면으로서 상기 직선과 수직인 경우, 상기 영상 촬상 장치는 상기 렌즈의 상기 중심점과 상기 피사면까지의 최단 거리인 피사면 거리에 대한 정보 및 상기 영상 촬상부의 광학계 특성 정보를 기반으로 상기 피사면의 4개의 꼭지점의 위치를 결정하고, 상기 피사면이 상기 굴곡이 없는 평면으로서 상기 직선과 수직이 아닌 경우, 상기 영상 촬상 장치는 상기 피사면 거리에 대한 정보, 상기 광학계 특성 정보 및 상기 영상 촬상부의 촬상 축의 뒤틀린 각도 정보를 기반으로 상기 피사면의 상기 4개의 꼭지점의 위치를 결정하고, 상기 피사면이 상기 굴곡이 존재하는 평면인 경우, 상기 영상 촬상 장치는 깊이 측정 어레이를 기반으로 상기 피사면 상에 위치한 복수의 측정 지점 각각에 대한 복수의 깊이 정보 각각을 측정하고, 상기 피사면 내의 크랙의 존재 여부는 상기 복수의 깊이 정보 각각을 기반으로 결정될 수 있다.According to an aspect of the present invention, there is provided a method of controlling a moving object, comprising: determining a maximum photographing distance of an object to be imaged by an image capturing device implemented in a moving object; Acquiring a three-dimensional model of the object to be imaged by the moving object; Setting a non-movable region of the moving object by extending the three-dimensional model; The moving object scanning the imaging object on the setting movement route; Sensing the depth information on the surface to be inspected of the plant facility by the image pickup device; And acquiring information about a crack in the surface to be scanned based on the depth information, wherein the setting movement route is a position in the image capture area excluding the non-movable area, And the setting course is set to either the first route or the second route depending on the type of photographing, the first route is set along the outline so as to maintain the same distance as the outline of the object to be imaged, Wherein the route is set to a straight line distance based on a point at the farthest distance from the outline of the object to be picked up with reference to the object to be picked up and when the second route is set, And the image pickup device determines the estimated focal distance based on the movement of the moving object in the second route, Wherein the image pickup device is configured to perform imaging of the object to be picked up in consideration of the focal distance, and the surface to be imaged is an image picked up by the image pick- When the surface to be imaged is a plane free from bending and perpendicular to the straight line, the image capturing apparatus is provided with information on the minimum distance between the center point of the lens and the surface to be imaged, Wherein the position of the four vertexes of the surface to be inspected is determined based on the optical system characteristic information of the image sensing unit, and when the surface to be inspected is not the bend-free plane and is not perpendicular to the straight line, On the basis of the optical characteristic information and the angle information of the imaging axis of the imaging unit Wherein the image capturing device determines the positions of the four vertexes of the surface to be inspected based on the depth measurement array when the surface to be inspected is a plane on which the curvature exists, And the presence or absence of a crack in the surface to be etched may be determined based on each of the plurality of depth information.

또한, 상기 영상 촬상 장치는 상기 복수의 깊이 정보를 기반으로 상기 피사면에 피팅되는 도형에 대한 조합 모델을 사용하여 상기 피사면에 대한 모델링을 수행하되, 상기 피팅되는 도형은 평면, 구면, 실린더, 계단 또는 나선을 포함할 수 있다.Also, the image capturing device performs modeling on the surface to be fitted using a combination model for a shape to be fitted to the surface to be inspected based on the plurality of depth information, wherein the shape to be fitted is a plane, a spherical surface, Stairs or spirals.

또한, 상기 피사면은 상기 깊이 측정 어레이를 기반으로 복수개의 분할 피사면으로 분할되고, 상기 크랙의 존재 여부는 상기 복수개의 분할 피사면 각각에 대해 결정될 수 있다.Further, the surface to be etched is divided into a plurality of divided surfaces to be etched based on the depth measurement array, and the presence or absence of the cracks can be determined for each of the plurality of divided surfaces to be etched.

또한, 피사면에 굴곡이 존재하여 굴곡으로 인해 피사면 중 일부의 영역에 대한 깊이 정보가 획득되지 않는 미촬상 영역이 존재하는 경우, 상기 이동체는 상기 미촬상 영역에 대한 정보를 획득하기 위한 제1 이동경로를 설정하고 이동 후 제2 이동경로 상에서 상기 미촬상 영역을 촬상하여 기존에 촬영된 영상 정보와 결합하여 피사면에 대한 모델링을 수행하되, 상기 제2 이동경로는 상기 촬상 가능 영역 중 상기 촬상 대상 객체로부터 가장 먼 거리에 있는 공간상의 면에 포함될 수 있다.In addition, when there is a non-imaging region in which the curvature exists on the surface to be imaged and depth information on a part of the surface to be imaged due to the curvature is not obtained, the moving object has a first portion for acquiring information on the non- Wherein the second moving route is a region in which the image sensing area is located in the image sensing area of the image sensing area, It can be included in the face on the space that is the furthest distance from the target object.

또한, 상기 이동체는 다른 복수의 이동체와 함께 상기 촬상 대상 객체에 대한 스캔을 수행하고, 상기 이동체가 마스터 이동체인 경우, 상기 촬상 가능 영역을 복수의 분할 촬상 영역으로 분할하고, 상기 이동체는 상기 복수의 분할 촬상 영역 각각을 상기 다른 복수의 이동체 각각에 할당될 수 있다.The moving object scans the object to be imaged together with a plurality of other moving objects. When the moving object is a master moving object, the moving object divides the imaging area into a plurality of divided imaging areas, Each of the divided imaging regions may be assigned to each of the other plurality of moving bodies.

또한, 분할 피사면 중 크랙이 존재하는 제1 분할 피사면이 발견되는 경우, 상기 이동체는 상기 제1 분할 피사면에 대한 2차 스캔을 수행하기 위한 제3 이동경로를 설정하여 이동한 후 제4 이동경로 상에서 상기 제1 분할 피사면을 복수개의 재분할 피사면으로 재분할하여, 상기 재분할 피사면의 크랙에 대한 정보를 탐지하되, 상기 제4 이동경로는 상기 촬상 가능 영역 중 상기 촬상 대상 객체로부터 가장 가까운 거리에 있는 공간상의 면에 포함될 수 있다.In addition, when a first divided surface to be scanned having cracks is found in the divided surface to be scanned, the moving body sets a third moving path for performing a secondary scan on the first divided surface to be scanned, Wherein the fourth moving path detects the information on the crack on the re-divided surface to be imaged by re-segmenting the first divided surface to be retouched on the moving path into a plurality of re-divided surfaces to be imaged, And may be included in a plane on the space.

또한, 상기 이동 불가 영역은 GPS(global positioning system) 오차, 상기 이동체에 대한 제어 오차를 추가적으로 고려하여 설정될 수 있다.In addition, the non-movable area may be set by taking into account global positioning system (GPS) errors and control errors with respect to the moving object.

본 발명의 실시예에 따르면이동체를 활용한 플랜트 시설물 관리 방법을 제공할 수 있다.According to an embodiment of the present invention, a plant facility management method using a mobile object can be provided.

도 1은 본 발명의 실시예에 따른 이동체를 활용한 플랜트 시설물 관리 방법을 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 이동 불가 영역에 대한 설정을 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 이동체를 활용한 플랜트 시설물 관리 방법 상의 설정 이동 항로의 설정 방법을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 설정 이동 항로에서 촬상 대상 객체를 촬상하는 방법을 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 복수의 이동체를 사용하여 촬상 대상 객체에 대한 영상 정보를 획득하는 방법을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 분할 촬상 영역을 설정하는 방법을 나타낸 개념도이다.
도 7은 본 발명의 실시예에 따른 마스터 이동체와 서번트 이동체 간의 네트워킹 방법을 나타낸 개념도이다.
도 8은 본 발명의 실시예에 따른 영상 촬상 장치와 피사면을 나타낸 개념도이다.
도 9는 본 발명의 실시예에 다른 영상 촬상 장치와 피사면을 나타낸 개념도이다.
도 10은 본 발명의 실시예에 따른 유사 도형을 기반으로 피사면 정보를 획득하는 방법을 나타낸 개념도이다.
도 11은 본 발명의 실시예에 따른 피사면 정보를 획득하는 방법을 나타낸 개념도이다.
도 12 는 본 발명의 실시예에 따른 이동체의 피사면 정보 획득 방법을 나타낸 개념도이다.
1 is a conceptual diagram illustrating a plant facility management method using a moving object according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating the setting of a non-movable area according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a method of setting a setting travel route on a plant facility management method using a moving object according to an embodiment of the present invention.
4 is a conceptual diagram showing a method of picking up an object to be picked up in a setting travel route according to an embodiment of the present invention.
5 is a conceptual diagram illustrating a method of acquiring image information for an object to be imaged using a plurality of moving objects according to an embodiment of the present invention.
6 is a conceptual diagram showing a method of setting a divided imaging area according to an embodiment of the present invention.
7 is a conceptual diagram illustrating a networking method between a master moving body and a servant moving body according to an embodiment of the present invention.
FIG. 8 is a conceptual view showing a video imaging device and a surface to be imaged according to an embodiment of the present invention.
FIG. 9 is a conceptual view showing a video imaging device and a surface to be inspected different from the embodiment of the present invention. FIG.
FIG. 10 is a conceptual diagram illustrating a method for acquiring subject surface information based on a similar figure according to an embodiment of the present invention.
11 is a conceptual diagram illustrating a method for acquiring subject surface information according to an embodiment of the present invention.
12 is a conceptual diagram illustrating a method of acquiring target surface information of a moving object according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이하, 본 발명에 따른 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, .

또한, 이하 사용되는 제1, 제2 등과 같은 용어는 동일 또는 상응하는 구성 요소들을 구별하기 위한 식별 기호에 불과하며, 동일 또는 상응하는 구성 요소들이 제1, 제2 등의 용어에 의하여 한정되는 것은 아니다.It is also to be understood that the terms first, second, etc. used hereinafter are merely reference numerals for distinguishing between identical or corresponding components, and the same or corresponding components are defined by terms such as first, second, no.

또한, 결합이라 함은, 각 구성 요소 간의 접촉 관계에 있어, 각 구성 요소 간에 물리적으로 직접 접촉되는 경우만을 뜻하는 것이 아니라, 다른 구성이 각 구성 요소 사이에 개재되어, 그 다른 구성에 구성 요소가 각각 접촉되어 있는 경우까지 포괄하는 개념으로 사용하도록 한다.In addition, the term " coupled " is used not only in the case of direct physical contact between the respective constituent elements in the contact relation between the constituent elements, but also means that other constituent elements are interposed between the constituent elements, Use them as a concept to cover each contact.

또한, 컴퓨터 프로그램과 관련하여, 구성요소에 대한 접미사 "모듈" 및/또는 "부"는 컴퓨터를 특정 기능의 수단으로 기능시키기 위한 컴퓨터 프로그램의 일부이거나, 컴퓨터에서 특정 기능을 실현시키기 위한 컴퓨터 프로그램의 일부일 수 있다. 예를 들어, 모듈 A는 컴퓨터를 수단 A로 기능시키기 위한 컴퓨터 프로그램 또는 컴퓨터에 기능 A를 실현시키기 위한 컴퓨터 프로그램으로 해석될 수 있다. 방법으로서 "단계"는 컴퓨터에 컴퓨터 프로그램으로 구현되어 실행될 수 있다. 또한, "모듈" 및/또는 "부"가 모여 "군"을 이룰 수 있다.Also, in the context of a computer program, the suffix "module" and / or "part" for a component may be part of a computer program for causing a computer to function as a means of a particular function, It can be a part. For example, the module A may be interpreted as a computer program for making the computer function as the means A or a computer program for realizing the function A in the computer. As a method, a "step" can be implemented and executed as a computer program in a computer. Also, "module" and / or "part"

한편, 애플리케이션(Application)이란 특정한 업무를 수행하기 위해 고안된 일련의 컴퓨터 프로그램의 집합을 가리키는 것으로, 응용프로그램이라고도 한다. 사용자는 본 발명의 실시예에 따른 애플리케이션을 자신의 전자기기에 인스톨하는 것으로 관련 기능을 추가할 수 있다.On the other hand, an application refers to a set of computer programs designed to perform a specific task, which is also referred to as an application program. The user can add the related function by installing the application according to the embodiment of the present invention in his electronic device.

애플리케이션이 인스톨되는 사용자의 전자기기란 컴퓨터, 태블릿PC, 스마트폰과 같이 CPU, RAM, ROM, 저장장치 등으로 구성되고, Windows, ios, 안드로이드, 리눅스 등의 그래픽 운영체제로 전체 시스템이 제어되는 환경인 것이 바람직하며, 특히 등록된 연락처로 전화 및 문자를 주고받을 수 있는 스마트폰에 특화되었다.The user's electronic device in which the application is installed is composed of a CPU, RAM, ROM, storage device such as a computer, a tablet PC, and a smart phone, and is an environment in which the entire system is controlled by a graphical operating system such as Windows, iOS, Android, Especially for smartphones that can send and receive phone calls and texts to registered contacts.

또한, 본 명세서에 첨부된 도면의 순서도는 발명을 설명하기 위한 순서도에 불과하며, 컴퓨터 상에 버그 없이 완벽히 구현되기 위한 순서도일 필요는 없다.Further, the flowcharts of the drawings attached hereto are only a flow chart for explaining the invention, and need not be a flowchart to be completely implemented without a bug on a computer.

또한, 본 명세서에서 언급된 단말기는 일반적인 사용자 단말기로서 스마트폰, 퍼스널 컴퓨터, 태블릿 PC 등이 될 수 있다.Also, the terminal referred to herein may be a general user terminal such as a smart phone, a personal computer, a tablet PC, and the like.

도 1은 본 발명의 실시예에 따른 이동체를 활용한 플랜트 시설물 관리 방법을 나타낸 개념도이다.1 is a conceptual diagram illustrating a plant facility management method using a moving object according to an embodiment of the present invention.

도 1에서는 이동체를 활용한 플랜트 시설물 관리를 위한 특정 객체에 대한 촬상을 위한 이동체(예를 들어, 드론)의 이동 경로 설정을 통해 이동체에 구현된 영상 촬상 장치에 의해 촬상된 영상 정보를 활용하는 방법 등이 개시된다.1 shows a method of utilizing image information picked up by a video image pickup apparatus implemented in a moving object through setting a moving path of a moving object (for example, a dragon) for picking up a specific object for plant facility management using a moving object And the like.

도 1을 참조하면, 이동체에 구현된 영상 촬상 장치의 촬상 대상 객체에 대한 최대 촬영 거리가 판단된다(단계 S100).Referring to FIG. 1, the maximum photographing distance of an object to be imaged by the image capturing apparatus implemented in the moving object is determined (step S100).

최대 촬영 거리는 촬상 대상 객체에 대한 촬상이 가능한 최대 거리일 수 있다. 즉, 이동체는 최대 촬영 거리 내에서 촬상 대상 객체에 대한 촬상을 수행하여 촬상 대상 객체에 대한 정보를 획득할 수 있다. 영상 촬상 장치의 최대 촬영 거리는 촬상 대상 객체에 대한 측정 해상도(resolution)을 기반으로 결정될 수 있다. 즉, 어떠한 크기의 해상도로 촬상 대상 객체에 대해 영상 정보를 획득할지 여부를 기반으로 최대 촬영 거리가 결정될 수 있다. 본 발명에서 촬상 대상은 플랜트 시설물이 될 수 있다.The maximum photographing distance may be the maximum distance at which the imaging object can be imaged. That is, the moving object can acquire information about the object to be imaged by performing imaging with respect to the object to be imaged within the maximum imaging distance. The maximum photographing distance of the image capturing apparatus may be determined based on the resolution of the object to be imaged. That is, the maximum photographing distance may be determined based on whether to acquire image information for the object to be captured at a resolution of a certain size. In the present invention, the object to be imaged can be a plant facility.

이동체는 촬상 대상 객체에 대한 3차원 모델링 정보를 획득한다(단계 S110).The moving object acquires three-dimensional modeling information on the object to be imaged (step S110).

촬상 대상 객체에 대한 3차원 모델링 정보는 다양한 방법으로 획득될 수 있다. 예를 들어, 우선 이동체는 최대 촬영 거리에서 촬상 대상 객체에 대한 촬상이 가능한지 여부를 결정할 수 있다. 만약, 최대 촬영 거리에서 촬상 대상 객체에 대한 촬상이 가능한 경우, 최대 촬영 거리에서 촬상 대상 객체에 대한 촬상을 통해 촬상 대상 객체에 대한 복수의 이미지가 획득될 수 있다. 이후, 복수의 이미지를 기반으로 촬상 대상 객체에 대한 3차원 모델링을 통해 촬상 대상 객체에 대한 3차원 모델링 정보가 획득될 수 있다.The three-dimensional modeling information on the object to be imaged can be obtained by various methods. For example, the moving object can first determine whether or not the imaging object can be imaged at the maximum imaging distance. If imaging is possible with respect to the object to be imaged at the maximum imaging distance, a plurality of images for the object to be imaged can be acquired through imaging with respect to the imaging object at the maximum imaging distance. Thereafter, three-dimensional modeling information on the object to be imaged can be obtained through three-dimensional modeling of the object to be imaged based on the plurality of images.

이동체는 촬상 대상 객체에 대한 3차원 모델을 확장하여 이동 불가 영역을 설정할 수 있다(단계 S120). The moving object can set a non-movable area by extending the three-dimensional model of the object to be imaged (step S120).

이동 불가 영역은 촬상 대상 객체에 대한 3차원 모델링 정보를 기반으로 획득된 촬상 대상 객체와의 충돌이 가능한 영역일 수 있다. 예를 들어, 객체의 형태가 객체의 높이에 따라 다른 경우, 이동체에 의해 이동 가능한 범위가 높이에 따라 달라질 수 있다. 본 발명의 실시예에 따르면, 이동 불가 영역은 GPS(global positioning system) 오차, 제어 오차 등을 추가적으로 고려하여 설정될 수 있다. GPS 오차는 수평 오차에 비해 수직 오차가 좀 더 클 수 있다. 또는 GPS 신호 감도가 떨어지는 음영 지역은 이동 불가능한 영역으로 설정될 수도 있다. The non-movable region may be an area in which collision with the object to be captured obtained based on the three-dimensional modeling information on the object to be captured may occur. For example, when the shape of an object differs depending on the height of the object, the movable range by the moving object may vary depending on the height. According to the embodiment of the present invention, the unmovable area can be set by taking into consideration global positioning system (GPS) error, control error, and the like. GPS error may have a larger vertical error than horizontal error. Or a shaded area in which the GPS signal sensitivity is degraded may be set as an unmovable area.

이동체는 설정 이동 항로 상에서 이동하여 촬상 대상 객체의 외관을 스캔할 수 있다(단계 S130).The moving object can move on the setting movement route and scan the appearance of the object to be imaged (step S130).

이동체는 최대 촬영 거리 내의 영역 중 이동 불가 영역을 제외한 영역 상에서 설정 이동 항로를 설정할 수 있다. 이동체는 설정 이동 항로 상에서 원하는 해상도에 따라 거리를 조정하여 촬상 대상 객체에 대한 이미지 정보를 획득할 수 있다.The moving object can set the setting moving route on the area excluding the unmovable area among the areas within the maximum photographing distance. The moving object can acquire image information on the object to be imaged by adjusting the distance according to a desired resolution on the setting movement route.

영상 촬상 장치는 영상 촬상부 및 거리 측정 센서부를 포함할 수 있다.The image capturing apparatus may include an image capturing unit and a distance measuring sensor unit.

영상 촬상부는 피사면 상의 객체에 대한 영상 정보를 획득하기 위해 구현될 수 있다. 거리 측정 센서부는 피사면까지의 거리, 피사면 상의 객체까지의 거리와 같은 거리 정보를 측정하기 위해 구현될 수 있다.The image capturing unit may be implemented to acquire image information on an object on a surface to be examined. The distance measurement sensor unit can be implemented to measure distance information such as the distance to the surface to be surveyed, and the distance to the object on the surveyed surface.

영상 촬상부에 의해 촬상되는 면은 피사면(field of view)이라는 용어로 정의될 수 있다. 도 1에서는 피사면은 굴곡이 없는 평면으로서 영상 촬상부의 렌즈의 중심점을 기준으로 렌즈를 관통하도록 수직으로 내린 직선에 수직하는 평면인 경우가 가정된다.The surface imaged by the imaging unit can be defined as the term field of view. In FIG. 1, it is assumed that the surface to be projected is a flat surface which is perpendicular to a straight line passing vertically through the lens with respect to the center point of the lens of the image pickup unit as a flat surface.

영상 촬상 장치가 거리 측정 센서부를 기반으로 피사면까지의 피사면 거리L을 측정할 수 있다(단계 S140).The image pickup device can measure the surface distance L to the surface to be measured based on the distance measurement sensor (step S140).

거리 측정 센서부는 영상 촬상부와 수직하는 피사면까지의 거리L을 측정할 수 있다. 구체적으로 거리 측정 센서부는 영상 촬상부에 포함되는 렌즈의 중심점을 기준으로 렌즈를 관통하도록 수직으로 직선을 내려 피사면까지의 거리 L(이하, 피사면 거리 L)을 측정할 수 있다. 피사면 거리 L은 렌즈의 중심점과 피사면까지의 최단 거리일 수 있다.The distance measurement sensor unit can measure the distance L to the surface perpendicular to the image sensing unit. Specifically, the distance measurement sensor unit can measure a distance L (hereinafter referred to as a surface-to-be-contacted distance L) from a vertically straight line so as to pass through the lens with reference to the center point of the lens included in the image- The surface to be contacted L may be the shortest distance from the center of the lens to the surface to be contacted.

영상 촬상 장치가 영상 촬상부의 광학계 특성을 기반으로 피사면에 대한 정보를 획득할 수 있다(단계 S150).The image capturing apparatus can acquire information on the surface to be projected based on the optical system characteristics of the image capturing unit (step S150).

영상 촬상 장치는 영상 촬상부의 광학계 특성을 고려하여 피사면의 가로폭(horizontal width, H)과 세로폭(vertical width, V)에 대한 정보를 획득할 수 있다. 예를 들어, 영상 촬상부의 줌 설정, 화각 설정, 초점 거리, 광각 등에 대한 정보를 기반으로 피사면 거리가 L일 경우, 피사면의 가로 폭(H)과 세로 폭(V)에 대한 정보가 획득될 수 있다.The image pickup apparatus can obtain information on the horizontal width (H) and the vertical width (V) of the surface to be scanned in consideration of the optical system characteristics of the image pickup unit. For example, when the distance to the subject is L based on the information about the zoom setting, the angle of view setting, the focal length, and the wide angle of the image pickup unit, information about the horizontal width (H) and the vertical width (V) .

영상 촬상 장치가 피사면에 대한 정보를 기반으로 피사면의 꼭지점의 좌표 정보를 획득할 수 있다(단계 S160).The image pickup apparatus can obtain the coordinate information of the vertex of the surface to be scanned based on the information about the surface to be scanned (step S160).

영상 촬상부의 렌즈의 중심점을 기준으로 렌즈를 관통하도록 수직으로 내린 직선과 피사면이 만나는 지점이 (0, 0)으로 설정되고 피사면 거리가 L, 피사면 가록폭이 H, 피사면 세로폭이 V인 경우, 피사면의 각 꼭지점의 좌표 정보가 결정될 수 있다. 이러한 피사면의 각 꼭지점의 좌표를 기준으로 꼭지점 좌표 내에 위치한 피사면에 대한 정보가 획득될 수 있다. (0, 0) is set at a point where a straight line drawn vertically to penetrate the lens with respect to the center point of the lens of the image pickup unit and the surface to be contacted is set to (0, 0), the distance L to the surface to be imaged, the width of the surface to be imaged is H, V, the coordinate information of each vertex of the surface to be scanned can be determined. Information on the surface to be scanned located within the vertex coordinate can be obtained based on the coordinates of each vertex of the surface to be inspected.

위의 절차는 피사면에 굴곡이 존재하지 않고, 피사면이 영상 촬상부의 렌즈의 중심점을 기준으로 렌즈를 관통하도록 수직으로 내린 직선과 수직하는 평면인 경우 피사면에 대한 정보를 획득하는 절차이다.The above procedure is a procedure for obtaining information on the surface to be projected when there is no curvature on the surface to be projected and the plane perpendicular to the straight line is perpendicular to the center of the lens of the image pickup unit.

본 발명의 다른 실시예에 따르면, 피사면은 굴곡이 없는 평면이나, 영상 촬상부의 렌즈의 중심점을 기준으로 렌즈를 관통하도록 수직으로 내린 직선과 수직하지 않는 평면일 수도 있다.According to another embodiment of the present invention, the surface to be projected may be a flat surface without bending, or a plane that is not perpendicular to a straight line that is vertically passed through the lens with respect to the center point of the lens of the image sensing unit.

영상 촬상 장치의 영상 촬상부와 피사면이 수직이 아닌 경우, 피사면과 수직이 아닌 영상 촬상 장치의 위치 정보 (x, y, z) 정보를 더 추가하여 연산하여 피사면의 꼭지점의 좌표 정보가 획득될 수 있다. 영상 촬상부의 촬영축이 비틀어진 경우, 비틀린 촬영 축의 각도가 추가적으로 반영되어 3차원 상에서 피사면에 위치한 4개의 꼭지점의 위치가 결정될 수 있다. (X, y, z) information of the image capturing apparatus, which is not perpendicular to the surface to be imaged, when the image pickup section of the image capturing apparatus and the surface to be imaged are not perpendicular to each other, calculates coordinate information of the vertex of the surface to be imaged ≪ / RTI > When the photographing axis of the image pickup unit is twisted, the angle of the twisted photographing axis is additionally reflected, and the positions of the four vertexes located on the surface to be scanned on the three-dimensional plane can be determined.

구체적으로 영상 촬상부의 렌즈의 중심점을 기준으로 렌즈를 관통하도록 수직으로 내린 직선과 피사면이 만나는 지점이 (0, 0, 0)으로 설정된 경우, 3차원 상에서 피사면에 위치한 4개의 꼭지점의 위치는 렌즈의 중심점과 렌즈를 관통하도록 수직으로 내린 직선과 피사면이 만나는 지점간의 거리인 피사면 거리(L), 뒤틀린 촬영축의 각도 정보, 영상 촬상 장치의 광학계 특성을 고려하여 결정된 피사면의 가로 폭(H)과 세로 폭(V)을 기반으로 결정될 수 있다.Specifically, when a straight line drawn vertically to penetrate the lens with respect to the center point of the lens of the image pickup unit and the point where the surface to be contacted is set to (0, 0, 0), the positions of the four vertexes located on the surface to be scanned on the three- (L), the angle information of the twisted photographing axis, and the lateral width of the surface to be determined determined in consideration of the optical system characteristics of the image pickup device H) and the vertical width (V).

드론과 같은 이동체가 비행시 여러가지 외부적 환경(짐벌 포함)에 의해 영상 촬상 장치의 영상 촬상부와 피사면이 수직이 아닌 경우가 발행할 수 있다. 이러한 경우, 위와 같이 영상 촬상부의 촬영축과 피사면의 각도(즉, 비틀린 촬영 축의 각도)를 고려하여 위와 같은 방법으로 피사면의 4개의 꼭지점의 위치가 결정될 수 있다. 본 발명에서 피사면은 플랜트 시설물의 표면이 될 수 있다.A case where a moving object such as a drone is not perpendicular to the image pickup unit of the image pickup apparatus due to various external environments (including gimbals) during flight can be issued. In this case, the position of the four vertexes of the surface to be imaged can be determined in the above-described manner in consideration of the angle between the imaging axis of the imaging unit and the surface to be imaged (i.e., the angle of the twisted imaging axis). In the present invention, the surface to be polished can be the surface of the plant facility.

도 2는 본 발명의 실시예에 따른 이동 불가 영역에 대한 설정을 나타낸 개념도이다. FIG. 2 is a conceptual diagram illustrating the setting of a non-movable area according to an embodiment of the present invention.

도 2에서는 최대 촬영 거리(200), 이동 불가 영역(220), 이동 항로 설정 가능 영역(240)이 개시된다. In Fig. 2, the maximum photographing distance 200, the unmovable area 220, and the movement route setting area 240 are started.

전술한 바와 같이 최대 촬영 거리(200)는 촬영 대상 객체에 대한 임계 해상도 이상의 영상 정보가 획득 가능한 거리일 수 있다.As described above, the maximum photographing distance 200 may be a distance at which image information of a critical resolution or more with respect to an object to be photographed can be obtained.

이동 불가 영역(220)은 이동체의 이동으로 인해 객체와의 출돌이 발생할 수 있는 영역일 수 있다.The unmovable area 220 may be an area where a moving object may move due to movement of the moving object.

이동 항로 설정 가능 영역(240)은 최대 촬영 거리(200) 내에서 이동 불가 영역(220)을 제외한 영역일 수 있다.The route setting area 240 can be a region excluding the unmoveable area 220 within the maximum photographing distance 200.

도 3은 본 발명의 실시예에 따른 이동체를 활용한 플랜트 시설물 관리 방법 상의 설정 이동 항로의 설정 방법을 나타낸 개념도이다.3 is a conceptual diagram illustrating a method of setting a setting travel route on a plant facility management method using a moving object according to an embodiment of the present invention.

도 3에서는 이동체가 최대 촬영 거리 내의 영역 중 이동 불가 영역을 제외한 영역 상에서 설정 이동 항로를 설정하기 위한 방법이 개시된다.FIG. 3 discloses a method for setting a setting movement route on an area excluding a non-movable area out of the areas within a maximum photographing distance of a moving object.

도 3의 (a)를 참조하면, 설정 이동 항로(320)는 촬상 대상 객체의 외곽선(300)을 따라 동일한 거리를 유지하도록 설정될 수 있다. 예를 들어, 촬상 대상 객체의 외곽선이 직선인 경우, 외곽선과 일정 거리를 유지하는 직선이 이동체의 설정 이동 항로로 설정될 수 있다. 또는 촬상 대상 객체의 외곽선이 곡선인 경우, 외곽선과 일정 거리를 유지하는 곡선이 이동체의 설정 이동 항로로 설정될 수 있다. 이러한 경우, 촬상 대상 객체와 이동체 사이의 거리가 일정하도록 이동체가 이동하기 때문에 초점 거리의 변화는 크지 않을 수 있다.3 (a), the setting movement route 320 can be set to maintain the same distance along the outline line 300 of the object to be imaged. For example, when the outline of the object to be imaged is a straight line, a straight line that maintains a certain distance from the outline may be set as the setting movement route of the moving object. Or if the outline of the object to be imaged is a curve, a curve that maintains a certain distance from the outline may be set as the set travel route of the moving object. In this case, since the moving object moves so that the distance between the object to be imaged and the moving object is constant, the change in the focal length may not be large.

도 3의 (b)를 참조하면, 설정 이동 항로(370)가 촬상 대상 객체의 외곽선(350) 중 촬상 대상 객체에서 가장 거리가 먼 지점을 기준으로 결정된 직선 거리로 설정될 수도 있다. 전술한 바와 같이 촬상 대상 객체와의 충돌 가능한 영역이 이동 불가 영역으로 설정될 수 있다. 이동 불가 영역 중 촬상 대상 객체의 위치를 기준으로 가장 먼 지점을 고려하여 직선 방향의 설정 이동 항로가 설정될 수도 있다.Referring to FIG. 3 (b), the setting movement route 370 may be set as a straight line distance determined based on a point which is the farthest distance from the object to be imaged among the outline 350 of the object to be imaged. As described above, the collision area with the object to be captured can be set as the unmovable area. A setting movement route in a straight line direction may be set in consideration of the farthest point with respect to the position of the object to be captured among the non-movable areas.

설정에 따라 도 3의 (a)와 같이 이동체의 설정 이동 항로(320)가 촬상 대상 객체(300)의 외곽선을 따라 동일한 거리로 설정되거나, 도 3의 (b)와 같이 이동체의 설정 이동 항로(370)가 촬상 대상 객체(350)의 외곽선 중 촬상 대상 객체에서 가장 먼 거리 지점을 기준으로 직선 거리로 설정할 수도 있다. 구체적으로 보다 근접 촬영이 요구되는 경우, 도 3의 (a)에 개시된 바와 같이 설정 이동 항로(320)가 설정될 수도 있고, 근접 촬영보다는 개략적인 촬영만으로 충분한 경우, 도 3의 (b)에 개시된 바와 같이 설정 이동 항로(370)가 설정될 수 있다.The setting movement route 320 of the moving object is set to the same distance along the outline of the object 300 as shown in FIG. 3 (a) or the setting movement route 370 may set a straight line distance based on the farthest point of the object to be picked out of the outline of the object 350 to be picked up. Specifically, when more close-up photographing is required, the setting travel route 320 may be set as shown in Fig. 3 (a), and when only a rough photographing is sufficient than a close-up photographing, The setting movement path 370 can be set as shown in Fig.

도 4는 본 발명의 실시예에 따른 설정 이동 항로에서 촬상 대상 객체를 촬상하는 방법을 나타낸 개념도이다.4 is a conceptual diagram showing a method of picking up an object to be picked up in a setting travel route according to an embodiment of the present invention.

도 4에서는 도 3의 (b)에 개시된 바와 같이 이동체의 설정 이동 항로가 촬상 대상 객체의 외곽선 중 촬상 대상 객체에서 가장 먼 거리 지점을 기준으로 직선 거리로 설정된 경우, 이동체에 구현된 영상 촬상 장치는 촬상 대상 객체의 촬상을 위해 초점 거리(400)를 조정할 필요가 있다.4, when the moving path of the moving object is set to a straight line distance based on the farthest point of the object to be captured among the outline of the object to be captured as disclosed in FIG. 3 (b), the image capturing apparatus implemented in the moving object It is necessary to adjust the focal distance 400 in order to capture an image of the object to be picked up.

촬상 대상 객체에 굴곡이 존재하고, 이동체가 직선 방향으로 이동하여 촬상 대상 객체를 촬상하는 경우, 촬상 대상 객체까지의 거리가 변화하게 된다. 따라서, 이동체의 초점 거리(400)에 대해 조정할 필요가 있다.When a curvature exists in the object to be imaged and the moving object moves in a linear direction to take an image of the object to be imaged, the distance to the object to be imaged changes. Therefore, it is necessary to adjust for the focal length 400 of the moving object.

영상 촬상 장치는 거리 측정 센서에 의해 자동으로 초점 거리(400)를 조정할 수도 있다. 하지만, 이동체의 이동을 기반으로 영상에 대한 촬상을 수행하는 경우, 초점 거리(400)의 조정을 위한 보다 빠른 판단이 필요하다. 따라서, 본 발명의 실시예에서는 이동체는 모델링된 촬상 대상 객체와 영상 촬상 장치 간의 거리를 예측하고, 모델링된 촬상 대상 객체와 영상 촬상 장치 간의 거리를 고려하여 예상 초점 거리를 설정할 수 있다. The image capturing apparatus may automatically adjust the focal distance 400 by a distance measuring sensor. However, in the case of imaging the image based on the movement of the moving object, it is necessary to make a quick judgment for adjustment of the focal distance 400. [ Therefore, in the embodiment of the present invention, the moving object can predict the distance between the modeled object to be imaged and the image capturing device, and set the expected focal distance in consideration of the distance between the modeled object and the image capturing device.

예를 들어, 촬상 대상 객체의 외곽선이 곡선이고, 이동체의 설정 이동 항로가 직선인 경우, 촬상 대상 객체의 3D 모델을 기반으로 이동체의 이동에 따른 촬상 대상 객체와 이동체 사이의 거리의 변화에 따라 예상 초점 거리가 설정될 수 있다. For example, when the outline of the object to be imaged is a curve, and the setting movement route of the moving object is a straight line, the distance between the moving object and the object to be imaged due to the movement of the moving object based on the 3D model of the object to be imaged The focal length can be set.

영상 촬상 장치는 예상 초점 거리에 따라 초점 거리를 이동하면서 영상에 대한 촬상을 수행할 수 있다. 영상 촬상 장치는 예상 초점 거리를 기준으로 거리 측정 센서를 추가적으로 활용하여 최종 초점 거리를 설정할 수 있다. 이러한 방법이 사용되는 경우, 이동체의 이동 속도가 빠른 경우에도 예상 초점 거리를 기준으로 빠르게 최종 초점 거리가 결정되어 촬상 대상 객체에 대한 영상 정보가 보다 정확하게 획득될 수 있다.The image capturing apparatus can perform image capturing for the image while moving the focal distance according to the expected focal distance. The image capturing apparatus can additionally utilize the distance measuring sensor based on the estimated focal distance to set the final focal distance. When this method is used, the final focal distance is determined quickly based on the estimated focal distance even when the moving object is moving at a high speed, so that the image information about the object to be captured can be acquired more accurately.

도 5는 본 발명의 실시예에 따른 복수의 이동체를 사용하여 촬상 대상 객체에 대한 영상 정보를 획득하는 방법을 나타낸 개념도이다. 5 is a conceptual diagram illustrating a method of acquiring image information for an object to be imaged using a plurality of moving objects according to an embodiment of the present invention.

도 5에서는 복수의 이동체가 구간을 분할하여 촬상 대상 객체에 대한 영상 정보를 획득하는 방법이 개시된다.FIG. 5 discloses a method in which a plurality of moving objects divides a section to acquire image information on an object to be imaged.

도 5를 참조하면, 촬상 대상 객체(500)의 크기가 큰 경우, 복수의 이동체가 촬상 대상 객체를 기준으로 촬상 구간을 분할하여 촬상 대상 객체(500)에 대한 영상 정보를 획득할 수 있다.Referring to FIG. 5, when the size of the object 500 is large, a plurality of moving objects can acquire image information about the object 500 to be captured by dividing the image pickup section on the basis of the object to be captured.

복수의 이동체 중 적어도 하나의 이동체가 1차적으로 촬상 대상 객체(500)에 대한 정보를 획득할 수 있다. 복수의 이동체는 촬상 대상 객체(500)로 함께 이동할 수 있으나, 복수의 이동체 중 하나의 이동체가 촬상 대상 객체(500)의 탐색을 위한 구역을 나누기 위해 우선적으로 이동하여 촬상 대상 객체(500)에 대한 정보를 획득할 수 있다. 우선적으로 촬상 대상 객체(500)에 대한 탐색을 수행하는 객체는 마스터 이동체라는 용어로 표현될 수 있다. 복수의 이동체 중 마스터 이동체를 제외한 나머지 이동체는 서번트 이동체라는 용어로 표현될 수 있다.At least one moving object among a plurality of moving objects can primarily acquire information about the object 500 to be imaged. A plurality of moving objects may move together with the object 500 to be captured, but one moving object among the plurality of moving objects may preferentially move to divide a region for the search of the object 500, Information can be obtained. An object that performs search for the object 500 to be imaged first may be expressed by the term master moving object. The remaining movable bodies excluding the master moving body among a plurality of moving bodies can be expressed by the term " servant moving body ".

마스터 이동체는 1차적으로 획득한 촬상 대상 객체(500)에 대한 정보를 기반으로 촬상 대상 객체(500)의 영역을 복수의 하위 촬상 대상 객체 영역으로 분할할 수 있다. 분할된 복수의 하위 촬상 대상 객체 영역은 분할 촬상 영역이라는 용어로 표현될 수 있다. 마스터 이동체는 적어도 하나의 서번트 이동체 각각으로 분할 촬상 영역을 할당할 수 있다.The master moving object can divide the region of the object 500 to be captured into a plurality of sub-image pickup target object regions based on the information about the image pickup object 500 that is acquired primarily. A plurality of divided sub object regions to be imaged may be expressed by the term " partial image region ". The master moving body can allocate the divided imaging region to each of the at least one servant moving body.

적어도 하나의 서번트 이동체는 분할 촬상 영역을 할당받고, 분할 촬상 영역에 대한 탐색을 통해 분할 촬상 영역에 대한 영상 정보를 생성할 수 있다. At least one servant moving body is allocated a divided imaging region and can generate image information for the divided imaging region through search for the divided imaging region.

적어도 하나의 서번트 이동체 및 마스터 이동체에 의해 획득된 영상 정보가 결합되어 하나의 촬상 대상 객체(500)에 대한 탐색이 수행될 수 있다.The image information obtained by the at least one servant moving body and the master moving body may be combined and a search for one imaging object 500 may be performed.

도 6은 본 발명의 실시예에 따른 분할 촬상 영역을 설정하는 방법을 나타낸 개념도이다.6 is a conceptual diagram showing a method of setting a divided imaging area according to an embodiment of the present invention.

도 6에서는 마스터 이동체(600)가 서번트 이동체(650)로 분할 촬상 영역을 할당하는 방법이 개시된다. 도 6에서 서번트 이동체(650)의 개수는 복수개로 가정된다.6, a method in which the master moving body 600 assigns the divided imaging region to the servant moving body 650 is disclosed. In Fig. 6, the number of servant moving bodies 650 is assumed to be plural.

도 6을 참조하면, 마스터 이동체(600)는 최대 촬영 거리 내의 영역 중 이동 불가 영역을 제외한 영역(이하, 촬상 가능 영역)을 기준으로 영역 분할을 수행하여 분할 촬상 영역을 결정할 수 있다.Referring to FIG. 6, the master moving body 600 can determine a divided imaging area by performing area division on the basis of an area excluding a non-movable area (hereinafter referred to as an imaging area) among the areas within a maximum imaging distance.

마스터 이동체(600)는 복수의 서번트 이동체(650) 각각의 영역 분석 능력에 대한 정보를 획득하고, 복수의 서번트 이동체(650) 각각의 영역 분석 능력에 대한 정보를 기반으로 촬상 가능 영역을 분할하여 복수의 분할 촬상 영역을 결정할 수 있다. 이후 마스터 이동체(600)는 복수의 분할 촬상 영역 각각을 복수의 서번트 이동체(650) 각각으로 할당할 수 있다.The master moving body 600 obtains information on the area analysis capability of each of the plurality of servant moving bodies 650 and divides the image pickup enabling area based on the information on the area analysis capability of each of the plurality of servant moving bodies 650 to generate a plurality Can be determined. Thereafter, the master moving body 600 can allocate each of the plurality of divided imaging regions to each of the plurality of servant moving bodies 650.

마스터 이동체(600)는 복수의 서번트 이동체(650)와 결합 절차를 통해 네트워크를 형성하고 형성된 네트워크를 통해 서번트 이동체(650)로 명령을 전달할 수 있다. 마스터 이동체(600)는 미리 복수의 서번트 이동체(650) 각각과의 네트워크를 형성시 복수의 서번트 이동체(650) 각각의 영역 분석 능력에 대한 정보를 복수의 서번트 이동체(650)로 요청하여 수신할 수 있다. 영역 분석 능력에 대한 정보는 초점 거리 조절 성능, 줌 성능, 최대 해상도, 조리개 성능, 이동체의 이동 성능 등에 대한 정보를 포함할 수 있다.The master moving body 600 may form a network through a coupling procedure with a plurality of servant moving bodies 650 and may transmit the command to the servant moving body 650 through the formed network. When the master moving body 600 forms a network with each of the plurality of servant moving bodies 650 in advance, the master moving body 600 can request and receive information on the area analyzing capability of each of the plurality of servant moving bodies 650 with a plurality of servant moving bodies 650 have. The information on the area analysis capability may include information on the focal length adjustment capability, the zoom performance, the maximum resolution, the aperture performance, and the movement performance of the moving object.

마스터 이동체(600)는 촬상 가능 영역을 분할함에 있어서 상대적으로 영역 분석 능력이 뛰어난 서번트 이동체(650)에게 더 넓은 분할 촬상 영역을 할당할 수 있다.The master moving body 600 can allocate a wider divided imaging area to the servant moving body 650 that has relatively good area analysis capability in dividing the image capture area.

구체적으로 이동 성능이 상대적으로 더 뛰어나고 영상 촬상 성능이 상대적으로 더 뛰어난 서번트 이동체(650)에게 상대적으로 더 넓은 분할 촬상 영역이 할당됨으로써 보다 빠르게 촬상 대상 객체에 대한 영상 정보가 획득될 수 있다.More specifically, a relatively wider divided imaging region is allocated to the servant moving body 650, which is relatively more excellent in moving performance and relatively superior in image imaging performance, so that image information on the object to be imaged can be acquired more quickly.

마스터 이동체(600)도 또한, 하나의 분할 촬상 영역에 대한 촬상 절차를 진행할 수 있다. 이후 마스터 이동체(600)는 복수의 서번트 이동체(650) 각각으로부터 복수의 분할 촬상 영역에 대한 영상 정보를 수신하고, 복수의 분할 촬상 영역에 대한 영상 정보를 결합하여 촬상 대상 객체에 대한 영상 정보를 획득할 수 있다.The master moving body 600 may also proceed with an imaging procedure for one divided imaging region. Then, the master moving body 600 receives the image information about the plurality of divided imaging regions from each of the plurality of servant moving bodies 650, and acquires the image information about the imaging target object by combining the image information about the plurality of divided imaging regions can do.

도 5 및 도 6에서는 설명의 편의상 촬상 대상 객체가 예시적으로 개시되었으나, 촬상 대상 객체와 같은 물체가 아닌 촬상 대상 영역에도 마찬가지로 적용될 수 있다.5 and 6 illustrate an object to be imaged for the sake of convenience of description, but it can also be applied to an object to be imaged other than an object such as an object to be imaged.

도 7은 본 발명의 실시예에 따른 마스터 이동체와 서번트 이동체 간의 네트워킹 방법을 나타낸 개념도이다.7 is a conceptual diagram illustrating a networking method between a master moving body and a servant moving body according to an embodiment of the present invention.

도 7에서는 복수의 이동체에서 마스터 이동체(700)와 서번트 이동체(710 내지 740)가 설정되는 방법이 개시된다.In Fig. 7, a method is described in which a master moving body 700 and a servant moving body 710 to 740 are set in a plurality of moving bodies.

도 7을 참조하면, 촬상 대상 객체의 크기에 따라 복수의 이동체 중 마스터 이동체(600)와 서번트 이동체(750)가 결정될 수 있다. Referring to FIG. 7, the master moving body 600 and the servant moving body 750 among a plurality of moving bodies can be determined according to the size of the object to be imaged.

초기 결합 단계에서는 복수의 이동체 중 성능(이동 속도 및 데이터 처리 속도 등)이 가장 뛰어난 하나의 이동체가 초기 마스터 이동체(700)로 설정되고 초기 마스터 이동체(700)를 제외한 나머지 이동체는 서번트 이동체(750)로 설정될 수 있다.In the initial coupling stage, one moving object having the best performance (moving speed, data processing speed, etc.) among a plurality of moving objects is set as the initial master moving object 700, and the remaining moving objects except for the initial master moving object 700 are moved to the servant moving object 750, Lt; / RTI >

초기 마스터 이동체(700) 및 서번트 이동체들(750)은 촬상 대상 객체에 대한 촬상을 위해 촬상 대상 객체로 이동할 수 있고, 초기 마스터 이동체(700)는 촬상 대상 객체로 이동 중 추가의 마스터 이동체의 설정 여부를 결정할 수 있다.The initial master moving body 700 and the servant moving bodies 750 can move to the object to be imaged for imaging of the object to be imaged and the initial master moving body 700 can set the additional master moving body while moving to the object to be imaged Can be determined.

예를 들어, 초기 마스터 이동체(700)는 촬상 대상 객체(720)가 탐지되는 경우, 촬상 대상 객체(720)의 크기를 예측하고, 예측된 촬상 대상 객체(720)의 크기를 기반으로 추가로 추가 마스터 이동체를 설정할지 여부가 결정될 수 있다. For example, when the imaging object 720 is detected, the initial master moving body 700 predicts the size of the imaging object 720 and adds the imaging object 720 based on the estimated size of the imaging object 720 It can be determined whether or not to set the master moving body.

예측된 촬상 대상 객체(720)의 크기가 임계 크기 이하인 경우, 예측된 촬상 대상 객체(720)의 탐지를 위한 추가 마스터 이동체가 설정되지 않을 수 있다. 반대로 예측된 촬상 대상 객체(720)의 크기가 임계 크기 이상인 경우, 예측된 촬상 대상 객체(720)의 탐지를 위한 추가 마스터 이동체(730)가 설정될 수 있다. 추가 마스터 이동체(730)는 서번트 이동체(750) 중 가장 성능이 뛰어난 이동체일 수 있다.If the size of the predicted imaging object 720 is smaller than the threshold size, an additional master moving object for detection of the predicted imaging object 720 may not be set. Conversely, when the size of the predicted imaging object 720 is equal to or larger than the threshold size, an additional master mobile body 730 for detection of the predicted imaging object 720 may be set. The additional master moving body 730 may be the moving body having the highest performance among the servant moving bodies 750.

추가 마스터 이동체(730)가 설정되는 경우, 나머지 서번트 이동체는 초기 마스터 이동체(700)를 위한 서번트 이동체 및 추가 마스터 이동체(730)를 위한 서번트 이동체로 그룹핑될 수 있다.When the additional master moving body 730 is set, the remaining servant moving body can be grouped into the servant moving body for the initial master moving body 700 and the servant moving body for the additional master moving body 730. [

초기 마스터 이동체(700) 및 추가 마스터 이동체(730)가 촬상 대상 객체에 인접하는 경우, 초기 마스터 이동체(700) 및 추가 마스터 이동체(730)는 서번트 이동체보다 우선적으로 촬상 대상 객체로 이동하여 도 6에서 전술한 바와 같이 1차적으로 촬상 대상 객체에 대한 정보를 획득하고 적어도 하나의 서번트 이동체 각각으로 분할 촬상 영역을 할당할 수 있다.When the initial master moving body 700 and the additional master moving body 730 are adjacent to the object to be imaged, the initial master moving body 700 and the additional master moving body 730 move to the object to be imaged preferentially over the servant moving body, As described above, it is possible to acquire information on the object to be imaged primarily and allocate the divided imaging region to each of the at least one servant moving body.

구체적으로 초기 마스터 이동체(700) 및 추가 마스터 이동체(730)는 상호 네트워킹을 통해 촬상 대상 객체(720)에 대한 정보를 획득하기 위해 촬상 대상 객체(720)에 대응되는 영역을 초기 마스터 이동체 탐지 영역 및 추가 마스터 이동체 탐지 영역으로 분할할 수 있다. 초기 마스터 이동체(700)는 초기 마스터 이동체 탐지 영역을 분할한 분할 촬상 영역을 초기 마스터 이동체(700)와 연결된 서번트 이동체로 할당할 수 있다. 추가 마스터 이동체(730)는 추가 마스터 이동체 탐지 영역을 분할한 분할 촬상 영역을 추가 마스터 이동체(730)와 연결된 서번트 이동체로 할당할 수 있다.Specifically, the initial master moving body 700 and the additional master moving body 730 communicate with the initial master moving object detection area and the area corresponding to the imaging object 720 in order to acquire information about the imaging object 720 through mutual networking, It can be divided into additional master moving object detection areas. The initial master moving body 700 can allocate the divided imaging region in which the initial master moving object detection region is divided to the servant moving body connected to the initial master moving body 700. [ The additional master moving body 730 may allocate the divided imaging area in which the additional master moving object detection area is divided to the servant moving body connected to the additional master moving body 730. [

마스터 이동체와 서번트 이동체 간의 유기적인 임무 수행을 통해 대형 플랜트 시설물에 대해서도 빠른 관리가 가능하다.It is also possible to manage large-sized plant facilities quickly by performing an organic mission between the master moving body and the servant moving body.

도 8은 본 발명의 실시예에 따른 영상 촬상 장치와 피사면을 나타낸 개념도이다. FIG. 8 is a conceptual view showing a video imaging device and a surface to be imaged according to an embodiment of the present invention.

도 8의 (a)를 참조하면, 피사면(1200)은 굴곡이 없는 평면으로서 영상 촬상부의 렌즈의 중심점을 기준으로 렌즈를 관통하도록 수직으로 내린 직선에 수직하는 평면일 수 있다.Referring to Fig. 8A, the surface to be scanned 1200 may be a plane that is perpendicular to a straight line that passes through the lens with respect to the center point of the lens of the image sensing unit as a flat surface without bending.

도 8의 (b)를 참조하면, 피사면(1250)은 굴곡이 없는 평면으로서 영상 촬상부의 렌즈의 중심점을 기준으로 렌즈를 관통하도록 수직으로 내린 직선에 수직하지 않는 평면일 수 있다. Referring to FIG. 8 (b), the surface to be inspected 1250 may be a flat surface that is not perpendicular to a line vertically passed through the lens with respect to the center point of the lens of the image sensing unit as a flat surface without bending.

도 9는 본 발명의 실시예에 다른 영상 촬상 장치와 피사면을 나타낸 개념도이다.FIG. 9 is a conceptual view showing a video imaging device and a surface to be inspected different from the embodiment of the present invention. FIG.

도 9에서는 피사면에 굴곡이 존재하는 경우, 피사면에 대한 정보를 획득하는 방법이 개시된다.In Fig. 9, a method for acquiring information on a surface to be subjected to incidence is described.

영상 촬상 장치의 거리 측정 센서부는 하나의 점이 아니라 복수의 거리 측정 지점(1300)에 대한 거리를 측정할 수 있다. 예를 들어, 거리 측정 센서부는 복수개의 측정 지점(1300)을 포함하는 어레이(10x10)를 기반으로 피사면 상의 100개의 측정 지점(1300) 각각에 대한 피사면 거리(또는 깊이 정보)를 측정하여 영상 내의 객체의 깊이 정보를 결정할 수 있다.The distance measurement sensor unit of the image pickup apparatus can measure the distance to a plurality of distance measurement points 1300 instead of one point. For example, the distance measurement sensor unit measures the surface distance (or depth information) of each of the 100 measurement points 1300 on the surface of interest on the basis of the array 10x10 including the plurality of measurement points 1300, Can determine the depth information of the object in the scene.

피사면 상의 복수개의 측정 지점(1300)에 대한 깊이 정보를 측정하기 위해 다양한 방법이 사용될 수 있다. 예를 들어, 범위 탐지기(range detector)(예를 들어, 단일 방향 레이저, 초음파, 영상 등)을 사용하여 피사면 상에서 일정한 바둑판 형태 또는 점 매트릭스(dot matrix)에 대응되는 파사면 상의 복수개의 측정 지점(1300)에 대한 깊이 정보가 결정될 수 있다. Various methods can be used to measure depth information for a plurality of measurement points 1300 on the specimen surface. For example, using a range detector (e.g., uni-directional laser, ultrasound, imaging, etc.), a plurality of measurement points on a wavefront corresponding to a dot matrix, The depth information for the image 1300 can be determined.

또는 LiDAR(light detection and ranging)이 사용되는 경우, 십자 모양 또는 격자 형태로 다중 라인 스캐닝을 기반으로 복수개의 파사면 상의 측정 지점(1300)에 대한 깊이 정보가 결정될 수 있다.Or light detection and ranging (LiDAR) is used, depth information for the measurement points 1300 on a plurality of wavefronts can be determined based on multi-line scanning in a cross or lattice form.

또는 Time-of-Flight 카메라나 스테레오 카메라 등을 사용하여 복수개의 피사면 상의 측정 지점(1300)에 대한 깊이 정보를 결정할 수 있다.Or a time-of-flight camera or a stereo camera may be used to determine the depth information for the measurement points 1300 on a plurality of surfaces to be surveyed.

위와 같은 방법을 통해 복수개의 피사면 상의 측정 지점(1300)에 대한 깊이 정보가 획득될 수 있고, 복수개의 피사면 상의 측정 지점(1300)에 대한 깊이 정보에 따라 피사면에 대한 깊이 맵(depth map)이 결정될 수 있다.Depth information on the measurement points 1300 on the plurality of surfaces to be acquired can be obtained through the above method and the depth map for the surface to be surveyed according to the depth information on the measurement points 1300 on the plurality of surfaces to be surveyed ) Can be determined.

도 9를 참조하면, 영상 촬상 장치는 피사면에 가상의 어레이를 배열하여 어레이에 포함되는 피사면 상의 복수개의 측정 지점(1300) 각각에 대한 깊이 정보를 결정할 수 있다. 이러한 피사면 상의 복수개의 측정 지점(1300) 각각에 대한 깊이 정보를 통해 드론과 같은 이동체의 운행 경로 상의 장애물에 대한 정보가 획득되고 이동체는 장애물을 피하여 운행될 수 있다. 이뿐만 아니라, 피사면 상의 복수개의 측정 지점(1300) 각각에 대한 깊이 정보를 기반으로 피사면 상에 위치한 크랙에 대한 정보(크랙의 위치 및 크기에 대한 정보)도 획득될 수 있다. Referring to FIG. 9, the image capturing apparatus can arrange virtual arrays on a surface to be inspected to determine depth information on each of a plurality of measurement points 1300 on a surface to be included in the array. Information about the obstacle on the moving path of the moving object such as a drone is obtained through the depth information of each of the plurality of measuring points 1300 on the surface to be scanned, and the moving object can be driven by avoiding the obstacle. In addition to this, information on cracks (information on the position and size of the cracks) on the surface to be projected can also be obtained based on the depth information of each of the plurality of measurement points 1300 on the surface to be inspected.

본 발명의 실시예에 따르면, 피사면에 대한 정보를 빠르게 획득하기 위해 피사면과 유사한 도형을 찾아내어 피팅하여 피사면을 정의함으로써 이동체의 계산량이 감소될 수 있다. According to the embodiment of the present invention, the calculation amount of the moving object can be reduced by finding a figure similar to the surface to be acquired and fitting the surface to obtain information about the surface to be surveyed to define the surface to be scanned.

도 10은 본 발명의 실시예에 따른 유사 도형을 기반으로 피사면 정보를 획득하는 방법을 나타낸 개념도이다.FIG. 10 is a conceptual diagram illustrating a method for acquiring subject surface information based on a similar figure according to an embodiment of the present invention.

도 10을 참조하면, 도 9에서 전술한 바와 같이 한번에 피사면 상의 복수개의 측정 지점 각각에 대한 거리를 측정할 수 있는 센서를 사용하여 피사면 상의 복수개의 측정 지점에 대한 거리를 측정하여 피사면 상의 복수개의 측정 지점 각각에 대한 깊이 정보가 결정될 수 있다.Referring to FIG. 10, the distance to a plurality of measurement points on the surface to be measured is measured using a sensor capable of measuring the distance to each of a plurality of measurement points on the surface to be measured at once, as described above with reference to FIG. 9, Depth information for each of a plurality of measurement points can be determined.

이후, 피사면 상의 각 점까지의 거리 정보를 기반으로 피사면 상에 피팅되는 도형(예를 들어, 평면, 구면, 실린더, 계단, 나선 등)(1400)에 대한 조합 모델을 사용하여 전체적인 피사면 표면이 표현될 수 있다.Thereafter, by using a combination model for a shape (for example, a plane, a sphere, a cylinder, a staircase, a spiral, etc.) 1400 fitted on the surface to be inspected based on the distance information to each point on the surface to be inspected, The surface can be expressed.

이러한 방법을 통해 하드웨어의 성능이 제한적인 드론과 같은 이동체에서 피사면과 유사한 도형(1400)을 찾아내어 피사면을 정의함으로써 드론의 계산량이 크게 감소될 수 있다.In this way, the calculation amount of the drone can be greatly reduced by finding a figure 1400 similar to the surface to be scanned in a moving object such as a dragon whose hardware performance is limited, and defining the surface to be scanned.

이와 같은 방법으로 판단된 피사면의 표면을 기반으로 드론의 비행이 제어될 수 있다. 피사면의 정의를 통해 피사면 상에 크랙이 있는 경우, 크랙 영상 처리를 통해 크랙에 대한 정보가 획득될 수 있다. 이를 통해 복잡한 플랜트 시설물의 표면에 크랙 등이 존재하는지를 파악할 수 있다.The flight of the drones can be controlled based on the surface of the surface to be inspected determined in this way. If there is a crack on the surface to be inspected through the definition of the surface to be inspected, information on the crack can be obtained through the crack image processing. This can be used to determine if there is a crack or the like on the surface of a complex plant facility.

드론과 같은 이동체가 비행시에 피사면에 대한 정보를 기반으로 장애물을 피할 수 있을 뿐만 아니라 지상에서 돌아 다니는 로봇도 피사면에 대한 정보를 기반으로 장애물이 없는 평평한 곳을 찾아 이동 경로를 설정할 수 있다. In addition to being able to avoid obstacles based on information about the slope during flight, robots traveling on the ground can also determine the path of travel based on information about the slope, .

도 11은 본 발명의 실시예에 따른 피사면 정보를 획득하는 방법을 나타낸 개념도이다.11 is a conceptual diagram illustrating a method for acquiring subject surface information according to an embodiment of the present invention.

도 11에서는 이동체의 촬상 각도에서 촬상될 수 없는 피사면에 대한 정보를 획득하는 방법이 개시된다.In Fig. 11, a method for acquiring information on a surface to be imaged that can not be picked up at an imaging angle of a moving object is disclosed.

도 11을 참조하면, 피사면에 굴곡이 존재하는 경우, 굴곡으로 인해 피사면 중 일부의 영역에 대한 깊이 정보가 획득되지 않을 수 있다. 피사면 중 획득되지 않은 부분은 미촬상 영역(1500)이라는 용어로 표현된다.Referring to FIG. 11, when bending exists on the surface to be inspected, depth information on a part of the surface to be surveyed may not be obtained due to bending. The portion not acquired in the surface to be inspected is represented by the term " non-imaging region 1500 ".

이러한 경우, 이동체는 미촬상 영역(1500)에 대한 정보를 획득하기 위한 이동 경로를 설정하고 이동 후 미촬상 영역(1500)을 촬상하여 기존에 촬영된 영상 정보와 결합하여 피사면을 모델링 할 수 있다.In this case, the moving object can set a moving path for acquiring information on the non-image sensing area 1500, capture the non-image sensing area 1500 after moving, and combine with the previously captured image information to model the surface to be scanned .

전술한 바와 같이 이동체는 피사면에 가상의 어레이를 배열하여 어레이에 포함되는 피사면 상의 복수개의 측정 지점 각각에 대한 깊이 정보를 결정할 수 있다. 피사면 상의 복수개의 측정 지점은 2차원 상의 좌표(x, y)로 표현될 수 있다. 예를 들어, 10x10 어레이를 기반으로 복수개의 측정 지점에 대한 깊이 정보가 측정되는 경우, (0, 0)부터 (10, 10)까지 복수개의 측정 지점에 대한 깊이 정보가 측정되고 피사면 정보가 획득될 수 있다.As described above, the moving object can arrange virtual arrays on the surface to be imaged to determine depth information for each of a plurality of measurement points on the surface to be imaged included in the array. A plurality of measurement points on the surface to be inspected can be represented by coordinates (x, y) on a two-dimensional plane. For example, when depth information is measured for a plurality of measurement points based on a 10x10 array, depth information for a plurality of measurement points from (0, 0) to (10, 10) is measured, .

이동체가 제1 지점에서 촬상을 수행할 경우, 피사면의 굴곡으로 인해 복수개의 측정 지점 중 일부의 측정 지점에 대한 깊이 측정이 어려울 수 있다. 이러한 경우, 이동체는 미촬상 영역(1500)에 대응되는 측정 지점의 좌표를 결정할 수 있다.When the moving object performs imaging at the first point, it may be difficult to measure the depth of some of the plurality of measurement points due to the curvature of the surface to be inspected. In this case, the moving object can determine the coordinates of the measurement point corresponding to the non-imaging area 1500. [

예를 들어, 미촬상 영역(1500)에 대응되는 좌표가 (a, b), (c, d), (e, f), (g, h)인 경우, 이동체는 (a, b), (c, d), (e, f), (g, h)에 대응되는 측정 지점의 깊이 정보를 측정하기 위해 이동될 수 있다. For example, when the coordinates corresponding to the non-imaging region 1500 are (a, b), (c, d), (e, f) c, d), (e, f), (g, h).

구체적으로 이동체는 미촬상 영역(1500)과 미촬상 영역(1500)의 주변 영역을 함께 촬영하여 피사면에 대응되는 전체 측정 지점에 대한 깊이 정보를 결정할 수 있다. 미촬상 영역(1500)에 대응되는 좌표가 (a, b), (c, d), (e, f), (g, h)인 경우, 미촬상 영역(1500)의 주변 영역에 대응되는 좌표 (a', b'), (c', d'), (e', f'), (g', h)' 및 미촬상 영역(1500)에 대응되는 좌표가 (a, b), (c, d), (e, f), (g, h)에 대한 깊이 정보를 획득할 수 있다. 위와 같은 미촬상 영역(1500) 및 미촬상 영역(1500)의 주변 영역에 대한 깊이 정보를 획득하여 전체 피사면에 대한 3D 모델링이 수행될 수 있다.Specifically, the moving object can photograph the non-image pickup area 1500 and the peripheral area of the non-image pickup area 1500 to determine depth information about the entire measurement point corresponding to the surface to be scanned. In the case where the coordinates corresponding to the non-image sensing area 1500 are (a, b), (c, d), (e, f) (a, b), (c ', d'), (e ', f'), (g ', h) c, d), (e, f), (g, h). The depth information on the surrounding regions of the non-sensing region 1500 and the non-sensing region 1500 as described above may be obtained and 3D modeling of the entire surface to be inspected may be performed.

이동체는 미촬상 영역(1500) 및 주변 영역에 대한 촬상을 위해 제1 지점에서 제2 지점으로 이동하여 촬상을 수행할 수 있고, 제2 지점은 미촬상 영역(1500) 및 주변 영역에 대한 촬상이 가능한 위치일 수 있다. 즉, 이동체는 미촬상 영역(1500)에 대응되는 좌표 및 주변 영역에 대응되는 좌표를 고려하여 제2 지점을 결정할 수 있다. 한편, 이때는 미촬상 영역에 대한 촬상을 시도하기 때문에 이동체가 촬상 대상에 대한 모든 정보를 포함하고 있지 않을 수 있다. 그러므로 이동체와 피사면(플랜트 시설물) 간의 충돌을 사전 방지하기 위해 이동체가 이동 항로 설정 가능 영역 내에서 피사면, 즉 플랜트의 표면으로부터 가장 지점으로 이루어진 선상으로 이동하도록 설정할 수 있다.The moving object can move from the first point to the second point to perform imaging with respect to the non-imaging area 1500 and the surrounding area, and the second point can perform imaging with respect to the non-imaging area 1500 and the surrounding area It can be a possible location. That is, the moving object can determine the second point in consideration of the coordinates corresponding to the non-imaging area 1500 and the coordinates corresponding to the surrounding area. On the other hand, in this case, since the imaging is attempted with respect to the non-imaging region, the moving object may not include all the information about the imaging target. Therefore, in order to prevent the collision between the moving object and the surface to be projected (plant facility), the moving object can be set to move in a line defined by the surface to be scanned, that is, the surface from the surface of the plant.

도 12 는 본 발명의 실시예에 따른 이동체의 피사면 정보 획득 방법을 나타낸 개념도이다.12 is a conceptual diagram illustrating a method of acquiring target surface information of a moving object according to an embodiment of the present invention.

도 12에서는 피사면에 대한 크랙 정보 분석 방법이 개시된다.In Fig. 12, a method for analyzing crack information on a surface to be etched is disclosed.

도 12를 참조하면, 이동체는 1차적으로 상대적으로 넓은 피사면에 대한 스캔을 통해 크랙의 존재 여부를 우선적으로 판단할 수 있다. 예를 들어, 이동체는 구조물의 제1 면적에 존재하는 크랙에 대해 판단할 수 있다.Referring to FIG. 12, a moving object can primarily determine whether a crack exists by scanning a relatively wide surface to be scanned. For example, the moving object can judge a crack present in the first area of the structure.

전술한 바와 같이 이동체는 피사면에 가상의 어레이(1600)를 배열하여 어레이(1600)에 포함되는 피사면 상의 복수개의 측정 지점 각각에 대한 깊이 정보를 결정할 수 있다.As described above, the moving object can arrange a virtual array 1600 on the surface to be measured to determine depth information for each of a plurality of measurement points on the surface to be scanned included in the array 1600. [

제1 면적에 대한 크랙의 존재에 대해 판단하기 위해 이동체는 측정 지점에 대응되는 좌표 사이의 거리를 이동할 수 있다. 예를 들어, 이동체는 (x, y), (x+1, y), (x, y+1), (x+1, y+1)에 대응되는 좌표 사이를 설정된 이동 패턴으로 이동하면서 크랙의 존재 여부를 판단할 수 있다. 여기서, (x, y)는 복수개의 측정 지점 각각을 의미할 수 있다. 만약, 5x5 어레이(1600)인 경우, 피사면은 25개의 분할 피사면으로 분할되어 25개의 분할 피사면 각각의 크랙의 존재 여부가 탐지될 수 있다. 이동체가 가로 방향으로 1, 세로 방향으로 1의 거리를 이동 패턴에 따라 이동함으로써 동시에 25개의 분할 피사면 면적 각각에 대해 이동 패턴에 따른 크랙 존재 여부 탐지될 수 있다. 이동 패턴은 X 형태, + 형태, Z 형태 등 크랙을 탐지하는 피사면에 따라 다양하게 설정될 수 있다.To determine the presence of a crack with respect to the first area, the mobile can move the distance between coordinates corresponding to the measurement point. For example, the moving object moves between coordinates corresponding to (x, y), (x + 1, y), (x, y + 1) Can be determined. Here, (x, y) may mean each of a plurality of measurement points. In the case of the 5x5 array 1600, the surface to be sliced is divided into 25 divided surfaces to detect the presence of cracks in each of 25 divided surfaces to be sliced. The moving body moves the distance of 1 in the transverse direction and 1 in the longitudinal direction according to the movement pattern, and at the same time, the presence of cracks can be detected according to the movement pattern for each of the 25 divided surface areas. The movement patterns can be variously set according to the surfaces to be detected, such as X shape, + shape, Z shape, and the like.

즉, 이동체가 이동 패턴에 따라 이동되는 경우, 깊이 정보를 판단하기 위한 어레이(1600)가 이동 패턴을 기준으로 이동되면서 어레이(1600)에 따라 결정된 분할 피사면 각각에 대한 크랙의 존재 여부가 판단될 수 있다. That is, when the moving object is moved according to the movement pattern, the array 1600 for determining the depth information is moved on the basis of the movement pattern, and it is determined whether or not there is a crack in each of the divided surfaces to be inspected determined according to the array 1600 .

복수의 분할 피사면은 인덱싱될 수 있고, 이동체는 복수의 분할 피사면 중 크랙이 존재하는 분할 피사면에 대한 2차 스캔을 수행할 수 있다.A plurality of divided surfaces to be sliced can be indexed and the moving body can perform a secondary scan on the divided surface to be sliced where cracks exist among the plurality of divided surfaces to be sliced.

예를 들어, 25개의 분할 피사면 각각은 분할 피사면1 내지 분할 피사면25으로 인덱싱될 수 있다. 25개의 분할 피사면 중 분할 피사면10(1650)에 크랙이 존재하는 경우, 분할 피사면 10(1650)에 대한 2차 스캔을 통해 크랙에 대한 구체적인 정보를 탐지할 수 있다.For example, each of the 25 divided surfaces to be pierced can be indexed to the divided surface to be sliced 1 to the divided surface 25. When there is a crack in the divided surface 1050 (1650) among the 25 divided surfaces to be inspected, detailed information on the crack can be detected through the secondary scan of the divided surface 1050 (1650).

2차 스캔에서는 분할 피사면 10(1650)에 대한 깊이 정보를 탐지하기 위해 분할 피사면 10(1650)에 어레이(1600)를 집중시켜 구체적인 크랙의 크기, 크랙의 깊이 등과 같은 크랙 관련 정보를 획득할 수 있다. 예를 들어, 10x10 어레이(1600)가 깊이 정보를 측정하기 위해 사용되는 경우, 분할 피사면10(1650)에 10x10 어레이(1600)에 포함되는 100개의 측정 지점을 집중하여 분할 피사면10(1650)에 위치한 크랙의 크기, 크랙의 깊이에 대한 정보가 획득될 수 있다.In the secondary scan, the array 1600 is focused on the divided surface 1050 (1650) in order to detect the depth information on the divided surface 1050 (1650) to obtain crack-related information such as the size of a specific crack, . For example, when a 10x10 array 1600 is used to measure depth information, the 100 measurement points included in the 10x10 array 1600 are focused on the divided surface 10 (1650) Information on the size of cracks and depths of cracks located in the cracks can be obtained.

이때, 이동체는 촬상 가능 영역 중 촬상 대상 객체(예:플랜트 시설물)로부터 가장 가까운 거리의 공간상의 점으로 이루어진 면을 비행할 수 있다. 촬상 대상 객체와 충돌은 회피하되 가장 근접하여 크랙을 촬영할 수 있다.At this time, the moving object can fly a plane of a point on the space closest to the object to be imaged (for example, a plant facility) among the image capture possible areas. It is possible to shoot a crack while avoiding collision with an object to be imaged.

도 1 내지 도 12에서 전술한 이동체, 영상 촬상 장치의 동작은 프로세서를 기반으로 수행될 수 있다.The operation of the moving body and the image pickup apparatus described above with reference to Figs. 1 to 12 can be performed based on a processor.

상술된 방법 및 처리는, 예를 들어, 프로세서, 컨트롤러, 또는 다른 처리 디바이스에 의한 실행을 위한 명령들로서, 인코딩되거나, 컴팩트 디스크 판독 전용 메모리 (CDROM), 자기 또는 광학 디스크, 플래시 메모리, 랜덤 액세스 메모리 (RAM) 또는 판독 전용 메모리 (ROM), 소거가능 프로그램가능 판독 전용 메모리(EPROM) 또는 다른 머신-판독가능 매체와 같은 머신 판독가능 또는 컴퓨터 판독가능 매체에 저장될 수도 있다.The methods and processes described above may be embodied as instructions for execution by, for example, a processor, controller, or other processing device, or may be encoded or read from a compact disk read only memory (CDROM), magnetic or optical disk, flash memory, (RAM) or read only memory (ROM), erasable programmable read only memory (EPROM), or other machine-readable medium.

이러한 매체는, 명령 실행가능 시스템, 장치 또는 디바이스에 의해 또는 이와 연결하여 사용하기 위한 실행가능한 명령들을 포함, 저장, 통신, 전파 또는 이동시키는 임의의 디바이스로서 구현될 수도 있다. 대안으로 또는 추가적으로, 하나 이상의 집적 회로, 또는 하나 이상의 프로세서 실행 명령들과 같은 하드웨어를 이용하여 아날로그 또는 디지털 로직으로서; 또는 API (application programming interface) 또는 DLL (Dynamic Link Library), 로컬 또는 원격 절차 호출로서 정의된 또는 공유 메모리에서 이용가능한 기능들의 소프트웨어로; 또는 하드웨어 및 소프트웨어의 조합으로서 구현될 수도 있다.Such a medium may be embodied as any device that stores, communicates, propagates, or transports executable instructions for use by or in connection with an instruction executable system, apparatus or device. Alternatively or additionally, as analog or digital logic using one or more integrated circuits, or hardware such as one or more processor execution instructions; Or as application programming interfaces (APIs) or dynamic link libraries (DLLs), software as functions defined in local or remote procedure calls or available in shared memory; Or a combination of hardware and software.

다른 구현에서, 방법은 신호 또는 전파-신호 매체로 나타내어질 수도 있다. 예를 들어, 임의의 소정의 프로그램의 로직을 구현하는 명령들은 전기, 자기, 광학, 전자기, 적외선 또는 다른 타입의 신호의 형태를 취할 수도 있다. 상술된 시스템은 광섬유 인터페이스, 안테나, 또는 다른 아날로그 또는 디지털 신호 인터페이스와 같은 통신 인터페이스에서 이러한 신호를 수신하고, 그 신호로부터 명령들을 복원하고, 이들을 머신 판독 가능 메모리에 저장하고, 그리고/또는 프로세서를 이용하여 이들을 실행시킬 수도 있다.In other implementations, the method may be represented as a signal or a propagation-signal medium. For example, instructions that implement the logic of any given program may take the form of electrical, magnetic, optical, electromagnetic, infrared, or other types of signals. The above-described systems may be configured to receive such signals at a communication interface, such as a fiber optic interface, antenna, or other analog or digital signal interface, to recover instructions from the signal, store them in a machine readable memory, and / And execute them.

또한, 상기 본 발명은 하드웨어 또는 소프트웨어에서 구현될 수 있다. 구현은 상기 본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Further, the present invention can be implemented in hardware or software. The present invention can also be embodied as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers skilled in the art to which the present invention pertains.

본 발명의 실시예들은 여기에 설명된 방법들 중 하나가 실행되는 프로그램가능 컴퓨터 시스템으로 운영될 수 있는, 전자적으로 판독가능한 제어 신호들을 갖는 캐리어 웨이브를 포함할 수 있다. 본 발명의 실시예들은 프로그램 코드를 갖는 컴퓨터 프로그램 제품으로서 구현될 수 있으며, 프로그램 코드는 컴퓨터 프로그램이 컴퓨터 상에서 구동될 때 방법들 중 하나를 실행하기 위하여 운영된다. 프로그램 코드는 예를 들면 기계 판독가능 캐리어 상에 저장될 수 있다. 본 발명의 일실시예는 컴퓨터 프로그램이 컴퓨터 상에 구동될 때, 여기에 설명된 방법들 중 하나를 실행하기 위한 프로그램 코드를 갖는 컴퓨터 프로그램일 수 있다. 본 발명은 위에서 설명한 방법들 중 하나를 실행하기 위한 컴퓨터, 또는 프로그램가능 논리 장치를 포함할 수 있다. 위에서 설명한 방법들의 일부 또는 모든 기능을 실행하기 위하여 프로그램가능 논리 장치(예를 들면, 필드 프로그램가능 게이트 어레이, 상보성 금속 산화물 반도체 기반 논리 회로)가 사용될 수 있다.Embodiments of the present invention may include a carrier wave having electronically readable control signals, which may be operated with a programmable computer system in which one of the methods described herein is implemented. Embodiments of the present invention may be implemented as a computer program product having program code, wherein the program code is operated to execute one of the methods when the computer program is run on a computer. The program code may be stored on, for example, a machine readable carrier. One embodiment of the invention may be a computer program having program code for executing one of the methods described herein when the computer program is run on a computer. The present invention may include a computer, or programmable logic device, for performing one of the methods described above. A programmable logic device (e.g., a field programmable gate array, a complementary metal oxide semiconductor based logic circuit) may be used to perform some or all of the functions described above.

이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit of the invention as set forth in the appended claims. The present invention can be variously modified and changed by those skilled in the art, and it is also within the scope of the present invention.

Claims (7)

이동체를 활용한 플랜트 시설물 관리 방법은,
이동체에 구현된 영상 촬상 장치가 촬상 대상 객체에 대한 최대 촬영 거리를 결정하는 단계;
상기 이동체가 상기 촬상 대상 객체에 대한 3차원 모델을 획득하는 단계;
상기 이동체가 상기 3차원 모델을 확장하여 상기 이동체의 이동 불가 영역을 설정하는 단계;
상기 이동체가 설정 이동 항로 상에서 상기 촬상 대상 객체를 스캔하는 단계;
상기 영상 촬상 장치가 상기 플랜트 시설물의 피사면에 대한 깊이 정보를 센싱하는 단계; 및
상기 영상 촬상 장치가 상기 깊이 정보를 기반으로 상기 피사면 내의 크랙에 대한 정보를 획득하는 단계를 포함하되,
상기 설정 이동 항로는 상기 최대 촬영 거리 내의 영역 중 상기 이동 불가 영역을 제외한 촬상 가능 영역에서 설정되고,
상기 설정 이동 항로는 촬영 타입에 따라 제1 항로 또는 제2 항로로 설정되고,
상기 제1 항로는 상기 촬상 대상 객체의 외곽선과 동일한 거리를 유지하도록 상기 외곽선을 따라 설정되고,
상기 제2 항로는 상기 촬상 대상 객체의 외곽선 중 상기 촬상 대상 객체를 기준으로 가장 먼 거리의 지점을 기준으로 직선 거리로 설정되고,
상기 제2 항로가 설정된 경우, 상기 영상 촬상 장치는 상기 3차원 모델을 기반으로 예상 초점 거리를 결정하고,
상기 영상 촬상 장치는 상기 이동체의 상기 제2 항로의 이동에 따라 상기 예상 초점 거리를 고려하여 상기 촬상 대상 객체에 대한 촬상을 수행하고,
상기 피사면은 상기 영상 촬상 장치에 구현된 영상 촬상부의 렌즈의 중심점을 기준으로 상기 렌즈를 관통하도록 수직으로 내린 직선과 만나는 상기 영상 촬상부에 의해 촬상되는 면이고,
상기 피사면이 굴곡이 없는 평면으로서 상기 직선과 수직인 경우, 상기 영상 촬상 장치는 상기 렌즈의 상기 중심점과 상기 피사면까지의 최단 거리인 피사면 거리에 대한 정보 및 상기 영상 촬상부의 광학계 특성 정보를 기반으로 상기 피사면의 4개의 꼭지점의 위치를 결정하고,
상기 피사면이 상기 굴곡이 없는 평면으로서 상기 직선과 수직이 아닌 경우, 상기 영상 촬상 장치는 상기 피사면 거리에 대한 정보, 상기 광학계 특성 정보 및 상기 영상 촬상부의 촬상 축의 뒤틀린 각도 정보를 기반으로 상기 피사면의 상기 4개의 꼭지점의 위치를 결정하고,
상기 피사면이 상기 굴곡이 존재하는 평면인 경우, 상기 영상 촬상 장치는 깊이 측정 어레이를 기반으로 상기 피사면 상에 위치한 복수의 측정 지점 각각에 대한 복수의 깊이 정보 각각을 측정하고,
상기 피사면 내의 크랙의 존재 여부는 상기 복수의 깊이 정보 각각을 기반으로 결정되는 것을 특징으로 하는 이동체를 활용한 플랜트 시설물 관리 방법.
A plant facility management method using a moving object is a method
Determining a maximum photographing distance of the object to be imaged by the image capturing device implemented in the moving object;
Acquiring a three-dimensional model of the object to be imaged by the moving object;
Setting a non-movable region of the moving object by extending the three-dimensional model;
The moving object scanning the imaging object on the setting movement route;
Sensing the depth information on the surface to be inspected of the plant facility by the image pickup device; And
Wherein the image pickup device obtains information on a crack in the surface to be scanned based on the depth information,
Wherein the setting movement route is set in an image capture area excluding the unmovable area of the area within the maximum photographing distance,
The setting movement route is set to the first route or the second route depending on the photographing type,
Wherein the first route is set along the outline so as to maintain the same distance as the outline of the object to be imaged,
Wherein the second route is set as a straight line distance based on a point at the farthest distance from the outline of the object to be picked up with reference to the object to be picked up,
When the second route is set, the image pickup device determines an expected focal distance based on the three-dimensional model,
The image capturing apparatus performs image capturing for the object to be captured in consideration of the estimated focal distance in accordance with the movement of the moving object to the second route,
The surface to be imaged by the image pickup unit which meets a straight line drawn vertically so as to pass through the lens with respect to the center point of the lens of the image pickup unit implemented in the image pickup device,
Wherein when the surface to be projected is a plane free from bending and perpendicular to the straight line, the image pickup device is configured to obtain information on a surface to be scanned, which is the shortest distance between the center point of the lens and the surface to be scanned, The position of the four vertexes of the surface to be inspected is determined,
When the surface to be inspected is not the bend-free plane and is not perpendicular to the straight line, the image capturing device is configured to detect, based on the information on the surface to be imaged, the optical system characteristic information, and the angle information distorted by the imaging axis of the image capturing unit, Determining the positions of the four vertexes of the slope,
Wherein the image pickup device measures each of a plurality of depth information for each of a plurality of measurement points located on the surface to be scanned based on the depth measurement array when the surface to be scanned is a plane on which the curvature exists,
Wherein the presence or absence of a crack in the surface to be inspected is determined based on each of the plurality of depth information.
제1 항에 있어서,
상기 영상 촬상 장치는 상기 복수의 깊이 정보를 기반으로 상기 피사면에 피팅되는 도형에 대한 조합 모델을 사용하여 상기 피사면에 대한 모델링을 수행하되,
상기 피팅되는 도형은 평면, 구면, 실린더, 계단 또는 나선을 포함하는 것을 특징으로 하는 이동체를 활용한 플랜트 시설물 관리 방법.
The method according to claim 1,
Wherein the image capturing device performs modeling on the surface to be etched using a combination model for a figure to be fitted to the surface to be etched based on the plurality of depth information,
Wherein the figure to be fitted includes a plane, a spherical surface, a cylinder, a step or a spiral.
제2 항에 있어서,
상기 피사면은 상기 깊이 측정 어레이를 기반으로 복수개의 분할 피사면으로 분할되고,
상기 크랙의 존재 여부는 상기 복수개의 분할 피사면 각각에 대해 결정되는 것을 특징으로 하는 이동체를 활용한 플랜트 시설물 관리 방법.
3. The method of claim 2,
Wherein the surface to be surveyed is divided into a plurality of divided survey surfaces based on the depth measurement array,
Wherein the presence or absence of the crack is determined for each of the plurality of divided surfaces to be sliced.
제3 항에 있어서,
피사면에 굴곡이 존재하여 굴곡으로 인해 피사면 중 일부의 영역에 대한 깊이 정보가 획득되지 않는 미촬상 영역이 존재하는 경우, 상기 이동체는 상기 미촬상 영역에 대한 정보를 획득하기 위한 제1 이동경로를 설정하여 이동한 후 제2 이동경로 상에서 상기 미촬상 영역을 촬상하여 기존에 촬영된 영상 정보와 결합하여 피사면에 대한 모델링을 수행하되,
상기 제2 이동경로는 상기 촬상 가능 영역 중 상기 촬상 대상 객체로부터 가장 먼 거리에 있는 공간상의 면에 포함되는 것을 특징으로 하는 이동체를 활용한 플랜트 시설물 관리 방법.
The method of claim 3,
When there is a non-imaging area in which the curvature exists on the surface to be imaged and depth information on a part of the surface is not obtained due to bending, the moving object has a first movement path for acquiring information on the non- Capturing an image of the non-imaging region on the second movement path, combining the image information with the previously captured image information, and performing modeling on the surface to be imaged,
Wherein the second movement path is included in a space on the space that is the farthest from the image pickup object among the image pickup area.
제4 항에 있어서,
분할 피사면 중 크랙이 존재하는 제1 분할 피사면이 발견되는 경우, 상기 이동체는 상기 제1 분할 피사면에 대한 2차 스캔을 수행하기 위한 제3 이동경로를 설정하여 이동한 후 제4 이동경로 상에서 상기 제1 분할 피사면을 복수개의 재분할 피사면으로 재분할하여, 상기 재분할 피사면의 크랙에 대한 정보를 탐지하되,
상기 제4 이동경로는 상기 촬상 가능 영역 중 상기 촬상 대상 객체로부터 가장 가까운 거리에 있는 공간상의 면에 포함되는 것을 특징으로 하는 이동체를 활용한 플랜트 시설물 관리 방법.
5. The method of claim 4,
When a first divided surface to be scanned having a crack is found in the divided surface to be scanned, the moving body sets a third moving path for performing the secondary scanning on the first divided surface to be scanned, Dividing the first divided surface to be re-divided into a plurality of re-divided surfaces to detect information on cracks in the re-divided surface,
Wherein the fourth movement path is included in a space on the space that is the closest distance from the object to be picked up among the image pickup possible areas.
제5 항에 있어서,
상기 이동체는 다른 복수의 이동체와 함께 상기 촬상 대상 객체에 대한 스캔을 수행하고,
상기 이동체가 마스터 이동체인 경우, 상기 촬상 가능 영역을 복수의 분할 촬상 영역으로 분할하고,
상기 이동체는 상기 복수의 분할 촬상 영역 각각을 상기 다른 복수의 이동체 각각에 할당하는 것을 특징으로 하는 이동체를 활용한 플랜트 시설물 관리 방법.
6. The method of claim 5,
Wherein the moving object scans the object to be imaged together with a plurality of other moving objects,
When the moving body is the master movement, dividing the image pickup area into a plurality of divided image pickup areas,
Wherein the moving object allocates each of the plurality of divided imaging areas to each of the other plurality of moving objects.
제6항에 있어서,
상기 이동 불가 영역은 GPS(global positioning system) 오차, 상기 이동체에 대한 제어 오차를 추가적으로 고려하여 설정되는 것을 특징으로 하는 이동체를 활용한 플랜트 시설물 관리 방법.
The method according to claim 6,
Wherein the non-movable area is set in consideration of a global positioning system (GPS) error and a control error with respect to the moving object.
KR1020170068864A 2017-06-02 2017-06-02 Method for managing plant facilities KR101783585B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170068864A KR101783585B1 (en) 2017-06-02 2017-06-02 Method for managing plant facilities

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170068864A KR101783585B1 (en) 2017-06-02 2017-06-02 Method for managing plant facilities

Publications (1)

Publication Number Publication Date
KR101783585B1 true KR101783585B1 (en) 2017-10-10

Family

ID=60190251

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170068864A KR101783585B1 (en) 2017-06-02 2017-06-02 Method for managing plant facilities

Country Status (1)

Country Link
KR (1) KR101783585B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177289B1 (en) * 2019-09-10 2020-11-12 한국생산기술연구원 Simulating method of 3D moedels in factory using drones
KR102254961B1 (en) * 2021-03-08 2021-05-24 주식회사 지오멕스소프트 Pre-flight simulator system for unmanned aerial vehicles including OBLIQUE-viewing techniques for improving 3D modeling efficiency using unmanned aerial vehicles

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101086274B1 (en) 2008-12-05 2011-11-24 한국전자통신연구원 Apparatus and method for extracting depth information
KR101707865B1 (en) 2016-11-28 2017-02-27 한국건설기술연구원 Unmanned air vehicle system for approaching to photograph facility, and closeup method using the same
KR101711602B1 (en) 2016-08-01 2017-03-02 (주)우성이엔씨 Safety inspection system using unmanned aircraft and method for controlling the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101086274B1 (en) 2008-12-05 2011-11-24 한국전자통신연구원 Apparatus and method for extracting depth information
KR101711602B1 (en) 2016-08-01 2017-03-02 (주)우성이엔씨 Safety inspection system using unmanned aircraft and method for controlling the same
KR101707865B1 (en) 2016-11-28 2017-02-27 한국건설기술연구원 Unmanned air vehicle system for approaching to photograph facility, and closeup method using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177289B1 (en) * 2019-09-10 2020-11-12 한국생산기술연구원 Simulating method of 3D moedels in factory using drones
KR102254961B1 (en) * 2021-03-08 2021-05-24 주식회사 지오멕스소프트 Pre-flight simulator system for unmanned aerial vehicles including OBLIQUE-viewing techniques for improving 3D modeling efficiency using unmanned aerial vehicles

Similar Documents

Publication Publication Date Title
US11151741B2 (en) System and method for obstacle avoidance
Wenzel et al. Image acquisition and model selection for multi-view stereo
US8571302B2 (en) Method and apparatus to build 3-dimensional grid map and method and apparatus to control automatic traveling apparatus using the same
US9826217B2 (en) System and method for adjusting a baseline of an imaging system with microlens array
WO2011005783A2 (en) Image-based surface tracking
Huber et al. Integrating lidar into stereo for fast and improved disparity computation
JP6524529B2 (en) Building limit judging device
US10482615B2 (en) Image processing device and image processing method
KR20200075727A (en) Method and apparatus for calculating depth map
JP6881917B2 (en) Distance measuring device, imaging control device
CN107710091B (en) System and method for selecting an operating mode of a mobile platform
JP2016085602A (en) Sensor information integrating method, and apparatus for implementing the same
KR101783585B1 (en) Method for managing plant facilities
JP2017524932A (en) Video-assisted landing guidance system and method
Andert Drawing stereo disparity images into occupancy grids: Measurement model and fast implementation
Barrile et al. 3D modeling with photogrammetry by UAVs and model quality verification
EP3203266A1 (en) Stereo range with lidar correction
CN116438581A (en) Three-dimensional point group densification device, three-dimensional point group densification method, and program
KR101782299B1 (en) Method for inspecting gas facilities
KR102462230B1 (en) Unmmaned aerial vehicle and operating method thereof
KR20230082497A (en) Method for real-time inspection of structures using 3d point cloud
JP7437930B2 (en) Mobile objects and imaging systems
Unger et al. Integration of a generalised building model into the pose estimation of uas images
de Haag et al. Use of 3D laser radar for navigation of unmanned aerial and ground vehicles in urban and indoor environments
CN117115407B (en) Slope detection method, device, computer equipment and storage medium

Legal Events

Date Code Title Description
GRNT Written decision to grant