KR101844726B1 - Drone for construction suprvision and the method of supervision using the same - Google Patents

Drone for construction suprvision and the method of supervision using the same Download PDF

Info

Publication number
KR101844726B1
KR101844726B1 KR1020170169125A KR20170169125A KR101844726B1 KR 101844726 B1 KR101844726 B1 KR 101844726B1 KR 1020170169125 A KR1020170169125 A KR 1020170169125A KR 20170169125 A KR20170169125 A KR 20170169125A KR 101844726 B1 KR101844726 B1 KR 101844726B1
Authority
KR
South Korea
Prior art keywords
dron
image
drones
information
inspected
Prior art date
Application number
KR1020170169125A
Other languages
Korean (ko)
Inventor
이태영
Original Assignee
이태영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이태영 filed Critical 이태영
Priority to KR1020170169125A priority Critical patent/KR101844726B1/en
Application granted granted Critical
Publication of KR101844726B1 publication Critical patent/KR101844726B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • B64C2201/127
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The present invention provides a drone for building inspection by mobile terminal control. According to the present invention, the drone for building inspection comprises: an RSS signal transceiving unit to transceive an RSS signal; a camera to photograph a surrounding image; a light emitting marking unit to emit a light mark having a prescribed diffusion rate per distance and having a prescribed vertical length and horizontal length component towards an object to be inspected; and a control unit to control operations of the RSS signal transceiving unit, the camera, and the light emitting marking unit. The control unit compares strength of an RSS signal received from a different drone and an RSS signal received from a separately provided RSS signal transmission device to calculate a relative position and a distance between the different drone and the RSS signal transmission device, and controls the light emitting marking unit and the camera to acquire a first image including a first light mark emitted to the object to be inspected by the light emitting marking unit, a second light mark emitted to the object to be inspected by the different drone, and the object to be inspected. Information of each object can be viewed on a screen simply by allowing a user to easily photograph a construction site to match stored information of an object to be inspected to touch a photographed image to easily manage and supervise a construction situation of the construction site.

Description

건축물 감리용 드론 및 이를 이용한 건축물 감리방법{Drone for construction suprvision and the method of supervision using the same}TECHNICAL FIELD [0001] The present invention relates to a drone for construction supervision and a method for supervising building using the same,

본 발명은 이동 단말기 제어를 통한 건축물 감리 방법 및 이에 이용되는 드론에 관한 것으로서, 보다 상세하게는 드론을 이용하여 건설현장의 감리를 수행하도록 하는 이동 단말기 제어를 통한 건축물 감리 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a method of controlling a building using a mobile terminal and a drones used therein. More particularly, the present invention relates to a method of controlling a building using a mobile terminal.

일반적으로 감리업무는 현장업무와 행정업무 및 대관업무로 구분할 수 있으며, 현장업무는 시공 전, 중, 후 업무절차에 따른 수시 시공확인 및 검측 업무를 수행하게 되며, 행정업무는 기술검토 등을 통한 각종 승인 업무(품질, 안전, 환경계획서, 자재, 하도급, 부진공정, 설계공정, 시공계획서, 시공상세도 등)와 회신, 확인 업무, 문서접수, 발송 및 대장 정리의 수작업과 민원관련 업무 등등을 수행하며, 대관업무는 각종 인허가 및 승인조건과 계약조건 등의 이행 여부 기록 관리와 각종 외부기관의 점검 및 감사대비와 공장점검 및 각종 품질시험 입회 등을 해야 한다. In general, the supervisory work can be classified into field work, administrative work, and grant work. The field work is to perform confirmation and inspection work at any time according to work procedures before, during, and after construction. We can provide various approval services (quality, safety, environment plan, materials, subcontracting, slump process, design process, construction plan, construction details, etc.) and manual and complaint related tasks such as reply, confirmation, document reception, And the administrative affairs shall perform the records management of various licenses and permits, approval conditions, contract conditions, etc., inspection and audit of various external organizations, factory inspection, and various quality test enrollment.

또한 관련 정보 및 법령은 각 분야 감리의 업무절차 및 법적기준(각종 법령, 고시, 지침, 조례 등)에 따른 감리업무 범위와 분야별 조건의 차이에 따라 각각 달라지며, 분산되어 있는 사례정보와 책자(기술서적)수행을 위해서는 방대한 자료 및 감리지침 등을 참조해야한다. In addition, related information and laws and regulations vary depending on the scope of supervisory work and the conditions of each field according to the work procedures and legal standards (laws, regulations, notices, guidelines, etc.) of each field. Technical books), you should refer to a vast array of materials and supervisory guidelines.

이와 같이 종래 건설공사 감리업무는 각 분야별 전문가와 경력자들이 아니면 쉽게 처리하기 어렵고, 누락, 지연과 같은 오류를 범하는 문제점이 있으며, 절차상 해당 행정업무에서도 발주자, 시공자, 허가, 승인권자 등에 보고할 절차 및 기술검토서 작성을 해야 할 과정을 몰라서 각종 승인, 통보, 보고 등의 업무가 지연되고, 시공상의 공정지연으로 이어지는 경우가 많아 감리업무에 대한 클레임으로 표출되는 문제가 생긴다. As such, the conventional construction supervision service is difficult to process easily without specialists and experienced professionals in each field, and there are problems such as omission and delays. In the procedure, the procedures to report to the owner, constructor, permission, And technical review documents are not known, and various approval, notification, report and other tasks are delayed and lead to process delays in construction, resulting in a problem of being expressed as a claim to the supervisory service.

이러한 문제점을 해결하기 위하여, 건설공사의 감리업무에 대한 전산화를 시도하고 있는데, 통상 발주자와, 설계자, 감리회사, 건설회사, 감리운영시스템 및 외부기관들을 인터넷을 통한 네트워크로 연결하고, 감리운영시스템에서 웹서비스와 아울러 공사 관련 자료를 데이터 베이스화시켜 서비스하도록 하고 있다. In order to solve these problems, we are attempting to computerize the supervision work of the construction work. We connect the client, the designer, the supervisory company, the construction company, the supervisory operation system and the external organizations through the network via the Internet, In addition to the web service, data related to the corporation is databaseed.

그러나 이러한 종래의 기술에 따르면, 데이터베이스를 이용해 각종 서식을 제공하고, 그 서식을 네트워크로 연결된 시스템에서 다운받아 서식 작성을 하고, 다시 해당 작성된 서식 파일을 운영시스템으로 전송하게 되면, 이를 운영시스템에서 파일로 접수받아 처리하며, 각종 정보들도 데이터베이스를 통해 웹서비스를 하는데 이는 각각 클라이언트가 검색하여 자체적으로 판단하고 활용하도록 하는 시스템이 대부분이었다. However, according to this conventional technique, various forms are provided using a database, forms are downloaded from a system connected to the network, forms are created, and once the created form files are transmitted to the operating system, And various kinds of information are also transmitted through a database to a web service, which is a system in which a client can search for and use it by itself.

또한 공사현장을 감리하는 사용자는 해당 위치까지 직접 이동한 후 다양한 객체들에 대해 감리를 수행하여야만 하므로, 감리업무가 불편하고 힘들다는 문제점이 있었다. In addition, the user who controls the construction site must directly move to the corresponding location, and then perform various kinds of control over the various objects. Thus, there is a problem that the control task is inconvenient and difficult.

본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은 드론으로부터 감리 대상을 촬영하고 이를 감리 대상의 정보와 매칭시킴으로써 촬영된 영상을 통하여 편리하고 간편하게 감리가 수행되도록 하는 이동 단말기 제어를 통한 건축물 감리 방법을 제공하기 위함이다.The present invention has been made in view of the above-mentioned needs, and it is an object of the present invention to provide a method and a system for controlling a building through a mobile terminal control for conveniently and easily performing a control through photographed images by photographing a control object, This is to provide a method.

이동 단말기 제어를 통한 건축물 감리용 드론으로서, 본 발명에 따른 건축물 감리를 위한 드론은 RSS신호를 송수신하는 RSS 신호송수신부; 주변의 화상을 촬영하는 카메라; 거리당 일정 확산률을 갖고, 적어도 일정한 수직 방향 길이와 수평 방향 길이 성분을 갖는 광마크를 감리대상 객체 방향으로 조사하는 발광마킹부; 및 상기 RSS 신호송수신부, 상기 카메라 및 상기 발광마킹부의 작동을 제어하는 제어부;를 포함하고,The drones for building supervision according to the present invention include: an RSS signal transmitting and receiving unit transmitting and receiving RSS signals; A camera for photographing a surrounding image; A light emitting marking unit having a constant diffusion rate per distance and at least a light mark having a predetermined vertical length and a horizontal length component in the direction of the object to be inspected; And a control unit for controlling operation of the RSS signal transmitting / receiving unit, the camera, and the light emission marking unit,

상기 제어부는, 타 드론을 포함하는 이미지를 촬영하여 상기 타 드론까지의 거리를 산출하고, 상기 타 드론 사이의 중심점을 회전의 중심축으로 1차 선회 비행 및 2차 선회 비행을 하도록 경로를 제어하고, 상기 1차 선회 비행 시 상기 타 드론을 포함하는 제1 이미지를 촬영하여 상기 서버로부터 전달된 감리대상 객체의 정보를 참조하여 상기 감리대상 객체의 위치를 파악하고, 상기 2차 선회 비행 시 상기 발광마킹부가 상기 감리대상 객체로 조사한 제1 광마크와, 상기 타 드론이 상기 감리대상 객체로 조사한 제2 광마크와, 상기 감리대상 객체를 포함하는 제2 이미지를 취득하도록 상기 발광마킹부와 상기 카메라를 제어하고, 상기 취득된 제2 이미지로부터 상기 감리대상 객체가 촬영된 영역을 추출한다..The control unit calculates a distance to the treadmill by photographing an image including the treadmill and controls the path so that the center point between the treadmills is subjected to the first turning flight and the second turning flight at the center of rotation , The first image including the treadmill is photographed during the first turning flight, the position of the object to be inspected is determined by referring to the information of the object to be inspected transmitted from the server, A marking unit for obtaining a second image including a first light mark irradiated by the object to be inspected, a second light mark irradiated by the object to be inspected by the tardor, and a second image including the object to be inspected, And extracts the region in which the control object is photographed from the acquired second image.

또한 상기 카메라 및 상기 발광마킹부는 상기 드론의 하단에 구비되고, 상기 카메라 및 상기 발광마킹부의 무게중심은 상기 드론의 무게중심 하단에 일치하도록 구비될 수 있다.Also, the camera and the light-emitting marking unit may be provided at the lower end of the drones, and the center of gravity of the camera and the light-emitting marking unit may be aligned with the lower center of gravity of the drones.

또한 상기 제어부는 상기 이동 단말기 및 상기 서버 중 어느 하나로부터 감리대상 객체에 대한 정보를 전달받고, 상기 제2 이미지와 상기 제2 이미지로부터 추출된 상기 감리대상 객체의 표시 영역을 매칭시킬 수 있다.In addition, the control unit may receive information on the object to be supervised from any one of the mobile terminal and the server, and may match the display area of the object to be supervised extracted from the second image and the second image.

또한 상기 제어부는 상기 제2 이미지로부터 산출된 감리대상 객체의 물리적 정보를 매칭하여 상기 이동 단말기로 전송할 수 있다.Also, the controller may match the physical information of the object to be inspected calculated from the second image and transmit the physical information to the mobile terminal.

또한 상기 제어부는 상기 타 드론과의 거리를 이등분하는 중심점을 산출하고, 상기 중심점을 회전 중심으로하는 회전반경을 산출하여 상기 중심점을 기준으로 선회하도록 상기 드론의 경로를 제어할 수 있다.Also, the control unit may calculate a center point bisecting the distance from the treadmill, calculate a turning radius around the center point, and control the path of the drone to swing around the center point.

또한 상기 발광마킹부는 수직 방향 길이와 수평 방향 길이 성분을 갖는 선분을 형성하도록 불연속적인 복수의 레이저광을 조사할 수 있다.The light emission marking unit may irradiate a plurality of discontinuous laser beams to form a line segment having a vertical length and a horizontal length component.

제1 드론, 제2 드론 및 이동 단말기를 이용하여 건축물을 감리하는 방법에 있어서, 본 발명에 따른 드론을 이용한 건축물 감리 방법은 건축물 감리를 위한 위치에 제1 드론 및 제2 드론을 제공하는 제1 단계; 상기 제1 드론 및 제2 드론 중 어느 하나가 나머지 드론을 포함하는 이미지를 촬영하여 상기 제1 드론 및 제2 드론간의 거리를 산출하는 제2 단계; 상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하고, 상기 선회 도중 상기 제1 드론 및 상기 제2 드론 중 적어도 어느 하나의 드론이 상기 제1 드론 및 상기 제2 드론이 조사한 한 쌍의 광마크와 감리대상 객체가 포함되는 선회촬영 이미지를 촬영하는 제3 단계; 상기 선회촬영 이미지로부터 상기 감리대상 객체의 물리적인 정보를 측정하고, 상기 선회촬영 이미지 중 상기 감리대상 객체가 표시되는 영역의 정보를 산출하는 제4 단계; 상기 선회촬영 이미지에 포함된 감리대상 객체와 외부로부터 전송된 상기 감리대상 객체의 정보를 매칭하는 제5 단계; 및 상기 제1 드론 및 상기 제2 드론 중 어느 하나가 상기 매칭된 선회촬영 이미지와 상기 감리대상 객체의 정보를 외부로 전송하는 제6 단계;를 포함한다.A method for controlling a building using a first dron, a second dron, and a mobile terminal, the method for controlling a building using a dron according to the present invention includes: a first step of providing a first dron and a second dron, step; A second step of calculating a distance between the first dron and the second dron by capturing an image including one of the first dron and the second dron including the remaining drones; The first dron and the second dron pivot about a center point of the first dron and the second dron, and at least one of the first dron and the second dron during the rotation pivots about the center of the first dron and the second dron, And a third step of photographing a swivel taking image including a pair of optical marks and an object to be inspected by the second drones; A fourth step of measuring physical information of the object to be supervised from the swing shot image and calculating information of an area in which the object to be controlled is displayed among the swing shot images; A fifth step of matching information of the object to be supervised included in the swing shot image with information of the object to be controlled transmitted from the outside; And a sixth step in which any one of the first and second drones transmits the matched swivel image and information of the object to be supervised to the outside.

이 때 상기 제3 단계는, 상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하는 과정에서 각각 마주보는 제1 드론 및 제2 드론을 포함하는 제1 이미지를 촬영하여 회전 경로상에서의 감리대상 객체의 위치를 파악하는 제3-1단계;와 상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하는 도중 어느 하나의 드론이 상기 감리대상 객체에 인접한 위치에서 제자리 비행을 수행하고, 제자리 비행 중 상기 제1 드론 및 상기 제2 드론이 각각 상기 인접한 감리대상 객체에 광마크를 조사한 상태에서 제2 이미지를 촬영하는 제3-2 단계;를 포함한다.In this case, the third step may include a first dron and a second dron which are opposed to each other in the course of turning the first dron and the second dron with respect to the center points of the first dron and the second dron, A first dron and a second dron rotating about a center point of the first dron and the second dron; and a third step of acquiring a position of the object to be controlled on the rotation path by capturing an image of the first dron and the second dron, Wherein the first dron and the second dron fly in a second position while the first dron and the second dron respectively irradiate the optical mark on the adjacent object to be inspected, And a third step (2-2) of photographing.

또한 상기 감리대상 객체의 정보는 상기 감리대상 객체에 대한 ID를 포함하고, 상기 감리대상 객체의 제조, 시공담당, 규격, 공정시한 중 적어도 하나를 포함할 수 있다.Also, the information of the object to be supervised may include at least one of manufacture, construction, specification, and process of the object to be supervised including the ID of the object to be supervised.

또한 상기 제3 단계에서, 상기 제1 드론 및 상기 제2 드론 중 어느 하나는 거리당 일정비율로 확산된 상기 한 쌍의 광마크의 크기를 비교하여 상기 감리대상 객체와 상기 제1 드론의 거리, 상기 감리대상 객체와 상기 제2 드론의 거리의 비율을 산출할 수 있다.In the third step, any one of the first dron and the second dron may compare the sizes of the pair of optical marks diffused at a certain rate per distance to determine a distance between the object to be inspected and the first dron, The ratio between the distance between the object to be controlled and the second drones can be calculated.

또한 상기 제1 드론 및 상기 제2 드론의 거리와 상기 제1 드론 및 상기 제2 드론을 잇는 가상의 선에 대한 상기 한 쌍의 광마크 조사 각도로부터 상기 제1 드론 및 상기 제2 드론 각각으로부터 상기 감리대상 객체에 이르는 실제 거리를 산출할 수 있다.From the first dron and the second dron, from the pair of optical mark irradiation angles with respect to a distance between the first dron and the second dron and a virtual line connecting the first dron and the second dron, The actual distance to the object to be supervised can be calculated.

또한 상기 제1 드론 및 상기 제2 드론을 잇는 가상의 선을 기준으로 상기 감리대상 객체의 방향을 산출할 수 있다.Also, the direction of the object to be inspected can be calculated based on a virtual line connecting the first dron and the second dron.

본 발명의 실시예들 중 적어도 하나에 의하면, 사용자가 용이하게 공사현장을 촬영하여 감리대상 객체의 저장된 정보와 매칭시키고, 이를 통하여 촬영된 이미지를 터치하는 것만으로 간단히 화면상 각 객체들의 정보를 열람할 수 있도록 함으로써, 공사현장의 건축현황을 보다 쉽게 관리 감독할 수 있도록 하였으며, 특히 공사현장을 감리하는 사용자에게 공사현장에 관한 별다른 사전 준비없이 이동 단말기 하나만으로도 쉽게 감리업무를 수행할 수 있다. According to at least one embodiment of the present invention, a user easily captures a construction site and matches the stored information with the stored information of the object to be inspected, and simply touches the photographed image, By doing so, it is possible to more easily manage and monitor the construction situation of the construction site. In particular, the user who is in charge of the construction site can perform the supervision task easily with only one mobile terminal without preparing for the construction site.

또한 본 발명에 의하면, 거대한 빌딩이나 구조물에 대한 감리업무라도 작업 전 별도의 복잡하고 다양한 정보를 준비해야 하는 등의 사전작업이 필요없이, 서버 및 드론과 연결된 이동 단말기를 이용함으로써 편리하고 간단하게 감리업무를 수행할 수 있다. Further, according to the present invention, it is possible to conveniently and simply control a large building or a structure by using a mobile terminal connected to a server and a dron without needing to prepare a complicated and various information before work, I can do business.

또한 본 발명에 의하면, 감리 현장으로 사용자가 직접 이동할 필요없이 드론을 원격 조종함으로써, 편리하고 간단하게 감리업무를 수행할 수 있다. Further, according to the present invention, the dron can be remotely controlled without requiring the user to move directly to the supervision site, thereby performing the supervision task conveniently and simply.

본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the following detailed description. It should be understood, however, that the detailed description and specific examples, such as the preferred embodiments of the invention, are given by way of illustration only, since various changes and modifications within the spirit and scope of the invention will become apparent to those skilled in the art.

도 1은 본 발명의 일 실시예에 따른 감리 시스템에 관한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 이동 단말기에 관한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 드론에 관한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 객체 생성 및 DB 매칭의 방법을 설명하기 위한 블록도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 선회 촬영 및 마킹 방법을 설명하기 위한 개략도이다.
도 7은 본 발명의 일 실시예에 따른 이동 단말기의 제어 방법에 관한 순서도이다.
도 8 내지 도 9는 본 발명의 일 실시예에 따른 이동 단말기에 의해 객체를 촬영하기 위한 방법을 설명하기 위한 개략도이다.
도 10 내지 도 11은 본 발명에 따른 이동 단말기를 통해 객체 정보를 확인 하는 방법을 설명하기 위한 도면이다.
1 is a block diagram of a supervisory system according to an embodiment of the present invention.
2 is a block diagram of a mobile terminal according to an embodiment of the present invention.
3 is a block diagram of a drones in accordance with an embodiment of the present invention.
4 is a block diagram for explaining a method of object generation and DB matching according to an embodiment of the present invention.
FIGS. 5 and 6 are schematic views for explaining a turning shooting and marking method according to an embodiment of the present invention.
7 is a flowchart illustrating a method of controlling a mobile terminal according to an exemplary embodiment of the present invention.
8 to 9 are schematic views for explaining a method for photographing an object by a mobile terminal according to an embodiment of the present invention.
10 to 11 are views for explaining a method for confirming object information through a mobile terminal according to the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서 "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The use of the terms "comprising" or "having" in this application is intended to specify the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.

본 출원에서 설명되는 특정 도면에 해당 부호가 없더라도, 그 이전에 설명된 도면에 해당 부호가 있다면 이를 표기하여 설명할 수 있다. Even if there is no corresponding symbol in the specific drawing described in the present application, if there is a corresponding symbol in the previously described drawing, it can be described by indicating it.

이하, 본 발명의 바람직한 실시 예를 도면을 참조하여 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

도 1을 찾모하여 본 발명의 일 실시예에따른 감리 시스템(500)을 설명한다. 도 1은 본 발명에 따른 감리 시스템에 관한 블록도이다. Referring to FIG. 1, a supervision system 500 according to an embodiment of the present invention will be described. 1 is a block diagram of a supervisory system according to the present invention.

본 발명에 따른 감리 시스템(500)은 이동 단말기(100), 드론(200), 서버(300)를 포함한다. The control system 500 according to the present invention includes a mobile terminal 100, a drones 200, and a server 300.

이동 단말기(100)는 다양한 통신망을 통하여 드론(200) 및 서버(300)와 통신이 가능하고, 드론(200) 및 서버(300) 상호간에도 통신이 가능하다. The mobile terminal 100 can communicate with the drone 200 and the server 300 through various communication networks and also can communicate with each other between the drone 200 and the server 300. [

이동 단말기(100)는 제어신호를 드론(200)으로 전송하고, 드론(200)은 수신된 제어신호에 따른 다양한 동작을 수행한다. 따라서 사용자는 이동 단말기(100)를 이용하여 드론(200)의 동작을 제어할 수 있다. The mobile terminal 100 transmits a control signal to the drone 200, and the drone 200 performs various operations according to the received control signal. Accordingly, the user can control the operation of the drones 200 by using the mobile terminal 100.

한편 드론(200)은 수집한 정보를 이동 단말기(100)로 전송할 수 있다. 따라서 이동 단말기(100)는 드론(200)이 수집한 정보를 수신하여, 이를 서버(300)로 전송할 수 있다. 또는 이동 단말기(100)는 수집된 정보를 드론(200)에서 서버(300)로 곧바로 전송하도록 드론(200)을 제어할 수 있다. Meanwhile, the drones 200 can transmit the collected information to the mobile terminal 100. Accordingly, the mobile terminal 100 can receive the information collected by the drones 200 and transmit the received information to the server 300. Or the mobile terminal 100 may control the drones 200 to transmit the collected information directly from the drones 200 to the server 300. [

이동 단말기(100) 또는 드론(200)으로부터 정보를 수신한 서버(300)는 수신된 정보에 대응되는 정보를 데이터베이스로부터 추출할 수 있다. 예를 들어 수신된 정보가 특정 객체(예: 창틀)를 포함하는 이미지일 경우, 서버(300)는 해당 객체에 대한 객체 정보(예: 창틀의 ID, 제조정보, 시공담당, 규격, 공정시한 등의 정보)를 데이터베이스로부터 추출할 수 있다. 따라서 서버(300)는 추출된 객체 정보를 이동 단말기(100)로 전송할 수 있다. The server 300 receiving the information from the mobile terminal 100 or the drone 200 can extract information corresponding to the received information from the database. For example, when the received information is an image including a specific object (e.g., a window frame), the server 300 transmits object information (e.g., window frame ID, manufacturing information, Etc.) can be extracted from the database. Accordingly, the server 300 can transmit the extracted object information to the mobile terminal 100.

도 2를 참조하여 일 실시예에 따른 이동 단말기를 설명한다. 도 2는 본 발명에 따른 이동 단말기에 관한 블록도이다.A mobile terminal according to an embodiment will be described with reference to FIG. 2 is a block diagram of a mobile terminal according to the present invention.

본 발명에 따른 이동 단말기(100)는 휴대폰, 스마트 폰(smart phone), 테블릿 컴퓨터, 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP (Portable Multimedia Player) 등일 수 있다. 이하의 설명에서는 이동 단말기(100)가 스마트 폰(smart phone)인 것으로 가정하고 설명한다.The mobile terminal 100 according to the present invention may be a mobile phone, a smart phone, a tablet computer, a notebook computer, a digital broadcasting terminal, a PDA (personal digital assistant), a portable multimedia player (PMP) . In the following description, it is assumed that the mobile terminal 100 is a smart phone.

본 발명에 따른 이동 단말기를 살펴보면 다음과 같다.A mobile terminal according to the present invention will now be described.

본 발명에 따른 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180), 및 전원 공급부(190) 등의 구성요소들을 포함할 수 있다.A mobile terminal 100 according to the present invention includes a wireless communication unit 110, an audio / video (A / V) input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, , An interface unit 170, a control unit 180, and a power supply unit 190, for example.

무선 통신부(110)는 이동 단말기(100)와 무선통신 또는 이동통신 시스템 간의 무선통신 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크간의 무선통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어 무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 그리고 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include one or more components that allow wireless communication between the mobile terminal 100 and the wireless communication or mobile communication system or wireless communication between the mobile terminal 100 and the network in which the mobile terminal 100 is located have. For example, the wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short distance communication module 114, and a location information module 115 .

무선 인터넷 모듈(113) 또는 이동통신 모듈(112)은 드론(200) 또는 서버(300)와 통신하는 통신모듈을 말한다. 적용가능한 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 있다.The wireless Internet module 113 or the mobile communication module 112 refers to a communication module that communicates with the drones 200 or the server 300. Examples of applicable wireless Internet technologies include WLAN (Wi-Fi), Wibro (wireless broadband), Wimax (World Interoperability for Microwave Access), and HSDPA (High Speed Downlink Packet Access).

A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 카메라(121)와 마이크(122) 등이 이에 포함될 수 있다. 또한 화상 통화모드 또는 촬영모드에서 이미지 센서에 의해 얻어지는 정지영상이나 동영상의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.An A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. And processes image frames of still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통해 외부로 전송될 수 있다. 카메라 (121)는 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ The camera 121 may include two or more cameras according to the configuration of the mobile terminal 100.

카메라(121)는 피사체의 상을 결상시키는 렌즈 유닛과, 렌즈 유닛에 의해 결상된 상을 전기적 신호인 영상신호로 변환하는 촬상 소자를 포함한다. 촬상 소자는 결상된 피사체의 상을 광전 변환하는 소자로서, 씨씨디(CCD; charge coupled device) 촬상 소자나, 씨모스(CMOS; complementary MOS) 촬상 소자가 이용될 수 있다.The camera 121 includes a lens unit for imaging an image of a subject and an imaging device for converting an image formed by the lens unit into a video signal as an electrical signal. The image pickup device is a device for photoelectrically converting an image of an image of a formed object, and a charge coupled device (CCD) image pickup device or a complementary MOS (CMOS) image pickup device can be used.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향신호를 입력받아 전기적인 음성 데이터로 처리한다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data.

사용자 입력부(130)는 사용자가 이동 단말기(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 때, 이를 터치 스크린이라 부를 수 있다.The user input unit 130 generates input data for controlling the operation of the mobile terminal 100 by a user. The user input unit 130 may include a key pad, a dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like. Particularly, when the touch pad has a mutual layer structure with the display unit 151 described later, it can be called a touch screen.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 사용자 접촉 유무, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한 전원공급부(190)의 전원공급 여부, 인터페이스부(170)의 외부기기 결합여부 등과 관련된 센싱 기능을 담당한다.The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the presence of the user, the acceleration / deceleration of the mobile terminal, Signal. For example, when the mobile terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. And a sensing function related to whether or not the power supply unit 190 is powered on, whether the interface unit 170 is coupled to an external device, and the like.

또한 인터페이스부(170)는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 크래들로부터의 전원이 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 크래들에서 입력되는 각종 명령신호가 이동 단말기(100)로 전달되는 통로가 될 수 있다. 크래들로부터 입력되는 각종 명령신호 또는 전원은 외부 전자기기가 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit 170 may be a path through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle or various command signals input from the cradle by the user are moved And may be a passage to be transmitted to the terminal 100. The various command signals or power from the cradle may be operated as a signal for recognizing that the external electronic device is correctly mounted on the cradle.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향출력 모듈(152), 알람부(153) 등을 포함할 수 있다.The output unit 150 may include a display unit 151, an audio output module 152, an alarm unit 153, and the like for generating an output related to visual, auditory or tactile sense.

디스플레이부(151)는 통화에 관련된 정보는 물론, 이동 단말기 (100)에서 처리되는 정보를 표시 출력한다. 예를 들어 통화모드인 경우 통화에 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 또한 디스플레이부(151)는 드론(200)에서 처리되는 정보를 표시 출력한다. 예를 들어 디스플레이부(151)는 드론(200)이 검출한 벡터촬영정보나 서버(300)의 처리 데이터를 표시할 수 있다. The display unit 151 displays and outputs the information processed by the mobile terminal 100, as well as the information related to the call. For example, in a call mode, a UI (User Interface) or a GUI (Graphic User Interface) related to a call is displayed. In addition, the display unit 151 displays and outputs information processed by the drones 200. For example, the display unit 151 may display the vector photographing information detected by the drones 200 or the processing data of the server 300.

디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함한다.The display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display 3D display).

그리고 이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)는 2개 이상 존재할 수 있다. 예를 들어 이동 단말기(100)에는 복수의 디스플레이 부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display units may be spaced apart from one another or may be disposed integrally with each other, or may be disposed on different surfaces.

디스플레이부(151)와 터치동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력장치 이외에 입력장치로도 사용될 수 있다. 터치 센서는 예를 들어 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

음향출력 모듈(152)는 호신호 수신, 통화모드 또는 녹음모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한 음향출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어 호신호 수신음, 메시지 수신음 등)과 관련된 음향신호를 출력한다. 이러한 음향출력 모듈(152)에는 리시버(Receiver), 스피커 (speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, Also, the sound output module 152 outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, and the like) performed in the mobile terminal 100. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치입력 등이 있다. 알람부(153)는 오디오 신호나 비디오 신호 이외에 다른 형태로 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151, 152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal, for example, by vibration. The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they 151 and 152 may be classified as a part of the alarm unit 153. [

메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The memory 160 may store a program for processing and controlling the control unit 180 and may store a function for temporarily storing input / output data (e.g., a phone book, a message, a still image, .

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한 이동 단말기(100)는 인터넷(internet)상에서 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read- And an optical disc. Also, the mobile terminal 100 may operate a web storage for storing the memory 160 on the Internet.

제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 제어부(180)는 무선 통신부(110)를 통해 드론(200) 또는 서버(300)와 각종 정보들(예: 실사 이미지, 벡터촬영정보, 식별값, 속성값 등)의 송수신을 수행한다. The control unit 180 typically controls the overall operation of the mobile terminal. The control unit 180 transmits and receives various kinds of information (e.g., real image, vector photographing information, identification value, attribute value, etc.) with the drones 200 or the server 300 through the wireless communication unit 110.

제어부(180)는 드론(200)으로부터 전체 속성값과 매칭정보가 수신되면, 촬영된 실사 이미지에 전송된 매칭정보를 결합하여 실사 이미지상의 각 객체들의 외곽선이 화이어 프레임으로 강조되는 등의 방법으로 활성화되도록 하고, 디스플레이부(151) 화면에 출력한다. 그리고 실사 이미지 상의 활성화된 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이부(151) 화면에 출력한다.When the entire attribute value and the matching information are received from the drones 200, the control unit 180 combines the matching information transmitted to the photographed real image, and activates the active image in such a manner that the outline of each object on the real image is highlighted with a fire frame And outputs it to the screen of the display unit 151. When a user input that touches the activated objects on the real image is detected, the attribute information of the object is displayed on the display unit 151 screen.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

도 3을 참조하여 본 발명의 일 실시예에 따른 드론을 설명한다. 도 3은 본 발명에 따른 드론에 관한 블록도이다. 3, a drones according to an embodiment of the present invention will be described. 3 is a block diagram of a drones according to the present invention.

본 발명에 따른 드론(200)은 무선 통신부(210), AV 입력부(220), 인터페이스부(230), 센싱부(240), 출력부(250), 메모리(260), 제어부(280), 전원 공급부(290)를 포함하며, 이와 같은 구성요소에 대해서는 도 2에 관한 설명과 동일할 수 있다. The dron 200 according to the present invention includes a wireless communication unit 210, an AV input unit 220, an interface unit 230, a sensing unit 240, an output unit 250, a memory 260, a control unit 280, And a supply unit 290. Such components may be the same as those described with reference to Fig.

카메라(221)는 드론(200)의 외부 상하좌우면 또는 이외의 다양한 부위에 복수로 결합될 수 있으나, 드론(200)의 하단에 회전식으로 구비되는 것이 바람직하다. 이동 단말기(100)의 조작에 따라 감리가 필요한 공사현장(예: 현장의 건축 구조물 등)을 촬영하여 실사 이미지를 생성할 수 있다. The camera 221 may be coupled to a plurality of external portions of the external surface of the drone 200, or may be rotatably installed at a lower end of the drone 200. A real image can be generated by photographing a construction site (for example, a building structure on the site) that requires a supervision according to an operation of the mobile terminal 100. [

센싱부(240)는 거리측정 센서 등 다양한 센서를 이용하여 드론(200)과 특정 객체간의 거리를 측정할 수 있다. 또한 센싱부(240)는 측정된 거리를 이용하여 특정 객체의 크기, 예를 들어 가로 길이, 세로 길이, 대각선 길이, 지름, 원주 길이 등을 측정할 수 있다. 다만, 정밀한 측정을 위한 레이다, 라이다(radar) 센서 등의 경우 가격이 매우 비싸고, 무게가 드론용 센서로 이용하기에는 부적합한 면이 있기 때문에, 후술할 광마크를 이용한 이미지의 분석을 통하여 이러한 규격 및 객체의 방향 등을 측정하는 것이 바람직하다.The sensing unit 240 may measure the distance between the drone 200 and a specific object by using various sensors such as a distance measuring sensor. Also, the sensing unit 240 may measure the size of a specific object, for example, a length, a length, a diagonal length, a diameter, and a circumferential length of the specific object using the measured distance. However, in the case of radar and radar sensors for precise measurement, the cost is very high and the weight is not suitable for use as a sensor for a drone. Therefore, by analyzing an image using a light mark described later, It is desirable to measure the direction of the object and the like.

RSS신호를 송수신하는 RSS 신호송수신부(215)를 더 포함할 수 있다. RSS 신호는 한 쌍의 드론과 이동 단말기의 RSS 신호 송수신을 통하여 측정된 RSS 신호의 크기를 비교함으로써 삼각측량법에 의하여 각각의 위치 및 거리를 산출하는데에 이용될 수 있다. 이 때 이동 단말기 대신 별도의 RSS 신호송수신기를 이용하여 동일한 방법으로 이용할 수 있다.And an RSS signal transmitting and receiving unit 215 for transmitting and receiving an RSS signal. The RSS signal can be used to calculate each position and distance by triangulation by comparing the sizes of the RSS signals measured through transmission and reception of RSS signals between a pair of drone and mobile terminal. In this case, a separate RSS signal transceiver may be used instead of the mobile terminal to use the same method.

RSS 신호를 통한 산출 결과는 후술할 광마크를 이용한 객체의 규격 측정을 위한 기초 데이터로 이용되거나 해당 규격 측정의 과정을 보정하기 위한 용도로 이용될 수 있다.The result of the calculation using the RSS signal can be used as basic data for measuring the standard of the object using the optical mark described later or can be used for correcting the process of measuring the standard.

발광마킹부(254)는 거리당 일정 확산률을 갖고, 적어도 일정한 수직 방향 길이와 수평 방향 길이 성분을 갖는 광마크를 감리대상 객체 방향으로 조사한다. 발광마킹부(254)는 레이저광 등을 이용할 수 있으며, 이 때 거리당 일정한 비율로 확산되도록 광을 조사한다. 즉, 발광 마킹부(254)로부터의 객체 거리를 알게 되면 발광 마킹부(254)가 조사하여 객체에 조사된 광마크의 크기 또는 길이를 알 수 있으며, 카메라(221)로부터 획득한 이미지 또는 영상으로부터 해당 광마크와 객체의 크기 또는 길이를 비교함으로써 해당 객체의 크기 또는 길이를 산출할 수 있다.The light emission marking unit 254 irradiates a light mark having a constant diffusion rate per distance and at least a constant vertical length and a horizontal length component in the direction of the object to be inspected. The light emission marking unit 254 can use laser light or the like, and irradiates the light to diffuse at a constant rate per distance. That is, if the object distance from the light-emission marking unit 254 is known, the light-emission marking unit 254 can recognize the size or length of the light mark irradiated on the object, The size or the length of the object can be calculated by comparing the size or the length of the object with the optical mark.

이 때 레이저 광은 복수개의 발광부가 조사하는 복수개의 점 또는 불연속적인 광이 하나의 선분을 이루도록 조사하는 것도 가능하다. 즉, 십자형의 광마크를 가정하면, 세로 및 가로 선분은 각각 점선 형태의 광의 집합으로 구현하는 것도 가능하다.At this time, it is also possible to irradiate the laser light so that a plurality of points or discontinuous light irradiated by the plurality of light-emitting portions form one line segment. That is, assuming a cross-shaped optical mark, the vertical and horizontal line segments can be embodied as a set of light in a dotted line shape.

발광마킹부(254)가 조사하는 광마크는 수직 방향 길이 성분과 수평 방향 길이 성분을 포함하여야 한다. 전체적인 형상은 자유롭게 선택할 수 있으나, 최소한 십자와 같이 수직 방향의 길이를 갖는 선분과 수평 방향의 길이를 갖는 선분을 모두 포함하도록 하여야 한다. 이외에도 중심점을 기준으로 방사상으로 길이를 갖는 다수의 직선들을 포함하는 광마크를 조사함으로써 객체의 면이 형성하는 방향을 판단하는 데이터로 이용하는 것도 가능하다. 이 때 수직 성분과 수평 성분을 갖는 직선의 길이를 타 직선의 길이와 차별화되도록 하여 방향의 판단을 용이하게 할 수 있다.The light mark irradiated by the light emission marking section 254 should include a vertical length component and a horizontal length component. The overall shape is freely selectable, but should include both a line segment with a vertical length, such as at least a cross, and a line segment with a horizontal length. In addition, it is also possible to use as the data for determining the direction in which the surface of the object is formed by irradiating a light mark including a plurality of straight lines having a radial length with respect to the center point. In this case, the length of the straight line having the vertical component and the horizontal component is differentiated from the length of the other straight line, so that the direction can be easily determined.

한편, 발광마킹부(254)는 한 쌍의 드론이 각각 다른 색의 광을 조사하도록 구비하는 것이 바람직하다. 카메라(221)가 촬영한 이미지로부터 다른 색의 광마크를 인지함으로써 객체에 대한 물리적인 특징, 즉 거리 및 방향 등을 산출하는데에 유리하다.On the other hand, it is preferable that the light emitting marking unit 254 is provided so that the pair of drones emits light of different colors. It is advantageous to calculate the physical characteristics, i.e., the distance and the direction, of the object by recognizing the optical mark of the other color from the photographed image by the camera 221. [

한편, 카메라(221) 및 발광마킹부(254)는 드론(200)의 하단에 구비되는 것이 바람직하다. 특히 카메라(221) 및 발광마킹부(254)의 무게중심을 드론(200)의 무게중심의 직 하단에 일치하도록 구비하고, 카메라(221) 및 발광마킹부(254)가 수평방향으로 회전하는 경우에도 무게 중심이 바뀌지 않도록 하는 것이 바람직하다. 카메라(221) 및 발광마킹부(254)를 일체로 구성하여 함께 회전하도록 구비하는 것도 가능하다.The camera 221 and the light emission marking unit 254 are preferably provided at the lower end of the drones 200. Particularly when the center of gravity of the camera 221 and the light emitting marking unit 254 is provided so as to coincide with the lower right end of the center of gravity of the drones 200 and the camera 221 and the light emitting marking unit 254 rotate in the horizontal direction It is preferable that the center of gravity is not changed. The camera 221 and the light emission marking unit 254 may be integrally formed and rotated together.

제어부(280)는 통상적으로 드론(200)의 전반적인 동작을 제어한다. 제어부(280)는 무선 통신부(210)를 통해 이동 단말기(100) 또는 서버(300)와 각종 정보들(예: 실사 이미지 등)의 송수신을 수행한다. 또한 제어부(280)는 무선 통신부(210)를 통해 수신된 이동 단말기(100)의 신호에 따라 각각의 구성요소의 동작을 제어한다. The control unit 280 typically controls the overall operation of the drone 200. The control unit 280 transmits and receives various kinds of information (e.g., a real image, etc.) with the mobile terminal 100 or the server 300 through the wireless communication unit 210. [ The control unit 280 controls the operation of each component according to the signal of the mobile terminal 100 received through the wireless communication unit 210. [

또한 제어부(280)는 타 드론으로부터 수신된 RSS 신호와 RSS 신호송신기로부터 수신된 RSS 신호의 강도를 비교하여 타 드론 및 RSS 신호송신 장치 사이의 상대적인 위치 및 거리를 산출한다. 이외에도 제어부(280)는 후술할 1차 선회비행 시 또는 1차 선회비행 직전의 정지 상태에서의 촬영된 이미지로부터 드론간의 거리 등을 산출할 수 있다.Also, the controller 280 compares the RSS signal received from the tardor with the RSS signal received from the RSS signal transmitter to calculate the relative position and distance between the tardron and the RSS signal transmitter. In addition, the control unit 280 can calculate the distance between the drones from the photographed image at the time of the first turning flight or at the time of the stoppage just before the first turning flight, which will be described later.

또한 발광마킹부(254)가 감리대상 객체로 조사한 제1 광마크와, 타 드론이 감리대상 객체로 조사한 제2 광마크와, 감리대상 객체를 포함하는 이미지를 취득하도록 발광마킹부(254)와 카메라(221)를 제어한다.The light-emission marking unit 254 and the light-emission marking unit 254 are configured to acquire an image including the first light mark irradiated by the light-emission marking unit 254 on the object to be inspected, the second light mark irradiated on the object to be inspected by the tardor, And controls the camera 221.

또한 제어부(280)는 카메라(221)를 통하여 촬영된 이미지로부터 각종 물리적 데이터를 산출하고, 이동 단말기나 서버 등 타 장치로부터 수신된 감리 대상 장치의 데이터와 매칭시키고 이미지 중 감리대상 객체의 표시 영역을 추출할 수 있다. 이러한 물리적 데이터의 산출 등은 드론(200)으로부터 촬영 이미지를 전달받아 이동 단말기나 서버에서 수행하는 것도 가능하고, 매칭과 매칭에 필요한 연산만을 드론(200)에서 수행하고 나머지 작업이나 연산은 이동 단말기나 서버 등에서 수행하도록 분산시키는 것도 가능하다. 제어부(280)는 감리대상 객체의 ID, 물리적 정보, 제1 이미지 및 제1 이미지 중 감리대상 객체의 표시 영역 정보를 매칭하여 이동 단말기나 서버로 전송할 수 있다.In addition, the control unit 280 calculates various physical data from the photographed image through the camera 221, matches the data of the control target device received from another apparatus such as a mobile terminal or a server, Can be extracted. The calculation of the physical data may be performed by the mobile terminal or the server by receiving the photographed image from the drones 200. Only the operations necessary for matching and matching may be performed by the drone 200, Server or the like. The control unit 280 may match the ID of the object to be controlled, the physical information, the first image, and the display area information of the object to be inspected, among the first image, and transmit the matching information to the mobile terminal or the server.

또한 제어부(280)는 카메라(221)의 촬영 방향과 상술한 발광마킹부(254)가 광마크를 조사하는 방향의 각도를 산출하여 이를 한 쌍의 드론을 잇는 가상의 선분을 기준으로하는 객체의 방향 및 거리를 산출하는데 이용할 수 있다. 제어부(280)는 카메라(221)의 촬영 방향과 상술한 발광마킹부(254)가 광마크를 조사하는 방향의 각도를 산출하기 위한 구성은 한 쌍의 드론 중 어느 한 드론에 구비되는 것으로 충분하다. The control unit 280 calculates an angle between the photographing direction of the camera 221 and the direction in which the light-emitting marking unit 254 irradiates the light mark described above and calculates an angle of the object based on a virtual line segment connecting the pair of drones Directions, and distances. It is sufficient that the control unit 280 is provided in any one of the pair of drones for the configuration for calculating the angle between the photographing direction of the camera 221 and the direction in which the light emitting marking unit 254 irradiates the light mark .

한편, 제어부(280)는 객체의 물리적 데이터를 산출하기 위하여 다음과 같은 프로세스를 수행할 수 있다. 제어부(280)는 타 드론과의 거리를 이등분하는 중심점을 산출하고, 중심점을 회전 중심으로하는 회전반경을 산출하여 중심점을 기준으로 선회하도록 드론(200)의 비행 경로를 제어할 수 있다. 이외의 산출 데이터와 원리에 대하여 후술한다.Meanwhile, the controller 280 may perform the following process to calculate the physical data of the object. The control unit 280 may calculate a center point bisecting the distance between the treadmill and the treadmill and calculate a turning radius around the center point and control the flight path of the drones 200 so as to turn around the center point. Other calculation data and principles will be described later.

도 4 내지 도 6을 참조하여 본 발명에 따른 감리 시스템의 동작방법을 상세히 설명한다. 도 4는 본 발명의 일 실시예에 따른 객체 생성 및 DB 매칭의 방법을 설명하기 위한 블록도이고, 도 5 및 도 6은 본 발명의 일 실시예에 따른 선회 촬영 및 마킹 방법을 설명하기 위한 개략도이다.The operation method of the supervisory system according to the present invention will be described in detail with reference to FIGS. 4 to 6. FIG. FIG. 4 is a block diagram for explaining a method of object generation and DB matching according to an embodiment of the present invention. FIGS. 5 and 6 are schematic diagrams for explaining a turning shooting and marking method according to an embodiment of the present invention. to be.

본 발명은 이동 단말기(100)을 통해 공사현장에서 감리(예: 도면과 실제 시공이 일치하는지를 확인하는 업무 등)가 필요한 피사체(예: 현장의 건축 구조물 등)를 촬영하고, 서버(300)로부터 상기 촬영된 건축물(건축 구조물)에 관한 속성정보들을 다운로드하여 이동 단말기(100)의 화면에 디스플레이 한다. 공사현장의 사용자(예: 감리자, 공사감독자, 검측원 등)는 상기 촬영된 이미지가 디스플레이되어 있는 이동 단말기(100)의 화면에서, 원하는 객체를 선택(화면터치)하는 것만으로도, 해당 객체의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)을 열람할 수 있다. The present invention takes a photograph of a subject (e.g., an architectural structure of a site) requiring a supervision (for example, a work for confirming whether a drawing and an actual construction are consistent with each other) at a construction site through the mobile terminal 100, And downloads the property information about the photographed building (building structure) and displays it on the screen of the mobile terminal 100. [ A user of a construction site (e.g., a supervisor, a construction supervisor, a surveyor, etc.) can select a desired object (touch a screen) on the screen of the mobile terminal 100 on which the photographed image is displayed, (For example, ID information, manufacturing information, construction charge, specification, time limit, etc.) can be browsed.

다만, 이러한 프로세스를 수행하기 위해서는 드론이 촬영한 이미지나 영상을 분석하여 이미지나 영상 내에 촬영된 객체와 서버 등으로부터 전달된 객체 정보를 매칭시켜야 한다. 즉, 이미지 내에 특정 객체가 촬영된 영역이 어느 부분인지와 해당 객체가 서버 내에 어떠한 객체에 대응하는지를 판단하고 이를 매칭시켜야 한다.However, in order to perform such a process, an image or an image captured by a drone must be analyzed to match object information transmitted from an object or a server captured in an image or an image. That is, it is necessary to judge which part of the area in which the specific object is photographed in the image corresponds to which object in the server, and match the determined area.

이러한 프로세스를 위하여 다음과 같은 과정을 진행한다.For this process, proceed as follows.

먼저, 건축물 감리를 위한 위치에 제1 드론 및 제2 드론을 제공한다. 이 과정에서 이동 단말기의 위치정보 모듈(115)을 이용하여 해당 위치에 인접한 객체들의 정보를 서버 등으로부터 미리 로딩한다.First, a first dron and a second dron are provided in positions for building supervision. In this process, the location information module 115 of the mobile terminal pre-loads information of objects adjacent to the corresponding location from a server or the like.

다음으로 제1 드론 및 제2 드론 중 어느 하나가 나머지 드론을 포함하는 이미지를 촬영하여 제1 드론 및 제2 드론간의 거리를 산출한다(S110). 이 과정은 이미지 촬영을 통하여 객체들의 물리적인 특성을 산출하기 위한 기본적인 세팅과정에 해당한다. 예를 들어 촬영된 나머지 하나이 드론의 이미지로부터 드론의 특정 부분의 이미지 상 길이를 산출하면 해당 드론까지의 거리(D1)를 산출할 수 있다.Next, either the first dron or the second dron captures an image including the remaining drones to calculate the distance between the first dron and the second dron (S110). This process corresponds to a basic setting process for calculating the physical characteristics of objects through image shooting. For example, if the length of an image of a specific part of the dron is calculated from the image of the remaining one taken in the drones, the distance D1 to the corresponding dron can be calculated.

다음으로 제1 드론 및 제2 드론의 중심점을 기준으로 제1 드론 및 상기 제2 드론이 선회하고, 선회 도중에 제1 드론 및 상기 제2 드론 중 적어도 어느 하나의 드론이 제1 드론 및 제2 드론이 조사한 한 쌍의 광마크와 감리대상 객체가 포함되는 선회촬영 이미지를 촬영한다(S120). 이 때 해당 드론까지의 거리(D1)를 이등분하는 지점, 즉 제1 드론(200a)으로부터 D1의 1/2인 R1인 지점을 중심점으로 산출한다. Next, the first dron and the second dron are pivoted on the basis of the center points of the first dron and the second dron, and at least one of the first dron and the second dron is swung between the first dron and the second dron, A swirling shot image including a pair of the optical marks and the object to be inspected is irradiated (S120). At this time, a point at which the distance D1 to the drone is bisected, that is, a point R1 that is 1/2 of D1 from the first drones 200a is calculated as a center point.

구체적으로, 선회 촬영은 세부적으로 다음의 두 과정을 통하여 진행한다.Specifically, the turning shooting proceeds in detail through the following two processes.

선회촬영 첫번째 과정에서 제1 드론 및 제2 드론은 기 산출된 중심점을 중심으로 선회하면서 어느 하나의 드론이 나머지 하나의 드론을 향하는 방향으로 카메라를 제어하여 이미지나 영상을 촬영한다. 이 때 제1 드론 및 제2 드론은 양 드론의 카메라를 모두 이용하는 경우 180도(반 바퀴)를 선회하면서 이미지를 촬영한다. 이 경우 각 드론은 선회도중 멈추지 않고 연속적으로 비행하며, 이미지의 해상도를 제공된 해상도 중 최소로하여 촬영을 진행한다. 촬영된 이미지의 수평이 맞지 않는 상태로 촬영이 되고 이미지 상의 촬영 대상물들의 디테일한 특징이 촬영되기 어려우나, 최초의 선회촬영은 객체의 개략적인 위치를 인식하기 위한 것이므로 이와 같은 촬영으로 충분하다. 촬영된 영상을 키 프레임을 추출한 후 그레이스케일 및 이진화 등의 영상처리를 통하여 에지를 추출하고, 형상을 인식한다. 최초의 선회촬영 중 연속적으로 인식된 객체의 형상과 서버 등으로부터 전달된 촬영 중인 위치에 인접한 객체의 정보를 비교하여 제1 드론 및 제2 드론을 잇는 가상의 선분을 기준으로 인접하는 객체, 즉 감리대상 객체 들의 방향을 산출한다.In the first process of turning shooting, the first drones and the second drones rotate around the calculated center point, and one of the drones controls the camera in the direction toward the other one of the drones to shoot an image or an image. At this time, when both the drones of the first and second drones are used, the first and second drones are rotated 180 degrees (half a turn) to take an image. In this case, each of the drones continuously travels without stopping during the turn, and the image is resized to the minimum resolution provided. The photographed image is photographed in a state in which the photographed image does not fit horizontally, and the detailed features of the photographed objects on the image are difficult to be photographed. However, since the first photographed image is for recognizing the approximate position of the object, such photographed is sufficient. After extracting the keyframe from the photographed image, the edge is extracted by image processing such as gray scale and binarization, and the shape is recognized. The shape of the object continuously recognized during the first turning shooting is compared with the information of the object adjacent to the position being photographed transmitted from the server or the like and the adjacent object based on the virtual line segment connecting the first dron and the second dron, And calculates the direction of the target objects.

선회촬영 두번째 과정에서는 디테일한 정보를 산출하기 위하여 제1 드론 및 제2 드론이 선회하면서 특정 감리대상 객체에 대하여 각각의 드론이 광마크(M1, M2)를 조사하고, 해당 광마크들(M1, M2)과 감리대상 객체(Obj1)를 모두 포함하는 이미지나 영상을 촬영한다. 선회촬영 두번째 과정에서 한 쌍의 드론은 양 드론이 모두 카메라를 이용하여 촬영하는 것을 가정하는 경우 180도(반바퀴)를 선회하며 진행할 수 있다. 이 단계에서의 촬영은 광마크의 길이 및 감리대상 객체의 길이 등을 구분가능하도록 해상도를 충분히 높인 상태에서 진행하는 것이 바람직하다. 감리대상 객체의 세부 특징의 촬영을 동시에 진행하는 경우에는 세부적인 특징을 구분가능하도록 충분히 해상도를 높이는 것도 가능하다.In the second process of turning shooting, the first and second drones rotate to calculate detailed information, and each of the drones irradiates the optical marks M1 and M2 with respect to the specific object to be inspected, and the light marks M1, M2) and the object to be supervised (Obj1). In the second process, a pair of drones can be turned by 180 degrees (half a turn) if both drones are assumed to shoot with the camera. It is preferable that the photographing in this step proceeds with a sufficiently high resolution so that the length of the optical mark and the length of the object to be inspected can be distinguished. In the case where the detailed feature of the object to be inspected is simultaneously photographed, it is also possible to raise the resolution sufficiently so that detailed features can be distinguished.

한편, 선회촬영 두번째 과정에서의 감리대상 객체의 촬영은 한 쌍의 드론 중 어느 하나가 감리 대상 객체에 근접한 상태에서 진행하는 것이 바람직하다. 선회촬영 두번째 과정에서의 촬영은 드론이 정지한 상태에서 수행한다. 어느 한 드론이 위치가 인식된 감리대상 객체의 촬영에 적정한 위치에 도달하면 촬영을 위하여 선회비행을 멈추고 제자리에서 비행하게 된다. 예를 들어 도 6에 도시된 바와 같이 제2 드론(200b)이 감리대상 객체(Obj1)에 근접한 상태에서 제1 드론(200a)과 제2 드론(200b)이 각각 광마크를 감리대상 객체(Obj1)를 향하여 조사한 상태에서 감리대상 객체(Obj1)에 근접한 제2 드론(200b)이 감리대상 객체(Obj1)의 이미지를 촬영할 수 있다. 이 때에도 제1 드론(200a)과 제2 드론(200b)은 회전의 중심점을 기준으로 반대 위치에 위치하도록 지속적으로 제어한다.On the other hand, it is preferable that photographing of the object to be supervised in the second process of turning shooting proceeds in a state in which one of the pair of drones is close to the object to be inspected. Recording in the second step The shooting is carried out with the drones stopped. When a droneman reaches a suitable position for shooting the object to be sensed, it will stop the turning flight and fly in place. For example, as shown in FIG. 6, when the second drones 200b are close to the object to be controlled Obj1, the first drones 200a and the second drones 200b respectively output the optical marks to the object object Obj1 The second drones 200b close to the object object Obj1 can take an image of the object object Obj1. At this time, the first drones 200a and the second drones 200b are continuously controlled to be located at opposite positions with respect to the center of rotation.

다음으로 선회촬영 이미지로부터 감리대상 객체의 물리적인 정보를 측정하고, 선회촬영 이미지 중 상기 감리대상 객체가 표시되는 영역의 정보를 산출한다(S130). 본 단계에서는 촬영한 드론으로부터 광마크까지의 거리와 광마크의 절대적인 크기를 산출하여 이를 감리대상 객체(Obj1)의 물리적인 특징을 산출하는 기준으로 삼는다.Next, physical information of the object to be inspected is measured from the turning image, and information of the area in which the object to be controlled is displayed is calculated (S130). In this step, the distance from the photographed dron to the optical mark and the absolute size of the optical mark are calculated and used as a reference for calculating the physical characteristics of the object to be inspected (Obj1).

구체적으로 각 드론으로부터 조사된 광마크의 크기를 비교하면 각 드론으로부터 감리대상 객체(Obj1)에 이르는 거리의 비율을 알 수 있으며, 이에 제1 드론(200a)과 제2 드론(200b)을 잇는 가상의 선분과 촬영을 진행한 제2 드론(200b)이 광마크를 조사한 방향과의 각도를 고려하면 제2 드론(200b)과 감리대상 객체(Obj1) 사이의 거리를 산출할 수 있으며, 이를 이용하여 제1 드론(200a)과 감리대상 객체(Obj1)과의 거리도 산출할 수 있다.Specifically, when the sizes of the light marks irradiated from the respective drone are compared, the ratio of the distance from each dron to the object to be inspected Obj1 can be known, and the distance between the first dron 200a and the second dron 200b The distance between the second drones 200b and the object object Obj1 can be calculated in consideration of the line segment of the second dron 200b and the direction of the light emitted by the second drones 200b. The distance between the first drones 200a and the object object Obj1 can also be calculated.

이어서 제2 드론(200b)과 감리대상 객체(Obj1) 사이의 거리에 조사된 광마크의 거리당 확산률을 곱하여 해당 광마크의 절대적인 크기를 산출한다. 산출된 광마크의 절대적인 크기, 즉 길이는 촬영된 이미지 상에서 감리대상 객체(Obj1)의 물리적인 규격과 방향을 산출하는데에 이용된다. 또한 앞서 설명한 바와 같이 감리대상 객체(Obj1)의 수직 및 수평 설치방향을 측정하는 데에도 활용이 가능하다.Then, an absolute size of the optical mark is calculated by multiplying the distance between the second drones 200b and the object object Obj1 by the diffusion rate per distance of the irradiated optical mark. The absolute size or length of the calculated optical mark is used to calculate the physical size and direction of the object to be inspected Obj1 on the photographed image. Also, as described above, it can be used to measure the vertical and horizontal installation directions of the object to be supervised (Obj1).

이때 두번째 선회촬영에서 촬영된 이미지로부터 영상처리를 통하여 보다 정확한 감리대상 객체의 영역을 추출한다.At this time, the area of the object to be inspected is extracted more accurately through image processing from the image taken in the second turning shooting.

다음으로 선회촬영 이미지에 포함된 감리대상 객체와 외부로부터 전송된 상기 감리대상 객체의 정보를 매칭한다(S140) 즉, 서버로부터 전달된 감리대상 객체의 정보, 촬영된 이미지 정보 및 추출된 감리대상의 이미지상 영역에 대한 정보를 함께 갱신하여 저장한다.Next, information of the object to be supervised included in the rotation photographing image is matched with information of the object to be supervised transmitted from the outside (S140). That is, information of the object to be supervised transmitted from the server, And updates and stores information on the image area.

이어서 매칭된 감리대상 객체의 정보를 이동 단말기나 서버 등 외부로 전송하고(S150), 필요한 경우 해당 선회촬영 이미지와 서버 등 DB에 저장되어 있는 감리대상 객체의 정보를 비교 분석하여 감리를 수행할 수 있다.Then, the information of the matched inspection object object is transmitted to the outside such as the mobile terminal or the server (S150), and if necessary, the comparison of the information of the inspection object stored in the database, such as the server, have.

이 때 감리대상 객체의 정보는 상기 감리대상 객체에 대한 ID를 포함하고, 감리대상 객체의 제조, 시공담당, 규격, 공정시한 중 적어도 하나를 포함할 수 있다.At this time, the information of the object to be supervised includes IDs of the object to be supervised, and may include at least one of manufacture, construction, specification, and process of the object to be supervised.

도 7을 참조하여 이동 단말기(100)의 제어 방법을 설명한다. 도 7은 본 발명에 따른 이동 단말기(100)의 제어 방법에 관한 순서도이다. A control method of the mobile terminal 100 will be described with reference to FIG. 7 is a flowchart illustrating a control method of the mobile terminal 100 according to the present invention.

이동 단말기(100)는 제1 이미지를 디스플레이부(151)에 표시한다. 구체적으로 이동 단말기(100)는 무선 통신부(110)를 통하여 드론(200)과 통신이 이루어지며, 제어부(180)는 사용자 입력에 따라 드론(200)의 움직임을 제어할 수 있다. The mobile terminal 100 displays the first image on the display unit 151. [ Specifically, the mobile terminal 100 communicates with the drones 200 through the wireless communication unit 110, and the controller 180 can control the movement of the drones 200 according to user inputs.

특히 제어부(180)는 위에서 설명한 선회촬영 이외에도 객체에 대한 상세한 이미지 상세 정보를 획득하거나 상세 이미지를 취득하기 위하여 드론(200)에 장착된 카메라(221)를 활성화시키도록 드론(200)을 제어할 수 있다. 따라서 제어부(180)는 드론(200)의 카메라(221)가 피사체를 촬영하도록 제어하고, 촬영된 제1 이미지를 수신하여, 이를 디스플레이부(151)에 표시할 수 있다(S410). 이 경우 하나의 드론만을 이용하는 것이 가능하다.In particular, the control unit 180 may control the drones 200 to activate the camera 221 mounted on the drones 200 in order to acquire detailed image detail information about the object, as well as the above- have. Accordingly, the control unit 180 controls the camera 221 of the drones 200 to photograph the subject, receives the photographed first image, and displays it on the display unit 151 (S410). In this case, it is possible to use only one drones.

촬영된 제1 이미지는 감리의 대상인 건출물에 관한 것일 수 있다. 이 경우 디스플레이된 영상에는 다양한 객체, 예를 들어 건축물의 창문, 도어(door), 전등, 콘센트 등 다양한 객체에 대한 이미지가 포함될 수 있다. 따라서 사용자는 디스플레이된 다양한 객체에 대한 이미지 중 하나를 선택할 수 있다(S420). 이 경우 사용자는 디스플레이부(151, 터치 스크린)상에 하나의 객체 이미지에 대한 터치를 함으로써 선택할 수 있다. The photographed first image may be related to the dry matter which is the subject of the inspection. In this case, the displayed image may include images of various objects such as a window of a building, a door, a lamp, an outlet, and the like. Accordingly, the user can select one of images for various displayed objects (S420). In this case, the user can select by touching one object image on the display unit 151 (touch screen).

하나의 객체 이미지가 선택되면, 드론(200)은 선택된 객체 이미지에 대응되는 객체 앞으로 자동으로 이동할 수 있다. 구체적으로 객체 이미지에 대한 선택은 선택된 객체 이미지에 대응되는 객체를 정면에서 풀샷(full shot)으로 촬영하라는 명령을 의미할 수 있다. 따라서 제어부(180)는 해당 객체를 정면에서 풀샷으로 촬영하기 위하여 드론(200)을 해당 위치로 이동하도록 제어할 수 있다(S430). When one object image is selected, the drone 200 can automatically move to the object corresponding to the selected object image. Specifically, the selection of an object image may mean a command to shoot a full shot of the object corresponding to the selected object image from the front. Accordingly, the control unit 180 may control the drone 200 to move to the corresponding position in order to capture the object from the front in a full shot (S430).

카메라(221)의 활성화가 유지되고 있는 상태에서, 드론(200)은 해당 객체의 정면으로 이동하고, 디스플레이부(151)에는 해당 객체의 정면에서 기 설정된 거리로부터 촬영된 제2 이미지가 디스플레이된다(S440). 즉 디스플레이부(151)에는 제2 이미지가 디스플레이되고, 특히 제2 이미지에 포함된 해당 객체의 정면 이미지가 풀샷으로 디스플레이된다. 이 경우 제어부(180)는 디스플레이부(151)의 전체 화면에 해당 객체의 이미지가 전부 표시되도록 드론(200)과 해당 객체와의 거리를 조정할 수 있다. While the activation of the camera 221 is being maintained, the dragon 200 moves to the front of the object, and a second image photographed from a predetermined distance in front of the object is displayed on the display unit 151 S440). That is, the second image is displayed on the display unit 151, and in particular, the front image of the object included in the second image is displayed as a full shot. In this case, the controller 180 may adjust the distance between the drones 200 and the object so that the entire image of the object is displayed on the entire screen of the display unit 151.

해당 객체의 정면 이미지가 풀샷으로 디스플레이부(151)에 디스플레이되면, 제어부(180)는 해당 객체를 포함하는 제2 이미지를 촬영하도록 드론(200)을 제어한다. 제어부(180)는 촬영된 제2 이미지를 드론(200)으로부터 수신하여 이를 서버(300)로 전송한다(S450). 또는 제어부(180)는 촬영된 제2 이미지를 드론(200)으로부터 서버(300)로 곧바로 전송하도록 제어할 수 있다. When the front image of the object is displayed on the display unit 151 in a full shot, the controller 180 controls the drones 200 to photograph the second image including the object. The control unit 180 receives the photographed second image from the drone 200 and transmits it to the server 300 (S450). Or the control unit 180 may control to transmit the photographed second image directly from the drones 200 to the server 300. [

제2 이미지를 수신한 서버(300)는 제2 이미지에 포함된 객체 이미지에 대응되는 객체 정보를 데이터베이스로부터 검색 및 추출할 수 있다. 객체 정보는 서버(300)로 전송된 객체 이미지에 대응되는 객체의 ID 정보, 생산 정보, 시공담당 정보, 규격 정보, 공정시한 정보 등을 의미할 수 있다. 이와 같은 객체 정보는 서버(300)로부터 이동 단말기(100)로 전송된다. The server 300 receiving the second image can search and extract the object information corresponding to the object image included in the second image from the database. The object information may include ID information, production information, construction charge information, standard information, and process information of an object corresponding to the object image transmitted to the server 300. The object information is transmitted from the server 300 to the mobile terminal 100.

이동 단말기(100)는 서버(300)로부터 수신된 객체 정보를 디스플레이부(151)에 디스플레이한다(S460). 이로써 사용자는 공사현장에서 촬영된 영상으로부터 특정 객체에 대한 감리를 수행할 수 있다. The mobile terminal 100 displays the object information received from the server 300 on the display unit 151 (S460). Thus, the user can perform the control of the specific object from the image photographed at the construction site.

이하에서는 구체적인 예시를 통해 이동 단말기를 통한 감리 방법을 설명하기로 한다. Hereinafter, a method of controlling the mobile terminal will be described with reference to specific examples.

도 8 내지 도 9은 본 발명에 따른 이동 단말기에 의해 객체를 촬영하기 위한 방법을 설명하기 위한 도면의 일 예이다. 8 to 9 are views showing an example of a method for photographing an object by a mobile terminal according to the present invention.

도 8(a)는 드론(200)에 장착된 카메라(221)를 통해 본 공사현장의 프리뷰(pre-view) 이미지를 도시한 것이다. 카메라(221)가 드론(200)의 전면부에 장착되었다고 가정한다면, 도 8(a)와 같은 프리뷰 이미지가 획득되기 위해서는 도 8(b)에 도시된 바와 같이, 드론(200)의 카메라(221)는 A영역 및 B영역을 동시에 향하고 있음을 알 수 있다. 다시 말해 드론(200)이 감리 대상인 객체를 전반적으로 촬영하고 있는 상태일 수 있다. 8 (a) shows a pre-view image of the construction site through the camera 221 mounted on the drone 200. FIG. Assuming that the camera 221 is mounted on the front portion of the dron 200, in order to obtain a preview image as shown in FIG. 8 (a), the camera 221 of the dron 200 ) Are directed to the A region and the B region at the same time. In other words, the drones 200 may be in a state of shooting the entire object to be inspected.

카메라(221)는 도어, 창문, 전등, 벽, 천장, 바닥과 같은 객체를 포함하는 하나의 이미지를 프리뷰 이미지로 촬영하며, 드론(200)은 촬영된 프리뷰 이미지를 이동 단말기(100)로 전송한다. 따라서 이동 단말기(100)의 제어부(180)는 수신된 프리뷰 이미지를 디스플레이부(151)에 디스플레이한다. 즉 도 8(c)에 도시된 바와 같이, 제어부(180)는 드론(200)의 카메라(221)가 촬영한 프리뷰 이미지를 디스플레이부(151)에 그대로 디스플레이할 수 있다. The camera 221 photographs one image including a subject such as a door, a window, a lamp, a wall, a ceiling, and a floor as a preview image, and the drone 200 transmits the photographed preview image to the mobile terminal 100 . Accordingly, the control unit 180 of the mobile terminal 100 displays the received preview image on the display unit 151. [ That is, as shown in FIG. 8 (c), the control unit 180 can display the preview image taken by the camera 221 of the drones 200 directly on the display unit 151.

한편 도 8(c)에 도시된 바와 같이, 사용자는 디스플레이된 프리뷰 이미지 중 감리하고자 하는 하나의 객체를 선택할 수 있다. 예를 들어 창문을 감리하고자 한다면, 사용자는 디스플레이부(151)상의 창문 이미지(400)를 터치할 수 있다. 이 경우 선택된 객체인 창문 이미지(400)는 사용자에 의해 선택되었음을 나타내기 위하여, 나머지 객체와 구별되도록 이미지의 크기, 색깔, 테두리 굵기 등 다양한 시각적 효과가 부여될 수 있다. On the other hand, as shown in FIG. 8 (c), the user can select one object to be supervised among the displayed preview images. For example, if the user intends to conceal a window, the user can touch the window image 400 on the display unit 151. In this case, in order to indicate that the selected window image 400 is selected by the user, various visual effects such as the size, color, and thickness of the image may be given to distinguish the selected object from the remaining objects.

이후 드론(200)은 선택된 객체인 창문의 정면으로 이동하여, 도 9(a)에 도시된 바와 같은 프리뷰 이미지가 획득된다. 이러한 프리뷰 이미지가 획득되기 위해서는 도 9(b)에 도시된 바와 같이, 드론(200)의 카메라(221)는 B영역만을 향하여야 한다. 다시 말해 드론(200)이 감리하고자 하는 특정 객체(창문)만을 촬영하고 있는 상태일 수 있다. Then, the drone 200 moves to the front of the window, which is the selected object, and a preview image as shown in Fig. 9 (a) is obtained. In order to obtain such a preview image, the camera 221 of the drones 200 should direct only to the region B as shown in FIG. 9 (b). In other words, the drones 200 may be in a state of shooting only specific objects (windows) to be inspected.

카메라(221)는 창문을 정면에서 풀샷으로 촬영하며, 드론(200)은 촬영된 창문의 프리뷰 이미지를 이동 단말기(100)로 전송한다. 따라서 이동 단말기(100)의 제어부(180)는 수신된 프리뷰 이미지를 디스플레이부(151)에 디스플레이한다. 즉 도 9(c)에 도시된 바와 같이, 제어부(180)는 드론(200)의 카메라(221)가 촬영한 프리뷰 이미지를 디스플레이부(151)에 그대로 디스플레이할 수 있다. The camera 221 photographs the window in a full shot from the front, and the drone 200 transmits the preview image of the photographed window to the mobile terminal 100. Accordingly, the control unit 180 of the mobile terminal 100 displays the received preview image on the display unit 151. [ That is, as shown in FIG. 9 (c), the control unit 180 can display the preview image taken by the camera 221 of the drones 200 directly on the display unit 151.

또한 드론(200)은 촬영 지점의 위치 정보를 파악하여, 프리뷰 이미지와 함께 이동 단말기(100)로 전송할 수 있다. 따라서 이동 단말기(100)는 위치 정보를 포함하는 프리뷰 이미지를 수신하게 된다. Also, the drone 200 can acquire positional information of the photographing point and transmit it to the mobile terminal 100 together with the preview image. Accordingly, the mobile terminal 100 receives the preview image including the location information.

한편 도 8(c)에 도시된 프리뷰 이미지를 사용자가 터치하여 선택하면, 제어부(180)는 선택된 이미지를 서버(300)로 전송할 수 있다. 이 경우 선택된 객체인 창문 이미지(400)는 사용자에 의해 선택되었음을 나타내기 위하여, 이미지의 크기, 색깔, 테두리 굵기 등 다양한 시각적 효과가 부여될 수 있음은 전술한 바와 같다. 또는 도 8(c)에 도시된 프리뷰 이미지는 사용자의 선택이 없더라도, 제어부(180)는 이를 자동으로 서버(300)로 전송할 수도 있다. 이후 서버(300)는 수신된 이미지에 포함된 객체를 판단할 수 있다. 예를 들어 수신된 이미지가 도 9(c)와 같다면, 서버(300)는 수신된 이미지에 포함된 창문 또는 창틀 이미지(400)를 추출하고, 추출된 창문 또는 창틀 이미지(400)로부터 객체가 창문 또는 창틀임을 판단할 수 있다. 따라서 서버(300)는 데이터베이스로부터 창문 또는 창틀에 관한 정보를 추출할 수 있다. On the other hand, when the user touches the preview image shown in FIG. 8C and selects the preview image, the controller 180 can transmit the selected image to the server 300. In this case, in order to indicate that the selected window image 400 is selected by the user, various visual effects such as image size, color, border thickness, and the like can be given. The control unit 180 may automatically transmit the preview image shown in FIG. 8 (c) to the server 300 even if there is no user selection. The server 300 may then determine the object included in the received image. For example, if the received image is the same as shown in FIG. 9C, the server 300 extracts the window or window frame image 400 included in the received image, and extracts the object from the extracted window or window frame image 400 A window or a window frame. Accordingly, the server 300 can extract information about the window or the window frame from the database.

뿐만 아니라 도 8(c)에 도시된 프리뷰 이미지를 사용자가 터치하여 선택하면, 제어부(180)는 디스플레이된 프리뷰 이미지에 포함된 객체를 판단할 수 있다. 즉 프리뷰 이미지에 포함된 창문 이미지(400)가 선택되면, 제어부(180)는 선택된 창문 이미지(400)로부터 객체가 창문임을 판단할 수 있다. 따라서 제어부(180)는 객체(예: 창문 또는 창틀)에 대한 정보를 요청하는 신호를 서버(300)로 전송할 수 있다. 이 경우 선택된 객체인 창문 이미지(400)는 사용자에 의해 선택되었음을 나타내기 위하여, 이미지의 크기, 색깔, 테두리 굵기 등 다양한 시각적 효과가 부여될 수 있음은 전술한 바와 같다. 이후 서버(300)는 수신된 객체(예: 창문 또는 창틀)에 대한 정보를 데이터베이스로부터 추출할 수 있다. In addition, if the user selects the preview image shown in FIG. 8C by touching, the control unit 180 can determine the object included in the displayed preview image. That is, when the window image 400 included in the preview image is selected, the control unit 180 can determine that the object is a window from the selected window image 400. Accordingly, the controller 180 may transmit a signal to the server 300 requesting information about the object (e.g., window or window frame). In this case, in order to indicate that the selected window image 400 is selected by the user, various visual effects such as image size, color, border thickness, and the like can be given. The server 300 may then extract information about the received object (e.g., window or window frame) from the database.

한편 이동 단말기(100)는 객체 이미지 또는 객체에 대한 정보 요청 신호와 함께 해당 객체 이미지 또는 객체의 위치 정보를 서버(300)로 전송할 수 있다. 따라서 서버(300)는 특정 위치(예: 서울시 강남구 XX동 123번지 Y동 1203호)에 해당하는 객체 정보(예: 창틀 또는 창문에 관한 정보)를 이동 단말기(100)로 전송할 수 있다. 따라서 서버(300)는 특정 위치의 특정 객체에 대한 정보를 데이터베이스로부터 추출할 수 있다. Meanwhile, the mobile terminal 100 may transmit the information about the object image or the object together with the information request signal and the location information of the object image or object to the server 300. Accordingly, the server 300 may transmit object information (e.g., window frame or window information) corresponding to a specific location (e.g., 1203, YANG, 123, Kangnam-gu, Seoul) to the mobile terminal 100. Accordingly, the server 300 can extract information about a specific object at a specific location from the database.

이와 같은 방식으로 추출된 객체 정보는 서버(300)로부터 이동 단말기(100)로 전송되며, 이하에서는 이동 단말기(100)에서 객체 정보가 표시되는 방식에 대해 설명하기로 한다. The extracted object information is transmitted from the server 300 to the mobile terminal 100. Hereinafter, a method of displaying the object information in the mobile terminal 100 will be described.

도 10(a)에 도시된 바와 같이, 디스플레이부(151)의 전체 화면 중 일부 영역(151-1)에는 객체 이미지(400)가 디스플레이되고, 나머지 영역(151-2)에는 객체 정보가 디스플레이될 수 있다. 따라서 사용자는 객체 및 이에 대한 정보를 쉽게 파악할 수 있다. 10A, the object image 400 is displayed in a partial area 151-1 of the entire screen of the display unit 151, and the object information is displayed in the remaining area 151-2 . Therefore, the user can easily grasp the object and information about the object.

또는 도 10(b)에 도시된 바와 같이, 디스플레이부(151)의 전체 영역에 객체 이미지(400)가 디스플레이되고, 팝업 화면(151-3)상에 객체 정보가 디스플레이될 수도 있다. The object image 400 may be displayed on the entire area of the display unit 151 and the object information may be displayed on the pop-up screen 151-3 as shown in FIG. 10 (b).

이후 사용자는 디스플레이된 객체 정보 중 어느 하나에 대하여 자세한 정보를 확인할 수 있다. 구체적으로 도 11(a)에 도시된 바와 같이, 사용자는 제조 정보 항목을 선택할 수 있다. 이 경우 도 11(b)에 도시된 바와 같이, 선택된 항목에 대한 상세 정보를 포함하는 화면이 전환되거나, 추가 화면이 디스플레이부(151)에 디스플레이될 수 있다. 즉 도 11에 도시된 바와 같이, 이동 단말기(100)는 특정 공사현장(서울시 강남구 XX동 123번지 Y동 1203호)의 특정 객체(창문 또는 창틀)에 대한 정보를 서버(300)로부터 수신하여 이를 디스플레이함으로써, 사용자에 의한 감리가 이루어지도록 할 수 있다. Then, the user can confirm detailed information on any one of the displayed object information. Specifically, as shown in Fig. 11 (a), the user can select a manufacturing information item. In this case, as shown in FIG. 11 (b), a screen including detailed information on the selected item may be switched or an additional screen may be displayed on the display unit 151. 11, the mobile terminal 100 receives information about a specific object (a window or a window frame) of a specific construction site (eg, 1203, No. 123, Kangnam-gu, Seoul, So that the control by the user can be performed.

전술한 본 발명은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는 HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. The present invention described above can be embodied as computer readable codes on a medium on which a program is recorded. A computer readable medium includes any type of recording device in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). The computer may also include a controller 180 of the terminal. The foregoing detailed description, therefore, should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

500: 감리 시스템 300: 서버
200, 200a, 200b: 드론 100: 이동 단말기
110: 무선 통신부 120: A/V 입력부
130: 사용자 입력부 140: 센싱부
150: 출력부 160: 메모리
170: 인터페이스부 180: 제어부
190: 전원 공급부
500: Supervision system 300: Server
200, 200a, 200b: Drones 100: Mobile terminals
110: wireless communication unit 120: A / V input unit
130: user input unit 140: sensing unit
150: output unit 160: memory
170: interface unit 180: control unit
190: Power supply

Claims (11)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1 드론, 제2 드론 및 이동 단말기를 이용하여 건축물을 감리하는 방법에 있어서,
건축물 감리를 위한 위치에 제1 드론 및 제2 드론을 제공하는 제1 단계;
상기 제1 드론 및 제2 드론 중 어느 하나가 나머지 드론을 포함하는 이미지를 촬영하여 상기 제1 드론 및 제2 드론간의 거리를 산출하는 제2 단계;
상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하고, 상기 선회 도중 상기 제1 드론 및 상기 제2 드론 중 적어도 어느 하나의 드론이 상기 제1 드론 및 상기 제2 드론이 조사한 한 쌍의 광마크와 감리대상 객체가 포함되는 선회촬영 이미지를 촬영하는 제3 단계;
상기 선회촬영 이미지로부터 상기 감리대상 객체의 물리적인 정보를 측정하고, 상기 선회촬영 이미지 중 상기 감리대상 객체가 표시되는 영역의 정보를 산출하는 제4 단계;
상기 선회촬영 이미지에 포함된 감리대상 객체와 외부로부터 전송된 상기 감리대상 객체의 정보를 매칭하는 제5 단계; 및
상기 제1 드론 및 상기 제2 드론 중 어느 하나가 상기 매칭된 선회촬영 이미지와 상기 감리대상 객체의 정보를 외부로 전송하는 제6 단계;를 포함하고,
상기 제3 단계는,
상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하는 과정에서 각각 마주보는 제1 드론 및 제2 드론을 포함하는 제1 이미지를 촬영하여 회전 경로상에서의 감리대상 객체의 위치를 파악하는 제3-1단계;
상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하는 도중 어느 하나의 드론이 상기 감리대상 객체에 인접한 위치에서 제자리 비행을 수행하고, 제자리 비행 중 상기 제1 드론 및 상기 제2 드론이 각각 상기 인접한 감리대상 객체에 광마크를 조사한 상태에서 제2 이미지를 촬영하는 제3-2 단계;를 포함하는 드론을 이용한 건축물 감리 방법.
A method for controlling a building using a first dron, a second dron, and a mobile terminal,
A first step of providing a first dronon and a second dronon at a position for building supervision;
A second step of calculating a distance between the first dron and the second dron by capturing an image including one of the first dron and the second dron including the remaining drones;
The first dron and the second dron pivot about a center point of the first dron and the second dron, and at least one of the first dron and the second dron during the rotation pivots about the center of the first dron and the second dron, And a third step of photographing a swivel taking image including a pair of optical marks and an object to be inspected by the second drones;
A fourth step of measuring physical information of the object to be supervised from the swing shot image and calculating information of an area in which the object to be controlled is displayed among the swing shot images;
A fifth step of matching information of the object to be supervised included in the swing shot image with information of the object to be controlled transmitted from the outside; And
And a sixth step in which any one of the first drones and the second drones transmits information of the matched swing shot image and the object to be supervised to the outside,
In the third step,
The first dron and the second dron are photographed in the course of turning the first dron and the second dron with respect to the center points of the first dron and the second dron, A step 3-1 of grasping the position of the object to be supervised by the user;
Wherein at least one of the first and second drones is rotating with respect to a center point of the first and second drones, And (3-2) photographing a second image in a state in which the first dron and the second dron irradiate the adjacent object to be inspected with the optical mark, respectively.
제7항에 있어서,
상기 감리대상 객체의 정보는 상기 감리대상 객체에 대한 ID를 포함하고, 상기 감리대상 객체의 제조, 시공담당, 규격, 공정시한 중 적어도 하나를 포함하는 드론을 이용한 건축물 감리 방법.
8. The method of claim 7,
Wherein the information of the object to be supervised includes an ID of the object to be supervised, and includes at least one of manufacture, construction charge, specification, and process of the object to be supervised.
제7항에 있어서,
상기 제3 단계에서,
상기 제1 드론 및 상기 제2 드론 중 어느 하나는 거리당 일정비율로 확산된 상기 한 쌍의 광마크의 크기를 비교하여 상기 감리대상 객체와 상기 제1 드론의 거리, 상기 감리대상 객체와 상기 제2 드론의 거리의 비율을 산출하는 드론을 이용한 건축물 감리 방법.
8. The method of claim 7,
In the third step,
Wherein any one of the first dron and the second dron compares the sizes of the pair of optical marks diffused at a predetermined ratio per distance to determine a distance between the object to be controlled and the first dron, A method of building supervision using a dron that calculates the ratio of the distance of two drones.
제9항에 있어서,
상기 제1 드론 및 상기 제2 드론의 거리와 상기 제1 드론 및 상기 제2 드론을 잇는 가상의 선에 대한 상기 한 쌍의 광마크 조사 각도로부터 상기 제1 드론 및 상기 제2 드론 각각으로부터 상기 감리대상 객체에 이르는 실제 거리를 산출하는 드론을 이용한 건축물 감리 방법.
10. The method of claim 9,
From the first dron and the second dron from the pair of optical mark irradiation angles with respect to a distance between the first dron and the second dron and a virtual line connecting the first dron and the second dron, A method of building supervision using a dron to calculate the actual distance to the target object.
제10항에 있어서,
상기 제1 드론 및 상기 제2 드론을 잇는 가상의 선을 기준으로 상기 감리대상 객체의 방향을 산출하는 드론을 이용한 건축물 감리 방법.
11. The method of claim 10,
And calculating a direction of the object to be inspected based on a virtual line connecting the first dron and the second dron.
KR1020170169125A 2017-12-11 2017-12-11 Drone for construction suprvision and the method of supervision using the same KR101844726B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170169125A KR101844726B1 (en) 2017-12-11 2017-12-11 Drone for construction suprvision and the method of supervision using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170169125A KR101844726B1 (en) 2017-12-11 2017-12-11 Drone for construction suprvision and the method of supervision using the same

Publications (1)

Publication Number Publication Date
KR101844726B1 true KR101844726B1 (en) 2018-04-02

Family

ID=61976312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170169125A KR101844726B1 (en) 2017-12-11 2017-12-11 Drone for construction suprvision and the method of supervision using the same

Country Status (1)

Country Link
KR (1) KR101844726B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102128696B1 (en) 2020-02-13 2020-06-30 (주)한국전산감리원 Driving method for construction site supervision and security sysgem
KR102148367B1 (en) 2020-02-13 2020-08-26 (주)한국전산감리원 Construction site supervision and security sysgem
KR102201614B1 (en) 2020-08-07 2021-01-12 (주)한국전산감리원 Construction site supervision and security system
KR102208008B1 (en) * 2020-07-17 2021-01-28 박헌우 Method for constructing using drone
KR102232181B1 (en) 2021-01-04 2021-03-25 (주)케이씨에이 Construction site supervision and security system
KR102334537B1 (en) * 2021-02-22 2021-12-03 (주)대경기술단 System of construction suprvision and method performing the same
CN114967760A (en) * 2022-07-20 2022-08-30 无锡建设监理咨询有限公司 Building engineering supervision method and system based on unmanned aerial vehicle and storage medium
CN115344765A (en) * 2022-08-17 2022-11-15 江苏沃叶软件有限公司 Construction method and system for archival data of construction project
KR102550090B1 (en) * 2023-02-14 2023-06-30 (주)정상티이씨 Supervising System

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0924423A2 (en) * 1997-12-18 1999-06-23 United Technologies Corporation Method of manufacturing solid fuel rocket motors
US6408760B1 (en) * 1997-12-18 2002-06-25 United Technologies Corporation Method of manufacturing solid rocket motors
KR20050092740A (en) * 2003-01-09 2005-09-22 바스프 악티엔게젤샤프트 Method for the genetic modification of organisms of the genus blakeslea, corresponding organisms and the use of the same
KR101354688B1 (en) * 2013-07-05 2014-01-27 한국건설기술연구원 System and method for supervision of construction site
KR101583723B1 (en) * 2015-01-16 2016-01-08 단국대학교 산학협력단 Interactive synchronizing system of BIM digital model and Real construction site
KR20160034013A (en) * 2014-09-19 2016-03-29 한국건설기술연구원 System and method for construction site management by using unmaned aerial vehicle
KR20170086992A (en) * 2016-01-19 2017-07-27 광주대학교산학협력단 The System for obtaining three-dimensional spatial image using unmanned aerial vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0924423A2 (en) * 1997-12-18 1999-06-23 United Technologies Corporation Method of manufacturing solid fuel rocket motors
US6408760B1 (en) * 1997-12-18 2002-06-25 United Technologies Corporation Method of manufacturing solid rocket motors
KR20050092740A (en) * 2003-01-09 2005-09-22 바스프 악티엔게젤샤프트 Method for the genetic modification of organisms of the genus blakeslea, corresponding organisms and the use of the same
KR101354688B1 (en) * 2013-07-05 2014-01-27 한국건설기술연구원 System and method for supervision of construction site
KR20160034013A (en) * 2014-09-19 2016-03-29 한국건설기술연구원 System and method for construction site management by using unmaned aerial vehicle
KR101583723B1 (en) * 2015-01-16 2016-01-08 단국대학교 산학협력단 Interactive synchronizing system of BIM digital model and Real construction site
KR20170086992A (en) * 2016-01-19 2017-07-27 광주대학교산학협력단 The System for obtaining three-dimensional spatial image using unmanned aerial vehicle

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102128696B1 (en) 2020-02-13 2020-06-30 (주)한국전산감리원 Driving method for construction site supervision and security sysgem
KR102148367B1 (en) 2020-02-13 2020-08-26 (주)한국전산감리원 Construction site supervision and security sysgem
KR102208008B1 (en) * 2020-07-17 2021-01-28 박헌우 Method for constructing using drone
KR102201614B1 (en) 2020-08-07 2021-01-12 (주)한국전산감리원 Construction site supervision and security system
KR102232181B1 (en) 2021-01-04 2021-03-25 (주)케이씨에이 Construction site supervision and security system
KR102334537B1 (en) * 2021-02-22 2021-12-03 (주)대경기술단 System of construction suprvision and method performing the same
CN114967760A (en) * 2022-07-20 2022-08-30 无锡建设监理咨询有限公司 Building engineering supervision method and system based on unmanned aerial vehicle and storage medium
CN114967760B (en) * 2022-07-20 2024-01-16 无锡建设监理咨询有限公司 Unmanned plane-based building engineering supervision method, system and storage medium
CN115344765A (en) * 2022-08-17 2022-11-15 江苏沃叶软件有限公司 Construction method and system for archival data of construction project
CN115344765B (en) * 2022-08-17 2023-07-04 江苏沃叶软件有限公司 Method and system for constructing archival data of construction engineering
KR102550090B1 (en) * 2023-02-14 2023-06-30 (주)정상티이씨 Supervising System
KR102572116B1 (en) * 2023-02-14 2023-08-29 (주)정상티이씨 Construction site multi-angle supervision system using lidar sensor

Similar Documents

Publication Publication Date Title
KR101844726B1 (en) Drone for construction suprvision and the method of supervision using the same
AU2021202129B2 (en) Virtual enhancement of security monitoring
KR101354688B1 (en) System and method for supervision of construction site
AU2018312581B2 (en) Supervising property access with portable camera
US20200279117A1 (en) Enhanced doorbell camera interactions
US11017680B2 (en) Drone detection systems
US10776528B1 (en) Systems and methods for smart home mapping
US11537749B2 (en) Privacy protection in mobile robot
US10515527B1 (en) Security surveillance device
WO2019246391A1 (en) Device location network
US11600063B1 (en) Guided inspection system and method
KR102018556B1 (en) Management system and method for managing defect repairing
US20200412949A1 (en) Device, system, and method for capturing and processing data from a space
US20160162985A1 (en) Occupancy monitoring for a remote short term housing rental
CN106250763A (en) The safety protecting method of intelligent robot and device
JP2020166352A (en) Robot control device, robot control method, and robot control system
KR101844718B1 (en) Mobile terminal for construction supervision
KR101702452B1 (en) A method and a system for providing cctv image applied augmented reality
TWI723706B (en) Patrol service system and patrol service verification method
Mabasha et al. Enhancing Home Security through an Android-based Door Security System using IoT Technology
WO2021084612A1 (en) Digital safety response security system, method, and program
Tarun Under the Esteemed Guidance of
TW201928851A (en) Monitoring and management system for comparing sentinel message with patrol message and method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant