KR101844726B1 - Drone for construction suprvision and the method of supervision using the same - Google Patents
Drone for construction suprvision and the method of supervision using the same Download PDFInfo
- Publication number
- KR101844726B1 KR101844726B1 KR1020170169125A KR20170169125A KR101844726B1 KR 101844726 B1 KR101844726 B1 KR 101844726B1 KR 1020170169125 A KR1020170169125 A KR 1020170169125A KR 20170169125 A KR20170169125 A KR 20170169125A KR 101844726 B1 KR101844726 B1 KR 101844726B1
- Authority
- KR
- South Korea
- Prior art keywords
- dron
- image
- drones
- information
- inspected
- Prior art date
Links
- 238000010276 construction Methods 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 title claims description 53
- 230000003287 optical effect Effects 0.000 claims description 22
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 238000007689 inspection Methods 0.000 abstract description 8
- 238000009792 diffusion process Methods 0.000 abstract description 4
- 230000008054 signal transmission Effects 0.000 abstract 2
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 8
- 230000005484 gravity Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B64C2201/127—
-
- B64C2201/141—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
본 발명은 이동 단말기 제어를 통한 건축물 감리 방법 및 이에 이용되는 드론에 관한 것으로서, 보다 상세하게는 드론을 이용하여 건설현장의 감리를 수행하도록 하는 이동 단말기 제어를 통한 건축물 감리 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a method of controlling a building using a mobile terminal and a drones used therein. More particularly, the present invention relates to a method of controlling a building using a mobile terminal.
일반적으로 감리업무는 현장업무와 행정업무 및 대관업무로 구분할 수 있으며, 현장업무는 시공 전, 중, 후 업무절차에 따른 수시 시공확인 및 검측 업무를 수행하게 되며, 행정업무는 기술검토 등을 통한 각종 승인 업무(품질, 안전, 환경계획서, 자재, 하도급, 부진공정, 설계공정, 시공계획서, 시공상세도 등)와 회신, 확인 업무, 문서접수, 발송 및 대장 정리의 수작업과 민원관련 업무 등등을 수행하며, 대관업무는 각종 인허가 및 승인조건과 계약조건 등의 이행 여부 기록 관리와 각종 외부기관의 점검 및 감사대비와 공장점검 및 각종 품질시험 입회 등을 해야 한다. In general, the supervisory work can be classified into field work, administrative work, and grant work. The field work is to perform confirmation and inspection work at any time according to work procedures before, during, and after construction. We can provide various approval services (quality, safety, environment plan, materials, subcontracting, slump process, design process, construction plan, construction details, etc.) and manual and complaint related tasks such as reply, confirmation, document reception, And the administrative affairs shall perform the records management of various licenses and permits, approval conditions, contract conditions, etc., inspection and audit of various external organizations, factory inspection, and various quality test enrollment.
또한 관련 정보 및 법령은 각 분야 감리의 업무절차 및 법적기준(각종 법령, 고시, 지침, 조례 등)에 따른 감리업무 범위와 분야별 조건의 차이에 따라 각각 달라지며, 분산되어 있는 사례정보와 책자(기술서적)수행을 위해서는 방대한 자료 및 감리지침 등을 참조해야한다. In addition, related information and laws and regulations vary depending on the scope of supervisory work and the conditions of each field according to the work procedures and legal standards (laws, regulations, notices, guidelines, etc.) of each field. Technical books), you should refer to a vast array of materials and supervisory guidelines.
이와 같이 종래 건설공사 감리업무는 각 분야별 전문가와 경력자들이 아니면 쉽게 처리하기 어렵고, 누락, 지연과 같은 오류를 범하는 문제점이 있으며, 절차상 해당 행정업무에서도 발주자, 시공자, 허가, 승인권자 등에 보고할 절차 및 기술검토서 작성을 해야 할 과정을 몰라서 각종 승인, 통보, 보고 등의 업무가 지연되고, 시공상의 공정지연으로 이어지는 경우가 많아 감리업무에 대한 클레임으로 표출되는 문제가 생긴다. As such, the conventional construction supervision service is difficult to process easily without specialists and experienced professionals in each field, and there are problems such as omission and delays. In the procedure, the procedures to report to the owner, constructor, permission, And technical review documents are not known, and various approval, notification, report and other tasks are delayed and lead to process delays in construction, resulting in a problem of being expressed as a claim to the supervisory service.
이러한 문제점을 해결하기 위하여, 건설공사의 감리업무에 대한 전산화를 시도하고 있는데, 통상 발주자와, 설계자, 감리회사, 건설회사, 감리운영시스템 및 외부기관들을 인터넷을 통한 네트워크로 연결하고, 감리운영시스템에서 웹서비스와 아울러 공사 관련 자료를 데이터 베이스화시켜 서비스하도록 하고 있다. In order to solve these problems, we are attempting to computerize the supervision work of the construction work. We connect the client, the designer, the supervisory company, the construction company, the supervisory operation system and the external organizations through the network via the Internet, In addition to the web service, data related to the corporation is databaseed.
그러나 이러한 종래의 기술에 따르면, 데이터베이스를 이용해 각종 서식을 제공하고, 그 서식을 네트워크로 연결된 시스템에서 다운받아 서식 작성을 하고, 다시 해당 작성된 서식 파일을 운영시스템으로 전송하게 되면, 이를 운영시스템에서 파일로 접수받아 처리하며, 각종 정보들도 데이터베이스를 통해 웹서비스를 하는데 이는 각각 클라이언트가 검색하여 자체적으로 판단하고 활용하도록 하는 시스템이 대부분이었다. However, according to this conventional technique, various forms are provided using a database, forms are downloaded from a system connected to the network, forms are created, and once the created form files are transmitted to the operating system, And various kinds of information are also transmitted through a database to a web service, which is a system in which a client can search for and use it by itself.
또한 공사현장을 감리하는 사용자는 해당 위치까지 직접 이동한 후 다양한 객체들에 대해 감리를 수행하여야만 하므로, 감리업무가 불편하고 힘들다는 문제점이 있었다. In addition, the user who controls the construction site must directly move to the corresponding location, and then perform various kinds of control over the various objects. Thus, there is a problem that the control task is inconvenient and difficult.
본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은 드론으로부터 감리 대상을 촬영하고 이를 감리 대상의 정보와 매칭시킴으로써 촬영된 영상을 통하여 편리하고 간편하게 감리가 수행되도록 하는 이동 단말기 제어를 통한 건축물 감리 방법을 제공하기 위함이다.The present invention has been made in view of the above-mentioned needs, and it is an object of the present invention to provide a method and a system for controlling a building through a mobile terminal control for conveniently and easily performing a control through photographed images by photographing a control object, This is to provide a method.
이동 단말기 제어를 통한 건축물 감리용 드론으로서, 본 발명에 따른 건축물 감리를 위한 드론은 RSS신호를 송수신하는 RSS 신호송수신부; 주변의 화상을 촬영하는 카메라; 거리당 일정 확산률을 갖고, 적어도 일정한 수직 방향 길이와 수평 방향 길이 성분을 갖는 광마크를 감리대상 객체 방향으로 조사하는 발광마킹부; 및 상기 RSS 신호송수신부, 상기 카메라 및 상기 발광마킹부의 작동을 제어하는 제어부;를 포함하고,The drones for building supervision according to the present invention include: an RSS signal transmitting and receiving unit transmitting and receiving RSS signals; A camera for photographing a surrounding image; A light emitting marking unit having a constant diffusion rate per distance and at least a light mark having a predetermined vertical length and a horizontal length component in the direction of the object to be inspected; And a control unit for controlling operation of the RSS signal transmitting / receiving unit, the camera, and the light emission marking unit,
상기 제어부는, 타 드론을 포함하는 이미지를 촬영하여 상기 타 드론까지의 거리를 산출하고, 상기 타 드론 사이의 중심점을 회전의 중심축으로 1차 선회 비행 및 2차 선회 비행을 하도록 경로를 제어하고, 상기 1차 선회 비행 시 상기 타 드론을 포함하는 제1 이미지를 촬영하여 상기 서버로부터 전달된 감리대상 객체의 정보를 참조하여 상기 감리대상 객체의 위치를 파악하고, 상기 2차 선회 비행 시 상기 발광마킹부가 상기 감리대상 객체로 조사한 제1 광마크와, 상기 타 드론이 상기 감리대상 객체로 조사한 제2 광마크와, 상기 감리대상 객체를 포함하는 제2 이미지를 취득하도록 상기 발광마킹부와 상기 카메라를 제어하고, 상기 취득된 제2 이미지로부터 상기 감리대상 객체가 촬영된 영역을 추출한다..The control unit calculates a distance to the treadmill by photographing an image including the treadmill and controls the path so that the center point between the treadmills is subjected to the first turning flight and the second turning flight at the center of rotation , The first image including the treadmill is photographed during the first turning flight, the position of the object to be inspected is determined by referring to the information of the object to be inspected transmitted from the server, A marking unit for obtaining a second image including a first light mark irradiated by the object to be inspected, a second light mark irradiated by the object to be inspected by the tardor, and a second image including the object to be inspected, And extracts the region in which the control object is photographed from the acquired second image.
또한 상기 카메라 및 상기 발광마킹부는 상기 드론의 하단에 구비되고, 상기 카메라 및 상기 발광마킹부의 무게중심은 상기 드론의 무게중심 하단에 일치하도록 구비될 수 있다.Also, the camera and the light-emitting marking unit may be provided at the lower end of the drones, and the center of gravity of the camera and the light-emitting marking unit may be aligned with the lower center of gravity of the drones.
또한 상기 제어부는 상기 이동 단말기 및 상기 서버 중 어느 하나로부터 감리대상 객체에 대한 정보를 전달받고, 상기 제2 이미지와 상기 제2 이미지로부터 추출된 상기 감리대상 객체의 표시 영역을 매칭시킬 수 있다.In addition, the control unit may receive information on the object to be supervised from any one of the mobile terminal and the server, and may match the display area of the object to be supervised extracted from the second image and the second image.
또한 상기 제어부는 상기 제2 이미지로부터 산출된 감리대상 객체의 물리적 정보를 매칭하여 상기 이동 단말기로 전송할 수 있다.Also, the controller may match the physical information of the object to be inspected calculated from the second image and transmit the physical information to the mobile terminal.
또한 상기 제어부는 상기 타 드론과의 거리를 이등분하는 중심점을 산출하고, 상기 중심점을 회전 중심으로하는 회전반경을 산출하여 상기 중심점을 기준으로 선회하도록 상기 드론의 경로를 제어할 수 있다.Also, the control unit may calculate a center point bisecting the distance from the treadmill, calculate a turning radius around the center point, and control the path of the drone to swing around the center point.
또한 상기 발광마킹부는 수직 방향 길이와 수평 방향 길이 성분을 갖는 선분을 형성하도록 불연속적인 복수의 레이저광을 조사할 수 있다.The light emission marking unit may irradiate a plurality of discontinuous laser beams to form a line segment having a vertical length and a horizontal length component.
제1 드론, 제2 드론 및 이동 단말기를 이용하여 건축물을 감리하는 방법에 있어서, 본 발명에 따른 드론을 이용한 건축물 감리 방법은 건축물 감리를 위한 위치에 제1 드론 및 제2 드론을 제공하는 제1 단계; 상기 제1 드론 및 제2 드론 중 어느 하나가 나머지 드론을 포함하는 이미지를 촬영하여 상기 제1 드론 및 제2 드론간의 거리를 산출하는 제2 단계; 상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하고, 상기 선회 도중 상기 제1 드론 및 상기 제2 드론 중 적어도 어느 하나의 드론이 상기 제1 드론 및 상기 제2 드론이 조사한 한 쌍의 광마크와 감리대상 객체가 포함되는 선회촬영 이미지를 촬영하는 제3 단계; 상기 선회촬영 이미지로부터 상기 감리대상 객체의 물리적인 정보를 측정하고, 상기 선회촬영 이미지 중 상기 감리대상 객체가 표시되는 영역의 정보를 산출하는 제4 단계; 상기 선회촬영 이미지에 포함된 감리대상 객체와 외부로부터 전송된 상기 감리대상 객체의 정보를 매칭하는 제5 단계; 및 상기 제1 드론 및 상기 제2 드론 중 어느 하나가 상기 매칭된 선회촬영 이미지와 상기 감리대상 객체의 정보를 외부로 전송하는 제6 단계;를 포함한다.A method for controlling a building using a first dron, a second dron, and a mobile terminal, the method for controlling a building using a dron according to the present invention includes: a first step of providing a first dron and a second dron, step; A second step of calculating a distance between the first dron and the second dron by capturing an image including one of the first dron and the second dron including the remaining drones; The first dron and the second dron pivot about a center point of the first dron and the second dron, and at least one of the first dron and the second dron during the rotation pivots about the center of the first dron and the second dron, And a third step of photographing a swivel taking image including a pair of optical marks and an object to be inspected by the second drones; A fourth step of measuring physical information of the object to be supervised from the swing shot image and calculating information of an area in which the object to be controlled is displayed among the swing shot images; A fifth step of matching information of the object to be supervised included in the swing shot image with information of the object to be controlled transmitted from the outside; And a sixth step in which any one of the first and second drones transmits the matched swivel image and information of the object to be supervised to the outside.
이 때 상기 제3 단계는, 상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하는 과정에서 각각 마주보는 제1 드론 및 제2 드론을 포함하는 제1 이미지를 촬영하여 회전 경로상에서의 감리대상 객체의 위치를 파악하는 제3-1단계;와 상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하는 도중 어느 하나의 드론이 상기 감리대상 객체에 인접한 위치에서 제자리 비행을 수행하고, 제자리 비행 중 상기 제1 드론 및 상기 제2 드론이 각각 상기 인접한 감리대상 객체에 광마크를 조사한 상태에서 제2 이미지를 촬영하는 제3-2 단계;를 포함한다.In this case, the third step may include a first dron and a second dron which are opposed to each other in the course of turning the first dron and the second dron with respect to the center points of the first dron and the second dron, A first dron and a second dron rotating about a center point of the first dron and the second dron; and a third step of acquiring a position of the object to be controlled on the rotation path by capturing an image of the first dron and the second dron, Wherein the first dron and the second dron fly in a second position while the first dron and the second dron respectively irradiate the optical mark on the adjacent object to be inspected, And a third step (2-2) of photographing.
또한 상기 감리대상 객체의 정보는 상기 감리대상 객체에 대한 ID를 포함하고, 상기 감리대상 객체의 제조, 시공담당, 규격, 공정시한 중 적어도 하나를 포함할 수 있다.Also, the information of the object to be supervised may include at least one of manufacture, construction, specification, and process of the object to be supervised including the ID of the object to be supervised.
또한 상기 제3 단계에서, 상기 제1 드론 및 상기 제2 드론 중 어느 하나는 거리당 일정비율로 확산된 상기 한 쌍의 광마크의 크기를 비교하여 상기 감리대상 객체와 상기 제1 드론의 거리, 상기 감리대상 객체와 상기 제2 드론의 거리의 비율을 산출할 수 있다.In the third step, any one of the first dron and the second dron may compare the sizes of the pair of optical marks diffused at a certain rate per distance to determine a distance between the object to be inspected and the first dron, The ratio between the distance between the object to be controlled and the second drones can be calculated.
또한 상기 제1 드론 및 상기 제2 드론의 거리와 상기 제1 드론 및 상기 제2 드론을 잇는 가상의 선에 대한 상기 한 쌍의 광마크 조사 각도로부터 상기 제1 드론 및 상기 제2 드론 각각으로부터 상기 감리대상 객체에 이르는 실제 거리를 산출할 수 있다.From the first dron and the second dron, from the pair of optical mark irradiation angles with respect to a distance between the first dron and the second dron and a virtual line connecting the first dron and the second dron, The actual distance to the object to be supervised can be calculated.
또한 상기 제1 드론 및 상기 제2 드론을 잇는 가상의 선을 기준으로 상기 감리대상 객체의 방향을 산출할 수 있다.Also, the direction of the object to be inspected can be calculated based on a virtual line connecting the first dron and the second dron.
본 발명의 실시예들 중 적어도 하나에 의하면, 사용자가 용이하게 공사현장을 촬영하여 감리대상 객체의 저장된 정보와 매칭시키고, 이를 통하여 촬영된 이미지를 터치하는 것만으로 간단히 화면상 각 객체들의 정보를 열람할 수 있도록 함으로써, 공사현장의 건축현황을 보다 쉽게 관리 감독할 수 있도록 하였으며, 특히 공사현장을 감리하는 사용자에게 공사현장에 관한 별다른 사전 준비없이 이동 단말기 하나만으로도 쉽게 감리업무를 수행할 수 있다. According to at least one embodiment of the present invention, a user easily captures a construction site and matches the stored information with the stored information of the object to be inspected, and simply touches the photographed image, By doing so, it is possible to more easily manage and monitor the construction situation of the construction site. In particular, the user who is in charge of the construction site can perform the supervision task easily with only one mobile terminal without preparing for the construction site.
또한 본 발명에 의하면, 거대한 빌딩이나 구조물에 대한 감리업무라도 작업 전 별도의 복잡하고 다양한 정보를 준비해야 하는 등의 사전작업이 필요없이, 서버 및 드론과 연결된 이동 단말기를 이용함으로써 편리하고 간단하게 감리업무를 수행할 수 있다. Further, according to the present invention, it is possible to conveniently and simply control a large building or a structure by using a mobile terminal connected to a server and a dron without needing to prepare a complicated and various information before work, I can do business.
또한 본 발명에 의하면, 감리 현장으로 사용자가 직접 이동할 필요없이 드론을 원격 조종함으로써, 편리하고 간단하게 감리업무를 수행할 수 있다. Further, according to the present invention, the dron can be remotely controlled without requiring the user to move directly to the supervision site, thereby performing the supervision task conveniently and simply.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the following detailed description. It should be understood, however, that the detailed description and specific examples, such as the preferred embodiments of the invention, are given by way of illustration only, since various changes and modifications within the spirit and scope of the invention will become apparent to those skilled in the art.
도 1은 본 발명의 일 실시예에 따른 감리 시스템에 관한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 이동 단말기에 관한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 드론에 관한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 객체 생성 및 DB 매칭의 방법을 설명하기 위한 블록도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 선회 촬영 및 마킹 방법을 설명하기 위한 개략도이다.
도 7은 본 발명의 일 실시예에 따른 이동 단말기의 제어 방법에 관한 순서도이다.
도 8 내지 도 9는 본 발명의 일 실시예에 따른 이동 단말기에 의해 객체를 촬영하기 위한 방법을 설명하기 위한 개략도이다.
도 10 내지 도 11은 본 발명에 따른 이동 단말기를 통해 객체 정보를 확인 하는 방법을 설명하기 위한 도면이다.1 is a block diagram of a supervisory system according to an embodiment of the present invention.
2 is a block diagram of a mobile terminal according to an embodiment of the present invention.
3 is a block diagram of a drones in accordance with an embodiment of the present invention.
4 is a block diagram for explaining a method of object generation and DB matching according to an embodiment of the present invention.
FIGS. 5 and 6 are schematic views for explaining a turning shooting and marking method according to an embodiment of the present invention.
7 is a flowchart illustrating a method of controlling a mobile terminal according to an exemplary embodiment of the present invention.
8 to 9 are schematic views for explaining a method for photographing an object by a mobile terminal according to an embodiment of the present invention.
10 to 11 are views for explaining a method for confirming object information through a mobile terminal according to the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서 "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The use of the terms "comprising" or "having" in this application is intended to specify the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.
본 출원에서 설명되는 특정 도면에 해당 부호가 없더라도, 그 이전에 설명된 도면에 해당 부호가 있다면 이를 표기하여 설명할 수 있다. Even if there is no corresponding symbol in the specific drawing described in the present application, if there is a corresponding symbol in the previously described drawing, it can be described by indicating it.
이하, 본 발명의 바람직한 실시 예를 도면을 참조하여 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
도 1을 찾모하여 본 발명의 일 실시예에따른 감리 시스템(500)을 설명한다. 도 1은 본 발명에 따른 감리 시스템에 관한 블록도이다. Referring to FIG. 1, a
본 발명에 따른 감리 시스템(500)은 이동 단말기(100), 드론(200), 서버(300)를 포함한다. The
이동 단말기(100)는 다양한 통신망을 통하여 드론(200) 및 서버(300)와 통신이 가능하고, 드론(200) 및 서버(300) 상호간에도 통신이 가능하다. The
이동 단말기(100)는 제어신호를 드론(200)으로 전송하고, 드론(200)은 수신된 제어신호에 따른 다양한 동작을 수행한다. 따라서 사용자는 이동 단말기(100)를 이용하여 드론(200)의 동작을 제어할 수 있다. The
한편 드론(200)은 수집한 정보를 이동 단말기(100)로 전송할 수 있다. 따라서 이동 단말기(100)는 드론(200)이 수집한 정보를 수신하여, 이를 서버(300)로 전송할 수 있다. 또는 이동 단말기(100)는 수집된 정보를 드론(200)에서 서버(300)로 곧바로 전송하도록 드론(200)을 제어할 수 있다. Meanwhile, the
이동 단말기(100) 또는 드론(200)으로부터 정보를 수신한 서버(300)는 수신된 정보에 대응되는 정보를 데이터베이스로부터 추출할 수 있다. 예를 들어 수신된 정보가 특정 객체(예: 창틀)를 포함하는 이미지일 경우, 서버(300)는 해당 객체에 대한 객체 정보(예: 창틀의 ID, 제조정보, 시공담당, 규격, 공정시한 등의 정보)를 데이터베이스로부터 추출할 수 있다. 따라서 서버(300)는 추출된 객체 정보를 이동 단말기(100)로 전송할 수 있다. The
도 2를 참조하여 일 실시예에 따른 이동 단말기를 설명한다. 도 2는 본 발명에 따른 이동 단말기에 관한 블록도이다.A mobile terminal according to an embodiment will be described with reference to FIG. 2 is a block diagram of a mobile terminal according to the present invention.
본 발명에 따른 이동 단말기(100)는 휴대폰, 스마트 폰(smart phone), 테블릿 컴퓨터, 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP (Portable Multimedia Player) 등일 수 있다. 이하의 설명에서는 이동 단말기(100)가 스마트 폰(smart phone)인 것으로 가정하고 설명한다.The
본 발명에 따른 이동 단말기를 살펴보면 다음과 같다.A mobile terminal according to the present invention will now be described.
본 발명에 따른 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180), 및 전원 공급부(190) 등의 구성요소들을 포함할 수 있다.A
무선 통신부(110)는 이동 단말기(100)와 무선통신 또는 이동통신 시스템 간의 무선통신 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크간의 무선통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어 무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 그리고 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The
무선 인터넷 모듈(113) 또는 이동통신 모듈(112)은 드론(200) 또는 서버(300)와 통신하는 통신모듈을 말한다. 적용가능한 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 있다.The
A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 카메라(121)와 마이크(122) 등이 이에 포함될 수 있다. 또한 화상 통화모드 또는 촬영모드에서 이미지 센서에 의해 얻어지는 정지영상이나 동영상의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.An A / V (Audio / Video)
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통해 외부로 전송될 수 있다. 카메라 (121)는 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The image frame processed by the
카메라(121)는 피사체의 상을 결상시키는 렌즈 유닛과, 렌즈 유닛에 의해 결상된 상을 전기적 신호인 영상신호로 변환하는 촬상 소자를 포함한다. 촬상 소자는 결상된 피사체의 상을 광전 변환하는 소자로서, 씨씨디(CCD; charge coupled device) 촬상 소자나, 씨모스(CMOS; complementary MOS) 촬상 소자가 이용될 수 있다.The
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향신호를 입력받아 전기적인 음성 데이터로 처리한다.The
사용자 입력부(130)는 사용자가 이동 단말기(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 때, 이를 터치 스크린이라 부를 수 있다.The
센싱부(140)는 이동 단말기(100)의 개폐 상태, 사용자 접촉 유무, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한 전원공급부(190)의 전원공급 여부, 인터페이스부(170)의 외부기기 결합여부 등과 관련된 센싱 기능을 담당한다.The
또한 인터페이스부(170)는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 크래들로부터의 전원이 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 크래들에서 입력되는 각종 명령신호가 이동 단말기(100)로 전달되는 통로가 될 수 있다. 크래들로부터 입력되는 각종 명령신호 또는 전원은 외부 전자기기가 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향출력 모듈(152), 알람부(153) 등을 포함할 수 있다.The
디스플레이부(151)는 통화에 관련된 정보는 물론, 이동 단말기 (100)에서 처리되는 정보를 표시 출력한다. 예를 들어 통화모드인 경우 통화에 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 또한 디스플레이부(151)는 드론(200)에서 처리되는 정보를 표시 출력한다. 예를 들어 디스플레이부(151)는 드론(200)이 검출한 벡터촬영정보나 서버(300)의 처리 데이터를 표시할 수 있다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함한다.The
그리고 이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)는 2개 이상 존재할 수 있다. 예를 들어 이동 단말기(100)에는 복수의 디스플레이 부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.There may be two or
디스플레이부(151)와 터치동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력장치 이외에 입력장치로도 사용될 수 있다. 터치 센서는 예를 들어 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a
음향출력 모듈(152)는 호신호 수신, 통화모드 또는 녹음모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한 음향출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어 호신호 수신음, 메시지 수신음 등)과 관련된 음향신호를 출력한다. 이러한 음향출력 모듈(152)에는 리시버(Receiver), 스피커 (speaker), 버저(Buzzer) 등이 포함될 수 있다.The
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치입력 등이 있다. 알람부(153)는 오디오 신호나 비디오 신호 이외에 다른 형태로 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151, 152)은 알람부(153)의 일부로 분류될 수도 있다.The
메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한 이동 단말기(100)는 인터넷(internet)상에서 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The
제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 제어부(180)는 무선 통신부(110)를 통해 드론(200) 또는 서버(300)와 각종 정보들(예: 실사 이미지, 벡터촬영정보, 식별값, 속성값 등)의 송수신을 수행한다. The
제어부(180)는 드론(200)으로부터 전체 속성값과 매칭정보가 수신되면, 촬영된 실사 이미지에 전송된 매칭정보를 결합하여 실사 이미지상의 각 객체들의 외곽선이 화이어 프레임으로 강조되는 등의 방법으로 활성화되도록 하고, 디스플레이부(151) 화면에 출력한다. 그리고 실사 이미지 상의 활성화된 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이부(151) 화면에 출력한다.When the entire attribute value and the matching information are received from the
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
도 3을 참조하여 본 발명의 일 실시예에 따른 드론을 설명한다. 도 3은 본 발명에 따른 드론에 관한 블록도이다. 3, a drones according to an embodiment of the present invention will be described. 3 is a block diagram of a drones according to the present invention.
본 발명에 따른 드론(200)은 무선 통신부(210), AV 입력부(220), 인터페이스부(230), 센싱부(240), 출력부(250), 메모리(260), 제어부(280), 전원 공급부(290)를 포함하며, 이와 같은 구성요소에 대해서는 도 2에 관한 설명과 동일할 수 있다. The
카메라(221)는 드론(200)의 외부 상하좌우면 또는 이외의 다양한 부위에 복수로 결합될 수 있으나, 드론(200)의 하단에 회전식으로 구비되는 것이 바람직하다. 이동 단말기(100)의 조작에 따라 감리가 필요한 공사현장(예: 현장의 건축 구조물 등)을 촬영하여 실사 이미지를 생성할 수 있다. The
센싱부(240)는 거리측정 센서 등 다양한 센서를 이용하여 드론(200)과 특정 객체간의 거리를 측정할 수 있다. 또한 센싱부(240)는 측정된 거리를 이용하여 특정 객체의 크기, 예를 들어 가로 길이, 세로 길이, 대각선 길이, 지름, 원주 길이 등을 측정할 수 있다. 다만, 정밀한 측정을 위한 레이다, 라이다(radar) 센서 등의 경우 가격이 매우 비싸고, 무게가 드론용 센서로 이용하기에는 부적합한 면이 있기 때문에, 후술할 광마크를 이용한 이미지의 분석을 통하여 이러한 규격 및 객체의 방향 등을 측정하는 것이 바람직하다.The
RSS신호를 송수신하는 RSS 신호송수신부(215)를 더 포함할 수 있다. RSS 신호는 한 쌍의 드론과 이동 단말기의 RSS 신호 송수신을 통하여 측정된 RSS 신호의 크기를 비교함으로써 삼각측량법에 의하여 각각의 위치 및 거리를 산출하는데에 이용될 수 있다. 이 때 이동 단말기 대신 별도의 RSS 신호송수신기를 이용하여 동일한 방법으로 이용할 수 있다.And an RSS signal transmitting and receiving
RSS 신호를 통한 산출 결과는 후술할 광마크를 이용한 객체의 규격 측정을 위한 기초 데이터로 이용되거나 해당 규격 측정의 과정을 보정하기 위한 용도로 이용될 수 있다.The result of the calculation using the RSS signal can be used as basic data for measuring the standard of the object using the optical mark described later or can be used for correcting the process of measuring the standard.
발광마킹부(254)는 거리당 일정 확산률을 갖고, 적어도 일정한 수직 방향 길이와 수평 방향 길이 성분을 갖는 광마크를 감리대상 객체 방향으로 조사한다. 발광마킹부(254)는 레이저광 등을 이용할 수 있으며, 이 때 거리당 일정한 비율로 확산되도록 광을 조사한다. 즉, 발광 마킹부(254)로부터의 객체 거리를 알게 되면 발광 마킹부(254)가 조사하여 객체에 조사된 광마크의 크기 또는 길이를 알 수 있으며, 카메라(221)로부터 획득한 이미지 또는 영상으로부터 해당 광마크와 객체의 크기 또는 길이를 비교함으로써 해당 객체의 크기 또는 길이를 산출할 수 있다.The light
이 때 레이저 광은 복수개의 발광부가 조사하는 복수개의 점 또는 불연속적인 광이 하나의 선분을 이루도록 조사하는 것도 가능하다. 즉, 십자형의 광마크를 가정하면, 세로 및 가로 선분은 각각 점선 형태의 광의 집합으로 구현하는 것도 가능하다.At this time, it is also possible to irradiate the laser light so that a plurality of points or discontinuous light irradiated by the plurality of light-emitting portions form one line segment. That is, assuming a cross-shaped optical mark, the vertical and horizontal line segments can be embodied as a set of light in a dotted line shape.
발광마킹부(254)가 조사하는 광마크는 수직 방향 길이 성분과 수평 방향 길이 성분을 포함하여야 한다. 전체적인 형상은 자유롭게 선택할 수 있으나, 최소한 십자와 같이 수직 방향의 길이를 갖는 선분과 수평 방향의 길이를 갖는 선분을 모두 포함하도록 하여야 한다. 이외에도 중심점을 기준으로 방사상으로 길이를 갖는 다수의 직선들을 포함하는 광마크를 조사함으로써 객체의 면이 형성하는 방향을 판단하는 데이터로 이용하는 것도 가능하다. 이 때 수직 성분과 수평 성분을 갖는 직선의 길이를 타 직선의 길이와 차별화되도록 하여 방향의 판단을 용이하게 할 수 있다.The light mark irradiated by the light
한편, 발광마킹부(254)는 한 쌍의 드론이 각각 다른 색의 광을 조사하도록 구비하는 것이 바람직하다. 카메라(221)가 촬영한 이미지로부터 다른 색의 광마크를 인지함으로써 객체에 대한 물리적인 특징, 즉 거리 및 방향 등을 산출하는데에 유리하다.On the other hand, it is preferable that the light emitting marking
한편, 카메라(221) 및 발광마킹부(254)는 드론(200)의 하단에 구비되는 것이 바람직하다. 특히 카메라(221) 및 발광마킹부(254)의 무게중심을 드론(200)의 무게중심의 직 하단에 일치하도록 구비하고, 카메라(221) 및 발광마킹부(254)가 수평방향으로 회전하는 경우에도 무게 중심이 바뀌지 않도록 하는 것이 바람직하다. 카메라(221) 및 발광마킹부(254)를 일체로 구성하여 함께 회전하도록 구비하는 것도 가능하다.The
제어부(280)는 통상적으로 드론(200)의 전반적인 동작을 제어한다. 제어부(280)는 무선 통신부(210)를 통해 이동 단말기(100) 또는 서버(300)와 각종 정보들(예: 실사 이미지 등)의 송수신을 수행한다. 또한 제어부(280)는 무선 통신부(210)를 통해 수신된 이동 단말기(100)의 신호에 따라 각각의 구성요소의 동작을 제어한다. The
또한 제어부(280)는 타 드론으로부터 수신된 RSS 신호와 RSS 신호송신기로부터 수신된 RSS 신호의 강도를 비교하여 타 드론 및 RSS 신호송신 장치 사이의 상대적인 위치 및 거리를 산출한다. 이외에도 제어부(280)는 후술할 1차 선회비행 시 또는 1차 선회비행 직전의 정지 상태에서의 촬영된 이미지로부터 드론간의 거리 등을 산출할 수 있다.Also, the
또한 발광마킹부(254)가 감리대상 객체로 조사한 제1 광마크와, 타 드론이 감리대상 객체로 조사한 제2 광마크와, 감리대상 객체를 포함하는 이미지를 취득하도록 발광마킹부(254)와 카메라(221)를 제어한다.The light-
또한 제어부(280)는 카메라(221)를 통하여 촬영된 이미지로부터 각종 물리적 데이터를 산출하고, 이동 단말기나 서버 등 타 장치로부터 수신된 감리 대상 장치의 데이터와 매칭시키고 이미지 중 감리대상 객체의 표시 영역을 추출할 수 있다. 이러한 물리적 데이터의 산출 등은 드론(200)으로부터 촬영 이미지를 전달받아 이동 단말기나 서버에서 수행하는 것도 가능하고, 매칭과 매칭에 필요한 연산만을 드론(200)에서 수행하고 나머지 작업이나 연산은 이동 단말기나 서버 등에서 수행하도록 분산시키는 것도 가능하다. 제어부(280)는 감리대상 객체의 ID, 물리적 정보, 제1 이미지 및 제1 이미지 중 감리대상 객체의 표시 영역 정보를 매칭하여 이동 단말기나 서버로 전송할 수 있다.In addition, the
또한 제어부(280)는 카메라(221)의 촬영 방향과 상술한 발광마킹부(254)가 광마크를 조사하는 방향의 각도를 산출하여 이를 한 쌍의 드론을 잇는 가상의 선분을 기준으로하는 객체의 방향 및 거리를 산출하는데 이용할 수 있다. 제어부(280)는 카메라(221)의 촬영 방향과 상술한 발광마킹부(254)가 광마크를 조사하는 방향의 각도를 산출하기 위한 구성은 한 쌍의 드론 중 어느 한 드론에 구비되는 것으로 충분하다. The
한편, 제어부(280)는 객체의 물리적 데이터를 산출하기 위하여 다음과 같은 프로세스를 수행할 수 있다. 제어부(280)는 타 드론과의 거리를 이등분하는 중심점을 산출하고, 중심점을 회전 중심으로하는 회전반경을 산출하여 중심점을 기준으로 선회하도록 드론(200)의 비행 경로를 제어할 수 있다. 이외의 산출 데이터와 원리에 대하여 후술한다.Meanwhile, the
도 4 내지 도 6을 참조하여 본 발명에 따른 감리 시스템의 동작방법을 상세히 설명한다. 도 4는 본 발명의 일 실시예에 따른 객체 생성 및 DB 매칭의 방법을 설명하기 위한 블록도이고, 도 5 및 도 6은 본 발명의 일 실시예에 따른 선회 촬영 및 마킹 방법을 설명하기 위한 개략도이다.The operation method of the supervisory system according to the present invention will be described in detail with reference to FIGS. 4 to 6. FIG. FIG. 4 is a block diagram for explaining a method of object generation and DB matching according to an embodiment of the present invention. FIGS. 5 and 6 are schematic diagrams for explaining a turning shooting and marking method according to an embodiment of the present invention. to be.
본 발명은 이동 단말기(100)을 통해 공사현장에서 감리(예: 도면과 실제 시공이 일치하는지를 확인하는 업무 등)가 필요한 피사체(예: 현장의 건축 구조물 등)를 촬영하고, 서버(300)로부터 상기 촬영된 건축물(건축 구조물)에 관한 속성정보들을 다운로드하여 이동 단말기(100)의 화면에 디스플레이 한다. 공사현장의 사용자(예: 감리자, 공사감독자, 검측원 등)는 상기 촬영된 이미지가 디스플레이되어 있는 이동 단말기(100)의 화면에서, 원하는 객체를 선택(화면터치)하는 것만으로도, 해당 객체의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)을 열람할 수 있다. The present invention takes a photograph of a subject (e.g., an architectural structure of a site) requiring a supervision (for example, a work for confirming whether a drawing and an actual construction are consistent with each other) at a construction site through the
다만, 이러한 프로세스를 수행하기 위해서는 드론이 촬영한 이미지나 영상을 분석하여 이미지나 영상 내에 촬영된 객체와 서버 등으로부터 전달된 객체 정보를 매칭시켜야 한다. 즉, 이미지 내에 특정 객체가 촬영된 영역이 어느 부분인지와 해당 객체가 서버 내에 어떠한 객체에 대응하는지를 판단하고 이를 매칭시켜야 한다.However, in order to perform such a process, an image or an image captured by a drone must be analyzed to match object information transmitted from an object or a server captured in an image or an image. That is, it is necessary to judge which part of the area in which the specific object is photographed in the image corresponds to which object in the server, and match the determined area.
이러한 프로세스를 위하여 다음과 같은 과정을 진행한다.For this process, proceed as follows.
먼저, 건축물 감리를 위한 위치에 제1 드론 및 제2 드론을 제공한다. 이 과정에서 이동 단말기의 위치정보 모듈(115)을 이용하여 해당 위치에 인접한 객체들의 정보를 서버 등으로부터 미리 로딩한다.First, a first dron and a second dron are provided in positions for building supervision. In this process, the
다음으로 제1 드론 및 제2 드론 중 어느 하나가 나머지 드론을 포함하는 이미지를 촬영하여 제1 드론 및 제2 드론간의 거리를 산출한다(S110). 이 과정은 이미지 촬영을 통하여 객체들의 물리적인 특성을 산출하기 위한 기본적인 세팅과정에 해당한다. 예를 들어 촬영된 나머지 하나이 드론의 이미지로부터 드론의 특정 부분의 이미지 상 길이를 산출하면 해당 드론까지의 거리(D1)를 산출할 수 있다.Next, either the first dron or the second dron captures an image including the remaining drones to calculate the distance between the first dron and the second dron (S110). This process corresponds to a basic setting process for calculating the physical characteristics of objects through image shooting. For example, if the length of an image of a specific part of the dron is calculated from the image of the remaining one taken in the drones, the distance D1 to the corresponding dron can be calculated.
다음으로 제1 드론 및 제2 드론의 중심점을 기준으로 제1 드론 및 상기 제2 드론이 선회하고, 선회 도중에 제1 드론 및 상기 제2 드론 중 적어도 어느 하나의 드론이 제1 드론 및 제2 드론이 조사한 한 쌍의 광마크와 감리대상 객체가 포함되는 선회촬영 이미지를 촬영한다(S120). 이 때 해당 드론까지의 거리(D1)를 이등분하는 지점, 즉 제1 드론(200a)으로부터 D1의 1/2인 R1인 지점을 중심점으로 산출한다. Next, the first dron and the second dron are pivoted on the basis of the center points of the first dron and the second dron, and at least one of the first dron and the second dron is swung between the first dron and the second dron, A swirling shot image including a pair of the optical marks and the object to be inspected is irradiated (S120). At this time, a point at which the distance D1 to the drone is bisected, that is, a point R1 that is 1/2 of D1 from the
구체적으로, 선회 촬영은 세부적으로 다음의 두 과정을 통하여 진행한다.Specifically, the turning shooting proceeds in detail through the following two processes.
선회촬영 첫번째 과정에서 제1 드론 및 제2 드론은 기 산출된 중심점을 중심으로 선회하면서 어느 하나의 드론이 나머지 하나의 드론을 향하는 방향으로 카메라를 제어하여 이미지나 영상을 촬영한다. 이 때 제1 드론 및 제2 드론은 양 드론의 카메라를 모두 이용하는 경우 180도(반 바퀴)를 선회하면서 이미지를 촬영한다. 이 경우 각 드론은 선회도중 멈추지 않고 연속적으로 비행하며, 이미지의 해상도를 제공된 해상도 중 최소로하여 촬영을 진행한다. 촬영된 이미지의 수평이 맞지 않는 상태로 촬영이 되고 이미지 상의 촬영 대상물들의 디테일한 특징이 촬영되기 어려우나, 최초의 선회촬영은 객체의 개략적인 위치를 인식하기 위한 것이므로 이와 같은 촬영으로 충분하다. 촬영된 영상을 키 프레임을 추출한 후 그레이스케일 및 이진화 등의 영상처리를 통하여 에지를 추출하고, 형상을 인식한다. 최초의 선회촬영 중 연속적으로 인식된 객체의 형상과 서버 등으로부터 전달된 촬영 중인 위치에 인접한 객체의 정보를 비교하여 제1 드론 및 제2 드론을 잇는 가상의 선분을 기준으로 인접하는 객체, 즉 감리대상 객체 들의 방향을 산출한다.In the first process of turning shooting, the first drones and the second drones rotate around the calculated center point, and one of the drones controls the camera in the direction toward the other one of the drones to shoot an image or an image. At this time, when both the drones of the first and second drones are used, the first and second drones are rotated 180 degrees (half a turn) to take an image. In this case, each of the drones continuously travels without stopping during the turn, and the image is resized to the minimum resolution provided. The photographed image is photographed in a state in which the photographed image does not fit horizontally, and the detailed features of the photographed objects on the image are difficult to be photographed. However, since the first photographed image is for recognizing the approximate position of the object, such photographed is sufficient. After extracting the keyframe from the photographed image, the edge is extracted by image processing such as gray scale and binarization, and the shape is recognized. The shape of the object continuously recognized during the first turning shooting is compared with the information of the object adjacent to the position being photographed transmitted from the server or the like and the adjacent object based on the virtual line segment connecting the first dron and the second dron, And calculates the direction of the target objects.
선회촬영 두번째 과정에서는 디테일한 정보를 산출하기 위하여 제1 드론 및 제2 드론이 선회하면서 특정 감리대상 객체에 대하여 각각의 드론이 광마크(M1, M2)를 조사하고, 해당 광마크들(M1, M2)과 감리대상 객체(Obj1)를 모두 포함하는 이미지나 영상을 촬영한다. 선회촬영 두번째 과정에서 한 쌍의 드론은 양 드론이 모두 카메라를 이용하여 촬영하는 것을 가정하는 경우 180도(반바퀴)를 선회하며 진행할 수 있다. 이 단계에서의 촬영은 광마크의 길이 및 감리대상 객체의 길이 등을 구분가능하도록 해상도를 충분히 높인 상태에서 진행하는 것이 바람직하다. 감리대상 객체의 세부 특징의 촬영을 동시에 진행하는 경우에는 세부적인 특징을 구분가능하도록 충분히 해상도를 높이는 것도 가능하다.In the second process of turning shooting, the first and second drones rotate to calculate detailed information, and each of the drones irradiates the optical marks M1 and M2 with respect to the specific object to be inspected, and the light marks M1, M2) and the object to be supervised (Obj1). In the second process, a pair of drones can be turned by 180 degrees (half a turn) if both drones are assumed to shoot with the camera. It is preferable that the photographing in this step proceeds with a sufficiently high resolution so that the length of the optical mark and the length of the object to be inspected can be distinguished. In the case where the detailed feature of the object to be inspected is simultaneously photographed, it is also possible to raise the resolution sufficiently so that detailed features can be distinguished.
한편, 선회촬영 두번째 과정에서의 감리대상 객체의 촬영은 한 쌍의 드론 중 어느 하나가 감리 대상 객체에 근접한 상태에서 진행하는 것이 바람직하다. 선회촬영 두번째 과정에서의 촬영은 드론이 정지한 상태에서 수행한다. 어느 한 드론이 위치가 인식된 감리대상 객체의 촬영에 적정한 위치에 도달하면 촬영을 위하여 선회비행을 멈추고 제자리에서 비행하게 된다. 예를 들어 도 6에 도시된 바와 같이 제2 드론(200b)이 감리대상 객체(Obj1)에 근접한 상태에서 제1 드론(200a)과 제2 드론(200b)이 각각 광마크를 감리대상 객체(Obj1)를 향하여 조사한 상태에서 감리대상 객체(Obj1)에 근접한 제2 드론(200b)이 감리대상 객체(Obj1)의 이미지를 촬영할 수 있다. 이 때에도 제1 드론(200a)과 제2 드론(200b)은 회전의 중심점을 기준으로 반대 위치에 위치하도록 지속적으로 제어한다.On the other hand, it is preferable that photographing of the object to be supervised in the second process of turning shooting proceeds in a state in which one of the pair of drones is close to the object to be inspected. Recording in the second step The shooting is carried out with the drones stopped. When a droneman reaches a suitable position for shooting the object to be sensed, it will stop the turning flight and fly in place. For example, as shown in FIG. 6, when the
다음으로 선회촬영 이미지로부터 감리대상 객체의 물리적인 정보를 측정하고, 선회촬영 이미지 중 상기 감리대상 객체가 표시되는 영역의 정보를 산출한다(S130). 본 단계에서는 촬영한 드론으로부터 광마크까지의 거리와 광마크의 절대적인 크기를 산출하여 이를 감리대상 객체(Obj1)의 물리적인 특징을 산출하는 기준으로 삼는다.Next, physical information of the object to be inspected is measured from the turning image, and information of the area in which the object to be controlled is displayed is calculated (S130). In this step, the distance from the photographed dron to the optical mark and the absolute size of the optical mark are calculated and used as a reference for calculating the physical characteristics of the object to be inspected (Obj1).
구체적으로 각 드론으로부터 조사된 광마크의 크기를 비교하면 각 드론으로부터 감리대상 객체(Obj1)에 이르는 거리의 비율을 알 수 있으며, 이에 제1 드론(200a)과 제2 드론(200b)을 잇는 가상의 선분과 촬영을 진행한 제2 드론(200b)이 광마크를 조사한 방향과의 각도를 고려하면 제2 드론(200b)과 감리대상 객체(Obj1) 사이의 거리를 산출할 수 있으며, 이를 이용하여 제1 드론(200a)과 감리대상 객체(Obj1)과의 거리도 산출할 수 있다.Specifically, when the sizes of the light marks irradiated from the respective drone are compared, the ratio of the distance from each dron to the object to be inspected Obj1 can be known, and the distance between the
이어서 제2 드론(200b)과 감리대상 객체(Obj1) 사이의 거리에 조사된 광마크의 거리당 확산률을 곱하여 해당 광마크의 절대적인 크기를 산출한다. 산출된 광마크의 절대적인 크기, 즉 길이는 촬영된 이미지 상에서 감리대상 객체(Obj1)의 물리적인 규격과 방향을 산출하는데에 이용된다. 또한 앞서 설명한 바와 같이 감리대상 객체(Obj1)의 수직 및 수평 설치방향을 측정하는 데에도 활용이 가능하다.Then, an absolute size of the optical mark is calculated by multiplying the distance between the
이때 두번째 선회촬영에서 촬영된 이미지로부터 영상처리를 통하여 보다 정확한 감리대상 객체의 영역을 추출한다.At this time, the area of the object to be inspected is extracted more accurately through image processing from the image taken in the second turning shooting.
다음으로 선회촬영 이미지에 포함된 감리대상 객체와 외부로부터 전송된 상기 감리대상 객체의 정보를 매칭한다(S140) 즉, 서버로부터 전달된 감리대상 객체의 정보, 촬영된 이미지 정보 및 추출된 감리대상의 이미지상 영역에 대한 정보를 함께 갱신하여 저장한다.Next, information of the object to be supervised included in the rotation photographing image is matched with information of the object to be supervised transmitted from the outside (S140). That is, information of the object to be supervised transmitted from the server, And updates and stores information on the image area.
이어서 매칭된 감리대상 객체의 정보를 이동 단말기나 서버 등 외부로 전송하고(S150), 필요한 경우 해당 선회촬영 이미지와 서버 등 DB에 저장되어 있는 감리대상 객체의 정보를 비교 분석하여 감리를 수행할 수 있다.Then, the information of the matched inspection object object is transmitted to the outside such as the mobile terminal or the server (S150), and if necessary, the comparison of the information of the inspection object stored in the database, such as the server, have.
이 때 감리대상 객체의 정보는 상기 감리대상 객체에 대한 ID를 포함하고, 감리대상 객체의 제조, 시공담당, 규격, 공정시한 중 적어도 하나를 포함할 수 있다.At this time, the information of the object to be supervised includes IDs of the object to be supervised, and may include at least one of manufacture, construction, specification, and process of the object to be supervised.
도 7을 참조하여 이동 단말기(100)의 제어 방법을 설명한다. 도 7은 본 발명에 따른 이동 단말기(100)의 제어 방법에 관한 순서도이다. A control method of the
이동 단말기(100)는 제1 이미지를 디스플레이부(151)에 표시한다. 구체적으로 이동 단말기(100)는 무선 통신부(110)를 통하여 드론(200)과 통신이 이루어지며, 제어부(180)는 사용자 입력에 따라 드론(200)의 움직임을 제어할 수 있다. The
특히 제어부(180)는 위에서 설명한 선회촬영 이외에도 객체에 대한 상세한 이미지 상세 정보를 획득하거나 상세 이미지를 취득하기 위하여 드론(200)에 장착된 카메라(221)를 활성화시키도록 드론(200)을 제어할 수 있다. 따라서 제어부(180)는 드론(200)의 카메라(221)가 피사체를 촬영하도록 제어하고, 촬영된 제1 이미지를 수신하여, 이를 디스플레이부(151)에 표시할 수 있다(S410). 이 경우 하나의 드론만을 이용하는 것이 가능하다.In particular, the
촬영된 제1 이미지는 감리의 대상인 건출물에 관한 것일 수 있다. 이 경우 디스플레이된 영상에는 다양한 객체, 예를 들어 건축물의 창문, 도어(door), 전등, 콘센트 등 다양한 객체에 대한 이미지가 포함될 수 있다. 따라서 사용자는 디스플레이된 다양한 객체에 대한 이미지 중 하나를 선택할 수 있다(S420). 이 경우 사용자는 디스플레이부(151, 터치 스크린)상에 하나의 객체 이미지에 대한 터치를 함으로써 선택할 수 있다. The photographed first image may be related to the dry matter which is the subject of the inspection. In this case, the displayed image may include images of various objects such as a window of a building, a door, a lamp, an outlet, and the like. Accordingly, the user can select one of images for various displayed objects (S420). In this case, the user can select by touching one object image on the display unit 151 (touch screen).
하나의 객체 이미지가 선택되면, 드론(200)은 선택된 객체 이미지에 대응되는 객체 앞으로 자동으로 이동할 수 있다. 구체적으로 객체 이미지에 대한 선택은 선택된 객체 이미지에 대응되는 객체를 정면에서 풀샷(full shot)으로 촬영하라는 명령을 의미할 수 있다. 따라서 제어부(180)는 해당 객체를 정면에서 풀샷으로 촬영하기 위하여 드론(200)을 해당 위치로 이동하도록 제어할 수 있다(S430). When one object image is selected, the
카메라(221)의 활성화가 유지되고 있는 상태에서, 드론(200)은 해당 객체의 정면으로 이동하고, 디스플레이부(151)에는 해당 객체의 정면에서 기 설정된 거리로부터 촬영된 제2 이미지가 디스플레이된다(S440). 즉 디스플레이부(151)에는 제2 이미지가 디스플레이되고, 특히 제2 이미지에 포함된 해당 객체의 정면 이미지가 풀샷으로 디스플레이된다. 이 경우 제어부(180)는 디스플레이부(151)의 전체 화면에 해당 객체의 이미지가 전부 표시되도록 드론(200)과 해당 객체와의 거리를 조정할 수 있다. While the activation of the
해당 객체의 정면 이미지가 풀샷으로 디스플레이부(151)에 디스플레이되면, 제어부(180)는 해당 객체를 포함하는 제2 이미지를 촬영하도록 드론(200)을 제어한다. 제어부(180)는 촬영된 제2 이미지를 드론(200)으로부터 수신하여 이를 서버(300)로 전송한다(S450). 또는 제어부(180)는 촬영된 제2 이미지를 드론(200)으로부터 서버(300)로 곧바로 전송하도록 제어할 수 있다. When the front image of the object is displayed on the
제2 이미지를 수신한 서버(300)는 제2 이미지에 포함된 객체 이미지에 대응되는 객체 정보를 데이터베이스로부터 검색 및 추출할 수 있다. 객체 정보는 서버(300)로 전송된 객체 이미지에 대응되는 객체의 ID 정보, 생산 정보, 시공담당 정보, 규격 정보, 공정시한 정보 등을 의미할 수 있다. 이와 같은 객체 정보는 서버(300)로부터 이동 단말기(100)로 전송된다. The
이동 단말기(100)는 서버(300)로부터 수신된 객체 정보를 디스플레이부(151)에 디스플레이한다(S460). 이로써 사용자는 공사현장에서 촬영된 영상으로부터 특정 객체에 대한 감리를 수행할 수 있다. The
이하에서는 구체적인 예시를 통해 이동 단말기를 통한 감리 방법을 설명하기로 한다. Hereinafter, a method of controlling the mobile terminal will be described with reference to specific examples.
도 8 내지 도 9은 본 발명에 따른 이동 단말기에 의해 객체를 촬영하기 위한 방법을 설명하기 위한 도면의 일 예이다. 8 to 9 are views showing an example of a method for photographing an object by a mobile terminal according to the present invention.
도 8(a)는 드론(200)에 장착된 카메라(221)를 통해 본 공사현장의 프리뷰(pre-view) 이미지를 도시한 것이다. 카메라(221)가 드론(200)의 전면부에 장착되었다고 가정한다면, 도 8(a)와 같은 프리뷰 이미지가 획득되기 위해서는 도 8(b)에 도시된 바와 같이, 드론(200)의 카메라(221)는 A영역 및 B영역을 동시에 향하고 있음을 알 수 있다. 다시 말해 드론(200)이 감리 대상인 객체를 전반적으로 촬영하고 있는 상태일 수 있다. 8 (a) shows a pre-view image of the construction site through the
카메라(221)는 도어, 창문, 전등, 벽, 천장, 바닥과 같은 객체를 포함하는 하나의 이미지를 프리뷰 이미지로 촬영하며, 드론(200)은 촬영된 프리뷰 이미지를 이동 단말기(100)로 전송한다. 따라서 이동 단말기(100)의 제어부(180)는 수신된 프리뷰 이미지를 디스플레이부(151)에 디스플레이한다. 즉 도 8(c)에 도시된 바와 같이, 제어부(180)는 드론(200)의 카메라(221)가 촬영한 프리뷰 이미지를 디스플레이부(151)에 그대로 디스플레이할 수 있다. The
한편 도 8(c)에 도시된 바와 같이, 사용자는 디스플레이된 프리뷰 이미지 중 감리하고자 하는 하나의 객체를 선택할 수 있다. 예를 들어 창문을 감리하고자 한다면, 사용자는 디스플레이부(151)상의 창문 이미지(400)를 터치할 수 있다. 이 경우 선택된 객체인 창문 이미지(400)는 사용자에 의해 선택되었음을 나타내기 위하여, 나머지 객체와 구별되도록 이미지의 크기, 색깔, 테두리 굵기 등 다양한 시각적 효과가 부여될 수 있다. On the other hand, as shown in FIG. 8 (c), the user can select one object to be supervised among the displayed preview images. For example, if the user intends to conceal a window, the user can touch the
이후 드론(200)은 선택된 객체인 창문의 정면으로 이동하여, 도 9(a)에 도시된 바와 같은 프리뷰 이미지가 획득된다. 이러한 프리뷰 이미지가 획득되기 위해서는 도 9(b)에 도시된 바와 같이, 드론(200)의 카메라(221)는 B영역만을 향하여야 한다. 다시 말해 드론(200)이 감리하고자 하는 특정 객체(창문)만을 촬영하고 있는 상태일 수 있다. Then, the
카메라(221)는 창문을 정면에서 풀샷으로 촬영하며, 드론(200)은 촬영된 창문의 프리뷰 이미지를 이동 단말기(100)로 전송한다. 따라서 이동 단말기(100)의 제어부(180)는 수신된 프리뷰 이미지를 디스플레이부(151)에 디스플레이한다. 즉 도 9(c)에 도시된 바와 같이, 제어부(180)는 드론(200)의 카메라(221)가 촬영한 프리뷰 이미지를 디스플레이부(151)에 그대로 디스플레이할 수 있다. The
또한 드론(200)은 촬영 지점의 위치 정보를 파악하여, 프리뷰 이미지와 함께 이동 단말기(100)로 전송할 수 있다. 따라서 이동 단말기(100)는 위치 정보를 포함하는 프리뷰 이미지를 수신하게 된다. Also, the
한편 도 8(c)에 도시된 프리뷰 이미지를 사용자가 터치하여 선택하면, 제어부(180)는 선택된 이미지를 서버(300)로 전송할 수 있다. 이 경우 선택된 객체인 창문 이미지(400)는 사용자에 의해 선택되었음을 나타내기 위하여, 이미지의 크기, 색깔, 테두리 굵기 등 다양한 시각적 효과가 부여될 수 있음은 전술한 바와 같다. 또는 도 8(c)에 도시된 프리뷰 이미지는 사용자의 선택이 없더라도, 제어부(180)는 이를 자동으로 서버(300)로 전송할 수도 있다. 이후 서버(300)는 수신된 이미지에 포함된 객체를 판단할 수 있다. 예를 들어 수신된 이미지가 도 9(c)와 같다면, 서버(300)는 수신된 이미지에 포함된 창문 또는 창틀 이미지(400)를 추출하고, 추출된 창문 또는 창틀 이미지(400)로부터 객체가 창문 또는 창틀임을 판단할 수 있다. 따라서 서버(300)는 데이터베이스로부터 창문 또는 창틀에 관한 정보를 추출할 수 있다. On the other hand, when the user touches the preview image shown in FIG. 8C and selects the preview image, the
뿐만 아니라 도 8(c)에 도시된 프리뷰 이미지를 사용자가 터치하여 선택하면, 제어부(180)는 디스플레이된 프리뷰 이미지에 포함된 객체를 판단할 수 있다. 즉 프리뷰 이미지에 포함된 창문 이미지(400)가 선택되면, 제어부(180)는 선택된 창문 이미지(400)로부터 객체가 창문임을 판단할 수 있다. 따라서 제어부(180)는 객체(예: 창문 또는 창틀)에 대한 정보를 요청하는 신호를 서버(300)로 전송할 수 있다. 이 경우 선택된 객체인 창문 이미지(400)는 사용자에 의해 선택되었음을 나타내기 위하여, 이미지의 크기, 색깔, 테두리 굵기 등 다양한 시각적 효과가 부여될 수 있음은 전술한 바와 같다. 이후 서버(300)는 수신된 객체(예: 창문 또는 창틀)에 대한 정보를 데이터베이스로부터 추출할 수 있다. In addition, if the user selects the preview image shown in FIG. 8C by touching, the
한편 이동 단말기(100)는 객체 이미지 또는 객체에 대한 정보 요청 신호와 함께 해당 객체 이미지 또는 객체의 위치 정보를 서버(300)로 전송할 수 있다. 따라서 서버(300)는 특정 위치(예: 서울시 강남구 XX동 123번지 Y동 1203호)에 해당하는 객체 정보(예: 창틀 또는 창문에 관한 정보)를 이동 단말기(100)로 전송할 수 있다. 따라서 서버(300)는 특정 위치의 특정 객체에 대한 정보를 데이터베이스로부터 추출할 수 있다. Meanwhile, the
이와 같은 방식으로 추출된 객체 정보는 서버(300)로부터 이동 단말기(100)로 전송되며, 이하에서는 이동 단말기(100)에서 객체 정보가 표시되는 방식에 대해 설명하기로 한다. The extracted object information is transmitted from the
도 10(a)에 도시된 바와 같이, 디스플레이부(151)의 전체 화면 중 일부 영역(151-1)에는 객체 이미지(400)가 디스플레이되고, 나머지 영역(151-2)에는 객체 정보가 디스플레이될 수 있다. 따라서 사용자는 객체 및 이에 대한 정보를 쉽게 파악할 수 있다. 10A, the
또는 도 10(b)에 도시된 바와 같이, 디스플레이부(151)의 전체 영역에 객체 이미지(400)가 디스플레이되고, 팝업 화면(151-3)상에 객체 정보가 디스플레이될 수도 있다. The
이후 사용자는 디스플레이된 객체 정보 중 어느 하나에 대하여 자세한 정보를 확인할 수 있다. 구체적으로 도 11(a)에 도시된 바와 같이, 사용자는 제조 정보 항목을 선택할 수 있다. 이 경우 도 11(b)에 도시된 바와 같이, 선택된 항목에 대한 상세 정보를 포함하는 화면이 전환되거나, 추가 화면이 디스플레이부(151)에 디스플레이될 수 있다. 즉 도 11에 도시된 바와 같이, 이동 단말기(100)는 특정 공사현장(서울시 강남구 XX동 123번지 Y동 1203호)의 특정 객체(창문 또는 창틀)에 대한 정보를 서버(300)로부터 수신하여 이를 디스플레이함으로써, 사용자에 의한 감리가 이루어지도록 할 수 있다. Then, the user can confirm detailed information on any one of the displayed object information. Specifically, as shown in Fig. 11 (a), the user can select a manufacturing information item. In this case, as shown in FIG. 11 (b), a screen including detailed information on the selected item may be switched or an additional screen may be displayed on the
전술한 본 발명은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는 HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. The present invention described above can be embodied as computer readable codes on a medium on which a program is recorded. A computer readable medium includes any type of recording device in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). The computer may also include a
500: 감리 시스템 300: 서버
200, 200a, 200b: 드론 100: 이동 단말기
110: 무선 통신부 120: A/V 입력부
130: 사용자 입력부 140: 센싱부
150: 출력부 160: 메모리
170: 인터페이스부 180: 제어부
190: 전원 공급부500: Supervision system 300: Server
200, 200a, 200b: Drones 100: Mobile terminals
110: wireless communication unit 120: A / V input unit
130: user input unit 140: sensing unit
150: output unit 160: memory
170: interface unit 180: control unit
190: Power supply
Claims (11)
건축물 감리를 위한 위치에 제1 드론 및 제2 드론을 제공하는 제1 단계;
상기 제1 드론 및 제2 드론 중 어느 하나가 나머지 드론을 포함하는 이미지를 촬영하여 상기 제1 드론 및 제2 드론간의 거리를 산출하는 제2 단계;
상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하고, 상기 선회 도중 상기 제1 드론 및 상기 제2 드론 중 적어도 어느 하나의 드론이 상기 제1 드론 및 상기 제2 드론이 조사한 한 쌍의 광마크와 감리대상 객체가 포함되는 선회촬영 이미지를 촬영하는 제3 단계;
상기 선회촬영 이미지로부터 상기 감리대상 객체의 물리적인 정보를 측정하고, 상기 선회촬영 이미지 중 상기 감리대상 객체가 표시되는 영역의 정보를 산출하는 제4 단계;
상기 선회촬영 이미지에 포함된 감리대상 객체와 외부로부터 전송된 상기 감리대상 객체의 정보를 매칭하는 제5 단계; 및
상기 제1 드론 및 상기 제2 드론 중 어느 하나가 상기 매칭된 선회촬영 이미지와 상기 감리대상 객체의 정보를 외부로 전송하는 제6 단계;를 포함하고,
상기 제3 단계는,
상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하는 과정에서 각각 마주보는 제1 드론 및 제2 드론을 포함하는 제1 이미지를 촬영하여 회전 경로상에서의 감리대상 객체의 위치를 파악하는 제3-1단계;
상기 제1 드론 및 상기 제2 드론의 중심점을 기준으로 상기 제1 드론 및 상기 제2 드론이 선회하는 도중 어느 하나의 드론이 상기 감리대상 객체에 인접한 위치에서 제자리 비행을 수행하고, 제자리 비행 중 상기 제1 드론 및 상기 제2 드론이 각각 상기 인접한 감리대상 객체에 광마크를 조사한 상태에서 제2 이미지를 촬영하는 제3-2 단계;를 포함하는 드론을 이용한 건축물 감리 방법.A method for controlling a building using a first dron, a second dron, and a mobile terminal,
A first step of providing a first dronon and a second dronon at a position for building supervision;
A second step of calculating a distance between the first dron and the second dron by capturing an image including one of the first dron and the second dron including the remaining drones;
The first dron and the second dron pivot about a center point of the first dron and the second dron, and at least one of the first dron and the second dron during the rotation pivots about the center of the first dron and the second dron, And a third step of photographing a swivel taking image including a pair of optical marks and an object to be inspected by the second drones;
A fourth step of measuring physical information of the object to be supervised from the swing shot image and calculating information of an area in which the object to be controlled is displayed among the swing shot images;
A fifth step of matching information of the object to be supervised included in the swing shot image with information of the object to be controlled transmitted from the outside; And
And a sixth step in which any one of the first drones and the second drones transmits information of the matched swing shot image and the object to be supervised to the outside,
In the third step,
The first dron and the second dron are photographed in the course of turning the first dron and the second dron with respect to the center points of the first dron and the second dron, A step 3-1 of grasping the position of the object to be supervised by the user;
Wherein at least one of the first and second drones is rotating with respect to a center point of the first and second drones, And (3-2) photographing a second image in a state in which the first dron and the second dron irradiate the adjacent object to be inspected with the optical mark, respectively.
상기 감리대상 객체의 정보는 상기 감리대상 객체에 대한 ID를 포함하고, 상기 감리대상 객체의 제조, 시공담당, 규격, 공정시한 중 적어도 하나를 포함하는 드론을 이용한 건축물 감리 방법.8. The method of claim 7,
Wherein the information of the object to be supervised includes an ID of the object to be supervised, and includes at least one of manufacture, construction charge, specification, and process of the object to be supervised.
상기 제3 단계에서,
상기 제1 드론 및 상기 제2 드론 중 어느 하나는 거리당 일정비율로 확산된 상기 한 쌍의 광마크의 크기를 비교하여 상기 감리대상 객체와 상기 제1 드론의 거리, 상기 감리대상 객체와 상기 제2 드론의 거리의 비율을 산출하는 드론을 이용한 건축물 감리 방법.8. The method of claim 7,
In the third step,
Wherein any one of the first dron and the second dron compares the sizes of the pair of optical marks diffused at a predetermined ratio per distance to determine a distance between the object to be controlled and the first dron, A method of building supervision using a dron that calculates the ratio of the distance of two drones.
상기 제1 드론 및 상기 제2 드론의 거리와 상기 제1 드론 및 상기 제2 드론을 잇는 가상의 선에 대한 상기 한 쌍의 광마크 조사 각도로부터 상기 제1 드론 및 상기 제2 드론 각각으로부터 상기 감리대상 객체에 이르는 실제 거리를 산출하는 드론을 이용한 건축물 감리 방법.10. The method of claim 9,
From the first dron and the second dron from the pair of optical mark irradiation angles with respect to a distance between the first dron and the second dron and a virtual line connecting the first dron and the second dron, A method of building supervision using a dron to calculate the actual distance to the target object.
상기 제1 드론 및 상기 제2 드론을 잇는 가상의 선을 기준으로 상기 감리대상 객체의 방향을 산출하는 드론을 이용한 건축물 감리 방법.11. The method of claim 10,
And calculating a direction of the object to be inspected based on a virtual line connecting the first dron and the second dron.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170169125A KR101844726B1 (en) | 2017-12-11 | 2017-12-11 | Drone for construction suprvision and the method of supervision using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170169125A KR101844726B1 (en) | 2017-12-11 | 2017-12-11 | Drone for construction suprvision and the method of supervision using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101844726B1 true KR101844726B1 (en) | 2018-04-02 |
Family
ID=61976312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170169125A KR101844726B1 (en) | 2017-12-11 | 2017-12-11 | Drone for construction suprvision and the method of supervision using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101844726B1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102128696B1 (en) | 2020-02-13 | 2020-06-30 | (주)한국전산감리원 | Driving method for construction site supervision and security sysgem |
KR102148367B1 (en) | 2020-02-13 | 2020-08-26 | (주)한국전산감리원 | Construction site supervision and security sysgem |
KR102201614B1 (en) | 2020-08-07 | 2021-01-12 | (주)한국전산감리원 | Construction site supervision and security system |
KR102208008B1 (en) * | 2020-07-17 | 2021-01-28 | 박헌우 | Method for constructing using drone |
KR102232181B1 (en) | 2021-01-04 | 2021-03-25 | (주)케이씨에이 | Construction site supervision and security system |
KR102334537B1 (en) * | 2021-02-22 | 2021-12-03 | (주)대경기술단 | System of construction suprvision and method performing the same |
CN114967760A (en) * | 2022-07-20 | 2022-08-30 | 无锡建设监理咨询有限公司 | Building engineering supervision method and system based on unmanned aerial vehicle and storage medium |
CN115344765A (en) * | 2022-08-17 | 2022-11-15 | 江苏沃叶软件有限公司 | Construction method and system for archival data of construction project |
KR102550090B1 (en) * | 2023-02-14 | 2023-06-30 | (주)정상티이씨 | Supervising System |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0924423A2 (en) * | 1997-12-18 | 1999-06-23 | United Technologies Corporation | Method of manufacturing solid fuel rocket motors |
US6408760B1 (en) * | 1997-12-18 | 2002-06-25 | United Technologies Corporation | Method of manufacturing solid rocket motors |
KR20050092740A (en) * | 2003-01-09 | 2005-09-22 | 바스프 악티엔게젤샤프트 | Method for the genetic modification of organisms of the genus blakeslea, corresponding organisms and the use of the same |
KR101354688B1 (en) * | 2013-07-05 | 2014-01-27 | 한국건설기술연구원 | System and method for supervision of construction site |
KR101583723B1 (en) * | 2015-01-16 | 2016-01-08 | 단국대학교 산학협력단 | Interactive synchronizing system of BIM digital model and Real construction site |
KR20160034013A (en) * | 2014-09-19 | 2016-03-29 | 한국건설기술연구원 | System and method for construction site management by using unmaned aerial vehicle |
KR20170086992A (en) * | 2016-01-19 | 2017-07-27 | 광주대학교산학협력단 | The System for obtaining three-dimensional spatial image using unmanned aerial vehicle |
-
2017
- 2017-12-11 KR KR1020170169125A patent/KR101844726B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0924423A2 (en) * | 1997-12-18 | 1999-06-23 | United Technologies Corporation | Method of manufacturing solid fuel rocket motors |
US6408760B1 (en) * | 1997-12-18 | 2002-06-25 | United Technologies Corporation | Method of manufacturing solid rocket motors |
KR20050092740A (en) * | 2003-01-09 | 2005-09-22 | 바스프 악티엔게젤샤프트 | Method for the genetic modification of organisms of the genus blakeslea, corresponding organisms and the use of the same |
KR101354688B1 (en) * | 2013-07-05 | 2014-01-27 | 한국건설기술연구원 | System and method for supervision of construction site |
KR20160034013A (en) * | 2014-09-19 | 2016-03-29 | 한국건설기술연구원 | System and method for construction site management by using unmaned aerial vehicle |
KR101583723B1 (en) * | 2015-01-16 | 2016-01-08 | 단국대학교 산학협력단 | Interactive synchronizing system of BIM digital model and Real construction site |
KR20170086992A (en) * | 2016-01-19 | 2017-07-27 | 광주대학교산학협력단 | The System for obtaining three-dimensional spatial image using unmanned aerial vehicle |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102128696B1 (en) | 2020-02-13 | 2020-06-30 | (주)한국전산감리원 | Driving method for construction site supervision and security sysgem |
KR102148367B1 (en) | 2020-02-13 | 2020-08-26 | (주)한국전산감리원 | Construction site supervision and security sysgem |
KR102208008B1 (en) * | 2020-07-17 | 2021-01-28 | 박헌우 | Method for constructing using drone |
KR102201614B1 (en) | 2020-08-07 | 2021-01-12 | (주)한국전산감리원 | Construction site supervision and security system |
KR102232181B1 (en) | 2021-01-04 | 2021-03-25 | (주)케이씨에이 | Construction site supervision and security system |
KR102334537B1 (en) * | 2021-02-22 | 2021-12-03 | (주)대경기술단 | System of construction suprvision and method performing the same |
CN114967760A (en) * | 2022-07-20 | 2022-08-30 | 无锡建设监理咨询有限公司 | Building engineering supervision method and system based on unmanned aerial vehicle and storage medium |
CN114967760B (en) * | 2022-07-20 | 2024-01-16 | 无锡建设监理咨询有限公司 | Unmanned plane-based building engineering supervision method, system and storage medium |
CN115344765A (en) * | 2022-08-17 | 2022-11-15 | 江苏沃叶软件有限公司 | Construction method and system for archival data of construction project |
CN115344765B (en) * | 2022-08-17 | 2023-07-04 | 江苏沃叶软件有限公司 | Method and system for constructing archival data of construction engineering |
KR102550090B1 (en) * | 2023-02-14 | 2023-06-30 | (주)정상티이씨 | Supervising System |
KR102572116B1 (en) * | 2023-02-14 | 2023-08-29 | (주)정상티이씨 | Construction site multi-angle supervision system using lidar sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101844726B1 (en) | Drone for construction suprvision and the method of supervision using the same | |
AU2021202129B2 (en) | Virtual enhancement of security monitoring | |
KR101354688B1 (en) | System and method for supervision of construction site | |
AU2018312581B2 (en) | Supervising property access with portable camera | |
US20200279117A1 (en) | Enhanced doorbell camera interactions | |
US11017680B2 (en) | Drone detection systems | |
US10776528B1 (en) | Systems and methods for smart home mapping | |
US11537749B2 (en) | Privacy protection in mobile robot | |
US10515527B1 (en) | Security surveillance device | |
WO2019246391A1 (en) | Device location network | |
US11600063B1 (en) | Guided inspection system and method | |
KR102018556B1 (en) | Management system and method for managing defect repairing | |
US20200412949A1 (en) | Device, system, and method for capturing and processing data from a space | |
US20160162985A1 (en) | Occupancy monitoring for a remote short term housing rental | |
CN106250763A (en) | The safety protecting method of intelligent robot and device | |
JP2020166352A (en) | Robot control device, robot control method, and robot control system | |
KR101844718B1 (en) | Mobile terminal for construction supervision | |
KR101702452B1 (en) | A method and a system for providing cctv image applied augmented reality | |
TWI723706B (en) | Patrol service system and patrol service verification method | |
Mabasha et al. | Enhancing Home Security through an Android-based Door Security System using IoT Technology | |
WO2021084612A1 (en) | Digital safety response security system, method, and program | |
Tarun | Under the Esteemed Guidance of | |
TW201928851A (en) | Monitoring and management system for comparing sentinel message with patrol message and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |