KR101354688B1 - System and method for supervision of construction site - Google Patents
System and method for supervision of construction site Download PDFInfo
- Publication number
- KR101354688B1 KR101354688B1 KR1020130078864A KR20130078864A KR101354688B1 KR 101354688 B1 KR101354688 B1 KR 101354688B1 KR 1020130078864 A KR1020130078864 A KR 1020130078864A KR 20130078864 A KR20130078864 A KR 20130078864A KR 101354688 B1 KR101354688 B1 KR 101354688B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- construction site
- vector
- image
- terminal
- Prior art date
Links
- 238000010276 construction Methods 0.000 title claims abstract description 121
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000008569 process Effects 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 18
- 230000003213 activating effect Effects 0.000 claims description 6
- 238000002360 preparation method Methods 0.000 abstract description 3
- 238000007726 management method Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Software Systems (AREA)
- Tourism & Hospitality (AREA)
- Computer Graphics (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Game Theory and Decision Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Educational Administration (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명은 공사현장 감리 시스템 및 감리방법에 관한 것으로 특히, 휴대단말기를 이용하는 공사현장 감리 시스템 및 감리방법에 관한 것이다. The present invention relates to a construction site supervision system and method, and more particularly, to a construction site supervision system and a method using a mobile terminal.
최근, 건물이나 빌딩을 설계하고 시공하는 과정에서, 건축물을 구성하는 객체들을 데이터화하여 수치 데이터를 만들며, 3차원의 디스플레이 효과를 볼 수 있도록 하는 3차원 가상공간 모델링 시스템(or 모듈)이 전반적으로 사용되고 있다. 특히, 대형 건축물이나 구조물을 기획하는 프로젝트에서, 이 같은 3차원 가상공간 모델링 시스템(or 모듈)을 이용하여 기획하고 설계하는 것은 필수적인 사항으로 받아들여지고 있으며, 건설분야에서는 이를 'BIM'이라 부르고 있다.Recently, in the process of designing and constructing a building or a building, a three-dimensional virtual space modeling system (or module) is generally used to make numerical data by generating data of objects constituting the building and to view three-dimensional display effects. have. In particular, in the project of planning a large building or structure, planning and designing using such a 3D virtual space modeling system (or module) is considered as an essential matter, and in the construction field, this is called 'BIM'.
BIM(Building Information Modeling)이란, 정보가 결합된 3차원 가상공간 모델링 시스템(or 모듈)의 하나로, 다차원 가상공간에 기획, 설계, 엔지니어링(구조, 설비, 전기 등), 시공 더 나아가 유지관리 및 폐기까지 가상으로 시설물을 모델링하고 속성정보를 담는 것을 말한다. Building Information Modeling (BIM) is a three-dimensional virtual space modeling system (or module) that combines information. Planning, design, engineering (structure, equipment, electricity, etc.), construction, and maintenance and disposal in multidimensional virtual spaces. Virtually modeling facilities and containing property information.
BIM은 건축, 토목, 플랜트를 포함한 건설 전 분야에서 시설물 객체의 물리적 혹은 기능적 특성에 의해 시설물 생애주기 동안 의사결정을 하는 데 신뢰할 수 있는 근거를 제공하는 디지털 모델과 그 작성을 위한 업무 절차를 포함해 지칭한다BIM includes digital models that provide a reliable basis for making decisions throughout the life cycle of a facility by its physical or functional characteristics in all areas of construction, including architecture, civil engineering, and plants, and the procedures for creating them. Refers to
BIM은 건설 전 분야의 시설물을 구성하는 객체와 이에 대한 정보를 기반으로 구성되며 각각의 객체들은 형상정보(기하정보), 속성정보를 포함하고 다른 객체들과의 상호 연결관계를 가지고 형성된다. 이를 통해 2, 3차원의 가시화된 정보의 제공이 가능하며 객체의 치수 및 면적 등과 같은 물량산출을 위한 정보의 추출도 가능하다. The BIM is based on the objects and information on the objects of the entire construction field, and each object includes the shape information (geometry information), the attribute information and is formed with interconnection with other objects. Through this, it is possible to provide visualized information in two or three dimensions and to extract information for calculating quantities such as dimensions and areas of objects.
BIM 데이터는 건물을 구성하는 벽, 슬라브, 창, 문, 지붕, 계단 등과 같은 객체들과 이에 대한 속성을 포함하고 있다. 또한 각각의 객체들은 서로의 관계가 정의되어 있으므로 설계의 변경사항 발생시 관련된 요소들이 상호작용을 통해 도면 등으로 자동 반영될 수 있다. 또한, BIM 기술을 활용하면 대상 건물이 정형이든 비정형이든 관계없이, 건물을 지을 때 발생되는 모든 데이터를 프로젝트 별, 프로세스 별로 호환, 공유를 통해 모든 단계의 정보를 통합 관리할 수 있다.BIM data includes objects and properties of the walls, slabs, windows, doors, roofs, stairs, etc. that make up a building. In addition, since each object has a defined relationship with each other, related elements can be automatically reflected in drawings through interactions when a design change occurs. In addition, BIM technology enables integrated management of information at all stages by sharing and sharing all data generated by building, project by project, and process, regardless of whether the target building is structured or atypical.
건물이나 빌딩을 설계하고 시공하는 과정에서, 3차원 가상공간 모델링은 공사 구조물(예: 건물, 빌딩 등)을 이루는 객체들인 벽, 슬라브, 창, 문, 지붕, 계단 등을 각각의 공간속 위치와 속성으로 표현하여 서로의 관계를 인지하고 건물의 변경요소들을 건물설계에 반영하지만, 이는 단지 가상의 공간에서만 존재하여 계획과 설계 작업에 활용될 뿐, 시공이나 감리와 같이 공사현장에서는 거의 활용되지 못하는 실정이다.In the process of designing and constructing a building or a building, 3D virtual space modeling includes the walls, slabs, windows, doors, roofs, stairs, and other objects that make up a construction structure (e.g., a building, a building). It expresses the relationship with each other and expresses the changing elements of the building in the building design, but it exists only in the virtual space and is used for planning and design work, which is rarely used in construction sites such as construction and supervision. It is true.
3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 거대한 빌딩이나 구조물을 기획하는 프로젝트에서, 시공작업은 매우 복잡하게 진행되고, 감리는 작업 전에 매우 복잡하고 다양한 정보를 준비해야 하는 사전작업을 요구한다. 공사현장에서 이루어지는 시공과 감리작업에, 온라인 상의 3차원 가상공간 모델과 속성정보를 연동시킬 수 있다면, 작업장은 보다 안전하며, 작업자는 편리하고 효과적인 작업 수행이 가능하게 될 것이다. In projects that plan large buildings or structures that are under construction using a three-dimensional virtual space modeling system, construction work is very complex and requires preliminary work to prepare very complex and diverse information before supervision. . If the construction and supervision work at the construction site can be linked with the online 3D virtual space model and the attribute information, the workplace will be safer and the worker will be able to perform convenient and effective work.
본 발명의 목적은 3차원 가상공간 모델링 시스템과 연동하는 휴대단말기를 이용하여 건축현황을 관리하고 감독하는 공사현장 감리 시스템 및 감리방법을 제공하는데 있다. SUMMARY OF THE INVENTION An object of the present invention is to provide a construction site supervision system and method for supervising and managing a construction status using a portable terminal interoperating with a 3D virtual space modeling system.
본 발명의 부가적인 특성 및 이점들은 아래의 설명에 기재될 것이며, 부분적으로는 상기 설명에 의해 명백해지거나 본 발명의 실행을 통해 숙지 될 것이다. 본 발명의 목표 및 다른 이점들은 특히 아래 기재된 설명 및 부가된 도면뿐만 아니라 청구항에서 지적한 구조에 의해 구현될 것이다.Additional features and advantages of the invention will be set forth in the description which follows, and in part will be apparent from the description, or may be learned by practice of the invention. The objectives and other advantages of the present invention will be realized and attained by the structure particularly pointed out in the claims, as well as the following description and the annexed drawings.
본 발명에 따른 공사현장 감리 시스템은 사용자가 공사현장을 촬영하면, 촬영된 이미지의 벡터촬영정보(예: 위치정보, 방위정보, 수직기울기 정보, 수평기울기 정보, 및 거리정보)를 검출하여 원격지의 관리서버에 저장된 해당 공사현장의 3차원 가상공간 모델에 연동되도록 하였다. 본 발명에 따른 사용자는 공사현장에서, 간단한 화면 터치만으로 상기 촬영된 이미지 상의 각 객체들의 속성값을 열람할 수 있다.The construction site supervision system according to the present invention detects vector shooting information (eg, location information, bearing information, vertical tilt information, horizontal tilt information, and distance information) of a photographed image when a user photographs a construction site. It is linked to the 3D virtual space model of the construction site stored in the management server. The user according to the present invention can view the attribute values of each object on the photographed image with a simple screen touch at the construction site.
본 발명은, 사용자가 공사현장을 촬영하고 촬영된 이미지를 터치하는 것만으로 간단히 화면 상 각 객체들의 속성값을 열람할 수 있도록 함으로써, 공사현장의 건축현황을 보다 쉽게 관리 감독할 수 있도록 하였으며, 특히 공사현장을 감리하는 사용자에게 공사현장에 관한 별다른 사전 준비없이 휴대단말기 하나만으로도 쉽게 감리업무를 수행할 수 있도록 하였다. The present invention enables the user to easily view the property values of each object on the screen by simply photographing the construction site and touching the photographed image, so that the construction status of the construction site can be more easily managed and supervised. Users who supervise the construction site can easily perform the supervision work with just one mobile terminal without any preparation for the construction site.
또한, 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 거대한 빌딩이나 구조물을 기획하는 프로젝트에서 감리업무는 작업 전에 매우 복잡하고 다양한 정보를 준비해야 하는 등의 사전작업이 필요하지만, 본 발명에 따른 공사현장 감리 시스템과 휴대단말을 이용함으로써, 보다 편리하고 간단하게 감리업무를 수행할 수 있을 것을 기대된다.In addition, in a project for planning a huge building or structure that is under construction using a three-dimensional virtual space modeling system, the supervision work requires prior work, such as preparing a very complex and diverse information before work, By using a construction site supervision system and a mobile terminal, it is expected that the supervision work can be performed more conveniently and simply.
도1은 본 발명에 따른 휴대 단말기에 관한 블록 구성도.
도2는 방위각의 개념을 나타내는 도면.
도3은 수직 기울기의 개념을 나타내는 도면.
도4는 수평 기울기의 개념을 나타내는 도면.
도5는 본 발명에 따른 감리 시스템의 동작 흐름도.
도6은 본 발명에 따른 이미지 촬영을 예시한 도면.
도7은 본 발명에 따라 매칭정보를 결합한 실사 이미지와 사용자의 터치입력을 나타낸 동작 예시도.
도8은 사용자의 터치에 따라 객체의 속성값을 디스플레이 하는 본 발명의 동작 예시도.1 is a block diagram of a mobile terminal according to the present invention;
2 illustrates the concept of an azimuth angle.
3 illustrates the concept of vertical tilt.
4 illustrates the concept of a horizontal tilt.
5 is an operation flowchart of a supervision system according to the present invention.
6 is a diagram illustrating image capturing according to the present invention;
7 is an operation example showing a live action image combined with matching information and a user's touch input according to the present invention.
8 is an exemplary operation of the present invention to display the property value of the object in accordance with the user's touch.
상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 공사현장 감리방법은, 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 공사현장의 감리방법에 있어서,In order to achieve the above object, the construction site supervision method according to the present invention, in the construction site supervision method for performing the construction using a three-dimensional virtual space modeling system,
단말의 카메라를 통해 공사현장의 실사 이미지를 촬영하는 과정과, 촬영된 공사현장의 벡터촬영정보를 검출하는 과정과, 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버측으로 전송하는 과정과, 상기 관리서버가 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하고 검출된 3차원 모델에서 각각의 개별 객체들을 검출하는 과정과, 상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 과정과, 상기 검출된 3차원 모델의 속성값과 매칭정보를 단말측에 전달하는 과정과, 단말이 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키는 과정과, 각 객체들이 활성화된 실사 이미지를 단말화면에 출력한 후 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이하는 과정을 포함하여 이루어진다. A process of photographing a live-action image of a construction site through a camera of a terminal, a process of detecting vector photographing information of a photographed construction site, transmitting a photographed live-action image and detected vector photographing information to a management server; Detecting, by the management server, a three-dimensional model that matches the vector photographing information from a database of a three-dimensional virtual space modeling system, and detecting each individual object in the detected three-dimensional model; Matching each individual object of the 3D model to generate matching information, transmitting attribute values and matching information of the detected 3D model to a terminal, and matching the transmission transmitted by the terminal to the live image The process of activating each object on the live image by combining the information, and displaying the live image with each object activated on the terminal screen. If a user input of touching the objects after the output is detected, the method may include displaying property information of the corresponding object.
바람직하게, 상기 3차원 모델에서 각각의 개별 객체들을 검출하는 과정은, Preferably, the process of detecting each individual object in the three-dimensional model,
3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하는 과정과, 상기 벡터촬영정보에 포함된 촬영위치정보, 방위정보, 촬영자세정보(수평기울기, 수직기울기), 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 상기 3차원 모델에서 상기 단말 카메라와 동일한 시점에서 상기 실사 이미지와 동일한 모델링 이미지를 추출하는 과정과, 상기 추출된 모델링 이미지에서 각각의 개별 객체들을 검출하는 과정으로 이루어지는 것을 특징으로 한다. Detecting a 3D model that matches the vector shooting information from a database of a 3D virtual space modeling system, photographing position information, bearing information, shooting position information (horizontal tilt and vertical tilt) included in the vector shooting information, Extracting the same modeling image as the real image from the 3D model at the same time point as the terminal camera with reference to lens angle information, photographing frame size and ratio information, and extracting each individual object from the extracted modeling image It is characterized by consisting of a process of detecting.
상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 공사현장 감리를 위한 휴대단말기는 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 공사현장에 있어서,In order to achieve the above object, the portable terminal for construction site supervision according to the present invention in the construction site to proceed with the construction using the three-dimensional virtual space modeling system,
단말의 카메라를 통해 공사현장의 실사 이미지를 촬영하는 카메라부와, 촬영된 공사현장의 벡터촬영정보를 검출하는 벡터촬영정보 검출부와. 제어부의 제어에 따라 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버측으로 전송하는 무선통신부와, 상기 관리서버로부터, 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키는 제어부와, 각 객체들이 활성화된 실사 이미지를 단말화면에 출력하는 디스플레이부를 포함하여 구성되며, 상기 제어부는 상기 단말화면의 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이 한다. A camera unit for photographing the actual construction image of the construction site through a camera of the terminal, and a vector shooting information detection unit for detecting vector shooting information of the photographed construction site. The wireless communication unit which transmits the photographed photorealistic image and the detected vector photographing information to a management server side under control of a controller, and when the attribute value and matching information of a 3D model are received from the management server, the transmission to the photorealistic image. And a display unit for activating each object on the live image by combining the matching information, and a display unit for outputting the live image on which the object is activated on the terminal screen, wherein the controller is a user input for touching the objects on the terminal screen. If detected, the property information of the object is displayed.
바람직하게, 상기 벡터촬영정보 검출부는 단말의 촬영지점 위치를 검출하는 위치 검출부와, 카메라가 지향하는 방위각을 검출하는 방위각 검출부와, 카메라의 수직 기울기 각도를 검출하는 수직기울기 검출부와, 카메라의 수평 기울기 각도를 검출하는 수평기울기 검출부와, 상기 단말과 피사체까지의 거리를 검출하는 거리 검출부를 포함하여 구성되는 것을 특징으로 한다. Preferably, the vector shooting information detector includes a position detector for detecting a location of a photographing point of the terminal, an azimuth detector for detecting an azimuth angle directed by the camera, a vertical tilt detector for detecting a vertical tilt angle of the camera, and a horizontal tilt of the camera. And a horizontal tilt detector for detecting an angle, and a distance detector for detecting a distance between the terminal and the subject.
상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 공사현장 감리 시스템은 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 공사현장에 있어서,In order to achieve the above object, construction site supervision system according to the present invention in the construction site to proceed with the construction using the three-dimensional virtual space modeling system,
공사현장의 실사 이미지를 촬영하고, 촬영된 공사현장의 벡터촬영정보를 검출하는 휴대단말기와, 휴대단말기로부터 상기 촬영된 실사 이미지와 검출된 벡터촬영정보가 수신되면, 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하고 검출된 3차원 모델에서 각각의 개별 객체들을 검출하고 상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 관리서버를 포함하여 구성되며,A mobile terminal for taking a photographic image of a construction site and detecting vector photographing information of a photographed construction site, and receiving the photographed photorealistic image and the detected vector image information from a portable terminal, the database of a 3D virtual space modeling system. Detects a three-dimensional model that matches the vector photographing information, detects each individual object in the detected three-dimensional model, and generates matching information by matching each object on the photo-realistic image with the individual objects of the three-dimensional model, respectively. It is configured to include a management server,
상기 휴대단말기는 관리서버로부터 상기 검출된 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키고 각 객체들이 활성화된 실사 이미지를 단말화면에 출력한 후 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이 한다. When the portable terminal receives the attribute value of the detected 3D model and matching information from the management server, the portable terminal combines the transmitted matching information with the live image to activate each object on the live image and the live image with each object activated. If the user input of touching the objects is detected after outputting to the terminal screen, the property information of the corresponding object is displayed.
본 발명의 착안점은 3차원 가상공간 모델링 시스템과 연동하는 휴대단말기를 이용하여 공사현장을 촬영하면, 사용자의 화면터치만으로도 촬영된 이미지 상의 각 객체들의 속성값을 열람할 수 있도록 하는 공사현장 감리 시스템 및 감리방법을 구현하는데 있다.An object of the present invention is a construction site supervision system that allows you to view the property value of each object on the photographed image only by the user's screen touch, if the construction site is photographed using a portable terminal linked with the 3D virtual space modeling system; To implement the supervision method.
이하, 본 발명의 바람직한 실시 예를 도면을 참조하여 설명하면 다음과 같다. Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
도1은 본 발명에 따른 휴대 단말기에 관한 블록 구성도(block diagram)이다.1 is a block diagram of a portable terminal according to the present invention.
본 발명에 따른 휴대단말기(100)는 휴대폰, 스마트 폰(smart phone), 테블릿 컴퓨터, 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP (Portable Multimedia Player) 등 이동형 단말기일 수 있다. 이하의 설명에서는 상기 휴대단말기(100)가 스마트 폰(smart phone)인 것으로 가정하고 설명한다. The
도1을 참조하여, 본 발명에 따른 휴대단말기를 살펴보면 다음과 같다.Referring to Figure 1, the mobile terminal according to the present invention will be described.
본 발명에 따른 휴대단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180), 전원 공급부(190) 및 벡터촬영정보 검출부(300) 등의 구성요소들을 포함할 수 있다.The
상기 무선 통신부(110)는 휴대단말기(100)와 무선통신(or 이동통신) 시스템 간의 무선통신 또는 휴대단말기(100)와 휴대단말기(100)가 위치한 네트웍간의 무선통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 그리고 위치정보 모듈(115) 중, 적어도 하나를 포함할 수 있다.The
상기 무선 인터넷 모듈(113)(or 이동통신 모듈(112))은 상기 관리서버(200) 와 통신하는 통신모듈을 말한다. 적용가능한 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 있다. The wireless Internet module 113 (or mobile communication module 112) refers to a communication module for communicating with the
상기 A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 카메라(121)와 마이크(122) 등이 이에 포함될 수 있다. 상기 카메라(121)는 사용자의 조작에 따라 감리가 필요한 공사현장(예: 현장의 건축 구조물 등)을 촬영하여 실사 이미지를 생성한다. 또한, 화상 통화모드 또는 촬영모드에서 이미지 센서에 의해 얻어지는 정지영상이나 동영상의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The A / V (Audio / Video)
상기 카메라(121)에서 처리된 화상 프레임은 상기 메모리(160)에 저장되거나 무선 통신부(110)를 통해 외부로 전송될 수 있다. 상기 카메라 (121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수 있다.The image frame processed by the
카메라(121)는 피사체의 상을 결상시키는 렌즈 유닛과, 렌즈 유닛에 의해 결상된 상을 전기적 신호인 영상신호로 변환하는 촬상 소자를 포함한다. 촬상 소자는 결상된 피사체의 상을 광전 변환하는 소자로서, 씨씨디(CCD; charge coupled device) 촬상 소자나, 씨모스(CMOS; complementary MOS) 촬상 소자가 이용될 수 있다.The
상기 마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향신호를 입력받아 전기적인 음성 데이터로 처리한다. The
상기 사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 상기 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 때, 이를 터치 스크린이라 부를 수 있다.The
상기 센싱부(140)는 휴대단말기(100)의 개폐 상태, 사용자 접촉 유무, 휴대단말기의 가속/감속 등과 같이 휴대단말기(100)의 현 상태를 감지하여 휴대단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 휴대단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원공급부(190)의 전원공급 여부, 인터페이스부(170)의 외부기기 결합여부 등과 관련된 센싱 기능을 담당한다.The
또한, 상기 인터페이스부(170)는 휴대단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 휴대단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령신호가 휴대단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령신호 또는 상기 전원은 상기 외부 전자기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.In addition, the
상기 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향출력 모듈(152), 알람부(153) 등을 포함할 수 있다.The
상기 디스플레이부(151)는 통화에 관련된 정보는 물론, 휴대단말기 (100)에서 처리되는 정보를 표시 출력한다. 예를 들어 휴대단말기(100)가 검출한 벡터촬영정보나 관리서버(200)의 처리 데이터를 표시하고, 통화모드인 경우 통화에 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다.The
디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함한다. The
그리고 휴대단말기(100)의 구현 형태에 따라 디스플레이부(151)는 2개 이상 존재할 수 있다. 예를 들어, 휴대단말기(100)에는 복수의 디스플레이 부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. In addition, two or
상기 디스플레이부(151)와 터치동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력장치 이외에 입력장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.The
상기 음향출력 모듈(152)는 호신호 수신, 통화모드 또는 녹음모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(152)은 휴대단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향신호를 출력한다. 이러한 음향출력 모듈(152)에는 리시버(Receiver), 스피커 (speaker), 버저(Buzzer) 등이 포함될 수 있다.The
상기 알람부(153)는 휴대단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 상기 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치입력 등이 있다. 알람부(153)는 오디오 신호나 비디오 신호 이외에 다른 형태로 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151, 152)은 알람부(153)의 일부로 분류될 수도 있다.The
상기 메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 휴대단말기(100)는 인터넷(internet)상에서 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The
상기 제어부(180)는 통상적으로 휴대단말기의 전반적인 동작을 제어한다. 예를 들어 벡터촬영정보 검출, 음성 또는 화상통화, 데이터 통신 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 상기 무선 통신부(110)를 통해 관리서버(200)와 각종 정보들(예: 실사 이미지, 벡터촬영정보, 식별값, 속성값 등)의 송수신을 수행한다.The
제어부(180)는 관리서버(200)로부터 전체 속성값과 매칭정보가 수신되면, 상기 촬영된 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들의 외곽선이 화이어 프레임으로 강조되는 등의 방법으로 활성화되도록 하고, 상기 디스플레이부(151) 화면에 출력한다. 그리고, 실사 이미지 상의 활성화된 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 상기 디스플레이부(151) 화면에 출력한다.When the
상기 전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
상기 벡터촬영정보 검출부(300)는 촬영대상(예: 건축물이나 건축현장의 각 객체(피사체))에 대한 벡터촬영정보(카메라(121)와 피사체간의 벡터촬영정보)를 검출한다. 이때, 벡터촬영정보란 카메라(121)가 촬영한 촬영대상 즉 피사체를 특정할 수 있는 정보로서, 촬영 시점의 시간정보, 카메라(121)의 3차원 위치에 대한 촬영위치정보, 카메라(121)의 렌즈 축이 향하는 방위에 대한 방위정보, 카메라(121)의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기 정보, 및 촬영 영상의 수평축이 지평선에 대하여 기울어진 수평 기울기 정보를 포함하는 정보이다. 벡터촬영정보는, 추가로 카메라(121)에서 피사체까지의 거리인 거리정보, 렌즈화각 정보, 촬영 프레임 크기와 비율정보, 휴대단말기의 사용자 정보(예: 휴대단말기의 시리얼 번호 또는 모델번호, 전화번호 등), 촬영된 이미지의 메타 파일정보 등을 더 포함할 수 있다. 이러한 벡터촬영정보에 포함되는 각 정보들은 모두 특정 촬영시점에 계측된 정보이다. 상기 렌즈화각 정보 그리고 촬영 프레임 크기와 비율정보는 제어부(180)를 통해 검출될 수 있다. 상기 메타 파일정보는 촬영된 이미지 파일의 헤더에 포함되는 정보로서, 상기 촬영 시점의 시간정보, 촬영위치정보, 방위정보 등이 메타 파일로부터 검출될 수 있다. The vector photographing
본 발명에 따른 벡터촬영정보 검출부(300)는 도1에 도시된 바와 같이, 위치 검출부(310), 방위각 검출부(320), 수직기울기 검출부(330), 수평기울기 검출부(340), 및 거리 검출부(350)를 포함하여 구성된다.As shown in FIG. 1, the vector photographing
상기 위치 검출부(310)는 촬영하는 장소의 위치 정보, 즉 카메라(121)의 3차원 위치 정보를 제공하며, 카메라(121)가 위치하는 지점의 경도(longitude), 위도(latitude), 고도(altitude)에 대한 정보를 포함한다.The
상기 위치 검출부(310)는 일반적으로 이용되는 GPS(global positioning system: GPS)에 의한 위치정보 외에도 센서 네트워크를 통한 위치정보, 이동통신을 통한 위치정보 등 다양한 방식을 이용하여 위치정보를 생성한다. GPS신호를 이용하는 경우 위치 검출부(310)는 GPS신호를 수신하고 이를 연산하여 위치정보를 생성하는 GPS 칩을 포함한다. 또는 위치 검출부(310)는 위치연산을 하지 않고 GPS 신호만을 저장하여 PC나 다른 외부장치를 통하여 위치정보를 획득할 수도 있다. 한편, 건물 내에서나 GPS신호가 수신이 원활하지 않은 곳에서는 단말(100)의 위치정보를 획득하기 힘들 수도 있는데, 이러한 경우 단말(100)의 태그 리더기를 이용할 수 있다. 건물 내나 실내의 어느 정해진 지점에 복수의 무선 태그를 설치하고, 그 설치된 태그를 읽는 방식으로 위치정보를 획득할 수 있다. 위치 검출부(310)는 또한, 관성항법 기술을 활용하여 그 위치를 추적할 수 있다.The
상기 방위각 검출부(320)는 도2에 도시된 바와 같이, 카메라(121)의 렌즈 축이 향하는 방위각을 나타내는 방위정보를 획득하며, 방위정보를 획득하기 위해 지자기 센서(방위각 측정센서)를 포함하는 것이 바람직하다. As shown in FIG. 2, the
방위각(α)이란 카메라(121)의 피사체(7)를 향한 렌즈 축이 진북(north)과 이루는 수평각, 즉 카메라(121)에서 촬영대상을 향한 방향이 진북과 이루는 수평각을 의미하며, 진북을 기준으로 시계방향으로 표현된다. 따라서, 방위각(α)은 0~360˚의 범위를 가질 수 있다. 도2는 방위각의 개념을 나타내는 도면이다.The azimuth angle α denotes a horizontal angle formed by the lens axis toward the
상기 수직기울기 검출부(330)는 수직 기울기를 계측하기 위한 것으로, 기울기 센서, 중력 센서, 또는 가속도 센서 등을 포함한다. The vertical
수직 기울기란 도3에 도시된 바와 같이, 벡터촬영정보 생성 장치(100)에서 카메라(121)의 피사체(7)를 향한 렌즈 축이 중력방향과 이루는 각도(β)를 의미한다. 예를 들어, 상공에서 지면에 수직한 방향으로 피사체를 촬영하는 경우 수직 기울기는 O˚이고, 지면에서 수직한 방향으로 상공을 촬영하는 경우 수직 기울기는 180˚이다. 도3은 수직 기울기의 개념을 나타내는 도면이다.As shown in FIG. 3, the vertical tilt refers to an angle β of the lens axis toward the
상기 수평 기울기 검출부(340)는 수평 기울기를 계측하기 위한 것으로, 기울기 센서, 중력 센서, 또는 가속도 센서 등을 포함한다. The horizontal
수평 기울기란 도4에 도시된 바와 같이, 카메라(121)가 촬영한 영상의 수평축이 지평선 방향과 이루는 각도(γ)를 의미한다. 예를 들어, 도4에서 피사체(7)를 촬영 중인 휴대단말기(100)는 시계 반대방향으로 γ˚ 만큼 기울어져 있다. 도4는 수평 기울기의 개념을 나타내는 도면이다.As shown in FIG. 4, the horizontal tilt refers to an angle γ of which the horizontal axis of the image photographed by the
상기 수평기울기와 수직기울기 검출은 3D 중력센서 등 최신센서의 활용으로 수평기울기와 수직기울기 정보(촬영 자세정보) 검출을 하나의 과정으로 처리할 수 있다.The horizontal tilt and vertical tilt detection may process horizontal tilt and vertical tilt information (shooting posture information) as one process by utilizing a modern sensor such as a 3D gravity sensor.
상기 거리 검출부(350)는 도3에 도시된 바와 같이 카메라(121)로부터 피사체까지의 거리(l)를 측정한 촬영거리정보를 제공하며, 피사체까지의 거리를 측정하기 위해 적외선 거리측정 센서, 초음파 거리측정 센서, 및 레이져 거리 측정기 등 다양한 계측기를 이용할 수 있다.As shown in FIG. 3, the
이하, 본 발명에 따른 감리 시스템의 동작방법을 상세히 설명하면 다음과 같다.Hereinafter, the operation method of the supervision system according to the present invention will be described in detail.
본 발명은 단말(100)을 통해 공사현장에서 감리(예: 도면과 실제 시공이 일치하는지를 확인하는 업무 등)가 필요한 피사체(예: 현장의 건축 구조물 등)를 촬영하고, 관리 서버(200)로부터 상기 촬영된 건축물(건축 구조물)에 관한 속성정보들을 다운로드하여 단말화면에 디스플레이 한다. 공사현장의 사용자(예 : 감리자, 공사감독자, 검측원 등)는 상기 촬영된 이미지가 디스플레이되어 있는 단말화면에서, 원하는 객체를 선택(화면터치)하는 것만으로도, 해당 객체의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)을 열람할 수 있다.The present invention photographs a subject (eg, a building structure, etc.) that requires supervision (for example, a task of checking whether drawings and actual construction coincide) at a construction site through the terminal 100, and from the
도5는 본 발명에 따른 감리 시스템의 동작 흐름도이고, 도6은 본 발명에 따른 이미지 촬영을 예시한 도면이다.5 is a flowchart illustrating an operation of a supervision system according to the present invention, and FIG. 6 is a diagram illustrating image capturing according to the present invention.
도5와 도6에 도시된 바와 같이, 본 발명에 따른 사용자(예: 시공 감리자)는 우선, 단말(100)의 카메라(121)를 구동시켜 감리의 대상이 되는 피사체(예: 현장의 건축 구조물 등)들을 촬영하고, 그 피사체의 이미지를 생성한다. (S10)5 and 6, the user (eg, construction supervisor) according to the present invention first drives the
그리고, 단말(100)은 촬영된 피사체(이하, '실사 이미지'라 한다)에 대한 벡터촬영정보를 검출한다. (S20) 단말(100)은 벡터촬영정보로서, 촬영시점의 시간정보, 카메라(121)의 3차원 위치에 대한 촬영위치정보, 카메라(121)의 렌즈 축이 향하는 방위에 대한 방위정보, 카메라(121)의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기 정보, 및 촬영 영상의 수평축이 지평선에 대하여 기울어진 수평 기울기 정보, 그리고, 단말(100)에서 피사체까지의 거리인 거리정보를 검출한다. 또한, 벡터촬영정보로서, 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 검출할 수 있다. In addition, the terminal 100 detects vector photographing information about the photographed subject (hereinafter, referred to as a 'real image'). (S20) The
이후, 단말(100)은 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리 서버(200)측으로 전송한다. (S30)Thereafter, the terminal 100 transmits the photographed photorealistic image and the detected vector photographing information to the
그리고, 관리서버(200)는 일단 단말(100)측으로부터 건축물 또는 건축현장의 실사 이미지와 해당 벡터촬영정보가 수신되면, 수신된 벡터촬영정보를 참조하여 3차원 가상공간 모델링 시스템(이하, 'BIM(Building Information Modeling) 모듈'이라 한다)의 데이터베이스에서, 수신된 벡터촬영정보에 대응되는 건축현장의 건축물들을 검출한다. (S40)The
관리서버(200)는 우선, 상기 벡터촬영정보에 포함된 촬영위치정보와 방위정보, 그리고 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 어느 지역에 소재하는 건축현장인지 그리고 그 건축현장 건축물에서 몇 층 몇 호의 작업물(3차원 모델)인지 등을 검출한다. 그리고, 상기 단말 카메라(121)의 3차원 좌표를 검출한다.The
관리서버(200)는 또한, 상기 벡터촬영정보에 포함된 수직기울기 정보, 수평기울기 정보, 거리정보, 상기 단말 카메라의 3차원 좌표를 참조하여, 상기 단말측(100)으로부터 수신한 실사 이미지와 동일한 모델링 이미지를 추출한다. 본 과정을 통해, 본 발명은 실사 이미지와 동일한 촬영 거리 및 수평, 수직 뷰 포인트(view) 앵글을 갖는 모델링 이미지를 추출한다. 이때, 추출된 모델링 이미지는 2차원의 이미지가 될 것이다.The
그리고, 상기 실사 이미지 상의 각 객체(예: 창틀, 문, 문위의 조각 창틀 등)와 추출된 모델링 이미지 상의 객체들을 각각 매칭시켜 매칭정보를 생성한다. 이때, 매칭정보는 모델링 이미지 상 객체들의 좌표값을 실사 이미지 상 객체들(예: 창틀, 문, 문위의 조각 창틀 등)의 좌표값에 매치시킨 것이다.Then, matching information is generated by matching each object (eg, a window frame, a door, a fragment window frame on the door, etc.) on the live image with the objects on the extracted modeling image. In this case, the matching information is to match the coordinates of the objects on the modeling image with the coordinates of the objects (eg, window frame, door, carved window frame on the door) on the actual image.
상기 생성된 매칭정보가 단말측(100)에 전달되면, 단말(100)은 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여, 실사 이미지 상의 각 객체들(예: 창틀, 문, 문위의 조각 창틀 등)이 시각적으로 구분될 수 있도록 외곽선이 와이어프레임으로 강조되는 방법 등을 사용하여 활성화되도록 한다. 실사 이미지 상의 각 객체들(예: 창틀, 문, 문위의 조각 창틀 등)이 활성화되면, 화면상에서 사용자가 객체를 선택(터치)하는 것만으로, 해당 객체의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)은 도8에 도시된 바와 같이 단말화면에 디스플레이 된다. When the generated matching information is transmitted to the
작은 규모의 공사현장(소규모 건축 프로젝트)의 경우, 상기 검출과정(S40)에서 간단하게 하나의 일치된 결과물이 검색되겠지만, BIM(Building Information Modeling)을 채용하는 건설/건축 프로젝트는 대개, 대규모의 대형 건축 프로젝트로서, 단말(100)에서 제공되는 벡터촬영정보를 대입하였을 때 적어도 둘 이상의 다수 개의 유사 결과물들이 서치(search)된다.In the case of a small construction site (small construction project), a single matched result may be easily retrieved in the detection process (S40), but a construction / building project employing BIM (Building Information Modeling) is usually large and large. As an architectural project, when the vector photographing information provided from the terminal 100 is substituted, at least two or more similar results are searched.
이와 같이 다수 개의 유사 결과물들이 서치(search)되는 경우, 관리서버(200)는 일단, 상기 검출된 서치 결과(예: 3차원 모델들)를 단말측(100)에 제공하여, 사용자가 서치(search)된 결과물들 중 하나를 선택하도록 한다. (S50) 이때, 관리서버(200)는 전송되는 데이터 용량을 최소화하기 위해 상기 결과물들의 식별값만을 전송한다.When a plurality of similar results are searched as described above, the
상기 결과물들의 식별값들이 관리서버(200)로부터 수신되면, 단말(100)은 수신된 식별값들을 화면에 표시하고, 사용자의 선택을 기다린다. (S60) 이후, 사용자가 해당 공사현장의 식별값(예: S3-A014-106D6F603)을 선택하면, 단말(100)은 상기 공사현장(S3-A014-106D6F603)의 전체 속성값을 관리서버(200) 측에 요청한다. (S70 ~ S80)When the identification values of the results are received from the
관리서버(100)는 단말(100)로부터 공사현장(S3-A014-106D6F603, 3차원 모델)의 전체 속성값을 요청하는 메시지가 수신되면, 이미 설명한 바와 같이, 상기 단말측(100) 으로부터 기 수신한 벡터촬영정보를 참조하여 BIM 모듈의 데이터베이스에서, 해당 실사 이미지에 대응되는 모델링 이미지를 추출한다. 그리고, 상기 실사 이미지 상의 각 객체(예: 창틀, 문, 문위의 조각창틀 등)와 추출된 모델링 이미지 상의 객체들을 각각 매칭시키는 매칭정보를 생성한다.If the
관리서버(100)는 단말이 요청한 상기 공사현장(S3-A014-106D6F603)의 전체 속성값을 상기 매칭정보와 함께 단말(100)로 전송한다. (S90)The
상기 전체 속성값과 매칭정보를 수신한 단말(100)은 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들(예: 창틀, 문, 문위의 조각 창틀 등)이 활성화되도록 하고, 도7에 도시된 바와 같이 화면에 디스플레이 한다. (S100) 도7은 본 발명에 따라 매칭정보를 결합한 실사 이미지와 사용자의 터치입력을 나타낸 동작 예시도이다.The terminal 100 receiving the entire attribute value and the matching information combines the transmitted matching information with the live image to activate each object (eg, a window frame, a door, a carved window frame on the door) on the live image. , As shown in FIG. 7. (S100) FIG. 7 is a diagram illustrating an operation showing a live action image combining matching information and a user's touch input according to the present invention.
단말(100)은 실사 이미지 상의 활성화된 객체들을 터치하는 사용자 입력이 감지되었을 때, 도8에 도시된 바와 같이 해당 객체(예: 창틀(S3-A014-106D6F603-0711))의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)을 단말화면에 디스플레이 한다. 도8은 사용자의 터치에 따라 객체의 속성값을 디스플레이 하는 본 발명의 동작 예시도이다. 도8의 b)는 창틀(S3-A014-106D6F603-0711))의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등) 중, 제조정보가 선택되었을 때, 해당 제조정보의 속성값 테이블을 디스플레이 한 것이다.When the
상기 공사현장 식별값(S3-A014-106D6F603)을 설명하면, 상기 S3는 지역명(예: 서울의 3지역(예: 서초동))에 해당하고, 상기 A014는 3지역의 건축현장(예: 아파트 공사 014지구)에 해당하고, 상기 106D6F603는 014지구 아파트의 106동 6층 603호를 의미한다. 상기 식별값 S3-A014-106D6F603-0711은 서울 서초동(3지역)에 소재한 014지구 아파트 공사현장의 106동 6층 603호에서 작업 중인 창틀을 의미한다.When explaining the construction site identification value (S3-A014-106D6F603), the S3 corresponds to the name of the region (for example, three areas of Seoul (eg, Seocho-dong)), and the A014 is an architectural site (for example, an apartment in three areas). Construction 014 district), and 106D6F603 means 106, 6th floor, 603 of apartment 014 district. The identification value S3-A014-106D6F603-0711 refers to a window frame in operation at 603, 6th floor, 106-dong, in the construction site of apartment 014 in Seocho-dong, Seoul, Korea.
본 발명은, 사용자(예: 시공 감리자)가 공사현장(예: 서울 서초동(3지역)에 소재한 014지구 아파트 공사현장의 106동 6층 603호)에서, 자신의 단말기(100)로 공사현장을 촬영하면, 본 발명에 따른 3차원 가상공간 모델링 시스템(관리서버 (200))과 단말(100)간의 상호 연동절차(S20~S90)를 수행하고, 사용자가 화면 상의 객체를 선택(터치)하는 것만으로, 해당 객체의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)을 볼 수 있도록 한다.According to the present invention, a user (for example, a construction supervisor) uses a terminal 100 to construct a construction site at his / her
이상, 본 발명에 따른 제어부(180)와 3차원 가상공간 모델링 시스템은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 그리고 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. As described above, the
상기 컴퓨터가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 상기 컴퓨터는 상기 제어부(180)와 3차원 가상공간 모델링 시스템을 포함할 수도 있다.Examples of the computer-readable medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) . The computer may include the
이상의 본 발명의 예시는 휴대단말기(100)이 스마트 폰(smart phone)인 것으로 가정하고 설명한 것이다. 휴대단말기(100)이 만일, 테블릿 컴퓨터나 노트북 컴퓨터(notebook computer)와 같이, 저장과 cpu측 자원이 충분한 단말인 경우, BIM 시스템을 내장하여 원격지의 관리 서버(200)에 접속하지 않고도 휴대단말기(100, 예: 테블릿 컴퓨터나 노트북 컴퓨터) 자체적으로 상기 관리 서버(200)의 기능과 동작을 대체할 수 있다.Examples of the present invention have been described assuming that the
본 발명은 도면에 도시된 실시 예(들)를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형이 이루어질 수 있으며, 상기 설명된 실시예(들)의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, May be constructed by selectively or in combination. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
이상 기술된 바와 같이, 본 발명에 따른 공사현장 감리 시스템은 사용자가 공사현장을 촬영하면, 촬영된 이미지의 벡터촬영정보(예: 위치정보, 방위정보, 수직기울기 정보, 수평기울기 정보, 및 거리정보)를 검출하여 원격지의 관리서버에 저장된 해당 공사현장의 3차원 가상공간 모델에 연동되도록 하였다. 본 발명에 따른 사용자는 공사현장에서, 간단한 화면 터치만으로 상기 촬영된 이미지 상의 각 객체들의 속성값을 열람할 수 있다.As described above, the construction site supervision system according to the present invention, when the user photographs the construction site, the vector shooting information (eg, location information, orientation information, vertical tilt information, horizontal tilt information, and distance information) of the photographed image ) Is linked to the 3D virtual space model of the construction site stored in the remote management server. The user according to the present invention can view the attribute values of each object on the photographed image with a simple screen touch at the construction site.
본 발명은, 사용자가 공사현장을 촬영하고 촬영된 이미지를 터치하는 것만으로 간단히 화면 상 각 객체들의 속성값을 열람할 수 있도록 함으로써, 공사현장의 건축현황을 보다 쉽게 관리 감독할 수 있도록 하였으며, 특히 공사현장을 감리하는 사용자에게 공사현장에 관한 별다른 사전 준비없이 휴대단말기 하나만으로도 쉽게 감리업무를 수행할 수 있도록 하였다. The present invention enables the user to easily view the property values of each object on the screen by simply photographing the construction site and touching the photographed image, so that the construction status of the construction site can be more easily managed and supervised. Users who supervise the construction site can easily perform the supervision work with just one mobile terminal without any preparation for the construction site.
또한, 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 거대한 빌딩이나 구조물을 기획하는 프로젝트에서 감리업무는 작업 전에 매우 복잡하고 다양한 정보를 준비해야 하는 등의 사전작업이 필요하지만, 본 발명에 따른 공사현장 감리 시스템과 휴대단말을 이용함으로써, 보다 편리하고 간단하게 감리업무를 수행할 수 있을 것을 기대된다.In addition, in a project for planning a huge building or structure that is under construction using a three-dimensional virtual space modeling system, the supervision work requires prior work, such as preparing a very complex and diverse information before work, By using a construction site supervision system and a mobile terminal, it is expected that the supervision work can be performed more conveniently and simply.
100 : 휴대단말기
110 : 무선통신부 120 : AV입력부
130 : 사용자 입력부 140 : 센싱부
150 : 출력부 160 : 메모리
170 : 인터페이스부 180 : 제어부
190 : 전원공급부 200 : 관리 서버
300 : 벡터촬영정보 검출부 310 : 위치 검출부
320 : 방위 검출부 330 : 수직 기울기 검출부
340 : 수평 기울기 검출부 350 : 거리 검출부100: mobile terminal
110: wireless communication unit 120: AV input unit
130: user input unit 140: sensing unit
150: output unit 160: memory
170: interface unit 180: control unit
190: power supply 200: management server
300: vector shooting information detection unit 310: position detection unit
320: orientation detection unit 330: vertical tilt detection unit
340: horizontal tilt detection unit 350: distance detection unit
Claims (11)
단말(100)의 카메라를 통해 공사현장의 실사 이미지를 촬영하는 과정과;
촬영된 공사현장의 벡터촬영정보를 검출하는 과정과;
상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버(200)측으로 전송하는 과정과;
상기 관리서버(200)가 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하고 검출된 3차원 모델에서 각각의 개별 객체들을 검출하는 과정과;
상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 과정과;
상기 검출된 3차원 모델의 개별객체들의 속성정보와 매칭정보를 단말(100)측에 전달하는 과정과;
단말(100)이 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 터치 가능하도록 활성화시키는 과정과;
각 객체들이 활성화된 실사 이미지를 단말화면에 출력한 후 객체들을 터치하는 단말(100) 사용자의 입력이 감지되면, 해당 객체의 속성정보와 속성값 테이블을 공사현장의 감리정보로서 디스플레이하는 과정을 포함하여 이루어지며,
상기 단말(100)은
내장 카메라를 통해 공사현장의 실사 이미지를 촬영하는 카메라부(121)와;
촬영된 공사현장의 벡터촬영정보를 검출하는 벡터촬영정보 검출부(300)와;
제어부(180)의 제어에 따라 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버(200)측으로 전송하는 무선통신부(110)와;
상기 관리서버(200)로부터, 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키는 제어부(180)와;
각 객체들이 활성화된 실사 이미지를 단말화면에 출력하는 디스플레이부 (151)를 포함하여 구성되며,
상기 제어부(180)는 상기 단말화면의 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보와 속성값 테이블을 공사현장의 감리정보로서 디스플레이하는 것을 특징으로 하는 공사현장 감리방법.In the method of supervising the construction site that uses the three-dimensional virtual space modeling system,
Photographing a live-action image of a construction site through a camera of the terminal 100;
Detecting vector photographing information of the photographed construction site;
Transmitting the photographed live image and the detected vector photographing information to a management server 200;
Detecting, by the management server (200), a three-dimensional model that matches the vector photographing information in a database of a three-dimensional virtual space modeling system and detecting individual objects in the detected three-dimensional model;
Generating matching information by matching respective objects on the live image with individual objects of the 3D model;
Transmitting attribute information and matching information of individual objects of the detected 3D model to the terminal (100);
Activating, by the terminal (100), the objects on the live image to be touchable by combining the transmitted matching information with the live image;
And displaying the attribute information and the attribute value table of the object as supervision information of the construction site when the input of the user of the terminal 100 touching the objects is detected after outputting the live image of each object activated on the terminal screen. Is done by
The terminal 100
A camera unit 121 for shooting a live-action image of a construction site through a built-in camera;
A vector shooting information detection unit 300 for detecting vector shooting information of the photographed construction site;
A wireless communication unit 110 for transmitting the photographed photorealistic image and the detected vector photographing information to a management server 200 under the control of the controller 180;
A control unit 180 for activating each object on the live image by combining the transmitted matching information with the live image when the attribute value and matching information of the 3D model are received from the management server 200;
It is configured to include a display unit 151 for outputting the live-action image activated by each object on the terminal screen,
The control unit 180, if a user input for touching the objects of the terminal screen is detected, supervision method for the construction site, characterized in that to display the attribute information and the attribute value table of the object as the construction site supervision information.
위치 검출부(310)에서, 단말(100)의 촬영지점 위치를 검출하는 과정과;
방위각 검출부(320)에서, 카메라(121)가 지향하는 방위각을 검출하는 과정과;
수직기울기 검출부(330)에서, 카메라(121)의 수직 기울기 각도를 검출하는 과정과;
수평기울기 검출부(340)에서, 카메라(121)의 수평 기울기 각도를 검출하는 과정을 포함하여 이루어지는 것을 특징으로 하는 공사현장 감리방법.The method of claim 1, wherein the detecting process of the vector shooting information is performed.
Detecting, by the position detection unit 310, a location of a photographing point of the terminal 100;
Detecting, in the azimuth detection unit 320, the azimuth angle directed by the camera 121;
Detecting, at the vertical tilt detector 330, the vertical tilt angle of the camera 121;
Construction site supervision method comprising the step of detecting the horizontal tilt angle of the camera 121 in the horizontal tilt detection unit (340).
3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하는 과정과;
상기 벡터촬영정보에 포함된 촬영위치정보, 방위정보, 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 상기 3차원 모델에서 상기 단말 카메라의 3차원 좌표를 검출하는 과정과;
상기 벡터촬영정보에 포함된 수직기울기 정보, 수평기울기 정보 그리고 상기 단말 카메라의 3차원 좌표를 참조하여, 상기 실사 이미지와 동일한 모델링 이미지를 추출하는 과정과;
상기 추출된 모델링 이미지에서 각각의 개별 객체들을 검출하는 과정으로 이루어지는 것을 특징으로 하는 공사현장 감리방법.The method of claim 1, wherein the detecting of each individual object in the three-dimensional model comprises:
Detecting a 3D model matching the vector photographing information from a database of a 3D virtual space modeling system;
Detecting three-dimensional coordinates of the terminal camera in the three-dimensional model by referring to the shooting position information, the orientation information, the lens angle information, and the shooting frame size and ratio information included in the vector shooting information;
Extracting the same modeling image as the live image by referring to the vertical gradient information, the horizontal gradient information, and the 3D coordinates of the terminal camera included in the vector photographing information;
Construction site supervision method comprising the step of detecting each individual object in the extracted modeling image.
단말(100)의 카메라를 통해 공사현장의 실사 이미지를 촬영하는 카메라부(121)와;
촬영된 공사현장의 벡터촬영정보를 검출하는 벡터촬영정보 검출부(300)와;
제어부(180)의 제어에 따라 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버(200)측으로 전송하는 무선통신부(110)와;
상기 관리서버(200)로부터, 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 터치 가능하도록 활성화시키는 제어부(180)와;
각 객체들이 활성화된 실사 이미지를 단말화면에 출력하는 디스플레이부(151)를 포함하여 구성되며,
상기 제어부(180)는 상기 단말화면의 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보와 속성값 테이블을 공사현장의 감리정보로서 디스플레이하며,
상기 관리서버(200)는,
단말(100)로부터 상기 촬영된 실사 이미지와 검출된 벡터촬영정보가 수신되면, 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델과 3차원 모델 상의 각 개별 객체들을 검출하고,
상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 것을 특징으로 하는 공사현장 감리를 위한 휴대단말기.In the mobile terminal 100 used for supervising the construction site in the construction site that proceeds using the three-dimensional virtual space modeling system,
A camera unit 121 for photographing a live-action image of a construction site through a camera of the terminal 100;
A vector shooting information detection unit 300 for detecting vector shooting information of the photographed construction site;
A wireless communication unit 110 for transmitting the photographed photorealistic image and the detected vector photographing information to a management server 200 under the control of the controller 180;
A controller 180 for activating each object on the live image to be touchable by combining the transmitted matching information with the live image, when the attribute value and matching information of the 3D model are received from the management server 200;
It is configured to include a display unit 151 for outputting the live-action image activated by each object on the terminal screen,
The controller 180 displays the attribute information and the attribute value table of the object as supervision information of the construction site when a user input of touching the objects on the terminal screen is detected.
The management server (200)
When the photographed photorealistic image and the detected vector photographing information are received from the terminal 100, the 3D model and the individual objects on the 3D model that match the vector photographing information are detected in a database of a 3D virtual space modeling system. ,
The mobile terminal for construction site supervision, characterized in that for generating matching information by matching each object on the live-action image and the individual objects of the three-dimensional model.
3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하는 과정과;
상기 벡터촬영정보에 포함된 촬영위치정보, 방위정보, 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 상기 3차원 모델에서 상기 단말 카메라의 3차원 좌표를 검출하는 과정과;
상기 벡터촬영정보에 포함된 수직기울기 정보, 수평기울기 정보 그리고 상기 단말 카메라의 3차원 좌표를 참조하여, 상기 실사 이미지와 동일한 모델링 이미지를 추출하는 과정과;
상기 추출된 모델링 이미지에서 각각의 개별 객체들을 검출하는 과정을 수행하는 것을 특징으로 하는 공사현장 감리를 위한 휴대단말기.The method of claim 4, wherein in the process of detecting each individual object in the 3D model, the management server 200,
Detecting a 3D model matching the vector photographing information from a database of a 3D virtual space modeling system;
Detecting three-dimensional coordinates of the terminal camera in the three-dimensional model by referring to the shooting position information, the orientation information, the lens angle information, and the shooting frame size and ratio information included in the vector shooting information;
Extracting the same modeling image as the live image by referring to the vertical gradient information, the horizontal gradient information, and the 3D coordinates of the terminal camera included in the vector photographing information;
And a process of detecting each individual object from the extracted modeling image.
단말(100)의 촬영지점 위치를 검출하는 위치 검출부(310)와;
카메라(121)가 지향하는 방위각을 검출하는 방위각 검출부(320)와;
카메라(121)의 수직 기울기 각도를 검출하는 수직기울기 검출부(330)와;
카메라(121)의 수평 기울기 각도를 검출하는 수평기울기 검출부(340)를 포함하여 구성되는 것을 특징으로 하는 공사현장 감리를 위한 휴대단말기.The method of claim 4, wherein the vector shooting information detector 300
A position detector 310 for detecting a position of a photographing point of the terminal 100;
An azimuth detector 320 for detecting an azimuth angle directed by the camera 121;
A vertical tilt detector 330 for detecting a vertical tilt angle of the camera 121;
Mobile terminal for construction site supervision comprising a horizontal tilt detection unit for detecting the horizontal tilt angle of the camera (121).
공사현장의 실사 이미지를 촬영하고, 촬영된 공사현장의 벡터촬영정보를 검출하는 휴대단말기(100)와;
휴대단말기(100)로부터 상기 촬영된 실사 이미지와 검출된 벡터촬영정보가 수신되면, 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하고 검출된 3차원 모델에서 각각의 개별 객체들을 검출하고 상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 관리서버(200)를 포함하여 구성되며,
상기 휴대단말기(100)는
관리서버(200)로부터 상기 검출된 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 터치 가능하도록 활성화시키고 각 객체들이 활성화된 실사 이미지를 단말화면에 출력한 후 객체들을 터치하는 단말(100) 사용자의 입력이 감지되면, 해당 객체의 속성정보와 속성값 테이블을 공사현장의 감리정보로서 디스플레이하며,
상기 휴대단말기(100)는
내장 카메라를 통해 공사현장의 실사 이미지를 촬영하는 카메라부(121)와;
촬영된 공사현장의 벡터촬영정보를 검출하는 벡터촬영정보 검출부(300)와;
제어부(180)의 제어에 따라 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버(200)측으로 전송하는 무선통신부(110)와;
상기 관리서버(200)로부터, 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키는 제어부(180)와;
각 객체들이 활성화된 실사 이미지를 단말화면에 출력하는 디스플레이부 (151)를 포함하여 구성되며,
상기 제어부(180)는 상기 단말화면의 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이하는 것을 특징으로 하는 공사현장 감리 시스템.In the construction site supervision system provided to the construction site using a three-dimensional virtual space modeling system,
A mobile terminal 100 for photographing a live-action image of a construction site and detecting vector photographing information of the photographed construction site;
When the photographed live image and the detected vector photographing information are received from the mobile terminal 100, a 3D model matching the vector photographing information is detected in a database of a 3D virtual space modeling system, and each of the detected 3D models is detected. And a management server 200 for detecting individual objects of the object and matching each object on the photorealistic image with individual objects of the 3D model to generate matching information.
The mobile terminal 100
When the attribute value of the detected 3D model and matching information are received from the management server 200, the transmitted matching information is combined with the live image to activate each object on the live image to be touchable, and each object is activated. After outputting the live-action image on the terminal screen and detecting the input of the user of the terminal 100 touching the objects, the attribute information and attribute value table of the object are displayed as supervision information of the construction site,
The mobile terminal 100
A camera unit 121 for shooting a live-action image of a construction site through a built-in camera;
A vector shooting information detection unit 300 for detecting vector shooting information of the photographed construction site;
A wireless communication unit 110 for transmitting the photographed photorealistic image and the detected vector photographing information to a management server 200 under the control of the controller 180;
A control unit 180 for activating each object on the live image by combining the transmitted matching information with the live image when the attribute value and matching information of the 3D model are received from the management server 200;
It is configured to include a display unit 151 for outputting the live-action image activated by each object on the terminal screen,
The control unit 180, if a user input for touching the object of the terminal screen is detected, supervised construction site, characterized in that for displaying the attribute information of the object.
단말(100)의 촬영지점 위치를 검출하는 위치 검출부(310)와;
카메라(121)가 지향하는 방위각을 검출하는 방위각 검출부(320)와;
카메라(121)의 수직 기울기 각도를 검출하는 수직기울기 검출부(330)와;
카메라(121)의 수평 기울기 각도를 검출하는 수평기울기 검출부(340)와;
상기 단말(100)과 피사체까지의 거리를 검출하는 거리 검출부(350)를 포함하여 구성되는 것을 특징으로 하는 공사현장 감리 시스템.The method of claim 8, wherein the vector shooting information detector 300
A position detector 310 for detecting a position of a photographing point of the terminal 100;
An azimuth detector 320 for detecting an azimuth angle directed by the camera 121;
A vertical tilt detector 330 for detecting a vertical tilt angle of the camera 121;
A horizontal tilt detector 340 for detecting a horizontal tilt angle of the camera 121;
Construction site supervision system, characterized in that it comprises a distance detector for detecting the distance between the terminal (100) and the subject.
상기 3차원 모델에서 각각의 개별 객체들을 검출하기 위해, 상기 벡터촬영정보에 포함된 촬영위치정보, 방위정보, 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 상기 3차원 모델에서 상기 단말 카메라의 3차원 좌표를 검출하고,
상기 벡터촬영정보에 포함된 수직기울기 정보, 수평기울기 정보 그리고 상기 단말 카메라의 3차원 좌표를 참조하여, 상기 실사 이미지와 동일한 모델링 이미지를 추출하고,
상기 추출된 모델링 이미지에서 각각의 개별 객체들을 검출하는 것을 특징으로 하는 공사현장 감리 시스템.The method of claim 8, wherein the management server 200
In order to detect each individual object in the three-dimensional model, the terminal camera in the three-dimensional model with reference to the shooting position information, orientation information, lens angle information, shooting frame size and ratio information included in the vector shooting information Detect the three-dimensional coordinates of,
The same modeling image as the real image is extracted by referring to the vertical tilt information, the horizontal tilt information, and the three-dimensional coordinates of the terminal camera included in the vector photographing information.
Construction site supervision system, characterized in that for detecting each individual object in the extracted modeling image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130078864A KR101354688B1 (en) | 2013-07-05 | 2013-07-05 | System and method for supervision of construction site |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130078864A KR101354688B1 (en) | 2013-07-05 | 2013-07-05 | System and method for supervision of construction site |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101354688B1 true KR101354688B1 (en) | 2014-01-27 |
Family
ID=50146264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130078864A KR101354688B1 (en) | 2013-07-05 | 2013-07-05 | System and method for supervision of construction site |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101354688B1 (en) |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101482380B1 (en) | 2013-02-28 | 2015-01-14 | 한국남부발전 주식회사 | System for construction information creation and method for construction information creation using the same |
KR101583723B1 (en) * | 2015-01-16 | 2016-01-08 | 단국대학교 산학협력단 | Interactive synchronizing system of BIM digital model and Real construction site |
KR101595243B1 (en) * | 2015-05-04 | 2016-02-19 | 주식회사 두올테크 | Automatic modeling system for facility in field based building information modeling and method thereof |
KR20160118899A (en) * | 2015-04-03 | 2016-10-12 | 주식회사 씨엠엑스건축사사무소 | Method, appratus and computer-readable recording medium for supporting field survey regarding building |
EP3223221A1 (en) * | 2016-03-22 | 2017-09-27 | Hexagon Technology Center GmbH | Construction management |
WO2017176502A1 (en) * | 2016-04-05 | 2017-10-12 | Lynch & Associates - Engineering Consultants, LLC | Electronic project management system |
KR101798097B1 (en) * | 2016-08-16 | 2017-11-16 | 김영대 | Method for integrated management including building construction and maintenance of based on video |
KR101844726B1 (en) * | 2017-12-11 | 2018-04-02 | 이태영 | Drone for construction suprvision and the method of supervision using the same |
KR101844718B1 (en) | 2017-08-31 | 2018-04-02 | 김용옥 | Mobile terminal for construction supervision |
KR101844533B1 (en) * | 2016-04-22 | 2018-04-03 | 한국토지주택공사 | Construction Monitering System for monitering progress of construction and Method thereof |
KR101914386B1 (en) * | 2017-08-31 | 2018-11-01 | 김용옥 | Mobile terminal for construction supervision |
KR101933652B1 (en) * | 2017-03-23 | 2018-12-28 | 신승연 | Indoor location based intelligent photo generation method and system |
KR20190002834A (en) * | 2017-06-30 | 2019-01-09 | 강동민 | Home styling server and a system comprising the same, and a method for processing image for the home styling |
KR101958635B1 (en) * | 2018-09-13 | 2019-04-04 | 반석기초이앤씨(주) | Mobile application system using reinforced coupler and management method of supervision of reinforcing steel construction using it |
CN109754143A (en) * | 2017-11-08 | 2019-05-14 | 上海宝冶集团有限公司 | Method based on unmanned plane and Building Information Model management engineering place |
KR101988356B1 (en) * | 2018-03-30 | 2019-09-30 | (주)대우건설 | Smart field management system through 3d digitization of construction site and analysis of virtual construction image |
KR102033570B1 (en) * | 2019-07-16 | 2019-10-17 | 한국교통대학교산학협력단 | A Camera System For Remote Safety Management of Construction Site |
KR102039334B1 (en) | 2019-04-25 | 2019-11-27 | 김용진 | A Remote Safety Management System for Construction Site |
CN110546703A (en) * | 2017-02-22 | 2019-12-06 | 米德查特有限责任公司 | Improved building model with as built features and capture of experience data |
KR20200015963A (en) | 2018-08-06 | 2020-02-14 | 현대건설주식회사 | Automatic Indoor Costruction progress inspection system and methodology using 360 degree Camera |
KR102128696B1 (en) | 2020-02-13 | 2020-06-30 | (주)한국전산감리원 | Driving method for construction site supervision and security sysgem |
KR102148367B1 (en) | 2020-02-13 | 2020-08-26 | (주)한국전산감리원 | Construction site supervision and security sysgem |
US10760991B2 (en) | 2017-02-22 | 2020-09-01 | Middle Chart, LLC | Hierarchical actions based upon monitored building conditions |
US10762251B2 (en) | 2017-02-22 | 2020-09-01 | Middle Chart, LLC | System for conducting a service call with orienteering |
US10776529B2 (en) | 2017-02-22 | 2020-09-15 | Middle Chart, LLC | Method and apparatus for enhanced automated wireless orienteering |
US10824774B2 (en) | 2019-01-17 | 2020-11-03 | Middle Chart, LLC | Methods and apparatus for healthcare facility optimization |
US10831945B2 (en) | 2017-02-22 | 2020-11-10 | Middle Chart, LLC | Apparatus for operation of connected infrastructure |
US10872179B2 (en) | 2017-02-22 | 2020-12-22 | Middle Chart, LLC | Method and apparatus for automated site augmentation |
KR102201614B1 (en) | 2020-08-07 | 2021-01-12 | (주)한국전산감리원 | Construction site supervision and security system |
US10902160B2 (en) | 2017-02-22 | 2021-01-26 | Middle Chart, LLC | Cold storage environmental control and product tracking |
US10949579B2 (en) | 2017-02-22 | 2021-03-16 | Middle Chart, LLC | Method and apparatus for enhanced position and orientation determination |
KR102232181B1 (en) | 2021-01-04 | 2021-03-25 | (주)케이씨에이 | Construction site supervision and security system |
US11010501B2 (en) | 2017-02-22 | 2021-05-18 | Middle Chart, LLC | Monitoring users and conditions in a structure |
WO2021132907A1 (en) * | 2019-12-24 | 2021-07-01 | 주식회사 동우 이앤씨 | System for supervising construction of structure by using tower crane and method therefor |
US11054335B2 (en) | 2017-02-22 | 2021-07-06 | Middle Chart, LLC | Method and apparatus for augmented virtual models and orienteering |
US11120172B2 (en) | 2017-02-22 | 2021-09-14 | Middle Chart, LLC | Apparatus for determining an item of equipment in a direction of interest |
US11188686B2 (en) | 2017-02-22 | 2021-11-30 | Middle Chart, LLC | Method and apparatus for holographic display based upon position and direction |
KR102354181B1 (en) * | 2020-12-31 | 2022-01-21 | 주식회사 나인티나인 | A construction information management system for visualising data and a method for controlling the same |
KR102366840B1 (en) | 2021-02-08 | 2022-02-24 | (주)아이언박스 | methods for detecting construction objects based on artificial intelligence and cloud platform system for providing construction supervision service and system thereof |
US11468209B2 (en) | 2017-02-22 | 2022-10-11 | Middle Chart, LLC | Method and apparatus for display of digital content associated with a location in a wireless communications area |
US11475177B2 (en) | 2017-02-22 | 2022-10-18 | Middle Chart, LLC | Method and apparatus for improved position and orientation based information display |
US11481527B2 (en) | 2017-02-22 | 2022-10-25 | Middle Chart, LLC | Apparatus for displaying information about an item of equipment in a direction of interest |
US11593536B2 (en) | 2019-01-17 | 2023-02-28 | Middle Chart, LLC | Methods and apparatus for communicating geolocated data |
US11625510B2 (en) | 2017-02-22 | 2023-04-11 | Middle Chart, LLC | Method and apparatus for presentation of digital content |
KR102550090B1 (en) * | 2023-02-14 | 2023-06-30 | (주)정상티이씨 | Supervising System |
CN116703127A (en) * | 2023-08-03 | 2023-09-05 | 山东青建智慧建筑科技有限公司 | Building construction supervision method and system based on BIM |
US11900022B2 (en) | 2017-02-22 | 2024-02-13 | Middle Chart, LLC | Apparatus for determining a position relative to a reference transceiver |
US11900021B2 (en) | 2017-02-22 | 2024-02-13 | Middle Chart, LLC | Provision of digital content via a wearable eye covering |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11266487A (en) * | 1998-03-18 | 1999-09-28 | Toshiba Corp | Intelligent remote supervisory system and recording medium |
KR20110000843A (en) * | 2009-06-29 | 2011-01-06 | 주식회사 아이디폰 | System for scene mornitoring using mobile terminal and method therefore |
KR20120137739A (en) * | 2011-06-13 | 2012-12-24 | 연세대학교 산학협력단 | Location-based construction project management method and system |
KR101195446B1 (en) * | 2012-01-26 | 2012-12-24 | 이에스이 주식회사 | A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same |
-
2013
- 2013-07-05 KR KR1020130078864A patent/KR101354688B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11266487A (en) * | 1998-03-18 | 1999-09-28 | Toshiba Corp | Intelligent remote supervisory system and recording medium |
KR20110000843A (en) * | 2009-06-29 | 2011-01-06 | 주식회사 아이디폰 | System for scene mornitoring using mobile terminal and method therefore |
KR20120137739A (en) * | 2011-06-13 | 2012-12-24 | 연세대학교 산학협력단 | Location-based construction project management method and system |
KR101195446B1 (en) * | 2012-01-26 | 2012-12-24 | 이에스이 주식회사 | A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same |
Cited By (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101482380B1 (en) | 2013-02-28 | 2015-01-14 | 한국남부발전 주식회사 | System for construction information creation and method for construction information creation using the same |
KR101583723B1 (en) * | 2015-01-16 | 2016-01-08 | 단국대학교 산학협력단 | Interactive synchronizing system of BIM digital model and Real construction site |
KR101671235B1 (en) * | 2015-04-03 | 2016-11-01 | 주식회사 씨엠엑스건축사사무소 | Method, appratus and computer-readable recording medium for supporting field survey regarding building |
KR20160118899A (en) * | 2015-04-03 | 2016-10-12 | 주식회사 씨엠엑스건축사사무소 | Method, appratus and computer-readable recording medium for supporting field survey regarding building |
CN107636239A (en) * | 2015-05-04 | 2018-01-26 | Doall科技株式会社 | Field type facility automation modeling system and method based on BIM |
WO2016178453A1 (en) * | 2015-05-04 | 2016-11-10 | 주식회사 두올테크 | Bim-based on-site facility automation modeling system and method |
KR101595243B1 (en) * | 2015-05-04 | 2016-02-19 | 주식회사 두올테크 | Automatic modeling system for facility in field based building information modeling and method thereof |
EP3223221A1 (en) * | 2016-03-22 | 2017-09-27 | Hexagon Technology Center GmbH | Construction management |
US10664781B2 (en) | 2016-03-22 | 2020-05-26 | Hexagon Technology Center Gmbh | Construction management system and method for linking data to a building information model |
WO2017176502A1 (en) * | 2016-04-05 | 2017-10-12 | Lynch & Associates - Engineering Consultants, LLC | Electronic project management system |
KR101844533B1 (en) * | 2016-04-22 | 2018-04-03 | 한국토지주택공사 | Construction Monitering System for monitering progress of construction and Method thereof |
KR101798097B1 (en) * | 2016-08-16 | 2017-11-16 | 김영대 | Method for integrated management including building construction and maintenance of based on video |
CN109716381A (en) * | 2016-08-16 | 2019-05-03 | 金英大 | Construction and maintenance incorporated management method based on video |
WO2018034470A1 (en) * | 2016-08-16 | 2018-02-22 | 대성산업 주식회사 | Video-based integrated management method for building construction and maintenance |
US11354759B2 (en) | 2016-08-16 | 2022-06-07 | Young Tae Kim | Method for integrated management including building construction and maintenance of based on video |
CN110546703A (en) * | 2017-02-22 | 2019-12-06 | 米德查特有限责任公司 | Improved building model with as built features and capture of experience data |
US10760991B2 (en) | 2017-02-22 | 2020-09-01 | Middle Chart, LLC | Hierarchical actions based upon monitored building conditions |
US11625510B2 (en) | 2017-02-22 | 2023-04-11 | Middle Chart, LLC | Method and apparatus for presentation of digital content |
CN110663274B (en) * | 2017-02-22 | 2021-07-20 | 米德查特有限责任公司 | Method and apparatus for tracking status of physical completion characteristics of residential structure |
US11610033B2 (en) | 2017-02-22 | 2023-03-21 | Middle Chart, LLC | Method and apparatus for augmented reality display of digital content associated with a location |
US11900022B2 (en) | 2017-02-22 | 2024-02-13 | Middle Chart, LLC | Apparatus for determining a position relative to a reference transceiver |
US11481527B2 (en) | 2017-02-22 | 2022-10-25 | Middle Chart, LLC | Apparatus for displaying information about an item of equipment in a direction of interest |
US11475177B2 (en) | 2017-02-22 | 2022-10-18 | Middle Chart, LLC | Method and apparatus for improved position and orientation based information display |
US11468209B2 (en) | 2017-02-22 | 2022-10-11 | Middle Chart, LLC | Method and apparatus for display of digital content associated with a location in a wireless communications area |
US11054335B2 (en) | 2017-02-22 | 2021-07-06 | Middle Chart, LLC | Method and apparatus for augmented virtual models and orienteering |
CN110663274A (en) * | 2017-02-22 | 2020-01-07 | 米德查特有限责任公司 | Improved building model with as built feature virtual capture and target performance tracking |
US11429761B2 (en) | 2017-02-22 | 2022-08-30 | Middle Chart, LLC | Method and apparatus for interacting with a node in a storage area |
EP3586327A4 (en) * | 2017-02-22 | 2020-03-11 | Middle Chart, LLC | Improved building model with capture of as built features and experiential data |
EP3586553A4 (en) * | 2017-02-22 | 2020-03-11 | Middle Chart, LLC | Improved building model with virtual capture of as built features and objective performance tracking |
US11900021B2 (en) | 2017-02-22 | 2024-02-13 | Middle Chart, LLC | Provision of digital content via a wearable eye covering |
US11900023B2 (en) | 2017-02-22 | 2024-02-13 | Middle Chart, LLC | Agent supportable device for pointing towards an item of interest |
US11188686B2 (en) | 2017-02-22 | 2021-11-30 | Middle Chart, LLC | Method and apparatus for holographic display based upon position and direction |
US11893317B2 (en) | 2017-02-22 | 2024-02-06 | Middle Chart, LLC | Method and apparatus for associating digital content with wireless transmission nodes in a wireless communication area |
US10762251B2 (en) | 2017-02-22 | 2020-09-01 | Middle Chart, LLC | System for conducting a service call with orienteering |
US10776529B2 (en) | 2017-02-22 | 2020-09-15 | Middle Chart, LLC | Method and apparatus for enhanced automated wireless orienteering |
US11120172B2 (en) | 2017-02-22 | 2021-09-14 | Middle Chart, LLC | Apparatus for determining an item of equipment in a direction of interest |
US10831945B2 (en) | 2017-02-22 | 2020-11-10 | Middle Chart, LLC | Apparatus for operation of connected infrastructure |
US10866157B2 (en) | 2017-02-22 | 2020-12-15 | Middle Chart, LLC | Monitoring a condition within a structure |
US10872179B2 (en) | 2017-02-22 | 2020-12-22 | Middle Chart, LLC | Method and apparatus for automated site augmentation |
CN110546703B (en) * | 2017-02-22 | 2021-01-01 | 米德查特有限责任公司 | Improved building model with as built features and capture of experience data |
US11106837B2 (en) | 2017-02-22 | 2021-08-31 | Middle Chart, LLC | Method and apparatus for enhanced position and orientation based information display |
US10902160B2 (en) | 2017-02-22 | 2021-01-26 | Middle Chart, LLC | Cold storage environmental control and product tracking |
US10949579B2 (en) | 2017-02-22 | 2021-03-16 | Middle Chart, LLC | Method and apparatus for enhanced position and orientation determination |
US11100260B2 (en) | 2017-02-22 | 2021-08-24 | Middle Chart, LLC | Method and apparatus for interacting with a tag in a wireless communication area |
US10983026B2 (en) | 2017-02-22 | 2021-04-20 | Middle Chart, LLC | Methods of updating data in a virtual model of a structure |
US10984147B2 (en) | 2017-02-22 | 2021-04-20 | Middle Chart, LLC | Conducting a service call in a structure |
US10984148B2 (en) | 2017-02-22 | 2021-04-20 | Middle Chart, LLC | Methods for generating a user interface based upon orientation of a smart device |
US11010501B2 (en) | 2017-02-22 | 2021-05-18 | Middle Chart, LLC | Monitoring users and conditions in a structure |
US11080439B2 (en) | 2017-02-22 | 2021-08-03 | Middle Chart, LLC | Method and apparatus for interacting with a tag in a cold storage area |
KR101933652B1 (en) * | 2017-03-23 | 2018-12-28 | 신승연 | Indoor location based intelligent photo generation method and system |
KR102019299B1 (en) | 2017-06-30 | 2019-09-06 | 강동민 | Home styling server and a system comprising the same, and a method for processing image for the home styling |
KR20190002834A (en) * | 2017-06-30 | 2019-01-09 | 강동민 | Home styling server and a system comprising the same, and a method for processing image for the home styling |
KR101914386B1 (en) * | 2017-08-31 | 2018-11-01 | 김용옥 | Mobile terminal for construction supervision |
KR101844718B1 (en) | 2017-08-31 | 2018-04-02 | 김용옥 | Mobile terminal for construction supervision |
CN109754143A (en) * | 2017-11-08 | 2019-05-14 | 上海宝冶集团有限公司 | Method based on unmanned plane and Building Information Model management engineering place |
KR101844726B1 (en) * | 2017-12-11 | 2018-04-02 | 이태영 | Drone for construction suprvision and the method of supervision using the same |
KR101988356B1 (en) * | 2018-03-30 | 2019-09-30 | (주)대우건설 | Smart field management system through 3d digitization of construction site and analysis of virtual construction image |
KR20200015963A (en) | 2018-08-06 | 2020-02-14 | 현대건설주식회사 | Automatic Indoor Costruction progress inspection system and methodology using 360 degree Camera |
KR101958635B1 (en) * | 2018-09-13 | 2019-04-04 | 반석기초이앤씨(주) | Mobile application system using reinforced coupler and management method of supervision of reinforcing steel construction using it |
US11436388B2 (en) | 2019-01-17 | 2022-09-06 | Middle Chart, LLC | Methods and apparatus for procedure tracking |
US11861269B2 (en) | 2019-01-17 | 2024-01-02 | Middle Chart, LLC | Methods of determining location with self-verifying array of nodes |
US11593536B2 (en) | 2019-01-17 | 2023-02-28 | Middle Chart, LLC | Methods and apparatus for communicating geolocated data |
US10824774B2 (en) | 2019-01-17 | 2020-11-03 | Middle Chart, LLC | Methods and apparatus for healthcare facility optimization |
US11636236B2 (en) | 2019-01-17 | 2023-04-25 | Middle Chart, LLC | Methods and apparatus for procedure tracking |
US11042672B2 (en) | 2019-01-17 | 2021-06-22 | Middle Chart, LLC | Methods and apparatus for healthcare procedure tracking |
KR102039334B1 (en) | 2019-04-25 | 2019-11-27 | 김용진 | A Remote Safety Management System for Construction Site |
KR102033570B1 (en) * | 2019-07-16 | 2019-10-17 | 한국교통대학교산학협력단 | A Camera System For Remote Safety Management of Construction Site |
WO2021132907A1 (en) * | 2019-12-24 | 2021-07-01 | 주식회사 동우 이앤씨 | System for supervising construction of structure by using tower crane and method therefor |
KR102128696B1 (en) | 2020-02-13 | 2020-06-30 | (주)한국전산감리원 | Driving method for construction site supervision and security sysgem |
KR102148367B1 (en) | 2020-02-13 | 2020-08-26 | (주)한국전산감리원 | Construction site supervision and security sysgem |
KR102201614B1 (en) | 2020-08-07 | 2021-01-12 | (주)한국전산감리원 | Construction site supervision and security system |
KR102354181B1 (en) * | 2020-12-31 | 2022-01-21 | 주식회사 나인티나인 | A construction information management system for visualising data and a method for controlling the same |
KR102232181B1 (en) | 2021-01-04 | 2021-03-25 | (주)케이씨에이 | Construction site supervision and security system |
KR102366840B1 (en) | 2021-02-08 | 2022-02-24 | (주)아이언박스 | methods for detecting construction objects based on artificial intelligence and cloud platform system for providing construction supervision service and system thereof |
KR102572116B1 (en) * | 2023-02-14 | 2023-08-29 | (주)정상티이씨 | Construction site multi-angle supervision system using lidar sensor |
KR102550090B1 (en) * | 2023-02-14 | 2023-06-30 | (주)정상티이씨 | Supervising System |
CN116703127A (en) * | 2023-08-03 | 2023-09-05 | 山东青建智慧建筑科技有限公司 | Building construction supervision method and system based on BIM |
CN116703127B (en) * | 2023-08-03 | 2024-05-14 | 山东青建智慧建筑科技有限公司 | Building construction supervision method and system based on BIM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101354688B1 (en) | System and method for supervision of construction site | |
JP6525229B1 (en) | Digital search security system, method and program | |
US9269196B1 (en) | Photo-image-based 3D modeling system on a mobile device | |
KR101260576B1 (en) | User Equipment and Method for providing AR service | |
KR102362117B1 (en) | Electroninc device for providing map information | |
JP5766795B2 (en) | Mobile device-based content mapping for augmented reality environments | |
KR102289745B1 (en) | System and method for real-time monitoring field work | |
CN111815675B (en) | Target object tracking method and device, electronic equipment and storage medium | |
KR101255950B1 (en) | Location-based construction project management method and system | |
JP6496671B2 (en) | Information processing apparatus, terminal apparatus, information processing method, and program | |
KR101844726B1 (en) | Drone for construction suprvision and the method of supervision using the same | |
US20140375684A1 (en) | Augmented Reality Technology | |
TW201013158A (en) | Mobile imaging device as navigator | |
CN103827634A (en) | Logo detection for indoor positioning | |
US10896327B1 (en) | Device with a camera for locating hidden object | |
KR101515434B1 (en) | Disaster reporting system and method | |
CN107193820B (en) | Position information acquisition method, device and equipment | |
CA3087871A1 (en) | Apparatus, systems, and methods for tagging building features in a 3d space | |
US20220264004A1 (en) | Generation of an image that is devoid of a person from images that include the person | |
US9292963B2 (en) | Three-dimensional object model determination using a beacon | |
CA3069813C (en) | Capturing, connecting and using building interior data from mobile devices | |
CN105069718B (en) | Self-service monitoring method and system for smart homeland real estate based on mobile Internet of things | |
KR20220085150A (en) | Intelligent construction site management supporting system server and method based extended reality | |
JP2016194784A (en) | Image management system, communication terminal, communication system, image management method, and program | |
KR101914386B1 (en) | Mobile terminal for construction supervision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170103 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20171226 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190107 Year of fee payment: 6 |