KR101354688B1 - System and method for supervision of construction site - Google Patents

System and method for supervision of construction site Download PDF

Info

Publication number
KR101354688B1
KR101354688B1 KR1020130078864A KR20130078864A KR101354688B1 KR 101354688 B1 KR101354688 B1 KR 101354688B1 KR 1020130078864 A KR1020130078864 A KR 1020130078864A KR 20130078864 A KR20130078864 A KR 20130078864A KR 101354688 B1 KR101354688 B1 KR 101354688B1
Authority
KR
South Korea
Prior art keywords
information
construction site
vector
image
terminal
Prior art date
Application number
KR1020130078864A
Other languages
Korean (ko)
Inventor
김균태
임명구
김구택
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020130078864A priority Critical patent/KR101354688B1/en
Application granted granted Critical
Publication of KR101354688B1 publication Critical patent/KR101354688B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Educational Administration (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

A construction site supervision method according to the present invention relates to a supervision method of a construction site where the construction is performed by using a three dimensional virtual space modeling system, and includes: a process of photographing actual images of the construction site through a camera of a terminal; a process of detecting vector photographing information of the photographed construction site; a process of transmitting the photographed actual images and the detected vector photographing information to a management server; a process in which the management server detects a three dimensional model coinciding with the vector photographing information in a database of a three dimensional virtual space modeling system and detects each individual object in the detected three dimensional model; a process of generating matching information by matching each object on the actual image and each individual object of the three dimensional model; delivering an attribute value of the detected three dimensional model and the matching information to the terminal; a process in which the terminal activates each object on the actual image by combining the transmitted matching information to the actual image; and a process of displaying attribute information of a corresponding object, if each object outputs the activated actual image to a terminal screen and then user input touching the objects is detected. According to the present invention, the construction site supervision method enables a user to manage and supervise the construction state of the construction site more easily, by enabling the user to read the attribute value of each object on the screen simply by making the user photograph the construction site and touch the photographed images. And the method enables the user supervising the construction site to perform supervision work easily with one portable terminal without additional advance preparation. [Reference numerals] (100) Terminal; (200) Managing server; (AA) YES; (S10) Photograph construction field; (S100) Display corresponding attribute value if user select specific object in construction field; (S20) Detect vector photographing information of building at photographing spot; (S30) Transmit data (photographed image & vector photographing information); (S40) Detect data matched (equal or similar) with transmitted data by accessing DB of BIMs; (S50) Transmit identification value of detected information; (S60) Display transmitted identification values on screen; (S70) Does user select identification value of corresponding construction field?; (S80) Request total attribute value; (S90) Transmit total attribute value (including image matching information)

Description

공사현장 감리 시스템 및 감리 방법{SYSTEM AND METHOD FOR SUPERVISION OF CONSTRUCTION SITE}Construction site supervision system and supervision method {SYSTEM AND METHOD FOR SUPERVISION OF CONSTRUCTION SITE}

본 발명은 공사현장 감리 시스템 및 감리방법에 관한 것으로 특히, 휴대단말기를 이용하는 공사현장 감리 시스템 및 감리방법에 관한 것이다. The present invention relates to a construction site supervision system and method, and more particularly, to a construction site supervision system and a method using a mobile terminal.

최근, 건물이나 빌딩을 설계하고 시공하는 과정에서, 건축물을 구성하는 객체들을 데이터화하여 수치 데이터를 만들며, 3차원의 디스플레이 효과를 볼 수 있도록 하는 3차원 가상공간 모델링 시스템(or 모듈)이 전반적으로 사용되고 있다. 특히, 대형 건축물이나 구조물을 기획하는 프로젝트에서, 이 같은 3차원 가상공간 모델링 시스템(or 모듈)을 이용하여 기획하고 설계하는 것은 필수적인 사항으로 받아들여지고 있으며, 건설분야에서는 이를 'BIM'이라 부르고 있다.Recently, in the process of designing and constructing a building or a building, a three-dimensional virtual space modeling system (or module) is generally used to make numerical data by generating data of objects constituting the building and to view three-dimensional display effects. have. In particular, in the project of planning a large building or structure, planning and designing using such a 3D virtual space modeling system (or module) is considered as an essential matter, and in the construction field, this is called 'BIM'.

BIM(Building Information Modeling)이란, 정보가 결합된 3차원 가상공간 모델링 시스템(or 모듈)의 하나로, 다차원 가상공간에 기획, 설계, 엔지니어링(구조, 설비, 전기 등), 시공 더 나아가 유지관리 및 폐기까지 가상으로 시설물을 모델링하고 속성정보를 담는 것을 말한다. Building Information Modeling (BIM) is a three-dimensional virtual space modeling system (or module) that combines information. Planning, design, engineering (structure, equipment, electricity, etc.), construction, and maintenance and disposal in multidimensional virtual spaces. Virtually modeling facilities and containing property information.

BIM은 건축, 토목, 플랜트를 포함한 건설 전 분야에서 시설물 객체의 물리적 혹은 기능적 특성에 의해 시설물 생애주기 동안 의사결정을 하는 데 신뢰할 수 있는 근거를 제공하는 디지털 모델과 그 작성을 위한 업무 절차를 포함해 지칭한다BIM includes digital models that provide a reliable basis for making decisions throughout the life cycle of a facility by its physical or functional characteristics in all areas of construction, including architecture, civil engineering, and plants, and the procedures for creating them. Refers to

BIM은 건설 전 분야의 시설물을 구성하는 객체와 이에 대한 정보를 기반으로 구성되며 각각의 객체들은 형상정보(기하정보), 속성정보를 포함하고 다른 객체들과의 상호 연결관계를 가지고 형성된다. 이를 통해 2, 3차원의 가시화된 정보의 제공이 가능하며 객체의 치수 및 면적 등과 같은 물량산출을 위한 정보의 추출도 가능하다. The BIM is based on the objects and information on the objects of the entire construction field, and each object includes the shape information (geometry information), the attribute information and is formed with interconnection with other objects. Through this, it is possible to provide visualized information in two or three dimensions and to extract information for calculating quantities such as dimensions and areas of objects.

BIM 데이터는 건물을 구성하는 벽, 슬라브, 창, 문, 지붕, 계단 등과 같은 객체들과 이에 대한 속성을 포함하고 있다. 또한 각각의 객체들은 서로의 관계가 정의되어 있으므로 설계의 변경사항 발생시 관련된 요소들이 상호작용을 통해 도면 등으로 자동 반영될 수 있다. 또한, BIM 기술을 활용하면 대상 건물이 정형이든 비정형이든 관계없이, 건물을 지을 때 발생되는 모든 데이터를 프로젝트 별, 프로세스 별로 호환, 공유를 통해 모든 단계의 정보를 통합 관리할 수 있다.BIM data includes objects and properties of the walls, slabs, windows, doors, roofs, stairs, etc. that make up a building. In addition, since each object has a defined relationship with each other, related elements can be automatically reflected in drawings through interactions when a design change occurs. In addition, BIM technology enables integrated management of information at all stages by sharing and sharing all data generated by building, project by project, and process, regardless of whether the target building is structured or atypical.

건물이나 빌딩을 설계하고 시공하는 과정에서, 3차원 가상공간 모델링은 공사 구조물(예: 건물, 빌딩 등)을 이루는 객체들인 벽, 슬라브, 창, 문, 지붕, 계단 등을 각각의 공간속 위치와 속성으로 표현하여 서로의 관계를 인지하고 건물의 변경요소들을 건물설계에 반영하지만, 이는 단지 가상의 공간에서만 존재하여 계획과 설계 작업에 활용될 뿐, 시공이나 감리와 같이 공사현장에서는 거의 활용되지 못하는 실정이다.In the process of designing and constructing a building or a building, 3D virtual space modeling includes the walls, slabs, windows, doors, roofs, stairs, and other objects that make up a construction structure (e.g., a building, a building). It expresses the relationship with each other and expresses the changing elements of the building in the building design, but it exists only in the virtual space and is used for planning and design work, which is rarely used in construction sites such as construction and supervision. It is true.

3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 거대한 빌딩이나 구조물을 기획하는 프로젝트에서, 시공작업은 매우 복잡하게 진행되고, 감리는 작업 전에 매우 복잡하고 다양한 정보를 준비해야 하는 사전작업을 요구한다. 공사현장에서 이루어지는 시공과 감리작업에, 온라인 상의 3차원 가상공간 모델과 속성정보를 연동시킬 수 있다면, 작업장은 보다 안전하며, 작업자는 편리하고 효과적인 작업 수행이 가능하게 될 것이다. In projects that plan large buildings or structures that are under construction using a three-dimensional virtual space modeling system, construction work is very complex and requires preliminary work to prepare very complex and diverse information before supervision. . If the construction and supervision work at the construction site can be linked with the online 3D virtual space model and the attribute information, the workplace will be safer and the worker will be able to perform convenient and effective work.

본 발명의 목적은 3차원 가상공간 모델링 시스템과 연동하는 휴대단말기를 이용하여 건축현황을 관리하고 감독하는 공사현장 감리 시스템 및 감리방법을 제공하는데 있다. SUMMARY OF THE INVENTION An object of the present invention is to provide a construction site supervision system and method for supervising and managing a construction status using a portable terminal interoperating with a 3D virtual space modeling system.

본 발명의 부가적인 특성 및 이점들은 아래의 설명에 기재될 것이며, 부분적으로는 상기 설명에 의해 명백해지거나 본 발명의 실행을 통해 숙지 될 것이다. 본 발명의 목표 및 다른 이점들은 특히 아래 기재된 설명 및 부가된 도면뿐만 아니라 청구항에서 지적한 구조에 의해 구현될 것이다.Additional features and advantages of the invention will be set forth in the description which follows, and in part will be apparent from the description, or may be learned by practice of the invention. The objectives and other advantages of the present invention will be realized and attained by the structure particularly pointed out in the claims, as well as the following description and the annexed drawings.

본 발명에 따른 공사현장 감리 시스템은 사용자가 공사현장을 촬영하면, 촬영된 이미지의 벡터촬영정보(예: 위치정보, 방위정보, 수직기울기 정보, 수평기울기 정보, 및 거리정보)를 검출하여 원격지의 관리서버에 저장된 해당 공사현장의 3차원 가상공간 모델에 연동되도록 하였다. 본 발명에 따른 사용자는 공사현장에서, 간단한 화면 터치만으로 상기 촬영된 이미지 상의 각 객체들의 속성값을 열람할 수 있다.The construction site supervision system according to the present invention detects vector shooting information (eg, location information, bearing information, vertical tilt information, horizontal tilt information, and distance information) of a photographed image when a user photographs a construction site. It is linked to the 3D virtual space model of the construction site stored in the management server. The user according to the present invention can view the attribute values of each object on the photographed image with a simple screen touch at the construction site.

본 발명은, 사용자가 공사현장을 촬영하고 촬영된 이미지를 터치하는 것만으로 간단히 화면 상 각 객체들의 속성값을 열람할 수 있도록 함으로써, 공사현장의 건축현황을 보다 쉽게 관리 감독할 수 있도록 하였으며, 특히 공사현장을 감리하는 사용자에게 공사현장에 관한 별다른 사전 준비없이 휴대단말기 하나만으로도 쉽게 감리업무를 수행할 수 있도록 하였다. The present invention enables the user to easily view the property values of each object on the screen by simply photographing the construction site and touching the photographed image, so that the construction status of the construction site can be more easily managed and supervised. Users who supervise the construction site can easily perform the supervision work with just one mobile terminal without any preparation for the construction site.

또한, 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 거대한 빌딩이나 구조물을 기획하는 프로젝트에서 감리업무는 작업 전에 매우 복잡하고 다양한 정보를 준비해야 하는 등의 사전작업이 필요하지만, 본 발명에 따른 공사현장 감리 시스템과 휴대단말을 이용함으로써, 보다 편리하고 간단하게 감리업무를 수행할 수 있을 것을 기대된다.In addition, in a project for planning a huge building or structure that is under construction using a three-dimensional virtual space modeling system, the supervision work requires prior work, such as preparing a very complex and diverse information before work, By using a construction site supervision system and a mobile terminal, it is expected that the supervision work can be performed more conveniently and simply.

도1은 본 발명에 따른 휴대 단말기에 관한 블록 구성도.
도2는 방위각의 개념을 나타내는 도면.
도3은 수직 기울기의 개념을 나타내는 도면.
도4는 수평 기울기의 개념을 나타내는 도면.
도5는 본 발명에 따른 감리 시스템의 동작 흐름도.
도6은 본 발명에 따른 이미지 촬영을 예시한 도면.
도7은 본 발명에 따라 매칭정보를 결합한 실사 이미지와 사용자의 터치입력을 나타낸 동작 예시도.
도8은 사용자의 터치에 따라 객체의 속성값을 디스플레이 하는 본 발명의 동작 예시도.
1 is a block diagram of a mobile terminal according to the present invention;
2 illustrates the concept of an azimuth angle.
3 illustrates the concept of vertical tilt.
4 illustrates the concept of a horizontal tilt.
5 is an operation flowchart of a supervision system according to the present invention.
6 is a diagram illustrating image capturing according to the present invention;
7 is an operation example showing a live action image combined with matching information and a user's touch input according to the present invention.
8 is an exemplary operation of the present invention to display the property value of the object in accordance with the user's touch.

상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 공사현장 감리방법은, 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 공사현장의 감리방법에 있어서,In order to achieve the above object, the construction site supervision method according to the present invention, in the construction site supervision method for performing the construction using a three-dimensional virtual space modeling system,

단말의 카메라를 통해 공사현장의 실사 이미지를 촬영하는 과정과, 촬영된 공사현장의 벡터촬영정보를 검출하는 과정과, 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버측으로 전송하는 과정과, 상기 관리서버가 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하고 검출된 3차원 모델에서 각각의 개별 객체들을 검출하는 과정과, 상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 과정과, 상기 검출된 3차원 모델의 속성값과 매칭정보를 단말측에 전달하는 과정과, 단말이 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키는 과정과, 각 객체들이 활성화된 실사 이미지를 단말화면에 출력한 후 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이하는 과정을 포함하여 이루어진다. A process of photographing a live-action image of a construction site through a camera of a terminal, a process of detecting vector photographing information of a photographed construction site, transmitting a photographed live-action image and detected vector photographing information to a management server; Detecting, by the management server, a three-dimensional model that matches the vector photographing information from a database of a three-dimensional virtual space modeling system, and detecting each individual object in the detected three-dimensional model; Matching each individual object of the 3D model to generate matching information, transmitting attribute values and matching information of the detected 3D model to a terminal, and matching the transmission transmitted by the terminal to the live image The process of activating each object on the live image by combining the information, and displaying the live image with each object activated on the terminal screen. If a user input of touching the objects after the output is detected, the method may include displaying property information of the corresponding object.

바람직하게, 상기 3차원 모델에서 각각의 개별 객체들을 검출하는 과정은, Preferably, the process of detecting each individual object in the three-dimensional model,

3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하는 과정과, 상기 벡터촬영정보에 포함된 촬영위치정보, 방위정보, 촬영자세정보(수평기울기, 수직기울기), 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 상기 3차원 모델에서 상기 단말 카메라와 동일한 시점에서 상기 실사 이미지와 동일한 모델링 이미지를 추출하는 과정과, 상기 추출된 모델링 이미지에서 각각의 개별 객체들을 검출하는 과정으로 이루어지는 것을 특징으로 한다. Detecting a 3D model that matches the vector shooting information from a database of a 3D virtual space modeling system, photographing position information, bearing information, shooting position information (horizontal tilt and vertical tilt) included in the vector shooting information, Extracting the same modeling image as the real image from the 3D model at the same time point as the terminal camera with reference to lens angle information, photographing frame size and ratio information, and extracting each individual object from the extracted modeling image It is characterized by consisting of a process of detecting.

상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 공사현장 감리를 위한 휴대단말기는 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 공사현장에 있어서,In order to achieve the above object, the portable terminal for construction site supervision according to the present invention in the construction site to proceed with the construction using the three-dimensional virtual space modeling system,

단말의 카메라를 통해 공사현장의 실사 이미지를 촬영하는 카메라부와, 촬영된 공사현장의 벡터촬영정보를 검출하는 벡터촬영정보 검출부와. 제어부의 제어에 따라 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버측으로 전송하는 무선통신부와, 상기 관리서버로부터, 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키는 제어부와, 각 객체들이 활성화된 실사 이미지를 단말화면에 출력하는 디스플레이부를 포함하여 구성되며, 상기 제어부는 상기 단말화면의 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이 한다. A camera unit for photographing the actual construction image of the construction site through a camera of the terminal, and a vector shooting information detection unit for detecting vector shooting information of the photographed construction site. The wireless communication unit which transmits the photographed photorealistic image and the detected vector photographing information to a management server side under control of a controller, and when the attribute value and matching information of a 3D model are received from the management server, the transmission to the photorealistic image. And a display unit for activating each object on the live image by combining the matching information, and a display unit for outputting the live image on which the object is activated on the terminal screen, wherein the controller is a user input for touching the objects on the terminal screen. If detected, the property information of the object is displayed.

바람직하게, 상기 벡터촬영정보 검출부는 단말의 촬영지점 위치를 검출하는 위치 검출부와, 카메라가 지향하는 방위각을 검출하는 방위각 검출부와, 카메라의 수직 기울기 각도를 검출하는 수직기울기 검출부와, 카메라의 수평 기울기 각도를 검출하는 수평기울기 검출부와, 상기 단말과 피사체까지의 거리를 검출하는 거리 검출부를 포함하여 구성되는 것을 특징으로 한다. Preferably, the vector shooting information detector includes a position detector for detecting a location of a photographing point of the terminal, an azimuth detector for detecting an azimuth angle directed by the camera, a vertical tilt detector for detecting a vertical tilt angle of the camera, and a horizontal tilt of the camera. And a horizontal tilt detector for detecting an angle, and a distance detector for detecting a distance between the terminal and the subject.

상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 공사현장 감리 시스템은 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 공사현장에 있어서,In order to achieve the above object, construction site supervision system according to the present invention in the construction site to proceed with the construction using the three-dimensional virtual space modeling system,

공사현장의 실사 이미지를 촬영하고, 촬영된 공사현장의 벡터촬영정보를 검출하는 휴대단말기와, 휴대단말기로부터 상기 촬영된 실사 이미지와 검출된 벡터촬영정보가 수신되면, 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하고 검출된 3차원 모델에서 각각의 개별 객체들을 검출하고 상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 관리서버를 포함하여 구성되며,A mobile terminal for taking a photographic image of a construction site and detecting vector photographing information of a photographed construction site, and receiving the photographed photorealistic image and the detected vector image information from a portable terminal, the database of a 3D virtual space modeling system. Detects a three-dimensional model that matches the vector photographing information, detects each individual object in the detected three-dimensional model, and generates matching information by matching each object on the photo-realistic image with the individual objects of the three-dimensional model, respectively. It is configured to include a management server,

상기 휴대단말기는 관리서버로부터 상기 검출된 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키고 각 객체들이 활성화된 실사 이미지를 단말화면에 출력한 후 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이 한다. When the portable terminal receives the attribute value of the detected 3D model and matching information from the management server, the portable terminal combines the transmitted matching information with the live image to activate each object on the live image and the live image with each object activated. If the user input of touching the objects is detected after outputting to the terminal screen, the property information of the corresponding object is displayed.

본 발명의 착안점은 3차원 가상공간 모델링 시스템과 연동하는 휴대단말기를 이용하여 공사현장을 촬영하면, 사용자의 화면터치만으로도 촬영된 이미지 상의 각 객체들의 속성값을 열람할 수 있도록 하는 공사현장 감리 시스템 및 감리방법을 구현하는데 있다.An object of the present invention is a construction site supervision system that allows you to view the property value of each object on the photographed image only by the user's screen touch, if the construction site is photographed using a portable terminal linked with the 3D virtual space modeling system; To implement the supervision method.

이하, 본 발명의 바람직한 실시 예를 도면을 참조하여 설명하면 다음과 같다. Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

도1은 본 발명에 따른 휴대 단말기에 관한 블록 구성도(block diagram)이다.1 is a block diagram of a portable terminal according to the present invention.

본 발명에 따른 휴대단말기(100)는 휴대폰, 스마트 폰(smart phone), 테블릿 컴퓨터, 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP (Portable Multimedia Player) 등 이동형 단말기일 수 있다. 이하의 설명에서는 상기 휴대단말기(100)가 스마트 폰(smart phone)인 것으로 가정하고 설명한다. The mobile terminal 100 according to the present invention is a mobile terminal such as a mobile phone, a smart phone, a tablet computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), and the like. Can be. In the following description, it is assumed that the mobile terminal 100 is a smart phone.

도1을 참조하여, 본 발명에 따른 휴대단말기를 살펴보면 다음과 같다.Referring to Figure 1, the mobile terminal according to the present invention will be described.

본 발명에 따른 휴대단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180), 전원 공급부(190) 및 벡터촬영정보 검출부(300) 등의 구성요소들을 포함할 수 있다.The mobile terminal 100 according to the present invention includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, and a memory 160. ), The interface unit 170, the controller 180, the power supply unit 190, and the vector photographing information detector 300 may be included.

상기 무선 통신부(110)는 휴대단말기(100)와 무선통신(or 이동통신) 시스템 간의 무선통신 또는 휴대단말기(100)와 휴대단말기(100)가 위치한 네트웍간의 무선통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 그리고 위치정보 모듈(115) 중, 적어도 하나를 포함할 수 있다.The wireless communication unit 110 includes one or more components for wireless communication between the mobile terminal 100 and a wireless communication (or mobile communication) system or wireless communication between the mobile terminal 100 and a network where the mobile terminal 100 is located. It may include. For example, the wireless communication unit 110 may transmit at least one of the broadcast reception module 111, the mobile communication module 112, the wireless Internet module 113, the short distance communication module 114, and the location information module 115 .

상기 무선 인터넷 모듈(113)(or 이동통신 모듈(112))은 상기 관리서버(200) 와 통신하는 통신모듈을 말한다. 적용가능한 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 있다. The wireless Internet module 113 (or mobile communication module 112) refers to a communication module for communicating with the management server 200. Applicable wireless Internet technologies include Wireless LAN (Wi-Fi), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), and High Speed Downlink Packet Access (HSDPA).

상기 A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 카메라(121)와 마이크(122) 등이 이에 포함될 수 있다. 상기 카메라(121)는 사용자의 조작에 따라 감리가 필요한 공사현장(예: 현장의 건축 구조물 등)을 촬영하여 실사 이미지를 생성한다. 또한, 화상 통화모드 또는 촬영모드에서 이미지 센서에 의해 얻어지는 정지영상이나 동영상의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 generates a photorealistic image by photographing a construction site (eg, a building structure of a site) that requires supervision according to a user's manipulation. Also, image frames of still images or moving images obtained by the image sensor are processed in the video call mode or the imaging mode. Then, the processed image frame can be displayed on the display unit 151. [

상기 카메라(121)에서 처리된 화상 프레임은 상기 메모리(160)에 저장되거나 무선 통신부(110)를 통해 외부로 전송될 수 있다. 상기 카메라 (121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. The camera 121 may include two or more cameras according to the configuration of the terminal.

카메라(121)는 피사체의 상을 결상시키는 렌즈 유닛과, 렌즈 유닛에 의해 결상된 상을 전기적 신호인 영상신호로 변환하는 촬상 소자를 포함한다. 촬상 소자는 결상된 피사체의 상을 광전 변환하는 소자로서, 씨씨디(CCD; charge coupled device) 촬상 소자나, 씨모스(CMOS; complementary MOS) 촬상 소자가 이용될 수 있다.The camera 121 includes a lens unit for forming an image of a subject, and an imaging device for converting an image formed by the lens unit into an image signal as an electrical signal. The imaging device is a device that photoelectrically converts an image of an imaged object, and a charge coupled device (CCD) imaging device or a complementary MOS (CMOS) imaging device may be used.

상기 마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향신호를 입력받아 전기적인 음성 데이터로 처리한다. The microphone 122 receives an external sound signal by a microphone in a communication mode, a recording mode, a voice recognition mode, and the like and processes it as electrical voice data.

상기 사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 상기 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 때, 이를 터치 스크린이라 부를 수 있다.The user input unit 130 generates input data for a user to control operation of the terminal. The user input unit 130 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like. Particularly, when the touch pad has a mutual layer structure with the display unit 151 described later, it can be called a touch screen.

상기 센싱부(140)는 휴대단말기(100)의 개폐 상태, 사용자 접촉 유무, 휴대단말기의 가속/감속 등과 같이 휴대단말기(100)의 현 상태를 감지하여 휴대단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 휴대단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원공급부(190)의 전원공급 여부, 인터페이스부(170)의 외부기기 결합여부 등과 관련된 센싱 기능을 담당한다.The sensing unit 140 is configured to control the operation of the mobile terminal 100 by detecting a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, presence or absence of user contact, acceleration / deceleration of the mobile terminal, and the like. Generate a sensing signal. For example, when the mobile terminal 100 is in the form of a slide phone, whether the slide phone is opened or closed may be sensed. Also, it is responsible for a sensing function related to whether or not the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like.

또한, 상기 인터페이스부(170)는 휴대단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 휴대단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령신호가 휴대단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령신호 또는 상기 전원은 상기 외부 전자기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.In addition, the interface unit 170 may be a passage for supplying power from the cradle to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or may be input by the user from the cradle. The command signal may be a passage through which the portable terminal 100 is transmitted. Various command signals or power input from the cradle may be operated as signals for recognizing that the external electronic device is correctly mounted on the cradle.

상기 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향출력 모듈(152), 알람부(153) 등을 포함할 수 있다.The output unit 150 is used to generate an output related to visual, auditory or tactile senses, and may include a display unit 151, a sound output module 152, an alarm unit 153, and the like.

상기 디스플레이부(151)는 통화에 관련된 정보는 물론, 휴대단말기 (100)에서 처리되는 정보를 표시 출력한다. 예를 들어 휴대단말기(100)가 검출한 벡터촬영정보나 관리서버(200)의 처리 데이터를 표시하고, 통화모드인 경우 통화에 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다.The display unit 151 displays and outputs information processed by the mobile terminal 100 as well as information related to a call. For example, the mobile terminal 100 displays the vector shooting information detected by the mobile terminal 100 or the processing data of the management server 200, and displays a UI (User Interface) or GUI (Graphic User Interface) related to the call in the call mode.

디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함한다. The display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display 3D display).

그리고 휴대단말기(100)의 구현 형태에 따라 디스플레이부(151)는 2개 이상 존재할 수 있다. 예를 들어, 휴대단말기(100)에는 복수의 디스플레이 부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. In addition, two or more display units 151 may exist according to the implementation form of the mobile terminal 100. For example, the plurality of display units may be spaced apart or integrally disposed on one surface of the mobile terminal 100, or may be disposed on different surfaces.

상기 디스플레이부(151)와 터치동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력장치 이외에 입력장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.The display unit 151 may include a display unit 151 and a touch sensor 160. The display unit 151 may be a touch screen, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

상기 음향출력 모듈(152)는 호신호 수신, 통화모드 또는 녹음모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(152)은 휴대단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향신호를 출력한다. 이러한 음향출력 모듈(152)에는 리시버(Receiver), 스피커 (speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, and a broadcast reception mode. In addition, the sound output module 152 outputs a sound signal related to a function (for example, a call signal reception sound, a message reception sound, etc.) performed by the mobile terminal 100. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

상기 알람부(153)는 휴대단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 상기 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치입력 등이 있다. 알람부(153)는 오디오 신호나 비디오 신호 이외에 다른 형태로 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151, 152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile terminal 100. Examples of the event include a call signal reception, a message reception, a key signal input, a touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal, for example, by vibration. The video signal or the audio signal may also be output through the display unit 151 or the audio output module 152, so that they 151 and 152 may be classified as part of the alarm unit 153.

상기 메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 160 may store a program for processing and control of the controller 180 and may have a function for temporarily storing input / output data (e.g., a phone book, a message, a still image, . ≪ / RTI >

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 휴대단말기(100)는 인터넷(internet)상에서 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read- And an optical disc. In addition, the mobile terminal 100 may operate a web storage that performs a storage function of the memory 160 on the Internet.

상기 제어부(180)는 통상적으로 휴대단말기의 전반적인 동작을 제어한다. 예를 들어 벡터촬영정보 검출, 음성 또는 화상통화, 데이터 통신 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 상기 무선 통신부(110)를 통해 관리서버(200)와 각종 정보들(예: 실사 이미지, 벡터촬영정보, 식별값, 속성값 등)의 송수신을 수행한다.The controller 180 typically controls the overall operation of the mobile terminal. For example, it performs related control and processing for detecting vector shooting information, voice or video call, data communication, and the like. The controller 180 transmits / receives various information (eg, live-action images, vector photographing information, identification values, attribute values, etc.) with the management server 200 through the wireless communication unit 110.

제어부(180)는 관리서버(200)로부터 전체 속성값과 매칭정보가 수신되면, 상기 촬영된 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들의 외곽선이 화이어 프레임으로 강조되는 등의 방법으로 활성화되도록 하고, 상기 디스플레이부(151) 화면에 출력한다. 그리고, 실사 이미지 상의 활성화된 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 상기 디스플레이부(151) 화면에 출력한다.When the controller 180 receives the entire property value and the matching information from the management server 200, the controller 180 combines the transmitted matching information with the photographed live image to highlight the outline of each object on the live image as a fire frame. Method to be activated and output to the screen of the display unit 151. When a user input of touching the activated objects on the live action image is detected, attribute information of the corresponding object is output on the screen of the display unit 151.

상기 전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

상기 벡터촬영정보 검출부(300)는 촬영대상(예: 건축물이나 건축현장의 각 객체(피사체))에 대한 벡터촬영정보(카메라(121)와 피사체간의 벡터촬영정보)를 검출한다. 이때, 벡터촬영정보란 카메라(121)가 촬영한 촬영대상 즉 피사체를 특정할 수 있는 정보로서, 촬영 시점의 시간정보, 카메라(121)의 3차원 위치에 대한 촬영위치정보, 카메라(121)의 렌즈 축이 향하는 방위에 대한 방위정보, 카메라(121)의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기 정보, 및 촬영 영상의 수평축이 지평선에 대하여 기울어진 수평 기울기 정보를 포함하는 정보이다. 벡터촬영정보는, 추가로 카메라(121)에서 피사체까지의 거리인 거리정보, 렌즈화각 정보, 촬영 프레임 크기와 비율정보, 휴대단말기의 사용자 정보(예: 휴대단말기의 시리얼 번호 또는 모델번호, 전화번호 등), 촬영된 이미지의 메타 파일정보 등을 더 포함할 수 있다. 이러한 벡터촬영정보에 포함되는 각 정보들은 모두 특정 촬영시점에 계측된 정보이다. 상기 렌즈화각 정보 그리고 촬영 프레임 크기와 비율정보는 제어부(180)를 통해 검출될 수 있다. 상기 메타 파일정보는 촬영된 이미지 파일의 헤더에 포함되는 정보로서, 상기 촬영 시점의 시간정보, 촬영위치정보, 방위정보 등이 메타 파일로부터 검출될 수 있다. The vector photographing information detector 300 detects vector photographing information (vector photographing information between the camera 121 and the subject) of a photographing target (for example, each object (subject) of a building or a building site). At this time, the vector shooting information is information that can specify the shooting target, that is, the subject photographed by the camera 121, time information at the time of shooting, shooting position information for the three-dimensional position of the camera 121, and The information includes orientation information on the orientation toward which the lens axis is directed, vertical tilt information in which the lens axis of the camera 121 is inclined with respect to the gravity direction, and horizontal tilt information in which the horizontal axis of the captured image is inclined with respect to the horizon. The vector shooting information may further include distance information which is the distance from the camera 121 to the subject, lens angle angle information, shooting frame size and ratio information, user information of the mobile terminal (eg, serial number or model number of the mobile terminal, telephone number). Etc.), meta file information of the photographed image may be further included. Each piece of information included in the vector shooting information is information measured at a specific shooting time. The lens angle of view information and the photographing frame size and ratio information may be detected by the controller 180. The meta file information is information included in a header of a photographed image file, and time information, photographing position information, azimuth information, etc. at the photographing time point may be detected from the meta file.

본 발명에 따른 벡터촬영정보 검출부(300)는 도1에 도시된 바와 같이, 위치 검출부(310), 방위각 검출부(320), 수직기울기 검출부(330), 수평기울기 검출부(340), 및 거리 검출부(350)를 포함하여 구성된다.As shown in FIG. 1, the vector photographing information detector 300 according to the present invention includes a position detector 310, an azimuth detector 320, a vertical tilt detector 330, a horizontal tilt detector 340, and a distance detector ( 350).

상기 위치 검출부(310)는 촬영하는 장소의 위치 정보, 즉 카메라(121)의 3차원 위치 정보를 제공하며, 카메라(121)가 위치하는 지점의 경도(longitude), 위도(latitude), 고도(altitude)에 대한 정보를 포함한다.The location detector 310 provides location information of a location to be photographed, that is, three-dimensional location information of the camera 121, and a longitude, latitude, and altitude of a location where the camera 121 is located. ) Contains information about.

상기 위치 검출부(310)는 일반적으로 이용되는 GPS(global positioning system: GPS)에 의한 위치정보 외에도 센서 네트워크를 통한 위치정보, 이동통신을 통한 위치정보 등 다양한 방식을 이용하여 위치정보를 생성한다. GPS신호를 이용하는 경우 위치 검출부(310)는 GPS신호를 수신하고 이를 연산하여 위치정보를 생성하는 GPS 칩을 포함한다. 또는 위치 검출부(310)는 위치연산을 하지 않고 GPS 신호만을 저장하여 PC나 다른 외부장치를 통하여 위치정보를 획득할 수도 있다. 한편, 건물 내에서나 GPS신호가 수신이 원활하지 않은 곳에서는 단말(100)의 위치정보를 획득하기 힘들 수도 있는데, 이러한 경우 단말(100)의 태그 리더기를 이용할 수 있다. 건물 내나 실내의 어느 정해진 지점에 복수의 무선 태그를 설치하고, 그 설치된 태그를 읽는 방식으로 위치정보를 획득할 수 있다. 위치 검출부(310)는 또한, 관성항법 기술을 활용하여 그 위치를 추적할 수 있다.The location detector 310 generates location information by using various methods such as location information through a sensor network and location information through mobile communication, in addition to location information by a global positioning system (GPS). In the case of using the GPS signal, the location detector 310 includes a GPS chip that receives the GPS signal and calculates the GPS signal to generate location information. Alternatively, the position detector 310 may store only the GPS signal without performing position calculation and acquire position information through a PC or other external device. On the other hand, it may be difficult to obtain the location information of the terminal 100 in the building or where the GPS signal is not received smoothly, in this case, the tag reader of the terminal 100 can be used. A plurality of wireless tags may be installed at a predetermined point in a building or indoors, and location information may be obtained by reading the installed tags. The position detection unit 310 may also track the position using inertial navigation technology.

상기 방위각 검출부(320)는 도2에 도시된 바와 같이, 카메라(121)의 렌즈 축이 향하는 방위각을 나타내는 방위정보를 획득하며, 방위정보를 획득하기 위해 지자기 센서(방위각 측정센서)를 포함하는 것이 바람직하다. As shown in FIG. 2, the azimuth detection unit 320 acquires azimuth information indicating an azimuth angle of the lens axis of the camera 121 and includes a geomagnetic sensor (azimuth angle measuring sensor) to obtain azimuth information. desirable.

방위각(α)이란 카메라(121)의 피사체(7)를 향한 렌즈 축이 진북(north)과 이루는 수평각, 즉 카메라(121)에서 촬영대상을 향한 방향이 진북과 이루는 수평각을 의미하며, 진북을 기준으로 시계방향으로 표현된다. 따라서, 방위각(α)은 0~360˚의 범위를 가질 수 있다. 도2는 방위각의 개념을 나타내는 도면이다.The azimuth angle α denotes a horizontal angle formed by the lens axis toward the subject 7 of the camera 121 with true north, that is, a horizontal angle formed by the camera 121 toward true subject with the true north. Expressed clockwise as Therefore, the azimuth angle α may have a range of 0 ° to 360 °. 2 is a diagram illustrating the concept of an azimuth angle.

상기 수직기울기 검출부(330)는 수직 기울기를 계측하기 위한 것으로, 기울기 센서, 중력 센서, 또는 가속도 센서 등을 포함한다. The vertical tilt detection unit 330 measures a vertical tilt, and includes a tilt sensor, a gravity sensor, an acceleration sensor, and the like.

수직 기울기란 도3에 도시된 바와 같이, 벡터촬영정보 생성 장치(100)에서 카메라(121)의 피사체(7)를 향한 렌즈 축이 중력방향과 이루는 각도(β)를 의미한다. 예를 들어, 상공에서 지면에 수직한 방향으로 피사체를 촬영하는 경우 수직 기울기는 O˚이고, 지면에서 수직한 방향으로 상공을 촬영하는 경우 수직 기울기는 180˚이다. 도3은 수직 기울기의 개념을 나타내는 도면이다.As shown in FIG. 3, the vertical tilt refers to an angle β of the lens axis toward the subject 7 of the camera 121 in the direction of gravity in the vector photographing information generating apparatus 100. For example, when photographing a subject in a direction perpendicular to the ground in the air, the vertical tilt is 0 degrees, and when photographing the air in a direction perpendicular to the ground, the vertical tilt is 180 degrees. 3 is a diagram illustrating the concept of a vertical tilt.

상기 수평 기울기 검출부(340)는 수평 기울기를 계측하기 위한 것으로, 기울기 센서, 중력 센서, 또는 가속도 센서 등을 포함한다. The horizontal tilt detection unit 340 measures a horizontal tilt, and includes a tilt sensor, a gravity sensor, an acceleration sensor, and the like.

수평 기울기란 도4에 도시된 바와 같이, 카메라(121)가 촬영한 영상의 수평축이 지평선 방향과 이루는 각도(γ)를 의미한다. 예를 들어, 도4에서 피사체(7)를 촬영 중인 휴대단말기(100)는 시계 반대방향으로 γ˚ 만큼 기울어져 있다. 도4는 수평 기울기의 개념을 나타내는 도면이다.As shown in FIG. 4, the horizontal tilt refers to an angle γ of which the horizontal axis of the image photographed by the camera 121 is in the horizontal direction. For example, in FIG. 4, the mobile terminal 100 photographing the subject 7 is inclined counterclockwise by γ °. 4 is a diagram illustrating the concept of horizontal tilt.

상기 수평기울기와 수직기울기 검출은 3D 중력센서 등 최신센서의 활용으로 수평기울기와 수직기울기 정보(촬영 자세정보) 검출을 하나의 과정으로 처리할 수 있다.The horizontal tilt and vertical tilt detection may process horizontal tilt and vertical tilt information (shooting posture information) as one process by utilizing a modern sensor such as a 3D gravity sensor.

상기 거리 검출부(350)는 도3에 도시된 바와 같이 카메라(121)로부터 피사체까지의 거리(l)를 측정한 촬영거리정보를 제공하며, 피사체까지의 거리를 측정하기 위해 적외선 거리측정 센서, 초음파 거리측정 센서, 및 레이져 거리 측정기 등 다양한 계측기를 이용할 수 있다.As shown in FIG. 3, the distance detector 350 provides photographing distance information measuring a distance l from the camera 121 to a subject, and an infrared distance measuring sensor and an ultrasonic wave to measure the distance to the subject. Various measuring instruments, such as a distance measuring sensor and a laser range finder, can be used.

이하, 본 발명에 따른 감리 시스템의 동작방법을 상세히 설명하면 다음과 같다.Hereinafter, the operation method of the supervision system according to the present invention will be described in detail.

본 발명은 단말(100)을 통해 공사현장에서 감리(예: 도면과 실제 시공이 일치하는지를 확인하는 업무 등)가 필요한 피사체(예: 현장의 건축 구조물 등)를 촬영하고, 관리 서버(200)로부터 상기 촬영된 건축물(건축 구조물)에 관한 속성정보들을 다운로드하여 단말화면에 디스플레이 한다. 공사현장의 사용자(예 : 감리자, 공사감독자, 검측원 등)는 상기 촬영된 이미지가 디스플레이되어 있는 단말화면에서, 원하는 객체를 선택(화면터치)하는 것만으로도, 해당 객체의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)을 열람할 수 있다.The present invention photographs a subject (eg, a building structure, etc.) that requires supervision (for example, a task of checking whether drawings and actual construction coincide) at a construction site through the terminal 100, and from the management server 200. The attribute information regarding the photographed building (architecture structure) is downloaded and displayed on the terminal screen. A user of a construction site (for example, a supervisor, a construction supervisor, a inspector, etc.) selects a desired object (screen touch) on a terminal screen on which the photographed image is displayed, and displays attribute information of the object (eg : ID information, manufacturing information, construction manager, specification, process deadline, etc. can be viewed.

도5는 본 발명에 따른 감리 시스템의 동작 흐름도이고, 도6은 본 발명에 따른 이미지 촬영을 예시한 도면이다.5 is a flowchart illustrating an operation of a supervision system according to the present invention, and FIG. 6 is a diagram illustrating image capturing according to the present invention.

도5와 도6에 도시된 바와 같이, 본 발명에 따른 사용자(예: 시공 감리자)는 우선, 단말(100)의 카메라(121)를 구동시켜 감리의 대상이 되는 피사체(예: 현장의 건축 구조물 등)들을 촬영하고, 그 피사체의 이미지를 생성한다. (S10)5 and 6, the user (eg, construction supervisor) according to the present invention first drives the camera 121 of the terminal 100 to be a subject to be supervised (eg, a building structure on site). Etc.), and create an image of the subject. (S10)

그리고, 단말(100)은 촬영된 피사체(이하, '실사 이미지'라 한다)에 대한 벡터촬영정보를 검출한다. (S20) 단말(100)은 벡터촬영정보로서, 촬영시점의 시간정보, 카메라(121)의 3차원 위치에 대한 촬영위치정보, 카메라(121)의 렌즈 축이 향하는 방위에 대한 방위정보, 카메라(121)의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기 정보, 및 촬영 영상의 수평축이 지평선에 대하여 기울어진 수평 기울기 정보, 그리고, 단말(100)에서 피사체까지의 거리인 거리정보를 검출한다. 또한, 벡터촬영정보로서, 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 검출할 수 있다. In addition, the terminal 100 detects vector photographing information about the photographed subject (hereinafter, referred to as a 'real image'). (S20) The terminal 100 is vector shooting information, time information at the time of shooting, shooting position information on the three-dimensional position of the camera 121, azimuth information on the orientation of the lens axis of the camera 121, camera ( The vertical tilt information in which the lens axis of 121 is inclined with respect to the gravity direction, the horizontal inclination information in which the horizontal axis of the captured image is inclined with respect to the horizon, and the distance information which is the distance from the terminal 100 to the subject are detected. In addition, as the vector shooting information, lens angle of view information, shooting frame size and ratio information can be detected.

이후, 단말(100)은 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리 서버(200)측으로 전송한다. (S30)Thereafter, the terminal 100 transmits the photographed photorealistic image and the detected vector photographing information to the management server 200. (S30)

그리고, 관리서버(200)는 일단 단말(100)측으로부터 건축물 또는 건축현장의 실사 이미지와 해당 벡터촬영정보가 수신되면, 수신된 벡터촬영정보를 참조하여 3차원 가상공간 모델링 시스템(이하, 'BIM(Building Information Modeling) 모듈'이라 한다)의 데이터베이스에서, 수신된 벡터촬영정보에 대응되는 건축현장의 건축물들을 검출한다. (S40)The management server 200 receives a photorealistic image of a building or a building site and the corresponding vector photographing information from the terminal 100, and then refers to the received vector photographing information, and refers to a 3D virtual space modeling system (hereinafter, 'BIM In the database of (Building Information Modeling) module, the building structures corresponding to the received vector photographing information are detected. (S40)

관리서버(200)는 우선, 상기 벡터촬영정보에 포함된 촬영위치정보와 방위정보, 그리고 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 어느 지역에 소재하는 건축현장인지 그리고 그 건축현장 건축물에서 몇 층 몇 호의 작업물(3차원 모델)인지 등을 검출한다. 그리고, 상기 단말 카메라(121)의 3차원 좌표를 검출한다.The management server 200 first refers to the photographing location information and orientation information included in the vector photographing information, the lens angle of view information, the photographing frame size and the ratio information, and which region is the building site and the building site building thereof. Detect how many floors the workpiece (three-dimensional model), etc. Then, the three-dimensional coordinates of the terminal camera 121 is detected.

관리서버(200)는 또한, 상기 벡터촬영정보에 포함된 수직기울기 정보, 수평기울기 정보, 거리정보, 상기 단말 카메라의 3차원 좌표를 참조하여, 상기 단말측(100)으로부터 수신한 실사 이미지와 동일한 모델링 이미지를 추출한다. 본 과정을 통해, 본 발명은 실사 이미지와 동일한 촬영 거리 및 수평, 수직 뷰 포인트(view) 앵글을 갖는 모델링 이미지를 추출한다. 이때, 추출된 모델링 이미지는 2차원의 이미지가 될 것이다.The management server 200 may also refer to the vertical tilt information, the horizontal tilt information, the distance information, and the three-dimensional coordinates of the terminal camera included in the vector shooting information, to be identical to the live image received from the terminal side 100. Extract the modeling image. Through this process, the present invention extracts a modeling image having the same shooting distance and horizontal and vertical view angle as the real image. At this time, the extracted modeling image will be a two-dimensional image.

그리고, 상기 실사 이미지 상의 각 객체(예: 창틀, 문, 문위의 조각 창틀 등)와 추출된 모델링 이미지 상의 객체들을 각각 매칭시켜 매칭정보를 생성한다. 이때, 매칭정보는 모델링 이미지 상 객체들의 좌표값을 실사 이미지 상 객체들(예: 창틀, 문, 문위의 조각 창틀 등)의 좌표값에 매치시킨 것이다.Then, matching information is generated by matching each object (eg, a window frame, a door, a fragment window frame on the door, etc.) on the live image with the objects on the extracted modeling image. In this case, the matching information is to match the coordinates of the objects on the modeling image with the coordinates of the objects (eg, window frame, door, carved window frame on the door) on the actual image.

상기 생성된 매칭정보가 단말측(100)에 전달되면, 단말(100)은 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여, 실사 이미지 상의 각 객체들(예: 창틀, 문, 문위의 조각 창틀 등)이 시각적으로 구분될 수 있도록 외곽선이 와이어프레임으로 강조되는 방법 등을 사용하여 활성화되도록 한다. 실사 이미지 상의 각 객체들(예: 창틀, 문, 문위의 조각 창틀 등)이 활성화되면, 화면상에서 사용자가 객체를 선택(터치)하는 것만으로, 해당 객체의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)은 도8에 도시된 바와 같이 단말화면에 디스플레이 된다. When the generated matching information is transmitted to the terminal side 100, the terminal 100 combines the transmitted matching information with the live image, and thus each object (for example, window frame, door, and carving window frame on the live image) Etc.), so that the outline is activated by using a method of highlighting the outline in a wireframe. When each object on the photorealistic image (e.g. window frame, door, carved window frame, etc.) is activated, the user simply selects (touches) the object on the screen, and the property information of the object (eg ID information, manufacturing) Information, construction charges, specifications, time limits, etc.) are displayed on the terminal screen as shown in FIG.

작은 규모의 공사현장(소규모 건축 프로젝트)의 경우, 상기 검출과정(S40)에서 간단하게 하나의 일치된 결과물이 검색되겠지만, BIM(Building Information Modeling)을 채용하는 건설/건축 프로젝트는 대개, 대규모의 대형 건축 프로젝트로서, 단말(100)에서 제공되는 벡터촬영정보를 대입하였을 때 적어도 둘 이상의 다수 개의 유사 결과물들이 서치(search)된다.In the case of a small construction site (small construction project), a single matched result may be easily retrieved in the detection process (S40), but a construction / building project employing BIM (Building Information Modeling) is usually large and large. As an architectural project, when the vector photographing information provided from the terminal 100 is substituted, at least two or more similar results are searched.

이와 같이 다수 개의 유사 결과물들이 서치(search)되는 경우, 관리서버(200)는 일단, 상기 검출된 서치 결과(예: 3차원 모델들)를 단말측(100)에 제공하여, 사용자가 서치(search)된 결과물들 중 하나를 선택하도록 한다. (S50) 이때, 관리서버(200)는 전송되는 데이터 용량을 최소화하기 위해 상기 결과물들의 식별값만을 전송한다.When a plurality of similar results are searched as described above, the management server 200 first provides the detected search results (eg, 3D models) to the terminal 100 so that the user searches. Choose one of the outputs. In this case, the management server 200 transmits only the identification values of the results in order to minimize the transmitted data capacity.

상기 결과물들의 식별값들이 관리서버(200)로부터 수신되면, 단말(100)은 수신된 식별값들을 화면에 표시하고, 사용자의 선택을 기다린다. (S60) 이후, 사용자가 해당 공사현장의 식별값(예: S3-A014-106D6F603)을 선택하면, 단말(100)은 상기 공사현장(S3-A014-106D6F603)의 전체 속성값을 관리서버(200) 측에 요청한다. (S70 ~ S80)When the identification values of the results are received from the management server 200, the terminal 100 displays the received identification values on the screen, and waits for the user's selection. After (S60), if the user selects the identification value of the construction site (for example, S3-A014-106D6F603), the terminal 100 manages the entire property value of the construction site (S3-A014-106D6F603) management server 200 ) To the side. (S70 ~ S80)

관리서버(100)는 단말(100)로부터 공사현장(S3-A014-106D6F603, 3차원 모델)의 전체 속성값을 요청하는 메시지가 수신되면, 이미 설명한 바와 같이, 상기 단말측(100) 으로부터 기 수신한 벡터촬영정보를 참조하여 BIM 모듈의 데이터베이스에서, 해당 실사 이미지에 대응되는 모델링 이미지를 추출한다. 그리고, 상기 실사 이미지 상의 각 객체(예: 창틀, 문, 문위의 조각창틀 등)와 추출된 모델링 이미지 상의 객체들을 각각 매칭시키는 매칭정보를 생성한다.If the management server 100 receives a message requesting the entire property value of the construction site (S3-A014-106D6F603, three-dimensional model) from the terminal 100, as previously described, previously received from the terminal side (100) A modeling image corresponding to the actual image is extracted from the database of the BIM module with reference to the vector photographing information. Then, matching information is generated to match each object (eg, window frame, door, engraving frame on the door, etc.) on the live image and the objects on the extracted modeling image, respectively.

관리서버(100)는 단말이 요청한 상기 공사현장(S3-A014-106D6F603)의 전체 속성값을 상기 매칭정보와 함께 단말(100)로 전송한다. (S90)The management server 100 transmits the entire attribute value of the construction site S3-A014-106D6F603 requested by the terminal to the terminal 100 together with the matching information. (S90)

상기 전체 속성값과 매칭정보를 수신한 단말(100)은 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들(예: 창틀, 문, 문위의 조각 창틀 등)이 활성화되도록 하고, 도7에 도시된 바와 같이 화면에 디스플레이 한다. (S100) 도7은 본 발명에 따라 매칭정보를 결합한 실사 이미지와 사용자의 터치입력을 나타낸 동작 예시도이다.The terminal 100 receiving the entire attribute value and the matching information combines the transmitted matching information with the live image to activate each object (eg, a window frame, a door, a carved window frame on the door) on the live image. , As shown in FIG. 7. (S100) FIG. 7 is a diagram illustrating an operation showing a live action image combining matching information and a user's touch input according to the present invention.

단말(100)은 실사 이미지 상의 활성화된 객체들을 터치하는 사용자 입력이 감지되었을 때, 도8에 도시된 바와 같이 해당 객체(예: 창틀(S3-A014-106D6F603-0711))의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)을 단말화면에 디스플레이 한다. 도8은 사용자의 터치에 따라 객체의 속성값을 디스플레이 하는 본 발명의 동작 예시도이다. 도8의 b)는 창틀(S3-A014-106D6F603-0711))의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등) 중, 제조정보가 선택되었을 때, 해당 제조정보의 속성값 테이블을 디스플레이 한 것이다.When the user 100 detects a user input of touching the activated objects on the live action image, the terminal 100 displays attribute information (eg, window frame S3-A014-106D6F603-0711) as shown in FIG. 8. : ID information, manufacturing information, construction charge, specification, time limit, etc.) are displayed on the terminal screen. 8 is an exemplary operation of the present invention to display the property value of the object in accordance with the user's touch. FIG. 8B illustrates that when manufacturing information is selected from among attribute information of the window frame S3-A014-106D6F603-0711, for example, ID information, manufacturing information, construction charge, specification, time limit, etc. The attribute value table of the manufacturing information is displayed.

상기 공사현장 식별값(S3-A014-106D6F603)을 설명하면, 상기 S3는 지역명(예: 서울의 3지역(예: 서초동))에 해당하고, 상기 A014는 3지역의 건축현장(예: 아파트 공사 014지구)에 해당하고, 상기 106D6F603는 014지구 아파트의 106동 6층 603호를 의미한다. 상기 식별값 S3-A014-106D6F603-0711은 서울 서초동(3지역)에 소재한 014지구 아파트 공사현장의 106동 6층 603호에서 작업 중인 창틀을 의미한다.When explaining the construction site identification value (S3-A014-106D6F603), the S3 corresponds to the name of the region (for example, three areas of Seoul (eg, Seocho-dong)), and the A014 is an architectural site (for example, an apartment in three areas). Construction 014 district), and 106D6F603 means 106, 6th floor, 603 of apartment 014 district. The identification value S3-A014-106D6F603-0711 refers to a window frame in operation at 603, 6th floor, 106-dong, in the construction site of apartment 014 in Seocho-dong, Seoul, Korea.

본 발명은, 사용자(예: 시공 감리자)가 공사현장(예: 서울 서초동(3지역)에 소재한 014지구 아파트 공사현장의 106동 6층 603호)에서, 자신의 단말기(100)로 공사현장을 촬영하면, 본 발명에 따른 3차원 가상공간 모델링 시스템(관리서버 (200))과 단말(100)간의 상호 연동절차(S20~S90)를 수행하고, 사용자가 화면 상의 객체를 선택(터치)하는 것만으로, 해당 객체의 속성정보들(예: ID정보, 제조정보, 시공담당, 규격, 공정시한 등)을 볼 수 있도록 한다.According to the present invention, a user (for example, a construction supervisor) uses a terminal 100 to construct a construction site at his / her terminal 100 at a construction site (for example, 603, 6F, 106-dong, in the 014 apartment construction site located in Seocho-dong, Seoul, Korea). When taking a picture, the 3D virtual space modeling system (management server 200) and the terminal 100 according to the present invention performs the interworking procedure (S20 ~ S90), the user only selects the object on the screen (touch) As such, the property information of the object (eg, ID information, manufacturing information, construction manager, specification, time limit, etc.) can be viewed.

이상, 본 발명에 따른 제어부(180)와 3차원 가상공간 모델링 시스템은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 그리고 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. As described above, the controller 180 and the 3D virtual space modeling system according to the present invention can be embodied as computer readable codes on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored.

상기 컴퓨터가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 상기 컴퓨터는 상기 제어부(180)와 3차원 가상공간 모델링 시스템을 포함할 수도 있다.Examples of the computer-readable medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) . The computer may include the controller 180 and a 3D virtual space modeling system.

이상의 본 발명의 예시는 휴대단말기(100)이 스마트 폰(smart phone)인 것으로 가정하고 설명한 것이다. 휴대단말기(100)이 만일, 테블릿 컴퓨터나 노트북 컴퓨터(notebook computer)와 같이, 저장과 cpu측 자원이 충분한 단말인 경우, BIM 시스템을 내장하여 원격지의 관리 서버(200)에 접속하지 않고도 휴대단말기(100, 예: 테블릿 컴퓨터나 노트북 컴퓨터) 자체적으로 상기 관리 서버(200)의 기능과 동작을 대체할 수 있다.Examples of the present invention have been described assuming that the mobile terminal 100 is a smart phone (smart phone). If the portable terminal 100 is a terminal with sufficient storage and cpu-side resources, such as a tablet computer or a notebook computer, the portable terminal 100 does not need to be connected to the remote management server 200 by embedding a BIM system. (100, for example, a tablet computer or a laptop computer) may replace the function and operation of the management server 200 by itself.

본 발명은 도면에 도시된 실시 예(들)를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형이 이루어질 수 있으며, 상기 설명된 실시예(들)의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, May be constructed by selectively or in combination. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

이상 기술된 바와 같이, 본 발명에 따른 공사현장 감리 시스템은 사용자가 공사현장을 촬영하면, 촬영된 이미지의 벡터촬영정보(예: 위치정보, 방위정보, 수직기울기 정보, 수평기울기 정보, 및 거리정보)를 검출하여 원격지의 관리서버에 저장된 해당 공사현장의 3차원 가상공간 모델에 연동되도록 하였다. 본 발명에 따른 사용자는 공사현장에서, 간단한 화면 터치만으로 상기 촬영된 이미지 상의 각 객체들의 속성값을 열람할 수 있다.As described above, the construction site supervision system according to the present invention, when the user photographs the construction site, the vector shooting information (eg, location information, orientation information, vertical tilt information, horizontal tilt information, and distance information) of the photographed image ) Is linked to the 3D virtual space model of the construction site stored in the remote management server. The user according to the present invention can view the attribute values of each object on the photographed image with a simple screen touch at the construction site.

본 발명은, 사용자가 공사현장을 촬영하고 촬영된 이미지를 터치하는 것만으로 간단히 화면 상 각 객체들의 속성값을 열람할 수 있도록 함으로써, 공사현장의 건축현황을 보다 쉽게 관리 감독할 수 있도록 하였으며, 특히 공사현장을 감리하는 사용자에게 공사현장에 관한 별다른 사전 준비없이 휴대단말기 하나만으로도 쉽게 감리업무를 수행할 수 있도록 하였다. The present invention enables the user to easily view the property values of each object on the screen by simply photographing the construction site and touching the photographed image, so that the construction status of the construction site can be more easily managed and supervised. Users who supervise the construction site can easily perform the supervision work with just one mobile terminal without any preparation for the construction site.

또한, 3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 거대한 빌딩이나 구조물을 기획하는 프로젝트에서 감리업무는 작업 전에 매우 복잡하고 다양한 정보를 준비해야 하는 등의 사전작업이 필요하지만, 본 발명에 따른 공사현장 감리 시스템과 휴대단말을 이용함으로써, 보다 편리하고 간단하게 감리업무를 수행할 수 있을 것을 기대된다.In addition, in a project for planning a huge building or structure that is under construction using a three-dimensional virtual space modeling system, the supervision work requires prior work, such as preparing a very complex and diverse information before work, By using a construction site supervision system and a mobile terminal, it is expected that the supervision work can be performed more conveniently and simply.

100 : 휴대단말기
110 : 무선통신부 120 : AV입력부
130 : 사용자 입력부 140 : 센싱부
150 : 출력부 160 : 메모리
170 : 인터페이스부 180 : 제어부
190 : 전원공급부 200 : 관리 서버
300 : 벡터촬영정보 검출부 310 : 위치 검출부
320 : 방위 검출부 330 : 수직 기울기 검출부
340 : 수평 기울기 검출부 350 : 거리 검출부
100: mobile terminal
110: wireless communication unit 120: AV input unit
130: user input unit 140: sensing unit
150: output unit 160: memory
170: interface unit 180: control unit
190: power supply 200: management server
300: vector shooting information detection unit 310: position detection unit
320: orientation detection unit 330: vertical tilt detection unit
340: horizontal tilt detection unit 350: distance detection unit

Claims (11)

3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 공사현장의 감리방법에 있어서,
단말(100)의 카메라를 통해 공사현장의 실사 이미지를 촬영하는 과정과;
촬영된 공사현장의 벡터촬영정보를 검출하는 과정과;
상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버(200)측으로 전송하는 과정과;
상기 관리서버(200)가 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하고 검출된 3차원 모델에서 각각의 개별 객체들을 검출하는 과정과;
상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 과정과;
상기 검출된 3차원 모델의 개별객체들의 속성정보와 매칭정보를 단말(100)측에 전달하는 과정과;
단말(100)이 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 터치 가능하도록 활성화시키는 과정과;
각 객체들이 활성화된 실사 이미지를 단말화면에 출력한 후 객체들을 터치하는 단말(100) 사용자의 입력이 감지되면, 해당 객체의 속성정보와 속성값 테이블을 공사현장의 감리정보로서 디스플레이하는 과정을 포함하여 이루어지며,
상기 단말(100)은
내장 카메라를 통해 공사현장의 실사 이미지를 촬영하는 카메라부(121)와;
촬영된 공사현장의 벡터촬영정보를 검출하는 벡터촬영정보 검출부(300)와;
제어부(180)의 제어에 따라 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버(200)측으로 전송하는 무선통신부(110)와;
상기 관리서버(200)로부터, 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키는 제어부(180)와;
각 객체들이 활성화된 실사 이미지를 단말화면에 출력하는 디스플레이부 (151)를 포함하여 구성되며,
상기 제어부(180)는 상기 단말화면의 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보와 속성값 테이블을 공사현장의 감리정보로서 디스플레이하는 것을 특징으로 하는 공사현장 감리방법.
In the method of supervising the construction site that uses the three-dimensional virtual space modeling system,
Photographing a live-action image of a construction site through a camera of the terminal 100;
Detecting vector photographing information of the photographed construction site;
Transmitting the photographed live image and the detected vector photographing information to a management server 200;
Detecting, by the management server (200), a three-dimensional model that matches the vector photographing information in a database of a three-dimensional virtual space modeling system and detecting individual objects in the detected three-dimensional model;
Generating matching information by matching respective objects on the live image with individual objects of the 3D model;
Transmitting attribute information and matching information of individual objects of the detected 3D model to the terminal (100);
Activating, by the terminal (100), the objects on the live image to be touchable by combining the transmitted matching information with the live image;
And displaying the attribute information and the attribute value table of the object as supervision information of the construction site when the input of the user of the terminal 100 touching the objects is detected after outputting the live image of each object activated on the terminal screen. Is done by
The terminal 100
A camera unit 121 for shooting a live-action image of a construction site through a built-in camera;
A vector shooting information detection unit 300 for detecting vector shooting information of the photographed construction site;
A wireless communication unit 110 for transmitting the photographed photorealistic image and the detected vector photographing information to a management server 200 under the control of the controller 180;
A control unit 180 for activating each object on the live image by combining the transmitted matching information with the live image when the attribute value and matching information of the 3D model are received from the management server 200;
It is configured to include a display unit 151 for outputting the live-action image activated by each object on the terminal screen,
The control unit 180, if a user input for touching the objects of the terminal screen is detected, supervision method for the construction site, characterized in that to display the attribute information and the attribute value table of the object as the construction site supervision information.
제1항에 있어서, 상기 벡터촬영정보 검출과정은
위치 검출부(310)에서, 단말(100)의 촬영지점 위치를 검출하는 과정과;
방위각 검출부(320)에서, 카메라(121)가 지향하는 방위각을 검출하는 과정과;
수직기울기 검출부(330)에서, 카메라(121)의 수직 기울기 각도를 검출하는 과정과;
수평기울기 검출부(340)에서, 카메라(121)의 수평 기울기 각도를 검출하는 과정을 포함하여 이루어지는 것을 특징으로 하는 공사현장 감리방법.
The method of claim 1, wherein the detecting process of the vector shooting information is performed.
Detecting, by the position detection unit 310, a location of a photographing point of the terminal 100;
Detecting, in the azimuth detection unit 320, the azimuth angle directed by the camera 121;
Detecting, at the vertical tilt detector 330, the vertical tilt angle of the camera 121;
Construction site supervision method comprising the step of detecting the horizontal tilt angle of the camera 121 in the horizontal tilt detection unit (340).
제1항에 있어서, 상기 3차원 모델에서 각각의 개별 객체들을 검출하는 과정은,
3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하는 과정과;
상기 벡터촬영정보에 포함된 촬영위치정보, 방위정보, 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 상기 3차원 모델에서 상기 단말 카메라의 3차원 좌표를 검출하는 과정과;
상기 벡터촬영정보에 포함된 수직기울기 정보, 수평기울기 정보 그리고 상기 단말 카메라의 3차원 좌표를 참조하여, 상기 실사 이미지와 동일한 모델링 이미지를 추출하는 과정과;
상기 추출된 모델링 이미지에서 각각의 개별 객체들을 검출하는 과정으로 이루어지는 것을 특징으로 하는 공사현장 감리방법.
The method of claim 1, wherein the detecting of each individual object in the three-dimensional model comprises:
Detecting a 3D model matching the vector photographing information from a database of a 3D virtual space modeling system;
Detecting three-dimensional coordinates of the terminal camera in the three-dimensional model by referring to the shooting position information, the orientation information, the lens angle information, and the shooting frame size and ratio information included in the vector shooting information;
Extracting the same modeling image as the live image by referring to the vertical gradient information, the horizontal gradient information, and the 3D coordinates of the terminal camera included in the vector photographing information;
Construction site supervision method comprising the step of detecting each individual object in the extracted modeling image.
3차원 가상공간 모델링 시스템을 이용하여 공사를 진행하는 공사현장에서 공사현장 감리에 사용되는 휴대단말기(100)에 있어서,
단말(100)의 카메라를 통해 공사현장의 실사 이미지를 촬영하는 카메라부(121)와;
촬영된 공사현장의 벡터촬영정보를 검출하는 벡터촬영정보 검출부(300)와;
제어부(180)의 제어에 따라 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버(200)측으로 전송하는 무선통신부(110)와;
상기 관리서버(200)로부터, 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 터치 가능하도록 활성화시키는 제어부(180)와;
각 객체들이 활성화된 실사 이미지를 단말화면에 출력하는 디스플레이부(151)를 포함하여 구성되며,
상기 제어부(180)는 상기 단말화면의 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보와 속성값 테이블을 공사현장의 감리정보로서 디스플레이하며,
상기 관리서버(200)는,
단말(100)로부터 상기 촬영된 실사 이미지와 검출된 벡터촬영정보가 수신되면, 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델과 3차원 모델 상의 각 개별 객체들을 검출하고,
상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 것을 특징으로 하는 공사현장 감리를 위한 휴대단말기.
In the mobile terminal 100 used for supervising the construction site in the construction site that proceeds using the three-dimensional virtual space modeling system,
A camera unit 121 for photographing a live-action image of a construction site through a camera of the terminal 100;
A vector shooting information detection unit 300 for detecting vector shooting information of the photographed construction site;
A wireless communication unit 110 for transmitting the photographed photorealistic image and the detected vector photographing information to a management server 200 under the control of the controller 180;
A controller 180 for activating each object on the live image to be touchable by combining the transmitted matching information with the live image, when the attribute value and matching information of the 3D model are received from the management server 200;
It is configured to include a display unit 151 for outputting the live-action image activated by each object on the terminal screen,
The controller 180 displays the attribute information and the attribute value table of the object as supervision information of the construction site when a user input of touching the objects on the terminal screen is detected.
The management server (200)
When the photographed photorealistic image and the detected vector photographing information are received from the terminal 100, the 3D model and the individual objects on the 3D model that match the vector photographing information are detected in a database of a 3D virtual space modeling system. ,
The mobile terminal for construction site supervision, characterized in that for generating matching information by matching each object on the live-action image and the individual objects of the three-dimensional model.
삭제delete 제4항에 있어서, 상기 3차원 모델에서 각각의 개별 객체들을 검출하는 과정에서, 관리서버(200)는,
3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하는 과정과;
상기 벡터촬영정보에 포함된 촬영위치정보, 방위정보, 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 상기 3차원 모델에서 상기 단말 카메라의 3차원 좌표를 검출하는 과정과;
상기 벡터촬영정보에 포함된 수직기울기 정보, 수평기울기 정보 그리고 상기 단말 카메라의 3차원 좌표를 참조하여, 상기 실사 이미지와 동일한 모델링 이미지를 추출하는 과정과;
상기 추출된 모델링 이미지에서 각각의 개별 객체들을 검출하는 과정을 수행하는 것을 특징으로 하는 공사현장 감리를 위한 휴대단말기.
The method of claim 4, wherein in the process of detecting each individual object in the 3D model, the management server 200,
Detecting a 3D model matching the vector photographing information from a database of a 3D virtual space modeling system;
Detecting three-dimensional coordinates of the terminal camera in the three-dimensional model by referring to the shooting position information, the orientation information, the lens angle information, and the shooting frame size and ratio information included in the vector shooting information;
Extracting the same modeling image as the live image by referring to the vertical gradient information, the horizontal gradient information, and the 3D coordinates of the terminal camera included in the vector photographing information;
And a process of detecting each individual object from the extracted modeling image.
제4항에 있어서, 상기 벡터촬영정보 검출부(300)는
단말(100)의 촬영지점 위치를 검출하는 위치 검출부(310)와;
카메라(121)가 지향하는 방위각을 검출하는 방위각 검출부(320)와;
카메라(121)의 수직 기울기 각도를 검출하는 수직기울기 검출부(330)와;
카메라(121)의 수평 기울기 각도를 검출하는 수평기울기 검출부(340)를 포함하여 구성되는 것을 특징으로 하는 공사현장 감리를 위한 휴대단말기.
The method of claim 4, wherein the vector shooting information detector 300
A position detector 310 for detecting a position of a photographing point of the terminal 100;
An azimuth detector 320 for detecting an azimuth angle directed by the camera 121;
A vertical tilt detector 330 for detecting a vertical tilt angle of the camera 121;
Mobile terminal for construction site supervision comprising a horizontal tilt detection unit for detecting the horizontal tilt angle of the camera (121).
3차원 가상공간 모델링 시스템을 이용하여 공사현장에 제공되는 공사현장 감리 시스템에 있어서,
공사현장의 실사 이미지를 촬영하고, 촬영된 공사현장의 벡터촬영정보를 검출하는 휴대단말기(100)와;
휴대단말기(100)로부터 상기 촬영된 실사 이미지와 검출된 벡터촬영정보가 수신되면, 3차원 가상공간 모델링 시스템의 데이터베이스에서 상기 벡터촬영정보와 일치하는 3차원 모델을 검출하고 검출된 3차원 모델에서 각각의 개별 객체들을 검출하고 상기 실사 이미지 상의 각 객체들과 상기 3차원 모델의 개별 객체들을 각각 매칭시켜 매칭정보를 생성하는 관리서버(200)를 포함하여 구성되며,
상기 휴대단말기(100)는
관리서버(200)로부터 상기 검출된 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 터치 가능하도록 활성화시키고 각 객체들이 활성화된 실사 이미지를 단말화면에 출력한 후 객체들을 터치하는 단말(100) 사용자의 입력이 감지되면, 해당 객체의 속성정보와 속성값 테이블을 공사현장의 감리정보로서 디스플레이하며,
상기 휴대단말기(100)는
내장 카메라를 통해 공사현장의 실사 이미지를 촬영하는 카메라부(121)와;
촬영된 공사현장의 벡터촬영정보를 검출하는 벡터촬영정보 검출부(300)와;
제어부(180)의 제어에 따라 상기 촬영된 실사 이미지와 검출된 벡터촬영정보를 관리서버(200)측으로 전송하는 무선통신부(110)와;
상기 관리서버(200)로부터, 3차원 모델의 속성값과 매칭정보가 수신되면, 상기 실사 이미지에 상기 전송된 매칭정보를 결합하여 실사 이미지 상의 각 객체들을 활성화시키는 제어부(180)와;
각 객체들이 활성화된 실사 이미지를 단말화면에 출력하는 디스플레이부 (151)를 포함하여 구성되며,
상기 제어부(180)는 상기 단말화면의 객체들을 터치하는 사용자 입력이 감지되면, 해당 객체의 속성정보들을 디스플레이하는 것을 특징으로 하는 공사현장 감리 시스템.
In the construction site supervision system provided to the construction site using a three-dimensional virtual space modeling system,
A mobile terminal 100 for photographing a live-action image of a construction site and detecting vector photographing information of the photographed construction site;
When the photographed live image and the detected vector photographing information are received from the mobile terminal 100, a 3D model matching the vector photographing information is detected in a database of a 3D virtual space modeling system, and each of the detected 3D models is detected. And a management server 200 for detecting individual objects of the object and matching each object on the photorealistic image with individual objects of the 3D model to generate matching information.
The mobile terminal 100
When the attribute value of the detected 3D model and matching information are received from the management server 200, the transmitted matching information is combined with the live image to activate each object on the live image to be touchable, and each object is activated. After outputting the live-action image on the terminal screen and detecting the input of the user of the terminal 100 touching the objects, the attribute information and attribute value table of the object are displayed as supervision information of the construction site,
The mobile terminal 100
A camera unit 121 for shooting a live-action image of a construction site through a built-in camera;
A vector shooting information detection unit 300 for detecting vector shooting information of the photographed construction site;
A wireless communication unit 110 for transmitting the photographed photorealistic image and the detected vector photographing information to a management server 200 under the control of the controller 180;
A control unit 180 for activating each object on the live image by combining the transmitted matching information with the live image when the attribute value and matching information of the 3D model are received from the management server 200;
It is configured to include a display unit 151 for outputting the live-action image activated by each object on the terminal screen,
The control unit 180, if a user input for touching the object of the terminal screen is detected, supervised construction site, characterized in that for displaying the attribute information of the object.
삭제delete 제8항에 있어서, 상기 벡터촬영정보 검출부(300)는
단말(100)의 촬영지점 위치를 검출하는 위치 검출부(310)와;
카메라(121)가 지향하는 방위각을 검출하는 방위각 검출부(320)와;
카메라(121)의 수직 기울기 각도를 검출하는 수직기울기 검출부(330)와;
카메라(121)의 수평 기울기 각도를 검출하는 수평기울기 검출부(340)와;
상기 단말(100)과 피사체까지의 거리를 검출하는 거리 검출부(350)를 포함하여 구성되는 것을 특징으로 하는 공사현장 감리 시스템.
The method of claim 8, wherein the vector shooting information detector 300
A position detector 310 for detecting a position of a photographing point of the terminal 100;
An azimuth detector 320 for detecting an azimuth angle directed by the camera 121;
A vertical tilt detector 330 for detecting a vertical tilt angle of the camera 121;
A horizontal tilt detector 340 for detecting a horizontal tilt angle of the camera 121;
Construction site supervision system, characterized in that it comprises a distance detector for detecting the distance between the terminal (100) and the subject.
제8항에 있어서, 상기 관리서버(200)는
상기 3차원 모델에서 각각의 개별 객체들을 검출하기 위해, 상기 벡터촬영정보에 포함된 촬영위치정보, 방위정보, 렌즈화각 정보, 촬영 프레임 크기와 비율정보를 참조하여, 상기 3차원 모델에서 상기 단말 카메라의 3차원 좌표를 검출하고,
상기 벡터촬영정보에 포함된 수직기울기 정보, 수평기울기 정보 그리고 상기 단말 카메라의 3차원 좌표를 참조하여, 상기 실사 이미지와 동일한 모델링 이미지를 추출하고,
상기 추출된 모델링 이미지에서 각각의 개별 객체들을 검출하는 것을 특징으로 하는 공사현장 감리 시스템.
The method of claim 8, wherein the management server 200
In order to detect each individual object in the three-dimensional model, the terminal camera in the three-dimensional model with reference to the shooting position information, orientation information, lens angle information, shooting frame size and ratio information included in the vector shooting information Detect the three-dimensional coordinates of,
The same modeling image as the real image is extracted by referring to the vertical tilt information, the horizontal tilt information, and the three-dimensional coordinates of the terminal camera included in the vector photographing information.
Construction site supervision system, characterized in that for detecting each individual object in the extracted modeling image.
KR1020130078864A 2013-07-05 2013-07-05 System and method for supervision of construction site KR101354688B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130078864A KR101354688B1 (en) 2013-07-05 2013-07-05 System and method for supervision of construction site

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130078864A KR101354688B1 (en) 2013-07-05 2013-07-05 System and method for supervision of construction site

Publications (1)

Publication Number Publication Date
KR101354688B1 true KR101354688B1 (en) 2014-01-27

Family

ID=50146264

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130078864A KR101354688B1 (en) 2013-07-05 2013-07-05 System and method for supervision of construction site

Country Status (1)

Country Link
KR (1) KR101354688B1 (en)

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101482380B1 (en) 2013-02-28 2015-01-14 한국남부발전 주식회사 System for construction information creation and method for construction information creation using the same
KR101583723B1 (en) * 2015-01-16 2016-01-08 단국대학교 산학협력단 Interactive synchronizing system of BIM digital model and Real construction site
KR101595243B1 (en) * 2015-05-04 2016-02-19 주식회사 두올테크 Automatic modeling system for facility in field based building information modeling and method thereof
KR20160118899A (en) * 2015-04-03 2016-10-12 주식회사 씨엠엑스건축사사무소 Method, appratus and computer-readable recording medium for supporting field survey regarding building
EP3223221A1 (en) * 2016-03-22 2017-09-27 Hexagon Technology Center GmbH Construction management
WO2017176502A1 (en) * 2016-04-05 2017-10-12 Lynch & Associates - Engineering Consultants, LLC Electronic project management system
KR101798097B1 (en) * 2016-08-16 2017-11-16 김영대 Method for integrated management including building construction and maintenance of based on video
KR101844726B1 (en) * 2017-12-11 2018-04-02 이태영 Drone for construction suprvision and the method of supervision using the same
KR101844718B1 (en) 2017-08-31 2018-04-02 김용옥 Mobile terminal for construction supervision
KR101844533B1 (en) * 2016-04-22 2018-04-03 한국토지주택공사 Construction Monitering System for monitering progress of construction and Method thereof
KR101914386B1 (en) * 2017-08-31 2018-11-01 김용옥 Mobile terminal for construction supervision
KR101933652B1 (en) * 2017-03-23 2018-12-28 신승연 Indoor location based intelligent photo generation method and system
KR20190002834A (en) * 2017-06-30 2019-01-09 강동민 Home styling server and a system comprising the same, and a method for processing image for the home styling
KR101958635B1 (en) * 2018-09-13 2019-04-04 반석기초이앤씨(주) Mobile application system using reinforced coupler and management method of supervision of reinforcing steel construction using it
CN109754143A (en) * 2017-11-08 2019-05-14 上海宝冶集团有限公司 Method based on unmanned plane and Building Information Model management engineering place
KR101988356B1 (en) * 2018-03-30 2019-09-30 (주)대우건설 Smart field management system through 3d digitization of construction site and analysis of virtual construction image
KR102033570B1 (en) * 2019-07-16 2019-10-17 한국교통대학교산학협력단 A Camera System For Remote Safety Management of Construction Site
KR102039334B1 (en) 2019-04-25 2019-11-27 김용진 A Remote Safety Management System for Construction Site
CN110546703A (en) * 2017-02-22 2019-12-06 米德查特有限责任公司 Improved building model with as built features and capture of experience data
KR20200015963A (en) 2018-08-06 2020-02-14 현대건설주식회사 Automatic Indoor Costruction progress inspection system and methodology using 360 degree Camera
KR102128696B1 (en) 2020-02-13 2020-06-30 (주)한국전산감리원 Driving method for construction site supervision and security sysgem
KR102148367B1 (en) 2020-02-13 2020-08-26 (주)한국전산감리원 Construction site supervision and security sysgem
US10760991B2 (en) 2017-02-22 2020-09-01 Middle Chart, LLC Hierarchical actions based upon monitored building conditions
US10762251B2 (en) 2017-02-22 2020-09-01 Middle Chart, LLC System for conducting a service call with orienteering
US10776529B2 (en) 2017-02-22 2020-09-15 Middle Chart, LLC Method and apparatus for enhanced automated wireless orienteering
US10824774B2 (en) 2019-01-17 2020-11-03 Middle Chart, LLC Methods and apparatus for healthcare facility optimization
US10831945B2 (en) 2017-02-22 2020-11-10 Middle Chart, LLC Apparatus for operation of connected infrastructure
US10872179B2 (en) 2017-02-22 2020-12-22 Middle Chart, LLC Method and apparatus for automated site augmentation
KR102201614B1 (en) 2020-08-07 2021-01-12 (주)한국전산감리원 Construction site supervision and security system
US10902160B2 (en) 2017-02-22 2021-01-26 Middle Chart, LLC Cold storage environmental control and product tracking
US10949579B2 (en) 2017-02-22 2021-03-16 Middle Chart, LLC Method and apparatus for enhanced position and orientation determination
KR102232181B1 (en) 2021-01-04 2021-03-25 (주)케이씨에이 Construction site supervision and security system
US11010501B2 (en) 2017-02-22 2021-05-18 Middle Chart, LLC Monitoring users and conditions in a structure
WO2021132907A1 (en) * 2019-12-24 2021-07-01 주식회사 동우 이앤씨 System for supervising construction of structure by using tower crane and method therefor
US11054335B2 (en) 2017-02-22 2021-07-06 Middle Chart, LLC Method and apparatus for augmented virtual models and orienteering
US11120172B2 (en) 2017-02-22 2021-09-14 Middle Chart, LLC Apparatus for determining an item of equipment in a direction of interest
US11188686B2 (en) 2017-02-22 2021-11-30 Middle Chart, LLC Method and apparatus for holographic display based upon position and direction
KR102354181B1 (en) * 2020-12-31 2022-01-21 주식회사 나인티나인 A construction information management system for visualising data and a method for controlling the same
KR102366840B1 (en) 2021-02-08 2022-02-24 (주)아이언박스 methods for detecting construction objects based on artificial intelligence and cloud platform system for providing construction supervision service and system thereof
US11468209B2 (en) 2017-02-22 2022-10-11 Middle Chart, LLC Method and apparatus for display of digital content associated with a location in a wireless communications area
US11475177B2 (en) 2017-02-22 2022-10-18 Middle Chart, LLC Method and apparatus for improved position and orientation based information display
US11481527B2 (en) 2017-02-22 2022-10-25 Middle Chart, LLC Apparatus for displaying information about an item of equipment in a direction of interest
US11593536B2 (en) 2019-01-17 2023-02-28 Middle Chart, LLC Methods and apparatus for communicating geolocated data
US11625510B2 (en) 2017-02-22 2023-04-11 Middle Chart, LLC Method and apparatus for presentation of digital content
KR102550090B1 (en) * 2023-02-14 2023-06-30 (주)정상티이씨 Supervising System
CN116703127A (en) * 2023-08-03 2023-09-05 山东青建智慧建筑科技有限公司 Building construction supervision method and system based on BIM
US11900022B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Apparatus for determining a position relative to a reference transceiver
US11900021B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Provision of digital content via a wearable eye covering

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266487A (en) * 1998-03-18 1999-09-28 Toshiba Corp Intelligent remote supervisory system and recording medium
KR20110000843A (en) * 2009-06-29 2011-01-06 주식회사 아이디폰 System for scene mornitoring using mobile terminal and method therefore
KR20120137739A (en) * 2011-06-13 2012-12-24 연세대학교 산학협력단 Location-based construction project management method and system
KR101195446B1 (en) * 2012-01-26 2012-12-24 이에스이 주식회사 A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266487A (en) * 1998-03-18 1999-09-28 Toshiba Corp Intelligent remote supervisory system and recording medium
KR20110000843A (en) * 2009-06-29 2011-01-06 주식회사 아이디폰 System for scene mornitoring using mobile terminal and method therefore
KR20120137739A (en) * 2011-06-13 2012-12-24 연세대학교 산학협력단 Location-based construction project management method and system
KR101195446B1 (en) * 2012-01-26 2012-12-24 이에스이 주식회사 A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101482380B1 (en) 2013-02-28 2015-01-14 한국남부발전 주식회사 System for construction information creation and method for construction information creation using the same
KR101583723B1 (en) * 2015-01-16 2016-01-08 단국대학교 산학협력단 Interactive synchronizing system of BIM digital model and Real construction site
KR101671235B1 (en) * 2015-04-03 2016-11-01 주식회사 씨엠엑스건축사사무소 Method, appratus and computer-readable recording medium for supporting field survey regarding building
KR20160118899A (en) * 2015-04-03 2016-10-12 주식회사 씨엠엑스건축사사무소 Method, appratus and computer-readable recording medium for supporting field survey regarding building
CN107636239A (en) * 2015-05-04 2018-01-26 Doall科技株式会社 Field type facility automation modeling system and method based on BIM
WO2016178453A1 (en) * 2015-05-04 2016-11-10 주식회사 두올테크 Bim-based on-site facility automation modeling system and method
KR101595243B1 (en) * 2015-05-04 2016-02-19 주식회사 두올테크 Automatic modeling system for facility in field based building information modeling and method thereof
EP3223221A1 (en) * 2016-03-22 2017-09-27 Hexagon Technology Center GmbH Construction management
US10664781B2 (en) 2016-03-22 2020-05-26 Hexagon Technology Center Gmbh Construction management system and method for linking data to a building information model
WO2017176502A1 (en) * 2016-04-05 2017-10-12 Lynch & Associates - Engineering Consultants, LLC Electronic project management system
KR101844533B1 (en) * 2016-04-22 2018-04-03 한국토지주택공사 Construction Monitering System for monitering progress of construction and Method thereof
KR101798097B1 (en) * 2016-08-16 2017-11-16 김영대 Method for integrated management including building construction and maintenance of based on video
CN109716381A (en) * 2016-08-16 2019-05-03 金英大 Construction and maintenance incorporated management method based on video
WO2018034470A1 (en) * 2016-08-16 2018-02-22 대성산업 주식회사 Video-based integrated management method for building construction and maintenance
US11354759B2 (en) 2016-08-16 2022-06-07 Young Tae Kim Method for integrated management including building construction and maintenance of based on video
CN110546703A (en) * 2017-02-22 2019-12-06 米德查特有限责任公司 Improved building model with as built features and capture of experience data
US10760991B2 (en) 2017-02-22 2020-09-01 Middle Chart, LLC Hierarchical actions based upon monitored building conditions
US11625510B2 (en) 2017-02-22 2023-04-11 Middle Chart, LLC Method and apparatus for presentation of digital content
CN110663274B (en) * 2017-02-22 2021-07-20 米德查特有限责任公司 Method and apparatus for tracking status of physical completion characteristics of residential structure
US11610033B2 (en) 2017-02-22 2023-03-21 Middle Chart, LLC Method and apparatus for augmented reality display of digital content associated with a location
US11900022B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Apparatus for determining a position relative to a reference transceiver
US11481527B2 (en) 2017-02-22 2022-10-25 Middle Chart, LLC Apparatus for displaying information about an item of equipment in a direction of interest
US11475177B2 (en) 2017-02-22 2022-10-18 Middle Chart, LLC Method and apparatus for improved position and orientation based information display
US11468209B2 (en) 2017-02-22 2022-10-11 Middle Chart, LLC Method and apparatus for display of digital content associated with a location in a wireless communications area
US11054335B2 (en) 2017-02-22 2021-07-06 Middle Chart, LLC Method and apparatus for augmented virtual models and orienteering
CN110663274A (en) * 2017-02-22 2020-01-07 米德查特有限责任公司 Improved building model with as built feature virtual capture and target performance tracking
US11429761B2 (en) 2017-02-22 2022-08-30 Middle Chart, LLC Method and apparatus for interacting with a node in a storage area
EP3586327A4 (en) * 2017-02-22 2020-03-11 Middle Chart, LLC Improved building model with capture of as built features and experiential data
EP3586553A4 (en) * 2017-02-22 2020-03-11 Middle Chart, LLC Improved building model with virtual capture of as built features and objective performance tracking
US11900021B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Provision of digital content via a wearable eye covering
US11900023B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Agent supportable device for pointing towards an item of interest
US11188686B2 (en) 2017-02-22 2021-11-30 Middle Chart, LLC Method and apparatus for holographic display based upon position and direction
US11893317B2 (en) 2017-02-22 2024-02-06 Middle Chart, LLC Method and apparatus for associating digital content with wireless transmission nodes in a wireless communication area
US10762251B2 (en) 2017-02-22 2020-09-01 Middle Chart, LLC System for conducting a service call with orienteering
US10776529B2 (en) 2017-02-22 2020-09-15 Middle Chart, LLC Method and apparatus for enhanced automated wireless orienteering
US11120172B2 (en) 2017-02-22 2021-09-14 Middle Chart, LLC Apparatus for determining an item of equipment in a direction of interest
US10831945B2 (en) 2017-02-22 2020-11-10 Middle Chart, LLC Apparatus for operation of connected infrastructure
US10866157B2 (en) 2017-02-22 2020-12-15 Middle Chart, LLC Monitoring a condition within a structure
US10872179B2 (en) 2017-02-22 2020-12-22 Middle Chart, LLC Method and apparatus for automated site augmentation
CN110546703B (en) * 2017-02-22 2021-01-01 米德查特有限责任公司 Improved building model with as built features and capture of experience data
US11106837B2 (en) 2017-02-22 2021-08-31 Middle Chart, LLC Method and apparatus for enhanced position and orientation based information display
US10902160B2 (en) 2017-02-22 2021-01-26 Middle Chart, LLC Cold storage environmental control and product tracking
US10949579B2 (en) 2017-02-22 2021-03-16 Middle Chart, LLC Method and apparatus for enhanced position and orientation determination
US11100260B2 (en) 2017-02-22 2021-08-24 Middle Chart, LLC Method and apparatus for interacting with a tag in a wireless communication area
US10983026B2 (en) 2017-02-22 2021-04-20 Middle Chart, LLC Methods of updating data in a virtual model of a structure
US10984147B2 (en) 2017-02-22 2021-04-20 Middle Chart, LLC Conducting a service call in a structure
US10984148B2 (en) 2017-02-22 2021-04-20 Middle Chart, LLC Methods for generating a user interface based upon orientation of a smart device
US11010501B2 (en) 2017-02-22 2021-05-18 Middle Chart, LLC Monitoring users and conditions in a structure
US11080439B2 (en) 2017-02-22 2021-08-03 Middle Chart, LLC Method and apparatus for interacting with a tag in a cold storage area
KR101933652B1 (en) * 2017-03-23 2018-12-28 신승연 Indoor location based intelligent photo generation method and system
KR102019299B1 (en) 2017-06-30 2019-09-06 강동민 Home styling server and a system comprising the same, and a method for processing image for the home styling
KR20190002834A (en) * 2017-06-30 2019-01-09 강동민 Home styling server and a system comprising the same, and a method for processing image for the home styling
KR101914386B1 (en) * 2017-08-31 2018-11-01 김용옥 Mobile terminal for construction supervision
KR101844718B1 (en) 2017-08-31 2018-04-02 김용옥 Mobile terminal for construction supervision
CN109754143A (en) * 2017-11-08 2019-05-14 上海宝冶集团有限公司 Method based on unmanned plane and Building Information Model management engineering place
KR101844726B1 (en) * 2017-12-11 2018-04-02 이태영 Drone for construction suprvision and the method of supervision using the same
KR101988356B1 (en) * 2018-03-30 2019-09-30 (주)대우건설 Smart field management system through 3d digitization of construction site and analysis of virtual construction image
KR20200015963A (en) 2018-08-06 2020-02-14 현대건설주식회사 Automatic Indoor Costruction progress inspection system and methodology using 360 degree Camera
KR101958635B1 (en) * 2018-09-13 2019-04-04 반석기초이앤씨(주) Mobile application system using reinforced coupler and management method of supervision of reinforcing steel construction using it
US11436388B2 (en) 2019-01-17 2022-09-06 Middle Chart, LLC Methods and apparatus for procedure tracking
US11861269B2 (en) 2019-01-17 2024-01-02 Middle Chart, LLC Methods of determining location with self-verifying array of nodes
US11593536B2 (en) 2019-01-17 2023-02-28 Middle Chart, LLC Methods and apparatus for communicating geolocated data
US10824774B2 (en) 2019-01-17 2020-11-03 Middle Chart, LLC Methods and apparatus for healthcare facility optimization
US11636236B2 (en) 2019-01-17 2023-04-25 Middle Chart, LLC Methods and apparatus for procedure tracking
US11042672B2 (en) 2019-01-17 2021-06-22 Middle Chart, LLC Methods and apparatus for healthcare procedure tracking
KR102039334B1 (en) 2019-04-25 2019-11-27 김용진 A Remote Safety Management System for Construction Site
KR102033570B1 (en) * 2019-07-16 2019-10-17 한국교통대학교산학협력단 A Camera System For Remote Safety Management of Construction Site
WO2021132907A1 (en) * 2019-12-24 2021-07-01 주식회사 동우 이앤씨 System for supervising construction of structure by using tower crane and method therefor
KR102128696B1 (en) 2020-02-13 2020-06-30 (주)한국전산감리원 Driving method for construction site supervision and security sysgem
KR102148367B1 (en) 2020-02-13 2020-08-26 (주)한국전산감리원 Construction site supervision and security sysgem
KR102201614B1 (en) 2020-08-07 2021-01-12 (주)한국전산감리원 Construction site supervision and security system
KR102354181B1 (en) * 2020-12-31 2022-01-21 주식회사 나인티나인 A construction information management system for visualising data and a method for controlling the same
KR102232181B1 (en) 2021-01-04 2021-03-25 (주)케이씨에이 Construction site supervision and security system
KR102366840B1 (en) 2021-02-08 2022-02-24 (주)아이언박스 methods for detecting construction objects based on artificial intelligence and cloud platform system for providing construction supervision service and system thereof
KR102572116B1 (en) * 2023-02-14 2023-08-29 (주)정상티이씨 Construction site multi-angle supervision system using lidar sensor
KR102550090B1 (en) * 2023-02-14 2023-06-30 (주)정상티이씨 Supervising System
CN116703127A (en) * 2023-08-03 2023-09-05 山东青建智慧建筑科技有限公司 Building construction supervision method and system based on BIM
CN116703127B (en) * 2023-08-03 2024-05-14 山东青建智慧建筑科技有限公司 Building construction supervision method and system based on BIM

Similar Documents

Publication Publication Date Title
KR101354688B1 (en) System and method for supervision of construction site
JP6525229B1 (en) Digital search security system, method and program
US9269196B1 (en) Photo-image-based 3D modeling system on a mobile device
KR101260576B1 (en) User Equipment and Method for providing AR service
KR102362117B1 (en) Electroninc device for providing map information
JP5766795B2 (en) Mobile device-based content mapping for augmented reality environments
KR102289745B1 (en) System and method for real-time monitoring field work
CN111815675B (en) Target object tracking method and device, electronic equipment and storage medium
KR101255950B1 (en) Location-based construction project management method and system
JP6496671B2 (en) Information processing apparatus, terminal apparatus, information processing method, and program
KR101844726B1 (en) Drone for construction suprvision and the method of supervision using the same
US20140375684A1 (en) Augmented Reality Technology
TW201013158A (en) Mobile imaging device as navigator
CN103827634A (en) Logo detection for indoor positioning
US10896327B1 (en) Device with a camera for locating hidden object
KR101515434B1 (en) Disaster reporting system and method
CN107193820B (en) Position information acquisition method, device and equipment
CA3087871A1 (en) Apparatus, systems, and methods for tagging building features in a 3d space
US20220264004A1 (en) Generation of an image that is devoid of a person from images that include the person
US9292963B2 (en) Three-dimensional object model determination using a beacon
CA3069813C (en) Capturing, connecting and using building interior data from mobile devices
CN105069718B (en) Self-service monitoring method and system for smart homeland real estate based on mobile Internet of things
KR20220085150A (en) Intelligent construction site management supporting system server and method based extended reality
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
KR101914386B1 (en) Mobile terminal for construction supervision

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171226

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 6