KR20220064129A - Bim 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇 - Google Patents

Bim 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇 Download PDF

Info

Publication number
KR20220064129A
KR20220064129A KR1020200150308A KR20200150308A KR20220064129A KR 20220064129 A KR20220064129 A KR 20220064129A KR 1020200150308 A KR1020200150308 A KR 1020200150308A KR 20200150308 A KR20200150308 A KR 20200150308A KR 20220064129 A KR20220064129 A KR 20220064129A
Authority
KR
South Korea
Prior art keywords
robot
bim
data
driving
autonomous driving
Prior art date
Application number
KR1020200150308A
Other languages
English (en)
Inventor
장세준
이현주
정남철
Original Assignee
현대건설주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대건설주식회사 filed Critical 현대건설주식회사
Priority to KR1020200150308A priority Critical patent/KR20220064129A/ko
Publication of KR20220064129A publication Critical patent/KR20220064129A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • G05D2201/0217

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 BIM 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇에 관한 것이다. 이를 위해, BIM서버(300)에 BIM 데이터(305)가 저장되는 단계(S100); BIM 데이터(305)를 주행로봇(200)의 자율주행에 필요한 맵데이터(355)로 변환하는 단계(S110); 주행로봇(200)이 상기 맵 데이터(355)를 로딩하는 단계(S120); 주행로봇(200)이 건설현장(10) 내에서 현재 위치를 인식하는 단계(S130); 및 주행로봇(200)이 맵 데이터(355)와 현재 위치에 기초하여 주행하면서 소정의 작업을 수행하는 단계(S140);를 포함하는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법이 제공된다.

Description

BIM 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇{Self-driving methods of robots using BIM data and robots for performing them}
본 발명은 BIM 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇에 관한 것이다.
종래의 아파트 또는 빌딩의 건설현장(10), 대형 플랜트의 건설현장(10), 터널, 댐, 교량 등의 건설현장(10) 등에서는 다양한 건설장비 뿐만 아니라 분업화된 다수의 작업자가 종사하게 된다. 예를 들어, 토목작업자, 전기작업자, 배관작업자, 통신작업자, 관리자, 감리자, 도장작업자, 미장작업자, 인테리어작업자, 가스작업자, 신호수, 중장비운전자(예 : 크레인, 포크레인, 지게차, 덤프트럭, 콘크리트 펌프카 등), 기타 일용직 등이다. 그리고, 대형 건설현장(10)에서는 다수의 공종이 동시에 진행되곤 한다.
그런데, 최근, 이러한 빌딩이나 플랜트 건설현장에 로봇을 투입하여 현장을 촬영함으로써 공정을 디지털 기록화하고, 안전사고(예 : 화재, 안전모 미착용 등)를 미리 방지하며, 현장을 원격 관리하고자 하는 시도가 있다. 이렇게 투입되는 로봇은 자율주행(Naviation)이 가능하여야 하고, 다시 말해, 주행 중 장애물이나 작업자를 회피할 수 있어야 한다. 이러한 자율주행을 위해서는 SLAM(Simulataneous Localization and Mapping)맵이 필요했다.
도 6은 1차 SLAM맵(330)의 일예이고, 도 7은 1차 SLAM맵(330)으로부터 생성된 2차 SLAM맵(350)의 일예이다. 1차 SLAM맵(330)은 카메라(250)가 촬영한 이미지 또는 영상에 기초하여 생성되는 것이고, 2차 SLAM맵(350)은 1차 SLAM맵(330)을 가공하여 생성된다.
그런데, 건설 현장의 특성상 매일매일 현장의 상황이 변하기 때문에 고정된 하나의 맵을 가지고는 로봇의 자율주행이 불가능했다. 따라서, 1회의 자율주행을 위해서는 최신의 맵이 필요했고, 다음 번 자율주행을 위해서는 최신의 맵으로부터 또 다시 갱신된 맵이 필요했다. 이는 로봇이 자율 주행을 할때마다 조작자가 매번 맵을 갱신해 줘야 한다는 것을 의미한다.
구체적으로, 맵의 갱신을 위해서는 해당 구역 전체에 대해 조작자가 주행로봇의 곁에서 주행로봇을 수동으로 주행시키면서 맵을 생성하였다. 이와 같이 맵을 만드는 과정을 SLAM이라 하는데 매번 많은 노력과 시간이 투입되어야 하고, 이러한 과정이 매일 반복되어야 하는 비효율성이 있었다.
1. 대한민국 특허등록 제 10-1544537 호(BIM 기반 데이터 마이닝 시스템 및 그 운영방법), 2. 대한민국 특허등록 제 10-1546705 호(BIM 데이터 처리단말 장치의 건물내부 BIM데이터 가시화 방법), 3. 대한민국 특허등록 제 10-1949525 호(무인탐지장치를 이용한 현장 안전관리 시스템), 4. 대한민국 특허공개 제 10-2019-0029746 호(현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치).
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 BIM 데이터로부터 변환된 맵 데이터에 기초하여 건설현장 내를 자율주행할 수 있도록 BIM 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇을 제공하는 것이다.
다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기의 기술적 과제를 달성하기 위하여, BIM서버(300)에 BIM 데이터(305)가 저장되는 단계(S100); BIM 데이터(305)를 주행로봇(200)의 자율주행에 필요한 맵데이터(355)로 변환하는 단계(S110); 주행로봇(200)이 맵 데이터(355)를 로딩하는 단계(S120); 주행로봇(200)이 건설현장(10) 내에서 현재 위치를 인식하는 단계(S130); 및 주행로봇(200)이 맵 데이터(355)와 현재 위치에 기초하여 주행하면서 소정의 작업을 수행하는 단계(S140);를 포함하는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법이 제공된다.
또한, 맵 데이터(355)의 로딩단계(S120)는 무선통신으로 전송될 수 있다.
또한, 현재 위치 인식단계(S130)는 주행로봇(200)의 전방에 설치된 주행카메라(230) 및 라이다(240)중 적어도 하나를 이용한다.
또한, BIM서버(300)의 BIM데이터(305)는 소정시간 마다 갱신되고, 주행로봇(200)은 소정시간 동안 대기하는 단계(S150)를 더 포함한다.
또한, 소정시간은 1시간 ~ 24시간 범위이다.
또한, 소정 작업은, 주행로봇(200)에 설치된 카메라(250)로 건설현장(10)을 촬영하는 것을 포함할 수 있다.
또한, 카메라(250)가 촬영한 이미지는 통신부(440)를 통해 외부기기로 전송될 수 있다.
또한, BIM 데이터(305)는 외부의 클라이언트 컴퓨터(360)로부터 입력된다.
본 발명의 목적은 또 다른 카테고리로써, 전술한 자율주행 방법을 수행하기 위한 로봇으로써, BIM 데이터(305)로부터 변환된 맵데이터(355)가 수신되어 저장되는 맵 데이터부(450); 건설현장(10) 내에서 맵 데이터(355)에 기초하여 자율주행이 가능한 주행로봇(200); 주행로봇(200) 상에 탑재되고, 건설현장(10)의 이미지 촬영이 가능한 카메라(250); 카메라(250)가 촬영한 이미지를 외부기기로 전송하는 통신부(440); 및 이미지를 저장하는 저장부(430);를 포함하는 것을 특징으로 하는 BIM 데이터를 이용한 자율주행 로봇에 의해서도 달성될 수 있다.
또한, 통신부(440)는 맵 데이터(355)를 수신한다.
또한, BIM 데이터(305)가 저장되고, BIM 데이터(305)를 맵 데이터(355)로 변환하며, 변환된 맵 데이터(355)를 주행로봇(200)으로 전송하는 BIM 서버(300)를 더 포함할 수 있다.
또한, BIM 데이터(305)를 생성하여 BIM 서버(300)로 전송하는 클라이언트 컴퓨터(360)를 더 포함한다.
본 발명의 일실시예에 따르면, 조작자가 넓은 건설현장에 대해 매일 수동으로 로봇을 주행시키면서 맵을 생성하지 않아도 되는 편리함이 있다.
또한, 매일매일 갱신되는 BIM 데이터를 맵 데이터로 변환하여 변환된 맵 데이터를 BIM 서버로부터 무선으로 전송받을 수 있기 때문에 별도의 맵 생성, 데이터 전송 또는 갱신을 위한 조작자나 관리자의 수고를 생략할 수 있다.
또한, 하나의 BIM 서버로 복수의 주행로봇(200)을 운영할 수 있기 때문에 각 건설현장의 크기에 따라 다양한 조합이 가능하고, 생산성과 효율성을 높일 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 본 발명의 일실시예에 따른 BIM 데이터를 이용한 로봇의 자율주행 시스템 개략적인 구성도,
도 2a는 BIM 데이터(305)에 의해 구축된 BIM모델(320),
도 2b는 건설현장(10) 내에서 본 발명에 따른 주행로봇(200)이 맵데이터에 따라 주행하면서 소정의 작업을 수행하는 상태를 나타내는 작업사시도,
도 3은 도 1에 도시된 BIM서버(300) 내부의 BIM 데이터(305)와 맵 데이터(355)를 나타내는 데이터 구조도,
도 4는 도 1에 도시된 주행로봇(200)의 개략적인 사시도,
도 5는 본 발명에 따른 BIM 데이터를 이용한 자율주행 로봇의 개략적인 블럭도,
도 6은 종래의 1차 SLAM맵(330)의 일예,
도 7은 종래의 1차 SLAM맵(330)으로부터 생성된 2차 SLAM맵(350)의 일예,
도 8은 본 발명에 따른 일실시예로써, BIM 데이터로부터 변환된 맵 데이터의 일예,
도 9는 본 발명의 일실시예에 따른 자율주행 방법을 개략적으로 나타내는 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
실시예의 구성
이하, 첨부된 도면을 참조하여 바람직한 실시예의 구성을 상세히 설명하기로 한다.
먼저, 본 발명에서 BIM(Building Information Modeling)이란 3차원 정보모델을 기반으로 건물의 생애주기에 걸쳐 발생하는 모든 정보를 통합하여 활용이 가능하도록 시설물의 형상, 속성 등을 정보로 표현한 디지털 모형을 뜻한다. 이러한 BIM 기술의 활용으로 기존의 2차원 도면 환경에서는 달성이 어려웠던 기획, 설계, 시공, 유지관리 단계의 사업정보 통합관리를 통해, 설계 품질 및 생산성 향상, 시공오차 최소화, 체계적 유지관리 등이 이루어질 수 있다.
BIM은 관점과 정보의 수준에 따라 크게 3가지 뜻으로 구분할 수 있다. 첫째, BIM은 건물을 표현하는 하나의 정보 집합이다. 이는 BIM을 특정 소프트웨어에서 만든 하나 혹은 여러 개의 모델파일(예: Revit 모델, ArchiCAD 모델 등)로 보는 경우이다. 이 경우 BIM을 Building Information Model(건축정보모델)로 표현하는 초창기 개념에 속한다.
둘째, BIM을 건물 생애 주기 동안의 정보처리 및 관리과정(process)이다. 이 경우 BIM은 Building Information Modeling 혹은 Building Information Management로 볼 수 있다. 최근 BIM의 구현 및 관리방법이 강조되면서 주로 사용되는 개념이다.
셋째, BIM을 소프트웨어적인 관점에서 빌딩관리를 위한 도구로서 Building Information Modeler로 본다. BIM은 오토데스크(Autodesk)사가 2003년 ‘Building Information Modelling’이라는 백서를 내면서 본격화되었다.
이러한 BIM의 근본적인 목적은 디자인 정보를 명확하게 하여 설계의도와 프로그램을 빠른 시간 내에 이해하고 평가함으로써 신속한 의사결정을 유도하도록 하는 것이다. BIM은 현재 건축계획, 설계, 엔지니어링, 시공, 유지, 관리, 에너지 등 건설 산업의 전 분야에 걸쳐 광범위하게 적용되어 가고 있다. 기존의 2차원 기반의 도면정보 체계를 건물의 실제 형상과 정보를 가지는 3차원 파라매트릭 솔리드 모델링 기반의 정보체계로 변경한 것이다.
대부분의 BIM용 프로그램들은 국제 표준 데이터 모델인 IFC(Industry Foundation Classes) 데이터를 읽고 저장하는 기능을 지원한다.
또한, BIM은 다차원 가상공간에 기획, 설계, 엔지니어링(구조, 설비, 전기 등), 시공 더 나아가 유지관리 및 폐기까지 가상으로 시설물을 모델링하는 과정이다. 특히, 다차원 가상설계 건설(Virtual Design Construction, VDC)과 유사한 개념이다. 최근 국제적으로 BIM의 적용범위는 건축분야 외에 토목 및 플랜트 분야에서도 많이 사용되고 있다.
BIM은 건물을 데이터화하여 수치 데이터를 만들며, 3차원의 디스플레이 효과를 볼 수 있다. 단순한 선, 면 작업이 아닌 선의 시작과 끝점을 잇는 길이의 데이터가 발생되어지고, 면은 닫힌 면의 기준으로 면적이 데이터화 된다. 그리고 길이와 면적의 데이터를 결합하면 체적 데이터를 얻을 수 있다.
BIM은 빌딩 객체들인 벽, 슬라브, 창, 문, 지붕, 계단 등이 각각의 속성을 표현하여 서로의 관계를 인지하고 건물의 변경요소들을 즉시 건물설계에 반영한다. 설계할 건물이 정형이든 비정형이든 상관없이, 건물을 지을 때 발생되어지는 데이터에 대하여 프로젝트 별, 프로세스 별로 호환, 공유를 통해 모든 단계의 정보를 통합 관리하고 활용한다.
도 1은 본 발명의 일실시예에 따른 BIM 데이터를 이용한 로봇의 자율주행 시스템 개략적인 구성도이다. 도 1에 도시된 바와 같이, 클라이언트 컴퓨터(360)의 담당자는 매일 변하는 건설현장(10)에 맞춰 BIM 데이터를 입력한다. 클라이언트 컴퓨터(360)를 통해 BIM 데이터는 매일 갱신되고, BIM서버(300)에 전송되어 저장된다.
BIM서버(300)는 BIM 데이터를 수신하여 저장하고, BIM 데이터로부터 맵 데이터를 변환하여 필요로 하는 단말이나 주행로봇(200)에 이를 제공한다.
네트워크(310)는 인터넷, 무선인터넷, 랜(LAN), 와이파이, 4G, 5G와 같은 무선통신망, 사내 인트라넷 등이 될 수 있다. 네트워크(310)는 유선 또는 무선이 될 수 있다.
주행로봇(200)은 건설현장(10) 내에 위치하며, BIM서버(300)와는 원격으로 떨어져 있다. 주행로봇(200)은 네트워크(310)를 통해 BIM서버(300)와 양방향 데이터 통신이 가능하다.
도 2a는 BIM 데이터(305)에 의해 구축된 BIM모델(320)이다. BIM 데이터(305)와 BIM모델(320)은 매일 매일 진척되는 건설현장(10)의 상황에 따라 갱신되어진다.
도 2b는 건설현장(10) 내에서 본 발명에 따른 주행로봇(200)이 맵데이터에 따라 주행하면서 소정의 작업(예 : 건설현장의 촬영, 녹화 등)을 수행하는 상태를 나타내는 작업사시도이다. 도 2b에 도시된 바와 같이, 건설현장(10)은 아파트 또는 빌딩의 건설현장, 대형 플랜트의 건설현장(10), 터널, 댐, 교량 등의 건설현장 등을 포함한다. 건설현장(10) 내에는 다수의 작업자(300)가 다양한 공종에 대해 작업을 수행하고 있다. 예를 들어, 고소작업을 위해 리프트(40)가 상승되어 있고, 어떤 작업자(300)는 바닥의 장애물(예 : 건축자재, 80)을 옮긴다. 주행로봇(200)은 이러한 건설현장(10) 내로 투입되어 미리 정해진 경로를 따라 이동하며 카메라(250)로 이미지를 촬영한다.
도 3은 도 1에 도시된 BIM서버(300) 내부의 BIM 데이터(305)와 맵 데이터(355)를 나타내는 데이터 구조도이다. 도 3에 도시된 바와 같이, BIM 데이터(305)는 헤더(Header), Ref_Skin1 ~ Ref_Skin[N], Ref_bone, 풋프린트(Footprint), 공간구조(SpacialStructure), blocks[1] ~ blocks[M], blocksBone으로 이루어지며, 폴더는 inLOD[N+1] ~ inLOD[M]를 포함하여 이루어진다.
헤더(Header)는 건물 외부용 LOD데이터 중 가장 간단한 구조인 LOD 0단계에 관한 정보를 포함한다. LOD 0단계는 바운딩 박스(Bounding Box)로도 표현할 수 있는 직육면체와 같은 간단 데이터로 이루어지며, 제2 LOD 생성부(78)는 LOD 0단계의 데이터를 별도로 생성하지 않는다.
Ref_Skin1 ~ Ref_Skin[N]는 건물 외피역할을 하는 객체(Object)들의 블록 레퍼런스(Block Reference) 정보를 단계별 건물 외부용 LOD(예: LOD 0 ~ LOD N) 별로 저장해 둔 파일이다.
Ref_bone은 건물 내부를 렌더링(Rendering)할 때 공간 인덱싱에 관계없이 항상 보여야 하는 객체들(Objects)의 블록 레퍼런스(Block Reference) 정보들을 모아 저장한 파일이다.
풋프린트(Footprint)는 건물의 확장된 Footprint 정보를 저장하는 파일이다. 건물 내/외부에 카메라가 있는지를 판단할 때 사용한다.
공간구조(SpacialStructure)는 건물의 공간 구조(Spacial Structure) 정보를 저장하는 파일이다.
blocks[1] ~ blocks[M], blocksBone은 건물이 가지고 있는 객체들(Objects)의 원본 기하(Geometry) 정보를 각 LOD/bone 별로 저장하는 파일들이다.
inLOD[N+1] ~ inLOD[M]는 단계별 건물 내부용 LOD데이터(예: LOD N+1 ~ LOD M) 각각에 대한 공간 인덱싱 정보들을 저장하는 폴더이다.
맵 데이터(355)는 BIM 데이터로부터 건물 특정 층의 평면도(외벽, 내벽, 칸막이, 슬라브, 방, 벽체, 복도, 기둥, 계단, 공동구, 시설물, 창문 등의 객체들을 포함)를 추출하여 변환함으로써 맵 데이터(355)를 생성하고, 생성된 맵 데이터(355)는 생성된 날짜와 시간별로 저장된다.
도 4는 도 1에 도시된 주행로봇(200)의 개략적인 사시도이고, 도 5는 본 발명에 따른 BIM 데이터를 이용한 자율주행 로봇의 개략적인 블럭도이다. 도 4 및 도 5에 도시된 바와 같이, 본 발명의 주행로봇(200)은 대략 연산부(400), 제어부(100) 및 로봇전원부(500)로 구별된다.
주행로봇(200)은 휠구동부(210), 휠조향부(220), 주행카메라(230) 라이다(240) 및 카메라(250)를 포함한다.
휠구동부(210)는 3개 ~ 6개의 휠중 적어도 일부를 구동하기 위한 모터와 구동회로로 구성된다. 휠구동부(210)는 주행로봇(200)을 이동시키기 위한 가속, 감속, 브레이크 동작을 수행한다. 이를 위해, 휠구동부(210)는 서보모터, 스테핑모터, 브러쉬리스DC 서보모터 등을 포함한다.
휠조향부(220)는 적어도 2개의 휠을 조향하여 주행로봇(200)이 원하는 경로로 이동하게 한다. 휠조향을 위해 휠조향부(220)는 서보모터, 스테핑모터, 브러쉬리스DC 서보모터, 리니어모터 등을 포함한다.
주행카메라(230)는 주행로봇(200)의 전방에 설치되고, 선택적으로 후방이나 측면에 추가될 수 있다. 주행카메라(230)는 피사체의 거리(깊이)를 검출할 수 있는 Depth 카메라, 3D 카메라, 스테레오 카메라 등이 될 수 있고, 촬영된 이미지는 디지털 이미지이거나 동영상중 캡쳐된 이미지일 수 있다. 이러한 주행카메라(230)는 주행로봇(200)의 전방에 있는 장애물(예 : 기둥, 작업자, 바닥장애물)을 촬영하여 장애물까지의 거리를 산출함으로써, 주행로봇(200)이 장애물 앞에서 정지, 감속하거나 우회할 수 있도록 한다. 주행카메라(230)는 주행로봇(200)의 현재 위치를 인식할때도 사용된다.
라이다(Lidar, 240)는 주행로봇(200)의 전방에 설치되어 반사되어 수광되는 레이저광으로부터 주행로봇(200)의 전방에 있는 장애물(예 : 기둥, 작업자, 바닥장애물)까지의 거리를 산출한다. 이렇게 산출된 거리는 주행로봇(200)이 현재 위치를 인식하는데 사용되거나 또는 주행로봇(200)이 장애물 앞에서 정지, 감속하거나 우회할 수 있도록 한다.
주행카메라(230)와 라이다(240)는 상호 보완적으로 구성할 수도 있고, 선택적으로 하나만 구성할 수도 있다.
카메라(250)는 주행로봇(200)에서 전방 또는 전체방향(Omni-Direction)을 촬영할 수 있도록 배향된다. 카메라(250)는 피사체까지의 거리(깊이)를 검출할 수 있는 Depth 카메라, 3D 카메라, 스테레오 카메라 등이 될 수 있고, 촬영된 이미지는 디지털 이미지이거나 동영상중 캡쳐된 이미지일 수 있다. 이러한 카메라(250)는 피사체를 포함한 배경을 촬영함으로써 제어부(100)가 촬영된 이미지로부터 피사체를 를 인식하고 피사체까지의 거리 또는 상대 위치를 산출하도록 한다. 카메라(250)는 주행로봇(200)의 현재 위치를 인식할때도 사용될 수 있다.
연산부(400)는 제어부(100)를 포함하여 컴퓨팅 프로세스가 이루어지는 구성이다. 연산부(400)는 퍼스널 컴퓨터, 노트북, 태블릿 PC등이 될 수 있다. 연산부(400)는 입출력부(410), 디스플레이(420), 저장부(430), 통신부(440), 및 맵 데이터부(450)를 포함한다.
입출력부(410)는 주행로봇(200)의 동작을 제어하거나 입력하기 위한 키보드, 마우스, USB포트, 키패드, 버튼, 방향키 등을 포함하고, 출력을 위해, LED 램프, 스피커, 디스플레이(420) 등을 포함한다.
디스플레이(420)는 주행로봇(200)의 현상태 표출을 위한 LCD 디스플레이가 될 수 있고, 터치스크린으로 입력 기능을 추가할 수 있다.
저장부(430)는 주행로봇(200)의 기본 환경설정 데이터, 운영체계, 실행프로그램 등을 저장하며, 카메라(250)가 촬영한 건설현장(10)의 이미지 등을 저장한다. 이러한 저장부(430)는 RAM, ROM, CD-ROM, 하드디스크, SSD, 플래쉬메모리(예 : SD카드) 등이 될 수 있다.
통신부(440)는 무선 또는 유선으로 외부와 양방향 데이터 통신이 가능한 통신모듈이다. 유선통신인 경우 UTP 또는 STP와 같은 랜케이블 통신, 광통신, 전화선통신, USB 통신모듈 등이 될 수 있다. 무선통신인 경우, 와이파이, 블루투스, 무선 랜, 4G, 5G, 적외선 통신, NFC, RFID, 초광대역(UWB) 통신모듈 등을 포함할 수 있다. 통신부(440)는 BIM서버(300)로부터 해당 층(Floor)의 맵 데이터(355)를 전송받을 수 있고, 주행로봇(200)에서 발생하는 데이터(예 : 주행 기록)와 이미지 등을 BIM서버(300) 또는 작업자의 핸드폰에 전송할 수 있다. 통신부(440)는 외부기기로부터의 주행, 로봇 동작, 카메라 등을 원격제어할 수 있도록 한다.
맵 데이터부(450)는 주행로봇(200)이 주행하기 위한 경로 데이터를 포함한다.
로봇전원부(500)는 충전 가능한 2차 전지로 구성되며, 주행로봇(200), 제어부(100) 및 연산부(400)에 필요한 전력을 공급한다.
실시예의 동작
이하, 첨부된 도면을 참조하여 바람직한 실시예의 동작을 상세히 설명하기로 한다. 도 9는 본 발명의 일실시예에 따른 자율주행 방법을 개략적으로 나타내는 흐름도이다. 도 9에 도시된 바와 같이, 먼저, BIM서버(300)에 BIM 데이터(305)가 저장된다(S100). 클라이언트 컴퓨터(360)의 담당자는 매일 변하는 건설현장(10)에 맞춰 BIM 데이터를 입력한다. 클라이언트 컴퓨터(360)를 통해 BIM 데이터는 매일 갱신되고, BIM서버(300)에 전송되어 저장된다.
그 다음, BIM 서버(300)는 BIM 데이터(305)를 맵 데이터(355)로 변환하여 저장한다(S110).
도 8은 본 발명에 따른 일실시예로써, BIM 데이터로부터 변환된 맵 데이터의 일예이다. 도 8에 도시된 바와 같이, 맵 데이터(355)는 BIM 데이터로부터 건물 특정 층의 평면도(외벽, 내벽, 칸막이, 슬라브, 방, 벽체, 복도, 기둥, 계단, 공동구, 시설물, 창문 등의 객체들을 포함)를 추출하여 변환함으로써 맵 데이터(355)를 생성한다.
그 다음, 변환된 맵 데이터(355)는 네트워크(310)를 통해 무선으로 건설현장(10)에 있는 주행로봇(200)으로 전송된다(S120). 전송된 맵 데이터(355)는 맵 데이터부(450)에 저장된다.
그 다음, 제어부(100)는 맵 데이터부(450)로부터 맵 데이터(355)를 로딩한다(S120).
그 다음, 제어부(100)는 건설현장(10) 내에서 현재 위치를 인식한다(S130). 현재 위치를 인식할 때, 카메라(250), 주행로봇(200)의 전방에 설치된 주행카메라(230) 및 라이다(240)를 모두 이용하여 보다 정확한 현재 위치를 인식한다. 이를 통해, 제어부(100)는 주행로봇(200)이 해당 건설현장(10) 내에서 어느 위치에 놓여 있는지를 인식할 수 있다. 이러한 현재 위치의 인식은 이동 오차를 줄이기 위해 이동중에도 실행될 수 있다.
그 다음, 주행로봇(200)은 맵 데이터(355)와 인식된 현재위치에 기초하여 건설현장(10) 내를 주행하면서 카메라(250)로 주변 영상을 촬영한다(S140). 주행로봇(200)은 인식된 현재위치로부터 주행경로(340)를 따라 이동한다. 이를 위해 주행로봇(200)은 휠구동부(210)로부터 회전속도, 가속도를 제어하고, 휠조향부(220)로부터 방향을 제어한다. 이동중에는 주행카메라(230)의 이미지 및 라이다(240) 신호를 활용하여 장애물을 식별하고, 회피하도록 한다.
제어부(100)는 카메라(250)에 의해 촬영된 이미지를 저장부(430)에 저장한다. 그 다음, 제어부(100)는 생성된 이미지를 외부기기(예 : BIM서버(300) 또는 관리자의 핸드폰이나 노트북 등)로 무선 전송한다.
이와 같은 S100단계 내지 S140 단계는 건설현장(10)의 작업 시작 전 또는 작업중에 수행될 수 있다.
그 다음, 주행로봇(200)은 8시간, 12시간, 18시간, 또는 24시간 동안 대기한다(S150). 이러한 대기시간은 하루 작업이 완료된 야간 시간이 될 수 있다. 그리고, 클라이언트 컴퓨터(360)의 담당자는 이를 다시 BIM서버(300)에 갱신(업데이트)한다. 이와 같은 과정이 매일 반복될 수 있다.
또한, 주행로봇(200)의 작업수행단계(S140)에서, 주행로봇(200)은 당일 아침에 수신된 맵 데이터(355)와 하루 전날 맵 데이터부(450)에 저장된 맵데이터(355)에 기초하여 더 정확한 주행을 할 수 있다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
10 : 건설현장,
20 : 천장,
30 : 기둥,
40 : 리프트,
80 : 바닥장애물,
100 : 제어부,
200 : 주행로봇,
210 : 휠구동부,
220 : 휠조향부,
230 : 주행카메라,
240 ; 라이다,
250 : 카메라,
300 : BIM 서버,
305 : BIM 데이터,
310 : 네트워크,
320 : BIM 모델,
330 : 1차 SLAM맵,
340 : 주행경로
350 : 2차 SLAM맵,
355 : 맵 데이터,
360 : 클라이언트 컴퓨터,
400 : 연산부,
410 : 입출력부,
420 : 디스플레이,
430 : 저장부,
440 : 통신부,
450 : 맵 데이터부,
500 : 로봇전원부.

Claims (12)

  1. BIM서버(300)에 BIM 데이터(305)가 저장되는 단계(S100);
    상기 BIM 데이터(305)를 주행로봇(200)의 자율주행에 필요한 맵데이터(355)로 변환하는 단계(S110);
    상기 주행로봇(200)이 상기 맵 데이터(355)를 로딩하는 단계(S120);
    상기 주행로봇(200)이 건설현장(10) 내에서 현재 위치를 인식하는 단계(S130); 및
    상기 주행로봇(200)이 상기 맵 데이터(355)와 상기 현재 위치에 기초하여 주행하면서 소정의 작업을 수행하는 단계(S140);를 포함하는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법.
  2. 제 1 항에 있어서,
    상기 맵 데이터(355)의 로딩단계(S120)는 무선통신으로 전송되는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법.
  3. 제 1 항에 있어서,
    상기 현재 위치 인식단계(S130)는 상기 주행로봇(200)의 전방에 설치된 주행카메라(230) 및 라이다(240)중 적어도 하나를 이용하는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법.
  4. 제 1 항에 있어서,
    상기 BIM서버(300)의 상기 BIM데이터(305)는 소정시간 마다 갱신되고,
    상기 주행로봇(200)은 상기 소정시간 동안 대기하는 단계(S150)를 더 포함하는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법.
  5. 제 4 항에 있어서,
    상기 소정시간은 1시간 ~ 24시간 범위인 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법.
  6. 제 4 항에 있어서,
    상기 소정 작업은, 상기 주행로봇(200)에 설치된 카메라(250)로 건설현장(10)을 촬영하는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법.
  7. 제 6 항에 있어서,
    상기 카메라(250)가 촬영한 이미지는 통신부(440)를 통해 외부기기로 전송되는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법.
  8. 제 1 항에 있어서,
    상기 BIM 데이터(305)는 외부의 클라이언트 컴퓨터(360)로부터 입력되는 것을 특징으로 하는 BIM 데이터를 이용한 로봇의 자율주행 방법.
  9. 제 1 항 내지 제 8 항중 어느 한 항에 의한 자율주행 방법을 수행하기 위한 로봇으로써,
    BIM 데이터(305)로부터 변환된 맵데이터(355)가 수신되어 저장되는 맵 데이터부(450);
    건설현장(10) 내에서 상기 맵 데이터(355)에 기초하여 자율주행이 가능한 주행로봇(200);
    상기 주행로봇(200) 상에 탑재되고, 상기 건설현장(10)의 이미지 촬영이 가능한 카메라(250);
    상기 카메라(250)가 촬영한 이미지를 외부기기로 전송하는 통신부(440); 및
    상기 이미지를 저장하는 저장부(430);를 포함하는 것을 특징으로 하는 BIM 데이터를 이용한 자율주행 로봇.
  10. 제 9 항에 있어서,
    상기 통신부(440)는 상기 맵 데이터(355)를 수신하는 것을 특징으로 하는 BIM 데이터를 이용한 자율주행 로봇.
  11. 제 9 항에 있어서,
    상기 BIM 데이터(305)가 저장되고, 상기 BIM 데이터(305)를 상기 맵 데이터(355)로 변환하며, 변환된 상기 맵 데이터(355)를 상기 주행로봇(200)으로 전송하는 BIM 서버(300)를 더 포함하는 것을 특징으로 하는 BIM 데이터를 이용한 자율주행 로봇.
  12. 제 12 항에 있어서,
    상기 BIM 데이터(305)를 생성하여 상기 BIM 서버(300)로 전송하는 클라이언트 컴퓨터(360)를 더 포함하는 것을 특징으로 하는 BIM 데이터를 이용한 자율주행 로봇.
KR1020200150308A 2020-11-11 2020-11-11 Bim 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇 KR20220064129A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200150308A KR20220064129A (ko) 2020-11-11 2020-11-11 Bim 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200150308A KR20220064129A (ko) 2020-11-11 2020-11-11 Bim 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇

Publications (1)

Publication Number Publication Date
KR20220064129A true KR20220064129A (ko) 2022-05-18

Family

ID=81804157

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200150308A KR20220064129A (ko) 2020-11-11 2020-11-11 Bim 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇

Country Status (1)

Country Link
KR (1) KR20220064129A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102560773B1 (ko) * 2023-02-28 2023-07-28 표승열 조립 시공을 기반으로 한 건축 시스템
KR102616784B1 (ko) * 2022-12-21 2023-12-27 한국건설기술연구원 교량 점검을 위한 드론의 이동 경로 생성 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101544537B1 (ko) 2015-04-23 2015-08-17 한국건설기술연구원 Bim 기반 데이터 마이닝 시스템 및 그 운영 방법
KR101546705B1 (ko) 2014-12-04 2015-08-25 한국건설기술연구원 Bim데이터 처리단말 장치의 건물내부 bim데이터 가시화 방법
KR101949525B1 (ko) 2017-11-16 2019-03-18 주식회사 아이오티봇 무인탐지장치를 이용한 현장 안전관리 시스템
KR20190029746A (ko) 2016-07-28 2019-03-20 엑스 디벨롭먼트 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101546705B1 (ko) 2014-12-04 2015-08-25 한국건설기술연구원 Bim데이터 처리단말 장치의 건물내부 bim데이터 가시화 방법
KR101544537B1 (ko) 2015-04-23 2015-08-17 한국건설기술연구원 Bim 기반 데이터 마이닝 시스템 및 그 운영 방법
KR20190029746A (ko) 2016-07-28 2019-03-20 엑스 디벨롭먼트 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치
KR101949525B1 (ko) 2017-11-16 2019-03-18 주식회사 아이오티봇 무인탐지장치를 이용한 현장 안전관리 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616784B1 (ko) * 2022-12-21 2023-12-27 한국건설기술연구원 교량 점검을 위한 드론의 이동 경로 생성 시스템 및 방법
KR102560773B1 (ko) * 2023-02-28 2023-07-28 표승열 조립 시공을 기반으로 한 건축 시스템

Similar Documents

Publication Publication Date Title
Bogue What are the prospects for robots in the construction industry?
KR101595243B1 (ko) Bim 기반의 현장 시설물 자동화 모델링 시스템 및 방법
Hu et al. Smart building demolition and waste management frame with image-to-BIM
KR20220064129A (ko) Bim 데이터를 이용한 로봇의 자율주행 방법 및 이를 수행하기 위한 로봇
Zhang et al. Collaborative multi-agent systems for construction equipment based on real-time field data capturing
EP3660231A1 (en) System and method for autonomous operation of heavy machinery
KR102488369B1 (ko) 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치
US20230059996A1 (en) Mine vehicle safety control
Barki et al. BIM models generation from 2D CAD drawings and 3D scans: an analysis of challenges and opportunities for AEC practitioners
JP2022531566A (ja) ライン印刷経路最適化を伴う自走式印刷ロボット及び印刷方法
M. Tehrani et al. Robotics in assembly-based industrialized construction: A narrative review and a look forward
Kim et al. Rapid, on-site spatial information acquisition and its use for infrastructure operation and maintenance
US20220343585A1 (en) Positioning of mobile device in underground worksite
Wang et al. Enabling BIM-Driven Robotic Construction Workflows with Closed-Loop Digital Twins
CN116225071B (zh) 一种基于无人机的智能建筑建造系统及其使用方法
EP3660266B1 (en) Model generation for route planning or positioning of mobile object in underground worksite
WO2022152361A1 (en) Underground worksite model generation
Folkesson et al. Construction automation: Assessment of state of the art and future possibilities
CN110704910B (zh) 铝模板配模方法、系统、计算机可读存储介质及设备
CN112975974A (zh) 基于bim智能监测机器人系统及控制方法
Kiran et al. Design and development of autonomous mobile robot for mapping and navigation system
KR102435640B1 (ko) 고소작업용 로봇 및 이를 이용한 동작방법
EP4246270A1 (en) Coordinate transformation for mining vehicle positioning
JP7369375B1 (ja) 建築物又は土木構造物の管理支援システム
Yierpan From Point Cloud to BIM to FEM and VAR for data management and visualization

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination