KR20220064128A - 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치 - Google Patents

건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치 Download PDF

Info

Publication number
KR20220064128A
KR20220064128A KR1020200150307A KR20200150307A KR20220064128A KR 20220064128 A KR20220064128 A KR 20220064128A KR 1020200150307 A KR1020200150307 A KR 1020200150307A KR 20200150307 A KR20200150307 A KR 20200150307A KR 20220064128 A KR20220064128 A KR 20220064128A
Authority
KR
South Korea
Prior art keywords
color
worker
determining
construction site
hard hat
Prior art date
Application number
KR1020200150307A
Other languages
English (en)
Other versions
KR102488369B1 (ko
Inventor
장세준
이현주
정남철
Original Assignee
현대건설주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대건설주식회사 filed Critical 현대건설주식회사
Priority to KR1020200150307A priority Critical patent/KR102488369B1/ko
Publication of KR20220064128A publication Critical patent/KR20220064128A/ko
Application granted granted Critical
Publication of KR102488369B1 publication Critical patent/KR102488369B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치에 관한 것이다. 이를 위해, 건설현장(10) 내에서 주행중인 주행로봇(200)의 카메라(250)가 작업자(300)를 촬영하는 단계(S100); 제어부(100)가 촬영된 이미지(110) 내에서 작업자(300)를 인식하는 단계(S110); 인식된 작업자(300)의 신체 부위 중 적어도 일부를 좌표로 추출하는 단계(S120); 좌표에 기초하여 작업자(300)의 자세모델(140)을 생성하는 단계(S130); 자세모델(140) 중 머리노드(125) 주변의 컬러를 검출하는 단계(S140); 검출된 컬러가 검은색인지를 판단하는 단계(S150); 만약, 검은색으로 판단되는 경우, 제어부(100)가 안전모 미착용한 작업자(300)라고 판단하는 단계(S170); 및 만약, 검은색이 아니라고 판단되는 경우, 제어부(100)가 안전모를 착용한 작업자(300)라고 판단하는 단계(S160);를 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법이 제공된다.

Description

건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치{Methods and devices for determining the color of safety helmets for workers in construction sites}
본 발명은 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치에 관한 것이다.
종래의 아파트 또는 빌딩의 건설현장(10), 대형 플랜트의 건설현장(10), 터널, 댐, 교량 등의 건설현장(10) 등에서는 다양한 건설장비 뿐만 아니라 분업화된 다수의 작업자가 종사하게 된다. 예를 들어, 토목작업자, 전기작업자, 배관작업자, 통신작업자, 관리자, 감리자, 도장작업자, 미장작업자, 인테리어작업자, 가스작업자, 신호수, 중장비운전자(예 : 크레인, 포크레인, 지게차, 덤프트럭, 콘크리트 펌프카 등), 기타 일용직 등이다.
그런데, 건설현장(10) 내에서는 직종과 상관없이 모든 작업자, 방문자 등에게 안전모의 착용을 의무화하고 있다. 그러나, 더위로 인한 불편, 식사후 오후 작업시 안전모 미착용, 망실, 안전의식 결여, 기타 여러가지 이유로 인해 안전모를 착용하지 않는 사람들이 발견되곤 한다.
따라서, 종래에는 관리자가 건설현장을 순회하면서 안전모 미착용자에게 주의나 경고를 주는 방식이었다. 그러나, 건설현장이 넓어서 모든 작업자를 일일이 감시하기 어려웠다. 그리고, 안전모 착용 관리 역시 시간과 인력을 필요로 하는 것이었기에 효율적인 관리 방안이 요구되고 있다.
한편, 다양한 공종에 다수의 작업자가 투입되기 때문에 공종별 작업자의 수를 계수(카운트)하여 현장 인원수를 관리하는 것이 매우 중요하다. 그런데 경우에 따라서는, 임의로 건설현장을 이탈하거나 다른 장소(예 : 휴게소, 끽연장소, 화장실, 구석 등)에서 태만한 태도를 보이는 작업자가 발생하기도 한다. 또한, 대형 건설현장 내의 소규모 작업장(예 : 기초공사장)에서 해당 사항이 없는 작업자(예 : 전기작업자)가 포함되거나 위치하는 경우도 있다.
따라서, 현장 관리자에게는 (i) 건설현장 내에서 공종별로 몇명의 작업자가 투입되었는지를 주기적으로 파악해야할 필요가 있고, (ii) 특정 작업에 불필요한 인력이 포함되었는지 관리할 필요가 있으며, (iii) 상황에 따라 작업자를 이동배치해야 할 경우가 있었다. 그러나, 종래에는 이를 관리자의 육안 확인과 경험에 의존하여 처리하곤 하였다.
최근 건설현장이 점차 전자화되고 시스템화됨에 따라 안전모의 착용 뿐만 아니라 작업자의 배치 현황을 자동으로 판단하고 관리할 수 있는 시스템의 요구가 증가하고 있다.
1. 대한민국 특허공개 제 10-2020-0059666 호(이동 장치 및 이동 장치의 객체 감지 방법), 2. 대한민국 특허공개 제 10-2017-0092734 호(컬러 정보를 이용한 팔레트 검출 방법, 무인 운송 로봇의 팔레트 적재 상태 인식용 비전 모듈), 3. 대한민국 특허등록 제 10-1949525 호(무인탐지장치를 이용한 현장 안전관리 시스템), 4. 대한민국 특허공개 제 10-2019-0029746 호(현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치).
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 제 1 목적은 건설현장을 주행하는 로봇에 의해 안전모 미착용자를 발견하고 경고를 출력할 수 있는 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치를 제공하는 것이다.
본 발명의 제 2 목적은, 안전모의 컬러 식별을 통해 공종별 작업자 수를 계수할 수 있는 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치를 제공하는 것이다.
다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기의 기술적 과제를 달성하기 위하여, 건설현장(10) 내에서 주행중인 주행로봇(200)의 카메라(250)가 작업자(300)를 촬영하는 단계(S100); 제어부(100)가 촬영된 이미지(110) 내에서 작업자(300)를 인식하는 단계(S110); 인식된 작업자(300)의 신체 부위 중 적어도 일부를 좌표로 추출하는 단계(S120); 좌표에 기초하여 작업자(300)의 자세모델(140)을 생성하는 단계(S130); 자세모델(140) 중 머리노드(125) 주변의 컬러를 검출하는 단계(S140); 검출된 컬러가 검은색인지를 판단하는 단계(S150); 만약, 검은색으로 판단되는 경우, 제어부(100)가 안전모 미착용한 작업자(300)라고 판단하는 단계(S170); 및 만약, 검은색이 아니라고 판단되는 경우, 제어부(100)가 상기 안전모를 착용한 작업자(300)라고 판단하는 단계(S160);를 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법에 의해 달성될 수 있다.
또한, 자세모델(140)은, 작업자(300)의 관절 영역을 지칭하는 노드(120); 및 노드(120) 사이를 연결하는 링크(130);를 복수개 포함하여 이루어진다.
또한, 노드(120)는 머리 노드(125)를 포함한다.
또한, 머리노드(125) 주변의 컬러를 검출하는 단계(S140)는 머리노드(125) 상부의 안전모 영역에서 컬러를 검출할 수 있다.
또한, 안전모 미착용 판단 단계(S170)는 경고를 출력하는 단계(S175)를 더 포함할 수 있다.
또한, 안전모 착용 판단 단계(S160)는, 검출된 컬러 별로 계수하는 단계(S165)를 더 포함할 수 있다.
또한, 각각의 검출된 컬러는 작업자(300)의 기능과 연관되어 있다.
또한, 작업자(300)의 기능은 전기작업, 배관작업, 통신작업, 관리작업, 도장작업, 미장작업, 인테리어작업, 가스작업, 신호수, 중장비운전, 일용작업 중 적어도 하나를 포함하고, 그리고 각 기능에 따라 상이한 컬러가 연관되어 있다.
또한, 계수단계(S165)에서 컬러별 계수된 결과는 유선 또는 무선을 통해 외부기기로 출력된다.
상기와 같은 본 발명의 목적은 또 다른 카테고리로써, 전술한 판별방법을 수행하기 위한 판별 장치로써, 건설현장(10) 내에서 미리 결정된 이동경로 정보를 포함하는 SLAM부(450); 이동경로를 따라 이동 가능한 주행로봇(200); 주행로봇(200) 상에 탑재되고, 이미지 촬영이 가능한 카메라(250); 카메라(250)가 촬영한 이미지로부터 작업자(300)를 인식하고, 작업자(300)의 자세모델(140)을 생성하는 모델생성수단; 이미지와 자세모델(140)에 기초하여 머리노드(125) 주변의 컬러를 검출하는 검출수단; 및 검출된 컬러에 기초하여 작업자(300)가 안전모를 착용하였지 여부를 판단하는 판단수단;을 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러를 판별하는 장치에 의해서도 달성될 수 있다.
또한, 검출된 컬러 별로 계수하는 계수기를 더 포함할 수 있다.
또한, 계수기에 의해 컬러별 계수된 결과를 유선 또는 무선을 통해 외부기기로 출력하는 통신부(440)를 더 포함할 수 있다.
본 발명의 일실시예에 따르면, 관리자가 넓은 건설현장을 돌아다니지 않아도 쉽게 안전모 미착용자를 발견할 수 있다. 따라서, 관리자의 업무 효율화 및 안전사고 예방의 효과가 있다.
또한, 관리자는 건설현장 내에서 공종별로 몇명의 작업자가 투입되었는지를 주기적으로 파악할 있다. 따라서, 인력 관리를 효율적으로 할 수 있고, 현장 상황에 따라 작업자를 신속하게 이동배치할 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 건설현장(10) 내에서 본 발명에 따른 주행로봇(200)이 작업자(300)의 안전모 컬러를 판별하기 위하여 주행중인 상태를 나타내는 작업사시도,
도 2는 도 1에 도시된 주행로봇(200)의 개략적인 사시도,
도 3은 다양한 안전모(150)를 착용한 작업자(300)의 일예,
도 4a 내지 도 4c는 작업자의 촬영이미지(110)와 자세모델(140)의 일예를 나타내는 개념도,
도 5는 작업자의 촬영이미지(110)와 자세모델(140)의 또 다른 예를 나타내는 개념도,
도 6은 본 발명에 따른 건설현장 내 작업자의 안전모 컬러를 판별하는 장치의 개략적인 블럭도,
도 7은 본 발명의 일실시예에 따른 판별 방법을 개략적으로 나타내는 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
실시예의 구성
이하, 첨부된 도면을 참조하여 바람직한 실시예의 구성을 상세히 설명하기로 한다.
도 1은 건설현장(10) 내에서 본 발명에 따른 주행로봇(200)이 작업자(300)의 안전모 컬러를 판별하기 위하여 주행중인 상태를 나타내는 작업사시도이다. 도 1에 도시된 바와 같이, 건설현장(10)은 아파트 또는 빌딩의 건설현장, 대형 플랜트의 건설현장(10), 터널, 댐, 교량 등의 건설현장 등을 포함한다. 건설현장(10) 내에는 다수의 작업자(300)가 다양한 공종에 대해 작업을 수행하고 있다. 예를 들어, 고소작업을 위해 리프트(40)가 상승되어 있고, 어떤 작업자(300)는 바닥의 장애물(예 : 건축자재, 80)을 옮긴다.
주행로봇(200)는 이러한 건설현장(10) 내로 투입되어 미리 정해진 경로를 따라 이동하며 카메라(250)로 이미지를 촬영한다.
도 2는 도 1에 도시된 주행로봇(200)의 개략적인 사시도이고, 도 6은 본 발명에 따른 건설현장 내 작업자의 안전모 컬러를 판별하는 장치의 개략적인 블럭도이다. 도 2 및 도 6에 도시된 바와 같이, 본 발명의 주행로봇(200)은 대략 연산부(400), 제어부(100) 및 로봇전원부(500)로 구별된다.
주행로봇(200)은 휠구동부(210), 휠조향부(220), 주행카메라(230) 라이다(240) 및 카메라(250)를 포함한다.
휠구동부(210)는 3개 ~ 6개의 휠중 적어도 일부를 구동하기 위한 모터와 구동회로로 구성된다. 휠구동부(210)는 주행로봇을 이동시키기 위한 가속, 감속, 브레이크 동작을 수행한다. 이를 위해, 휠구동부(210)는 서보모터, 스테핑모터, 브러쉬리스DC 서보모터 등을 포함한다.
휠조향부(220)는 적어도 2개의 휠을 조향하여 주행로봇이 원하는 경로로 이동하게 한다. 휠조향을 위해 휠조향부(220)는 서보모터, 스테핑모터, 브러쉬리스DC 서보모터, 리니어모터 등을 포함한다.
주행카메라(230)는 주행로봇(200)의 전방에 설치되고, 선택적으로 후방이나 측면에 추가될 수 있다. 주행카메라(230)는 피사체의 거리(깊이)를 검출할 수 있는 Depth 카메라, 3D 카메라, 스테레오 카메라 등이 될 수 있고, 촬영된 이미지는 디지털 이미지이거나 동영상중 캡쳐된 이미지일 수 있다. 이러한 주행카메라(230)는 주행로봇(200)의 전방에 있는 장애물(예 : 기둥, 작업자, 바닥장애물)을 촬영하여 장애물까지의 거리를 산출함으로써, 주행로봇(200)이 장애물 앞에서 정지, 감속하거나 우회할 수 있도록 한다. 주행카메라(230)는 주행로봇(200)의 현재 위치를 인식할때도 사용된다.
라이다(Lidar, 240)는 주행로봇(200)의 전방에 설치되어 반사되어 수광되는 레이저광으로부터 주행로봇(200)의 전방에 있는 장애물(예 : 기둥, 작업자, 바닥장애물)까지의 거리를 산출한다. 이렇게 산출된 거리는 주행로봇(200)이 현재 위치를 인식하는데 사용되거나 또는 주행로봇(200)이 장애물 앞에서 정지, 감속하거나 우회할 수 있도록 한다.
주행카메라(230)와 라이다(240)는 상호 보완적으로 구성할 수도 있고, 선택적으로 하나만 구성할 수도 있다.
카메라(250)는 주행로봇(200)에서 전방 또는 전체방향(Omni-Direction)을 촬영할 수 있도록 배향된다. 카메라(250)는 작업자(300)까지의 거리(깊이)를 검출할 수 있는 Depth 카메라, 3D 카메라, 스테레오 카메라 등이 될 수 있고, 촬영된 이미지는 디지털 이미지이거나 동영상중 캡쳐된 이미지일 수 있다. 이러한 카메라(250)는 작업자(300)를 포함한 배경을 촬영함으로써 제어부(100)가 촬영된 이미지로부터 작업자(300)를 인식하고 작업자(300)까지의 거리 또는 상대 위치를 산출하도록 한다. 카메라(250)는 주행로봇(200)의 현재 위치를 인식할때도 사용될 수 있다.
연산부(400)는 제어부(100)를 포함하여 컴퓨팅 프로세스가 이루어지는 구성이다. 연산부(400)는 퍼스널 컴퓨터, 노트북, 태블릿 PC등이 될 수 있다. 연산부(400)는 입출력부(410), 디스플레이(420), 저장부(430), 통신부(440), SLAM부(450) 및 컬러테이블(460)을 포함한다.
입출력부(410)는 주행로봇(200)의 동작을 제어하거나 입력하기 위한 키보드, 마우스, USB포트, 키패드, 버튼, 방향키 등을 포함하고, 출력을 위해, LED 램프, 스피커, 디스플레이(420) 등을 포함한다.
디스플레이(420)는 주행로봇(200)의 현상태 표출을 위한 LCD 디스플레이가 될 수 있고, 터치스크린으로 입력 기능을 추가할 수 있다.
저장부(430)는 주행로봇(200)의 기본 환경설정 데이터, 운영체계, 실행프로그램 등을 저장하며, 카메라(250)가 촬영한 작업자(300)의 이미지, 컬러 정보 등을 저장한다. 이러한 저장부(430)는 RAM, ROM, CD-ROM, 하드디스크, SSD, 플래쉬메모리(예 :SD카드) 등이 될 수 있다.
통신부(440)는 무선 또는 유선으로 외부와 양방향 데이터 통신이 가능한 통신모듈이다. 유선통신인 경우 UTP 또는 STP와 같은 랜케이블 통신, 광통신, 전화선통신, USB 통신모듈 등이 될 수 있다. 무선통신인 경우, 와이파이, 블루투스, 무선 랜, 4G, 5G, 적외선 통신, NFC, RFID, 초광대역(UWB) 통신모듈 등을 포함할 수 있다 . 통신부(440)는 외부기기(예 : 사용자의 휴대폰, PC, 태블릿 등)로부터 해당 층(Floor)의 이동경로와 맵을 전송받을 수 있고, 주행로봇(200)에서 발생하는 데이터와 이미지 등을 외부기기로 전송할 수 있다. 통신부(440)는 외부기기로부터의 주행, 로봇 동작, 카메라 등을 원격제어할 수 있도록 한다.
SLAM부(Simulataneous Localization and Mapping, 450)는 주행로봇(200)이 현재 어디에 위치하고, 어떤 이동경로로 이동하며, 어느 위치에서 멈출 것인가를 결정하게 하는 구성이다. SLAM부(450)의 초기 정보는 사용자에 의해 입력될 수 있고, 주행카메라(230)와 라이다(240)로부터 주변 상황을 스캔하여 장애물을 회피할 수 있다(Visual SLAM 방식).
컬러테이블(460)은 안전모의 컬러와 작업자(300)의 기능 또는 업무를 매칭시킨 테이블 또는 데이터베이스이다. 컬러테이블(460)은 해당 건설현장(10) 내에서 컬러 별 안전모의 누계를 저장한다. [표 1]은 컬러테이블(460)의 일예이다.
컬러 컬러값 직종 누계 기타
노란색 FFFF00 토목작업자 12
오렌지 FFA500 배관작업자 3
파란색 0000FF 전기작업자 5
그외에도 통신작업자, 관리자, 감리자, 도장작업자, 미장작업자, 인테리어작업자, 가스작업자, 신호수, 중장비운전자(예 : 크레인, 포크레인, 지게차, 덤프트럭, 콘크리트 펌프카 등), 기타 일용직 등이 지정된 컬러값을 갖는다.
로봇전원부(500)는 충전 가능한 2차 전지로 구성되며, 주행로봇(200), 제어부(100) 및 연산부(400)에 필요한 전력을 공급한다.
도 3은 다양한 안전모(150)를 착용한 작업자(300)의 일예이다. 도 3에 도시된 바와 같이, 관리자(330)의 안전모(150)는 흰색이고, 전기작업자(310)의 안전모(150)는 녹색이고, 배관작업자(320)의 안전모(150)는 청색이다. 그밖에 필요에 따라, 노란색, 주황색, 보라색 등 다양한 컬러를 직종에 따라 안전모(150)에 적용할 수 있다.
도 4a 내지 도 4c는 작업자의 촬영이미지(110)와 자세모델(140)의 일예를 나타내는 개념도이다. 도 4a 내지 도 4c에 도시된 바와 같이, 작업자(300)의 촬영 이미지(110)에 대해 휴먼 자세 추정(Human Pose Estimation) 기법을 적용하여 자세모델(140)을 생성한다.
휴먼 자세 추정기법은 세부적으로 분석적 또는 기하학적 방법(Analytic or geometric methods), 유전자 알고리즘 방법(Genetic algorithm methods), 학습 기반 방법(Learning-based methods) 중 하나를 적용할 수 있다.
분석적 또는 기하학적 방법은 작업자(300)의 기하학적 구조로부터 촬상된 이미지 상의 작업자 자세를 도출하는 방법이다. 작업자(300)의 신체 끝단(머리, 손, 발 등)과 다른 관절의 노드(120)와 링크(130)의 셋트가 확인되면 노드(120)의 3D 좌표를 2D 이미지 좌표와 연관시키는 공지의 방정식을 통해 자세모델(140)을 생성할 수 있다.
유전자 알고리즘 방법은 작업자(300)의 자세를 실시간으로 계산할 필요가 없는 경우 유전 알고리즘을 사용할 수 있다. 이 접근방식은 특히 이미지가 완벽하게 보정되지 않은 경우에 매우 유효하다. 작업자(300)의 자세는 유전적 표현을 나타낸다.
학습 기반 방법은 2D 이미지 상 특징으로부터 매핑을 배우는 인공 학습 기반 시스템을 사용하는 것이다. 예컨대, 다양한 작업자의 자세들을 사전에 미리 학습시켜 놓은 후 학습 단계가 완료되면 이미지로부터 작업자의 자세를 추정하게 된다. 한다.
자세모델(140)은 작업자의 인체 골격에 따라 복수의 노드(120)와 링크(130)로 구성된다. 노드(120)는 어께, 팔꿈치 허리, 목, 무릎과 같은 관절 부위가 될 수 있고, 링크(130)는 촬영 이미지(110)에 기초하여 인접한 노드(120)를 연결하는 구성이다. 특히 머리노드(125)는 안전모(150)의 컬러 인식과 관련하여 주요한 구성요소이다.
도 5는 작업자의 촬영이미지(110)와 자세모델(140)의 또 다른 예를 나타내는 개념도이다. 도 5에 도시된 바와 같이, 안전모(150)의 컬러를 식별해 내기 위하여, 머리노드(125) 주변의 컬러를 검출한다. 즉, 머리노드(125) 상부의 안전모(150) 영역에서 컬러를 검출한다. 구체적으로는 머리노드(125) 상부에 가상의 원을 지정하고, 원내에서 가장 많은 픽셀 컬러값을 도출하여 이들의 평균값으로부터 컬러를 도출한다.
실시예의 동작
이하, 첨부된 도면을 참조하여 바람직한 실시예의 동작을 상세히 설명하기로 한다. 도 7은 본 발명의 일실시예에 따른 판별 방법을 개략적으로 나타내는 흐름도이다. 도 7에 도시된 바와 같이, 먼저 제어부(100)는 SLAM부(450)로부터 미리 결정된 이동경로 정보를 로딩하고, 주행로봇(200)의 현재 위치를 인식한다. 현재 위치를 인식하기 위해 주행카메라(230)의 이미지 및 라이다(240) 신호를 활용한다. 이를 통해, 제어부(100)는 주행로봇(200)이 해당 건설현장(10) 내에서 어느 위치에 놓여 있는지를 인식할 수 있다. 이러한 현재 위치의 인식은 이동 오차를 줄이기 위해 이동중 또는 작업중에도 실행될 수 있다.
그 다음, 주행로봇(200)은 인식된 현재위치로부터 이동경로를 따라 이동한다. 이를 위해 주행로봇(200)은 휠구동부(210)로부터 회전속도, 가속도를 제어하고, 휠조향부(220)로부터 방향을 제어한다. 이동중에는 주행카메라(230)의 이미지 및 라이다(240) 신호를 활용하여 장애물을 식별하고, 회피하도록 한다.
그 다음, 건설현장(10) 내에서 주행중인 주행로봇(200)의 카메라(250)가 작업자(300)를 촬영한다(S100).
그 다음, 제어부(100)는 촬영된 이미지(110) 내에서 작업자(300)를 인식한다(S110).
그 다음, 인식된 작업자(300)의 신체 부위(예 : 머리를 포함하는 상반신 또는 전체)별 중심 좌료를 추출한다(S120). 그리고 추출된 좌표에 기초하여 작업자(300)의 자세모델(140)을 생성한다(S130).
그 다음, 제어부(100)는 생성된 자세모델(140) 중 머리노드(125) 주변의 컬러를 검출한다(S140). 즉, 머리노드(125) 상부의 안전모(150) 영역에서 컬러를 검출한다. 구체적으로는 머리노드(125) 상부에 가상의 원을 지정하고, 원내에서 가장 많은 픽셀 컬러값을 도출하여 이들의 평균값으로부터 컬러를 도출한다.
그 다음, 제어부(100)는 검출된 컬러가 검은색인지를 판단한다(S150). 경우에 따라서는 검은색 대신에 회색이나 다른 머리컬러를 지정할 수 있다.
만약, 검은색으로 판단되는 경우, 제어부(100)는 안전모 미착용한 작업자(300)라고 판단한다(S170). 그러면, 주행로봇(200)은 경고를 출력한다(S175). 경고는 주행로봇(200)에 부착된 스피커, 부저, 경고등을 통해 소리와 빛으로 이루어질 수 있다.
만약, 검은색이 아니라고 판단되는 경우, 제어부(100)는 안전모(150)를 착용한 작업자(300)라고 판단한다(S160). 그 다음, 검출된 안전모(150)의 컬러 별로 계수(카운트)한다(S165). 따라서, 건설현장(10)을 1회 순회하면 노란색 안전모(150)의 누계 12명, 오렌지색 안전모(150)의 누계 3명, 파란색 안전모(150)의 누계 5명 등과 같은 값을 얻을 수 있다.
각각의 검출된 컬러는 컬러테이블(460)에서 작업자(300)의 기능과 연관되어 있다. 제어부(100)는 컬러별 계수된 결과를 직종으로 변화하여 유선 또는 무선을 통해 외부기기(예 : 관리자의 핸드폰, PC, 태플릿 등)로 출력한다. 따라서, 외부기기를 통해, 현재 토목작업자 12명, 배관작업자 3명 및 전기작업자 5명이 투입되어 있음을 알 수 있다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
10 : 건설현장,
20 : 천장,
30 : 기둥,
40 : 리프트,
80 : 바닥장애물,
100 : 제어부,
110 : 촬영이미지,
115 : 머리이미지,
120 : 노드,
125 : 머리노드,
130 : 링크,
140 : 자세모델,
150 : 안전모,
200 : 주행로봇,
210 : 휠구동부,
220 : 휠조향부,
230 : 주행카메라,
240 ; 라이다,
250 : 카메라,
300 : 작업자,
310 : 전기작업자,
320 : 배관작업자,
330 : 관리자,
400 : 연산부,
410 : 입출력부,
420 : 디스플레이,
430 : 저장부,
440 : 통신부,
450 : SLAM부,
460 : 컬러테이블,
500 : 로봇전원부.

Claims (12)

  1. 건설현장(10) 내에서 주행중인 주행로봇(200)의 카메라(250)가 작업자(300)를 촬영하는 단계(S100);
    제어부(100)가 촬영된 이미지(110) 내에서 상기 작업자(300)를 인식하는 단계(S110);
    인식된 상기 작업자(300)의 신체 부위 중 적어도 일부를 좌표로 추출하는 단계(S120);
    상기 좌표에 기초하여 상기 작업자(300)의 자세모델(140)을 생성하는 단계(S130);
    상기 자세모델(140) 중 머리노드(125) 주변의 컬러를 검출하는 단계(S140);
    검출된 상기 컬러가 검은색인지를 판단하는 단계(S150);
    만약, 검은색으로 판단되는 경우, 상기 제어부(100)가 안전모 미착용한 작업자(300)라고 판단하는 단계(S170); 및
    만약, 검은색이 아니라고 판단되는 경우, 상기 제어부(100)가 상기 안전모를 착용한 작업자(300)라고 판단하는 단계(S160);를 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  2. 제 1 항에 있어서,
    상기 자세모델(140)은,
    상기 작업자(300)의 관절 영역을 지칭하는 노드(120); 및
    상기 노드(120) 사이를 연결하는 링크(130);를 복수개 포함하여 이루어지는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  3. 제 2 항에 있어서,
    상기 노드(120)는 머리 노드(125)를 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  4. 제 1 항에 있어서,
    상기 머리노드(125) 주변의 컬러를 검출하는 단계(S140)는 상기 머리노드(125) 상부의 상기 안전모 영역에서 상기 컬러를 검출하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  5. 제 1 항에 있어서,
    상기 안전모 미착용 판단 단계(S170)는
    경고를 출력하는 단계(S175)를 더 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  6. 제 1 항에 있어서,
    상기 안전모 착용 판단 단계(S160)는,
    검출된 컬러 별로 계수하는 단계(S165)를 더 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  7. 제 6 항에 있어서,
    각각의 검출된 상기 컬러는 상기 작업자(300)의 기능과 연관되어 있는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  8. 제 7 항에 있어서,
    상기 작업자(300)의 기능은 전기작업, 배관작업, 통신작업, 관리작업, 도장작업, 미장작업, 인테리어작업, 가스작업, 신호수, 중장비운전, 일용작업 중 적어도 하나를 포함하고, 그리고
    각 기능에 따라 상이한 상기 컬러가 연관되어 있는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  9. 제 6 항에 있어서,
    상기 계수단계(S165)에서 상기 컬러별 계수된 결과는 유선 또는 무선을 통해 외부기기로 출력되는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러 판별 방법.
  10. 제 1 항 내지 제 9 항중 어느 한 항에 의한 판별방법을 수행하기 위한 판별 장치로써,
    건설현장(10) 내에서 미리 결정된 이동경로 정보를 포함하는 SLAM부(450);
    상기 이동경로를 따라 이동 가능한 주행로봇(200);
    상기 주행로봇(200) 상에 탑재되고, 이미지 촬영이 가능한 카메라(250);
    상기 카메라(250)가 촬영한 이미지로부터 작업자(300)를 인식하고, 상기 작업자(300)의 자세모델(140)을 생성하는 모델생성수단;
    상기 이미지와 상기 자세모델(140)에 기초하여 머리노드(125) 주변의 컬러를 검출하는 검출수단; 및
    검출된 상기 컬러에 기초하여 상기 작업자(300)가 안전모를 착용하였지 여부를 판단하는 판단수단;을 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러를 판별하는 장치.
  11. 제 10 항에 있어서,
    검출된 컬러 별로 계수하는 계수기를 더 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러를 판별하는 장치.
  12. 제 11 항에 있어서,
    상기 계수기에 의해 상기 컬러별 계수된 결과를 유선 또는 무선을 통해 외부기기로 출력하는 통신부(440)를 더 포함하는 것을 특징으로 하는 건설현장 내 작업자의 안전모 컬러를 판별하는 장치.
KR1020200150307A 2020-11-11 2020-11-11 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치 KR102488369B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200150307A KR102488369B1 (ko) 2020-11-11 2020-11-11 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200150307A KR102488369B1 (ko) 2020-11-11 2020-11-11 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치

Publications (2)

Publication Number Publication Date
KR20220064128A true KR20220064128A (ko) 2022-05-18
KR102488369B1 KR102488369B1 (ko) 2023-01-13

Family

ID=81800777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200150307A KR102488369B1 (ko) 2020-11-11 2020-11-11 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치

Country Status (1)

Country Link
KR (1) KR102488369B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117278696A (zh) * 2023-11-17 2023-12-22 西南交通大学 一种建造现场实时个人防护装备违规视频剪辑方法
KR102635903B1 (ko) * 2023-04-04 2024-02-13 소니드로보틱스 주식회사 다중 센서 로봇을 이용한 산업 현장 응급 상황 대처 시스템 및 방법
CN117549330A (zh) * 2024-01-11 2024-02-13 四川省铁路建设有限公司 一种施工安全监测机器人系统及控制方法
KR102635901B1 (ko) * 2023-04-21 2024-02-14 소니드로보틱스 주식회사 Ai 로봇을 이용한 건설 현장의 위험 객체 인식 시스템 및 그 방법
KR102635902B1 (ko) * 2023-04-13 2024-02-14 소니드로보틱스 주식회사 Ai 로봇을 이용한 건설 현장의 작업 공정별 상황 인식 및 안전 관리 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106776A (ko) * 2009-03-24 2010-10-04 아주대학교산학협력단 안전모 착용 비전 감시 시스템 및 방법
KR20170092734A (ko) 2016-02-03 2017-08-14 한국기술교육대학교 산학협력단 컬러 정보를 이용한 팔레트 검출 방법, 및 무인 운송 로봇의 팔레트 적재 상태 인식용 비전 모듈
KR101949525B1 (ko) 2017-11-16 2019-03-18 주식회사 아이오티봇 무인탐지장치를 이용한 현장 안전관리 시스템
KR20190029746A (ko) 2016-07-28 2019-03-20 엑스 디벨롭먼트 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치
KR102041784B1 (ko) * 2018-11-26 2019-11-07 신성대학교 산학협력단 Ioe와 드론을 융합한 안전 모니터링 시스템
KR20200059666A (ko) 2018-11-21 2020-05-29 삼성전자주식회사 이동 장치 및 이동 장치의 객체 감지 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106776A (ko) * 2009-03-24 2010-10-04 아주대학교산학협력단 안전모 착용 비전 감시 시스템 및 방법
KR20170092734A (ko) 2016-02-03 2017-08-14 한국기술교육대학교 산학협력단 컬러 정보를 이용한 팔레트 검출 방법, 및 무인 운송 로봇의 팔레트 적재 상태 인식용 비전 모듈
KR20190029746A (ko) 2016-07-28 2019-03-20 엑스 디벨롭먼트 엘엘씨 현장에서 수집된 측정치들에 기반한 맞춤화된 로봇 설치
KR101949525B1 (ko) 2017-11-16 2019-03-18 주식회사 아이오티봇 무인탐지장치를 이용한 현장 안전관리 시스템
KR20200059666A (ko) 2018-11-21 2020-05-29 삼성전자주식회사 이동 장치 및 이동 장치의 객체 감지 방법
KR102041784B1 (ko) * 2018-11-26 2019-11-07 신성대학교 산학협력단 Ioe와 드론을 융합한 안전 모니터링 시스템

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102635903B1 (ko) * 2023-04-04 2024-02-13 소니드로보틱스 주식회사 다중 센서 로봇을 이용한 산업 현장 응급 상황 대처 시스템 및 방법
KR102635902B1 (ko) * 2023-04-13 2024-02-14 소니드로보틱스 주식회사 Ai 로봇을 이용한 건설 현장의 작업 공정별 상황 인식 및 안전 관리 시스템
KR102635901B1 (ko) * 2023-04-21 2024-02-14 소니드로보틱스 주식회사 Ai 로봇을 이용한 건설 현장의 위험 객체 인식 시스템 및 그 방법
CN117278696A (zh) * 2023-11-17 2023-12-22 西南交通大学 一种建造现场实时个人防护装备违规视频剪辑方法
CN117278696B (zh) * 2023-11-17 2024-01-26 西南交通大学 一种建造现场实时个人防护装备违规视频剪辑方法
CN117549330A (zh) * 2024-01-11 2024-02-13 四川省铁路建设有限公司 一种施工安全监测机器人系统及控制方法
CN117549330B (zh) * 2024-01-11 2024-03-22 四川省铁路建设有限公司 一种施工安全监测机器人系统及控制方法

Also Published As

Publication number Publication date
KR102488369B1 (ko) 2023-01-13

Similar Documents

Publication Publication Date Title
KR102488369B1 (ko) 건설현장 내 작업자의 안전모 컬러 판별 방법 및 이를 수행하기 위한 장치
US10977740B2 (en) Systems and methods for dynamic real-time analysis from multi-modal data fusion for contextual risk identification
JP7207848B2 (ja) リフトクレーンのための光学検出システム
JP6620152B2 (ja) システム、及び、システムの使用方法
KR102012288B1 (ko) 드론을 이용한 구조물 안전 점검 시스템
KR101275508B1 (ko) 타워크레인 작업 안전 관리시스템
EP3882191A1 (en) Method and device for managing elevator operation, elevator system and computer-readable storage medium
KR20130101913A (ko) 로봇의 주행 경로 계획 장치 및 방법
KR101615687B1 (ko) 충돌 예측 로봇 원격 제어 시스템 및 그 방법
KR102357499B1 (ko) 타워크레인 자율운영 시스템 및 이를 이용한 자율운영 방법
CN112008722A (zh) 建筑机器人的控制方法、控制装置及机器人
KR20150049650A (ko) 장애물 근접거리 계측에 의한 지게차 알람 및 정지 제어 시스템
CN113134187B (zh) 基于积分强化学习的多消防巡检协作机器人系统
KR20200066796A (ko) 개선된 기능을 갖는 고소 작업대
WO2022244747A1 (ja) 作業現場管理システム、作業現場管理方法、及び作業現場管理プログラム
KR101941542B1 (ko) 중장비 또는 대형차량의 충돌방지 시스템 및 이의 제어방법
KR20230103002A (ko) 산업 현장의 안전 관리 시스템
KR102435640B1 (ko) 고소작업용 로봇 및 이를 이용한 동작방법
KR102152456B1 (ko) 고소작업차의 전도 방지 시스템
KR20220067345A (ko) 사람의 위치 및 이동경로 추적을 이용한 작업현장 안전관리 방법
CN112975974A (zh) 基于bim智能监测机器人系统及控制方法
Bostelman et al. 3D range imaging for urban search and rescue robotics research
KR20220128166A (ko) 스마트 세이프티 이동식 카메라를 탑재한 공사현장용 스마트 대차
JP6289791B1 (ja) 情報処理装置及び情報処理システム
JP7369375B1 (ja) 建築物又は土木構造物の管理支援システム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant