KR20210106079A - 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법 - Google Patents

이동로봇을 활용한 현장 3차원 복원 시스템 및 방법 Download PDF

Info

Publication number
KR20210106079A
KR20210106079A KR1020200020743A KR20200020743A KR20210106079A KR 20210106079 A KR20210106079 A KR 20210106079A KR 1020200020743 A KR1020200020743 A KR 1020200020743A KR 20200020743 A KR20200020743 A KR 20200020743A KR 20210106079 A KR20210106079 A KR 20210106079A
Authority
KR
South Korea
Prior art keywords
mobile robot
cone
marker
information
unit
Prior art date
Application number
KR1020200020743A
Other languages
English (en)
Other versions
KR102411312B1 (ko
Inventor
송영은
Original Assignee
주식회사 트위니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 트위니 filed Critical 주식회사 트위니
Priority to KR1020200020743A priority Critical patent/KR102411312B1/ko
Publication of KR20210106079A publication Critical patent/KR20210106079A/ko
Application granted granted Critical
Publication of KR102411312B1 publication Critical patent/KR102411312B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

본 발명은 이동로봇이 콘에 의해 설정되는 주행경로를 따라 주행하는동안 복원영역을 360°로 스캔 또는 촬영하여 상기 복원영역을 3차원 복원할 수 있는 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법이 개시된다. 본 발명의 일 실시예에 따른 이동로봇을 활용한 현장 3차원 복원 시스템은, 3차원 복원할 영역에 하나 이상 배치되어 주행경로를 설정하며, 일측에 마커와 GPS센서가 부착되는 콘; 및 입력되는 초기위치로부터 주행경로를 따라 초기위치로 복귀할 때까지 콘을 감지하여 회피하면서 주행하며, 영역을 3차원 복원하는 이동로봇;을 포함하되, 이동로봇은, 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리를 초과하는 경우, GPS센서로부터 신호를 수신하여 가장 근접한 콘의 위치를 측정한 후, 가장 근접한 콘과의 거리를 측정하여 현 위치를 산출하고, 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리 미만인 경우, 가장 근접한 콘에 부착된 이동로봇의 회전정보와 마커의 ID정보를 추출 및 판별하여 현 위치와 진행방향을 산출한 후, 제어부에 의해 가장 근접한 콘을 회피하면서 진행방향에 따라 회전한다.

Description

이동로봇을 활용한 현장 3차원 복원 시스템 및 방법{3D reconstruction system and method for mobile site using mobile robot}
본 발명은 3차원 복원 시스템 및 방법에 관한 것으로, 보다 자세하게는 이동로봇이 콘에 의해 설정되는 주행경로를 따라 주행하는동안 복원영역을 360°로 스캔 또는 촬영하여 상기 복원영역을 3차원 복원하는 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법에 관한 것이다.
종래의 범죄 또는 교통 사고 등의 현장을 재현하는 기술은 GPS와 같은 위치센서, 카메라와 같은 영상 센서 및 레이저 스캐너 등을 이용하여 현장을 3차원 복원하는 것이 일반적이며, 최근 들어 국립과학수사연구원(NFS)에서는 3차원 영상 스캐너를 이용하여 현장을 3차원 복원하는 수사기법인 '3D 스캐닝'을 상용화하기 위한 연구가 진행된 적이 있었다.
이러한 종래의 현장 3차원 복원 기술은 현장에 대해 다양한 시점에서 현장을 조망할 수 있는 장점이 있으나, 규모가 큰 현장을 3차원 복원하는데 시간이 많이 걸린다는 문제점이 있었다.
또한, 종래의 현장 3차원 복원 기술은 현장을 3차원 복원하기 위한 센서와 스캐너의 셋팅이 복잡하고, 모든 과정이 작업자에 의해 이루어져야 하므로, 인건비와 시간이 많이 드는 문제점이 있었다.
1. 대한민국 특허공개 제 10-2015-0014264호(교통 사고 현장 재현 장치 및 방법) 2. 대한민국 특허등록 제 10-1040118호(교통사고 재현 시스템 및 그 제어방법) 3. 대한민국 특허등록 제 10-1689805호(OBD, GPS 및 블랙박스 영상정보를 이용한 교통사고 현장 재현시스템 및 그 방법)
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 3차원 복원하고자 하는 복원영역에 콘을 하나 이상 배치하면, 이동로봇이 콘의 배치에 따라 설정되는 주행경로를 따라 주행하면서 복원영역을 360°로 스캔 또는 촬영하여 상기 복원영역을 3차원 복원하는 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법을 제공하는데 목적이 있다.
다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 목적을 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 이동로봇을 활용한 현장 3차원 복원 시스템은, 3차원 복원할 영역에 하나 이상 배치되어 주행경로를 설정하며, 일측에 마커와 GPS센서가 부착되는 콘; 및 입력되는 초기위치로부터 주행경로를 따라 초기위치로 복귀할 때까지 콘을 감지하여 회피하면서 주행하며, 영역을 3차원 복원하는 이동로봇;을 포함하되, 이동로봇은, 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리를 초과하는 경우, GPS센서로부터 신호를 수신하여 가장 근접한 콘의 위치를 측정한 후, 가장 근접한 콘과의 거리를 측정하여 현 위치를 산출하고, 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리 미만인 경우, 가장 근접한 콘에 부착된 이동로봇의 회전정보와 마커의 ID정보를 추출 및 판별하여 현 위치와 진행방향을 산출한 후, 제어부에 의해 가장 근접한 콘을 회피하면서 진행방향에 따라 회전한다.
그리고 이동로봇은, GPS센서로부터 신호를 수신하여 콘의 위치를 측정하는 GPS부; GPS부가 콘의 위치를 측정하는 동시 또는 측정한 후, 콘을 향해 레이저 광원을 방출하여 콘과의 거리를 측정하는 Lidar부; GPS부가 측정한 콘의 위치와 Lidar부가 측정한 콘과의 거리를 기반으로 이동로봇의 현 위치를 산출하는 제1 산출부; 및 콘의 위치와 이동로봇의 현 위치를 반영하여 3차원 지도상에 출력하는 출력부;를 포함한다.
또한, 제어부는, GPS부, Lidar부, 제1 산출부 및 출력부가 이동로봇의 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리를 초과할 때 동작되도록 제어한다.
그리고 이동로봇은, 시선이 마커와 수평방향으로 평행하게 위치될 때 촬영하여 마커를 적어도 포함하는 영상을 획득하는 카메라부; 및 카메라부가 획득한 영상으로부터 이동로봇의 회전정보와 마커의 ID정보를 추출 및 판별한 후, 영상 상의 마커를 기준으로 이동로봇의 위치에 해당되는 이동로봇의 지역좌표를 기반으로 현 위치를 산출하며, 이동로봇의 회전정보를 기반으로 이동로봇의 진행방향을 산출하는 제2 산출부;를 포함한다.
또한, 제어부는, 카메라와 제2 산출부가 이동로봇의 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리 미만이 될 때 동작되도록 제어한다.
그리고 이동로봇은, 초기위치 정보, 콘의 갯수를 적어도 포함하는 콘 정보 및 이동로봇의 회전정보와 마커의 ID정보를 적어도 포함하는 마커 정보가 입력되는 입력부; 및 영역을 3차원 복원하기 위한 3차원 영상 스캐너가 구비되는 복원부;를 포함한다.
또한, 제어부는, 이동로봇이 입력부에 초기위치 정보, 콘 정보 및 마커 정보가 입력될 때 초기위치 정보에 따른 초기위치로부터 주행을 시작하도록 제어하며, 이동로봇이 주행하는동안 또는 이동로봇이 초기위치에 복귀하게 되면, 복원부가 영역을 3차원 복원하도록 제어한다.
그리고 마커는, 이동로봇의 회전정보에 대한 패턴을 가지는 그룹인 제1 마커그룹; 및 제1 마커그룹을 제외한 나머지 그룹이되, 마커의 ID정보에 대한 패턴을 가지는 제2 마커그룹;을 포함한다.
또한, 제1 마커그룹은, 이동로봇을 0°~90°중 적어도 하나의 각도로 회전시키기 위한 패턴을 가지는 제1-1 마커그룹; 이동로봇을 91°~180°중 적어도 하나의 각도로 회전시키기 위한 패턴을 가지는 제1-2 마커그룹; 이동로봇을 181°~270°중 적어도 하나의 각도로 회전시키기 위한 패턴을 가지는 제1-3 마커그룹; 및 이동로봇을 271°~360°중 적어도 하나의 각도로 회전시키기 위한 패턴을 가지는 제1-4 마커그룹;을 포함한다.
상기와 같은 목적을 달성하기 위한 기술적 방법으로서, 본 발명의 일 실시예에 따른 이동로봇을 활용한 현장 3차원 복원 방법은, 일측에 마커와 GPS센서가 부착되는 콘을 3차원 복원할 영역에 하나 이상 배치하여 주행경로를 설정하는 단계; 이동로봇이 초기위치가 입력되면, 주행경로를 따라 초기위치로 복귀할 때까지 콘을 감지하여 회피하면서 주행하는 단계; 및 이동로봇이 상기 영역을 3차원 복원하는 단계;를 포함하되, 이동로봇은, 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리를 초과하는 경우, GPS센서로부터 신호를 수신하여 가장 근접한 콘의 위치를 측정한 후, 가장 근접한 콘과의 거리를 측정하여 현 위치를 산출하고, 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리 미만인 경우, 가장 근접한 콘에 부착된 이동로봇의 회전정보와 마커의 ID정보를 추출 및 판별하여 현 위치와 진행방향을 산출한 후, 제어부에 의해 가장 근접한 콘을 회피하면서 진행방향에 따라 회전할 수 있다.
본 발명의 일 실시예에 따르면, 콘을 배치하는 것만으로도 복원영역과 주행경로의 설정이 가능하여 이동로봇을 통해 용이하게 복원영역을 3차원 복원할 수 있다.
그리고 본 발명의 일 실시예에 따르면, 이동로봇이 사용자에 의한 별도의 학습 없이도 주행 및 3차원 복원을 수행함으로써, 사용자에게 편의성을 제공할 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 이동로봇을 활용한 현장 3차원 복원 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 이동로봇의 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 입력부에 입력되는 정보를 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 위치측정부가 측정하는 위치정보를 나타내는 블록도이다.
도 5는 본 발명의 일 실시예에 따른 출력부가 출력하는 맵 정보를 나타내는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 콘을 나타내는 사시도이다.
도 7 내지 도 8은 본 발명의 일 실시예에 따른 마커의 구조를 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 이동로봇을 활용한 현장 3차원 복원 방법의 과정을 나타내는 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 제2 산출부가 이동로봇의 현 위치 및 진행방향을 산출하는 단계의 세부적인 과정을 나타내는 흐름도이다.
이하에서는, 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시 예에 불과하므로, 본 발명의 권리(범위는 본문에 설명된 실시 예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시 예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
실시예의 구성
이하에서는, 첨부된 도면들을 참조하여 바람직한 실시예의 구성을 자세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 이동로봇을 활용한 현장 3차원 복원 시스템의 개략도이다.
도 1을 참조하면, 이동로봇을 활용한 현장 3차원 복원 시스템은 현장인 복원영역(1)을 3차원 복원 하기 위한 이동로봇(10) 및 콘(20)을 포함하도록 구성된다.
콘(20)은 이동로봇(10)을 이용하여 3차원 복원할 복원영역(1)에 하나 이상 배치되며, 상기 배치를 통해 이동로봇(10)의 주행경로(2)를 설정한다. 여기서, 이동로봇의 주행경로(2)는 콘(20)의 배치에 의해 설정되는 경로이며, 콘(20)에 의해 구획되어 복원영역(1)과 겹쳐지지 않는 것이 바람직할 것이다.
이동로봇(10)은 콘(20)에 의해 설정된 주행경로(2)를 따라 주행하면서 콘(20)을 감지하여 회피하며, 복원영역(1)을 360°로 스캔 또는 촬영하여 3차원 복원한다.
그리고 이동로봇(10)은 주행을 위한 구성요소로 바퀴, 무한궤도, 이족, 사족의 다리가 구비될 수 있으며, 이를 통해 주행경로(2) 상에서 조향, 출발, 정지 등이 가능하다.
또한, 이동로봇(10)은 후술될 GPS부(12), Lidar부(13) 및 카메라부(16) 중 적어도 하나의 감지수단을 통해 콘(20)을 감지하여 주행경로(2)를 따라 주행하는동안 콘(20)을 회피하게 된다.
이러한 이동로봇(10)은 도 2 내지 도 5에 도시된 바와 같이, 입력부(11), GPS부(12), Lidar부(13), 제1 산출부(14), 출력부(15), 카메라부(16), 제2 산출부(17), 복원부(18) 및 제어부(19)를 포함하도록 구성된다. 더 나아가, 상기 이동로봇(10)의 구성요소들은 이동로봇(10)의 외측에 구비되거나 내장될 수 있다.
도 2는 본 발명의 일 실시예에 따른 이동로봇의 구성을 나타내는 블록도이며, 도 3은 본 발명의 일 실시예에 따른 입력부에 입력되는 정보를 나타내는 블록도이고, 도 4는 본 발명의 일 실시예에 따른 위치측정부가 측정하는 위치정보를 나타내는 블록도이며, 도 5는 본 발명의 일 실시예에 따른 출력부가 출력하는 맵 정보를 나타내는 블록도이다.
입력부(11)는 초기위치 정보(110), 콘 정보(111) 및 마커 정보(112)가 입력 가능한 입력수단이 구비된다. 여기서, 입력수단은 직접 입력방식으로 구현되면 직접입력이 가능하도록 이동로봇(10)의 외측에 구비될 수 있고, 이와 달리 원격방식으로 구현되면 장애물 등과의 충돌에 의한 파손을 방지하기 위해 이동로봇(10)에 내장될 수 있다.
초기위치 정보(110)는 이동로봇(10)이 주행을 시작하게 될 초기위치에 대한 정보를 의미한다. 여기서, 초기위치는 이동로봇(10)의 주행 시작위치를 의미하면서, 동시에 주행이 완료되는 이동로봇(10)의 복귀위치를 의미함에 따라, 초기위치 정보(110)는 이동로봇(10)의 주행을 위해 입력부(11)에 입력되는 것이 바람직할 것이다.
콘 정보(111)는 배치된 콘(20)의 갯수, 콘(20)의 무게 및 콘(20)의 높이를 포함하는 정보를 의미한다. 여기서, 콘(20)의 갯수는 이동로봇(10)이 감지한 콘(20)의 갯수와의 비교를 통해 이동로봇(10)이 주행경로(2)를 따라 주행하였는지 확인하기 위해 사용됨에 따라, 콘 정보(111)에는 콘(20)의 갯수가 적어도 포함되는 것이 바람직할 것이다.
마커 정보(112)는 콘(20)의 일측에 부착되는 마커(21)에 포함되는 후술될 이동로봇의 회전정보(220, 221, 222, 223) 및 마커의 ID정보(230)를 포함하는 정보를 의미한다. 여기서, 마커의 ID정보(230)는 이동로봇(10)이 콘(20)마다 부착된 마커(21)를 식별하기 위해 사용되며, 이동로봇의 회전정보(220, 221, 222, 223)는 이동로봇(10)이 진행방향에 따라 회전되기 위해 사용된다.
상기 초기위치 정보(110), 콘 정보(111) 및 마커 정보(112)는 입력부(11)에 입력되는 정보 역할만 수행할 뿐만 아니라, 이동로봇(10)의 주행 시작시기를 결정하는 정보일 수 있다. 구체적인 일례로, 제어부(19)는 입력부(11)에 상기 초기위치 정보(110), 콘 정보(111) 및 마커 정보(112)가 입력될 때, 상기 초기위치 정보(110)에 따른 초기위치로부터 이동로봇(10)이 주행을 시작하도록 제어할 수 있다.
한편, 입력부(11)에 입력되는 정보는 상기 초기위치 정보(110), 콘 정보(111) 및 마커 정보(112)로 한정하는 것이 아니라, 이동로봇(10)의 주행 및 복원영역(1)의 3차원 복원을 위한 다른 정보들이 입력될 수 있다.
GPS부(12)는 마커(21)의 일측에 부착되는 GPS센서(24)로부터 신호를 수신하여 콘(20)의 위치를 측정한다.
Lidar부(13)는 GPS부(12)가 콘(20)의 위치를 측정하는 동시 또는 측정한 후, 콘(20)을 향해 레이저 광원을 방출하여 콘(20)과의 거리를 측정한다. 여기서, Lidar부(13)와 콘(20) 간의 거리는 Lidar부(13)가 이동로봇(10)의 외측에 구비되거나 내장됨에 따라, 이동로봇(10)과 콘(20) 간의 거리로 이해되는 것이 바람직할 것이다.
제1 산출부(14)는 GPS부(12)가 측정한 콘(20)의 위치에 대한 정보를 GPS부(12)로부터 수신하며, GPS부(12)로부터 정보를 수신하는 동시 또는 GPS부(12)로부터 정보를 수신한 후, Lidar부(13)가 측정한 콘(20)과의 거리에 대한 정보를 Lidar부(13)로부터 수신한다.
이러한 제1 산출부(14)는 이동로봇 위치정보(140), 콘 위치정보(141) 및 장애물 위치정보(142)를 산출한다.
이동로봇 위치정보(140)는 제1 산출부(14)가 GPS부(12)로부터 수신한 콘(20)의 위치와 Lidar부(13)로부터 수신한 콘(20)과의 거리를 기반으로 산출하는 이동로봇(10)의 현 위치에 대한 정보를 의미한다.
콘 위치정보(141)는 제1 산출부(14)가 GPS부(12)로부터 수신한 콘(20)의 위치를 기반으로 산출하는 복원영역(1)에 배치된 모든 콘(20)의 위치를 의미한다.
장애물 위치정보(142)는 제1 산출부(14)가 Lidar부(13)에 의해 측정된 콘(20)을 제외한 나머지 장애물들의 위치를 기반으로 산출하는 복원영역(1) 및 주행경로(2)에 인접한 모든 장애물들의 위치를 의미한다.
상기 GPS부(12), Lidar부(13) 및 제1 산출부(14)는 제어부(19)에 의해 동작이 제어되며, 이동로봇(10)의 현 위치로부터 가장 근접한 콘(20)과의 거리가 기설정된 거리를 초과할 때부터 상기 이동로봇(10)과 상기 콘(20) 간의 거리가 기설정된 거리 미만이 될 때까지 동작된다.
여기서, 기설정된 거리는 0.1m~3 m 중 적어도 하나의 값으로 설정될 수 있다. 이와 같이, 기설정된 거리를 설정하는 것은 이동로봇(10)과 상기 이동로봇(10)으로부터 가장 근접한 콘(20) 간의 거리에 따라 제1 산출부(14) 기반의 제1 방식 또는 제2 산출부(17) 기반의 제2 방식으로 이동로봇(10)의 현 위치를 산출하기 위함이다.
출력부(15)는 LCD 터치 패널로 구현될 수 있으며, 제1 산출부(14)가 산출한 이동로봇 위치정보(140), 콘 위치정보(141) 및 장애물 위치정보(142)를 반영하여 3차원 지도(150)상에 출력한다.
그리고 3차원 지도(150)는 센티미터(cm) 수준의 정밀도를 가지는 고정밀 지도(HD MAP)로서 이동로봇(10)의 현 위치, 복원영역(1)에 배치된 모든 콘(20) 및 복원영역(1)과 주행경로(2)에 인접한 장애물들이 3차원으로 출력되며, 추가적으로 복원영역(1)과 주행경로(2)가 3차원으로 출력될 수 있다.
카메라부(16)는 촬영을 통해 마커(21)를 적어도 포함하는 영상을 획득한다. 여기서, 카메라부(16)는 획득하는 영상으로부터 마커(21)가 왜곡되지 않게 하기 위해 시선이 마커(21)와 수평방향으로 평행하게 위치될 때 촬영을 실시하는 것이 바람직할 것이다.
또한, 카메라부(16)는 이동로봇(10)의 주행에 따라 상대적인 위치가 변경될 콘(20)에 부착된 마커(21)를 촬영하기 위해 시선이 좌우 또는 상하로 회전가능하며, 이를 위한 수단인 시선구동부(미도시)가 구비될 수 있다. 그리고 시선구동부(미도시)는 서보모터, 스텝핑 모터 등으로 구현될 수 있다.
제2 산출부(17)는 카메라부(16)로부터 획득한 영상을 수신하고, 상기 영상으로부터 이동로봇의 회전정보(220, 221, 222, 223)와 마커의 ID정보(230)를 추출 및 판별한 후, 영상 상의 마커(21)를 기준으로 이동로봇(10)의 위치에 해당되는 지역좌표를 기반으로 이동로봇(10)의 현 위치를 산출하며, 이동로봇의 회전정보(220, 221, 222, 223)를 기반으로 이동로봇(10)의 진행방향을 산출한다. 이때, 이동로봇(10)의 현 위치 및 진행방향의 산출은 동시에 이루어질 수 있다.
또한, 제2 산출부(17)로부터 산출된 이동로봇(10)의 현 위치와 이동로봇(10)의 진행방향은 출력부(15)에 3차원으로 출력될 수 있다.
그리고 제2 산출부(17)는 산출한 이동로봇(10)의 현 위치와 이동로봇(10)의 진행방향을 제어부(19)로 송신한다. 이를 통해, 제어부(19)는 이동로봇(10)이 주행경로(2)상에서 진행방향을 따라 회전되도록 하여 콘(20)을 회피하도록 이동로봇(10)을 제어한다.
상기 카메라부(16)와 제2 산출부(17)는 제어부(19)에 의해 동작이 제어되며, 이동로봇(10)의 현 위치로부터 가장 근접한 콘(20)과의 거리가 기설정된 거리 미만일 때부터 상기 이동로봇(10)과 상기 콘(20) 간의 거리가 기설정된 거리를 초과할 때까지 동작된다.
복원부(18)는 복원영역(1)을 3차원 복원하기 위한 3차원 영상 스캐너일 수 있다.
여기서, 3차원 영상 스캐너는 비접촉식 방식과 접촉식 방식 중 비접촉식 방식으로 구현되는 것이 바람직할 것이며, 이러한 비접촉식 방식은 장거리 비접촉식 3차원 스캔 방식, 단거리 비접촉식 3차원 스캔 방식 및 중-단거리 비접촉식 3차원 스캔 방식 중 적어도 하나의 방식일 수 있다.
더 나아가, 장거리 비접촉식 3차원 스캔 방식은 레이저를 이용한 3차원 스캔 방식으로서 ToF(Time of Flight) 방식, Phase-shift 방식 및 Online waveform analysis 방식 중 적어도 하나일 수 있다. 그리고 단거리 비접촉식 3차원 스캔 방식은 레이저를 이용한 3차원 스캔 방식인 광 삼각법 방식, 광학을 이용한 3차원 스캔 방식은 백색광 방식과 변조광 방식, 포토(Photo) 및 광학을 이용한 3차원 스캔 방식인 Handheld Real Time 방식, 광학 및 레이저를 이용한 Pattern Projection 방식과 Line Scanning 방식 중 적어도 하나일 수 있다. 또한, 중-단거리 비접촉식 3차원 스캔 방식은 사진 스캔 방식인 hotogrammetry 방식과 실시간(Real Time) 스캔 방식인 Kinect Fusion 방식 중 적어도 하나일 수 있다.
그리고 복원부(18)는 이동로봇(10)이 주행경로(2)를 따라 주행하는동안 복원영역(1)을 360°로 스캔 또는 촬영하며, 이동로봇(10)이 주행경로(2)를 따라 주행하는동안 또는 초기위치로 복귀하게 된 후, 복원영역(1)을 3차원 복원할 수 있다.
한편, 콘(20)은 도 6에 도시된 바와 같이, 마커(21)와 GPS센서(24)가 일측에 부착되며, 도 6은 본 발명의 일 실시예에 따른 콘을 나타내는 사시도이다.
마커(21)는 도 7 내지 도 8에 도시된 바와 같이, 제1 마커그룹(22)과 상기 제1 마커그룹(22)을 제외한 나머지 그룹인 제2 마커그룹(23)을 포함하도록 구성된다.
도 7 내지 도 8은 본 발명의 일 실시예에 따른 마커의 구조를 나타내는 도면이다.
제1 마커그룹(22)은 이동로봇의 회전정보(220, 221, 222, 223)에 대한 패턴을 가지는 마커(21) 내의 그룹을 의미한다.
이러한 제1 마커그룹(22)은 패턴이 형성된 위치에 따라 제1-1 마커그룹(22a), 제1-2 마커그룹(22b), 제1-3 마커그룹(22c) 및 제1-4 마커그룹(22d)으로 나누어진다.
제1-1 마커그룹(22a)은 도 8의 (a)에 도시된 바와 같이 마커(21)의 좌측 상단에 표시될 수 있으며, 이동로봇(10)을 0°~90°중 적어도 하나의 각도로 회전시키기 위한 패턴인 제1 이동로봇 회전정보(220)를 포함한다.
제1 이동로봇 회전정보(220)는 0°~90°에 대한 패턴을 각각 다르게 가진다. 즉, 제1 이동로봇 회전정보(220)에는 0°부터 90°까지 91개의 패턴 중 1개의 패턴이 표시된다.
제1-2 마커그룹(22b)은 도 8의 (b)에 도시된 바와 같이 마커(21)의 우측 상단에 표시될 수 있으며, 이동로봇(10)을 91°~180°중 적어도 하나의 각도로 회전시키기 위한 패턴인 제2 이동로봇 회전정보(221)를 포함한다.
제2 이동로봇 회전정보(221)는 91°~180°에 대한 패턴을 각각 다르게 가지면서, 이러한 패턴은 제1 이동로봇 회전정보(220)의 패턴과 다르게 표시될 수 있다. 그리고 제2 이동로봇 회전정보(221)에는 91°부터 180°까지 90개의 패턴 중 1개의 패턴이 표시된다.
제1-3 마커그룹(22c)은 도 8의 (c)에 도시된 바와 같이 마커(21)의 우측 하단에 표시될 수 있으며, 이동로봇(10)을 181°~270°중 적어도 하나의 각도로 회전시키기 위한 패턴인 제3 이동로봇 회전정보(222)를 포함한다.
제3 이동로봇 회전정보(222)는 181°~270°에 대한 패턴을 각각 다르게 가지면서, 이러한 패턴은 제1 이동로봇 회전정보(220)의 패턴 및 제2 이동로봇 회전정보(221)의 패턴과 다를 수 있다. 또한, 제3 이동로봇 회전정보(222)에는 181°부터 270°까지 90개의 패턴 중 1개의 패턴이 표시된다.
제1-4 마커그룹(22d)은 도 8의 (d)에 도시된 바와 같이 마커(21)의 좌측 하단에 표시될 수 있으며, 이동로봇(10)을 271°~360°중 적어도 하나의 각도로 회전시키기 위한 패턴인 제4 이동로봇 회전정보(223)를 포함한다.
제4 이동로봇 회전정보(223)는 271°~360°에 대한 패턴을 각각 다르게 가지면서, 이러한 패턴은 제1 이동로봇 회전정보(220)의 패턴, 제2 이동로봇 회전정보(221)의 패턴 및 제3 이동로봇 회전정보(222)의 패턴과 다를 수 있다. 그리고 제4 이동로봇 회전정보(223)에는 271°~360°까지 90개의 패턴 중 1개의 패턴이 표시된다. 다만, 360°의 패턴은 제1 이동로봇 회전정보(220)의 0°의 패턴과 동일하거나 제1 이동로봇 회전정보(220)에 표시되는 0°의 패턴으로 대체될 수 있고, 이 경우 제4 이동로봇 회전정보(223)에는 89개의 패턴 중 1개의 패턴이 표시될 수 있다. 이는, 이동로봇(10)의 0°회전과 360°회전이 실질적으로 동일하기 때문이다.
상기 제1, 2, 3, 4 이동로봇 회전정보(220, 221, 222, 223)는 제2 산출부(17)가 이동로봇(10)의 회전방향을 추출 및 판별하는데 오류가 발생되는 것을 방지하기 위해 하나만 표시되는 것이 바람직할 것이다. 구체적인 일례로, 마커(21)에 제1 이동로봇 회전정보(220)의 패턴이 표시되면, 나머지 제2, 3, 4 이동로봇 회전정보(221, 222, 223)의 패턴은 마커(21)에 표시되지 않을 수 있다.
제2 마커그룹(23)은 마커의 ID정보(230)에 대한 패턴을 가지는 그룹을 의미한다.
더 나아가, 제2 마커그룹(23)은 제1-1 마커그룹(22a), 제1-2 마커그룹(22b), 제1-3 마커그룹(22c) 및 제1-4 마커그룹(22d)을 제외한 나머지 마커(21)의 영역에 표시된 패턴을 의미한다.
마커의 ID정보(230)는 마커(21)가 부착된 콘(20)과 인접 또는 다른 콘(20)에 부착된 마커(21)를 식별하기 위한 정보이다.
그리고 마커의 ID정보(230)는 ID 값을 표시하는 8자리 또는 12자리 이진수의 특정 비트일 수 있다. 다만, 마커의 ID정보(230)는 이진수의 특정 비트로 구현되는 것이 필수적인 것은 아니어서, 다른 방식의 정보로 대체될 수도 있다.
또한, 마커의 ID정보(230)는 도 7 내지 도 8에 상단 1행에 2개의 패턴, 2행에 4개의 패턴, 3행에 4개의 패턴, 4행에 2개의 패턴을 가지는 것으로 도시되었으나, ID 값에 따라 1개 이상의 패턴이 삭제될 수 있다. 구체적인 일례로, 이동로봇(10)과 가장 근접한 콘(20)에 부착된 마커(21)에는 총 10개의 패턴을 가지는 마커의 ID정보(230)가 포함될 수 있으나, 상기 콘(20)과 인접한 콘(20)의 마커(21)에는 8개의 패턴을 가지는 마커의 ID정보(230)가 포함될 수 있다.
상기 마커(21)는 제1 마커그룹(22)과 제2 마커그룹(23)을 포함한다고 설명하였으나, 이를 한정하는 것은 아니며 이동로봇(10)의 현 위치와 진행방향을 산출할 수 있다면, 다른 방식의 마커로 구현될 수 있다.
실시예의 동작
이하에서는, 첨부된 도면들을 참조하여 바람직한 실시예의 동작을 자세히 설명하기로 한다.
도 9는 본 발명의 일 실시예에 따른 이동로봇을 활용한 현장 3차원 복원 방법의 과정을 나타내는 흐름도이다.
먼저, 하나 이상의 콘(20)을 배치하여 복원영역(1) 및 주행경로(2)를 설정할 수 있다.
복원영역(1) 및 주행경로(2) 설정 후, 도 9에 도시된 바와 같이, 입력부(11)에 초기위치 정보(110), 콘 정보(111) 및 마커 정보(112)가 입력될 수 있다(S10).
입력부(11)에 정보 입력 후, 이동로봇(10)은 입력부(11)에 입력된 초기위치 정보(110)에 따라 초기위치로부터 주행경로(2)를 따라 주행을 시작할 수 있다(S20).
상기의 주행 시작 단계(S20)에서, 제어부(19)는 이동로봇(10)의 콘(20) 감지 수단을 결정할 수 있다.
구체적인 일례로, 초기위치와 가장 근접한 콘(20) 간의 거리가 기설정된 거리를 초과하면, 제어부(19)는 콘(20)을 감지하는 수단으로 GPS부(12)와 Lidar부(13)가 동작되도록 제어할 수 있다. 이와 달리, 초기위치와 가장 근접한 콘(20) 간의 거리가 기설정된 거리 미만이면, 제어부(19)는 콘(20)을 감지하는 수단으로 카메라부(16)가 동작되도록 제어할 수 있다.
이동로봇(10)의 주행 시작 후, 제어부(19)는 콘(20)을 감지하는 수단을 통해 이동로봇(10)과 가장 근접한 콘(20)의 거리 값이 기설정된 거리 이상인지 여부를 판단할 수 있다(S30).
이때 만약, 이동로봇(10)과 가장 근접한 콘(20) 간의 거리가 기설정된 거리 이상이면(S30-YES), GPS부(12)와 Lidar부(13)가 동작될 수 있으며(S40), 제1 산출부(14)는 GPS부(12)가 측정한 가장 근접한 콘(20)의 위치와 Lidar부(13)가 측정한 이동로봇(10)과 가장 근접한 콘(20) 간의 거리를 기반으로 이동로봇(10)의 현 위치를 산출할 수 있다(S50).
이동로봇(10)의 현 위치 산출 후, 제어부(19)는 제1 산출부(14)가 산출한 이동로봇(10)의 현 위치를 기반으로 이동로봇(10)이 콘(20)을 회피하면서 주행경로(2)를 따라 주행하도록 제어할 수 있다.
또한, 이동로봇(10)은 주행경로(2)를 따라 주행하는동안 입력부(11)에 입력된 콘 정보(111)에 포함되는 콘(20)의 갯수와 GPS부(12) 및 Lidar부(13)를 통해 감지한 콘(20)의 갯수가 동일하게 되면, 초기위치로 복귀될 수 있다(S80).
이와 달리 만약, 이동로봇(10)과 가장 근접한 콘(20) 간의 거리가 기설정된 거리 미만이면(S30-NO), 카메라부(16)가 동작될 수 있으며(S60), 제2 산출부(17)는 카메라부(16)가 획득한 영상으로부터 이동로봇의 회전정보(220, 221, 222, 223)와 마커의 ID정보(230)를 추출 및 판별하여 이동로봇(10)의 현 위치와 진행방향을 산출할 수 있다(S70).
이러한 이동로봇(10)의 현 위치와 진행방향을 산출하는 단계(S70)의 과정은 도 10에 도시된 바와 같이, 세부적인 과정으로 나누어질 수 있다.
도 10은 본 발명의 일 실시예에 따른 제2 산출부가 이동로봇의 현 위치 및 진행방향을 산출하는 단계의 세부적인 과정을 나타내는 흐름도이다.
먼저, 카메라부(16)는 콘(20)에 부착된 마커(21)를 적어도 포함하도록 시선이 고정된 후 마커(21)를 촬영할 수 있다(S71).
마커(21) 촬영 후, 영상변환부(미도시)는 카메라부(16)가 획득한 컬러 영상을 밝기 영상으로 변환하여 카메라부(16)의 영상을 이진화할 수 있다(S72). 이러한 영상변환부(미도시)는 도면에 미도시되었으나, 이동로봇(10)에 구비 또는 내장되는 것이 바람직할 것이다.
영상 이진화 후, 레이블링부(미도시)는 마커(21)를 적어도 포함하는 이진화된 영상으로부터 반복적인 레이블링을 수행하여 마커(21)를 검출할 수 있다(S73). 이러한 레이블링부(미도시)는 도면에 미도시되었으나, 이동로봇(10)에 구비 또는 내장되는 것이 바람직할 것이다.
마커(21) 검출 후, 제2 산출부(17)는 이동로봇의 회전정보(220, 221, 222, 223)와 마커의 ID정보(230)를 추출 및 판별한다(S74). 이때 만약, 마커의 ID정보(230)가 입력부(11)에 입력된 마커 정보(112)에 포함되지 않는다면, 제2 산출부(17)는 이동로봇(10)의 현 위치 및 진행방향 산출 과정을 종료하고, 카메라부(16)는 다음으로 인접한 콘(20)에 부착된 마커(21)를 촬영할 수 있다.
마커정보 추출 및 판별 후, 제2 산출부(17)는 이동로봇의 회전정보(220, 2221, 222, 223)을 기반으로 이동로봇(10)의 진행방향을 산출한다(S75). 이때, 제2 산출부(17)가 산출하는 이동로봇(10)의 진행방향은 0°~360°중 적어도 하나의 각도일 수 있다.
이동로봇(10)의 진행방향 산출 후, 제2 산출부(17)는 카메라부(16)의 영상 상의 마커(21)를 기준으로 이동로봇(10)의 위치에 해당되는 이동로봇(10)의 지역좌표를 산출할 수 있다(S76).
이동로봇(10)의 지역좌표 산출 후, 제2 산출부(17)는 지역좌표를 기반으로 이동로봇(10)의 현 위치를 산출할 수 있다(S77).
이동로봇(10)의 현 위치 산출 후, 제어부(19)는 제2 산출부(17)가 산출한 이동로봇(10)의 현 위치와 이동로봇(10)의 진행방향을 기반으로 이동로봇(10)이 회전되도록 하여 콘(20)을 회피하면서 주행경로(2)를 따라 주행하도록 제어할 수 있다.
그리고 이동로봇(10)은 주행경로(2)를 따라 주행하는동안 입력부(11)에 입력된 콘 정보(11)의 콘(20) 갯수와 감지한 콘(20)의 갯수가 동일하게 되면, 초기위치로 복귀될 수 있다(S80).
한편, 복원부(18)는 이동로봇(10)이 초기위치로부터 주행을 시작하여 초기위치로 복귀할 때까지 복원영역(1)을 360°스캔 또는 촬영하며, 이동로봇(10)이 주행경로(2)를 따라 주행되는동안 또는 이동로봇(10)이 초기위치로 복귀된 후, 복원영역(1)을 3차원 복원할 수 있다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시 예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시 예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
1: 복원영역,
2: 주행경로,
10: 이동로봇,
11: 입력부,
12: GPS부,
13: Lidar부,
14: 제1 산출부,
15: 출력부,
16: 카메라부,
17: 제2 산출부,
18: 복원부,
19: 제어부,
20: 콘,
21: 마커,
22: 제1 마커 그룹,
22a: 제1-1 마커 그룹,
22b: 제1-2 마커 그룹,
22c: 제1-3 마커 그룹,
22d: 제1-4 마커 그룹,
23: 제2 마커 그룹,
24: GPS센서,
110: 초기위치 정보,
111: 콘 정보,
112: 마커 정보,
140: 이동로봇 위치정보,
141: 콘 위치정보,
142: 장애물 위치정보,
150: 3차원 지도,
220: 제1 이동로봇 회전정보,
221: 제2 이동로봇 회전정보,
222: 제3 이동로봇 회전정보,
223: 제4 이동로봇 회전정보,
230: 마커의 ID정보.

Claims (10)

  1. 3차원 복원할 영역에 하나 이상 배치되어 주행경로를 설정하며, 일측에 마커와 GPS센서가 부착되는 콘; 및
    입력되는 초기위치로부터 상기 주행경로를 따라 상기 초기위치로 복귀할 때까지 상기 콘을 감지하여 회피하면서 주행하며, 상기 영역을 3차원 복원하는 이동로봇;을 포함하되,
    상기 이동로봇은,
    상기 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리를 초과하는 경우, 상기 GPS센서로부터 신호를 수신하여 상기 가장 근접한 콘의 위치를 측정한 후, 상기 가장 근접한 콘과의 거리를 측정하여 현 위치를 산출하고,
    상기 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 상기 기설정된 거리 미만인 경우, 상기 가장 근접한 콘에 부착된 이동로봇의 회전정보와 마커의 ID정보를 추출 및 판별하여 현 위치와 진행방향을 산출한 후, 제어부에 의해 상기 가장 근접한 콘을 회피하면서 상기 진행방향에 따라 회전하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  2. 제 1 항에 있어서,
    상기 이동로봇은,
    상기 GPS센서로부터 신호를 수신하여 상기 콘의 위치를 측정하는 GPS부;
    상기 GPS부가 콘의 위치를 측정하는 동시 또는 측정한 후, 상기 콘을 향해 레이저 광원을 방출하여 상기 콘과의 거리를 측정하는 Lidar부;
    상기 GPS부가 측정한 콘의 위치와 상기 Lidar부가 측정한 상기 콘과의 거리를 기반으로 상기 이동로봇의 현 위치를 산출하는 제1 산출부; 및
    상기 콘의 위치와 상기 이동로봇의 현 위치를 반영하여 3차원 지도상에 출력하는 출력부;를 포함하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  3. 제 2 항에 있어서,
    상기 제어부는,
    상기 GPS부, Lidar부, 제1 산출부 및 출력부가 상기 이동로봇의 현 위치로부터 가장 근접한 콘과의 거리가 상기 기설정된 거리를 초과할 때 동작되도록 제어하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  4. 제 1 항에 있어서,
    상기 이동로봇은,
    시선이 상기 마커와 수평방향으로 평행하게 위치될 때 촬영하여 상기 마커를 적어도 포함하는 영상을 획득하는 카메라부; 및
    상기 카메라부가 획득한 영상으로부터 상기 이동로봇의 회전정보와 마커의 ID정보를 추출 및 판별한 후, 상기 영상 상의 마커를 기준으로 상기 이동로봇의 위치에 해당되는 상기 이동로봇의 지역좌표를 기반으로 현 위치를 산출하며, 상기 이동로봇의 회전정보를 기반으로 상기 이동로봇의 진행방향을 산출하는 제2 산출부;를 포함하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  5. 제 4 항에 있어서,
    상기 제어부는,
    상기 카메라와 제2 산출부가 상기 이동로봇의 현 위치로부터 가장 근접한 콘과의 거리가 상기 기설정된 거리 미만이 될 때 동작되도록 제어하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  6. 제 1 항에 있어서,
    상기 이동로봇은,
    초기위치 정보, 상기 콘의 갯수를 적어도 포함하는 콘 정보 및 상기 이동로봇의 회전정보와 마커의 ID정보를 적어도 포함하는 마커 정보가 입력되는 입력부; 및
    상기 영역을 3차원 복원하기 위한 3차원 영상 스캐너가 구비되는 복원부;를 포함하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  7. 제 6 항에 있어서,
    상기 제어부는,
    상기 이동로봇이 상기 입력부에 상기 초기위치 정보, 콘 정보 및 마커 정보가 입력될 때 상기 초기위치 정보에 따른 초기위치로부터 주행을 시작하도록 제어하며,
    상기 이동로봇이 주행하는동안 또는 상기 이동로봇이 상기 초기위치에 복귀하게 되면, 상기 복원부가 상기 영역을 3차원 복원하도록 제어하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  8. 제 1 항에 있어서,
    상기 마커는,
    상기 이동로봇의 회전정보에 대한 패턴을 가지는 그룹인 제1 마커그룹; 및
    상기 제1 마커그룹을 제외한 나머지 그룹이되, 상기 마커의 ID정보에 대한 패턴을 가지는 제2 마커그룹;을 포함하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  9. 제 8 항에 있어서,
    상기 제1 마커그룹은,
    상기 이동로봇을 0°~90°중 적어도 하나의 각도로 회전시키기 위한 패턴을 가지는 제1-1 마커그룹;
    상기 이동로봇을 91°~180°중 적어도 하나의 각도로 회전시키기 위한 패턴을 가지는 제1-2 마커그룹;
    상기 이동로봇을 181°~270°중 적어도 하나의 각도로 회전시키기 위한 패턴을 가지는 제1-3 마커그룹; 및
    상기 이동로봇을 271°~360°중 적어도 하나의 각도로 회전시키기 위한 패턴을 가지는 제1-4 마커그룹;을 포함하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 시스템.
  10. 일측에 마커와 GPS센서가 부착되는 콘을 3차원 복원할 영역에 하나 이상 배치하여 주행경로를 설정하는 단계;
    이동로봇이 초기위치가 입력되면, 상기 주행경로를 따라 상기 초기위치로 복귀할 때까지 상기 콘을 감지하여 회피하면서 주행하는 단계; 및
    상기 이동로봇이 상기 영역을 3차원 복원하는 단계;를 포함하되,
    상기 이동로봇은,
    상기 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 기설정된 거리를 초과하는 경우, 상기 GPS센서로부터 신호를 수신하여 상기 가장 근접한 콘의 위치를 측정한 후, 상기 가장 근접한 콘과의 거리를 측정하여 현 위치를 산출하고,
    상기 주행경로를 따라 주행하는동안 현 위치로부터 가장 근접한 콘과의 거리가 상기 기설정된 거리 미만인 경우, 상기 가장 근접한 콘에 부착된 이동로봇의 회전정보와 마커의 ID정보를 추출 및 판별하여 현 위치와 진행방향을 산출한 후, 상기 제어부에 의해 상기 가장 근접한 콘을 회피하면서 상기 진행방향에 따라 회전하는 것을 특징으로 하는 이동로봇을 활용한 현장 3차원 복원 방법.
KR1020200020743A 2020-02-20 2020-02-20 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법 KR102411312B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200020743A KR102411312B1 (ko) 2020-02-20 2020-02-20 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200020743A KR102411312B1 (ko) 2020-02-20 2020-02-20 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20210106079A true KR20210106079A (ko) 2021-08-30
KR102411312B1 KR102411312B1 (ko) 2022-06-22

Family

ID=77502032

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200020743A KR102411312B1 (ko) 2020-02-20 2020-02-20 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102411312B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110802A (ja) * 2002-08-26 2004-04-08 Sony Corp 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
JP4369439B2 (ja) * 2006-03-17 2009-11-18 富士通株式会社 ロボット位置制御装置およびロボット自己位置回復方法
KR101040118B1 (ko) 2008-08-04 2011-06-09 한국전자통신연구원 교통사고 재현 시스템 및 그 제어방법
KR20150014264A (ko) 2013-07-29 2015-02-06 한국전자통신연구원 교통 사고 현장 재현 장치 및 방법
KR101689805B1 (ko) 2015-03-20 2016-12-27 동아대학교 산학협력단 Obd, gps 및 블랙박스 영상정보를 이용한 교통사고 현장 재현시스템 및 그 방법
KR101979003B1 (ko) * 2012-09-06 2019-08-23 (주)하기소닉 자연랜드마크 및 인공랜드마크와 관성센서를 이용한 지능형 이동로봇의 위치인식 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110802A (ja) * 2002-08-26 2004-04-08 Sony Corp 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
JP4369439B2 (ja) * 2006-03-17 2009-11-18 富士通株式会社 ロボット位置制御装置およびロボット自己位置回復方法
KR101040118B1 (ko) 2008-08-04 2011-06-09 한국전자통신연구원 교통사고 재현 시스템 및 그 제어방법
KR101979003B1 (ko) * 2012-09-06 2019-08-23 (주)하기소닉 자연랜드마크 및 인공랜드마크와 관성센서를 이용한 지능형 이동로봇의 위치인식 방법
KR20150014264A (ko) 2013-07-29 2015-02-06 한국전자통신연구원 교통 사고 현장 재현 장치 및 방법
KR101689805B1 (ko) 2015-03-20 2016-12-27 동아대학교 산학협력단 Obd, gps 및 블랙박스 영상정보를 이용한 교통사고 현장 재현시스템 및 그 방법

Also Published As

Publication number Publication date
KR102411312B1 (ko) 2022-06-22

Similar Documents

Publication Publication Date Title
Liu et al. Image‐based crack assessment of bridge piers using unmanned aerial vehicles and three‐dimensional scene reconstruction
US8571265B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
CN108733208A (zh) 智能设备的交互目标确定方法和装置
CN112180373B (zh) 一种多传感器融合的智能泊车系统和方法
JP4226550B2 (ja) 光学式マーカーを用いた三次元測定データ自動整列装置及びその方法
CN104964672B (zh) 一种基于线结构光的远距离障碍感知传感器
JP2020531849A5 (ko)
KR980010354A (ko) 화상처리 장치 및 물체이동 적재 장치
CN105444691A (zh) 轮廓线测量装置以及机器人系统
CN107749070A (zh) 深度信息的获取方法和获取装置、手势识别设备
CN110597265A (zh) 一种扫地机器人回充方法和装置
CN109444916A (zh) 一种无人驾驶可行驶区域确定装置及方法
WO2021078812A1 (en) Method and system for object detection for a mobile robot with time-of-flight camera
CN101246595A (zh) 光学三维扫描系统中多视点云数据拼合方法
WO2021208015A1 (zh) 构建地图及定位方法、客户端、移动机器人及存储介质
JP2023029441A (ja) 計測装置、計測システムおよび車両
JP2021177144A (ja) 情報処理装置、情報処理方法及びープログラム
Wang et al. A novel method for dense point cloud reconstruction and weld seam detection for tubesheet welding robot
CN104296681A (zh) 基于激光点阵标识的三维地形传感装置及方法
CN109313822B (zh) 基于机器视觉的虚拟墙构建方法及装置、地图构建方法、可移动电子设备
KR102411312B1 (ko) 이동로봇을 활용한 현장 3차원 복원 시스템 및 방법
CN113325832B (zh) 一种可移动机器人避障方法以及可移动机器人
CN113066133B (zh) 一种基于路面标识几何特征的车载摄像头在线自标定方法
JP5375479B2 (ja) 三次元測定システムおよび三次元測定方法
Zhang Target-based calibration of 3D LiDAR and binocular camera on unmanned vehicles

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right