KR20230076256A - 표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법 - Google Patents

표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법 Download PDF

Info

Publication number
KR20230076256A
KR20230076256A KR1020210163029A KR20210163029A KR20230076256A KR 20230076256 A KR20230076256 A KR 20230076256A KR 1020210163029 A KR1020210163029 A KR 1020210163029A KR 20210163029 A KR20210163029 A KR 20210163029A KR 20230076256 A KR20230076256 A KR 20230076256A
Authority
KR
South Korea
Prior art keywords
marker
base
unit
calculation unit
attached
Prior art date
Application number
KR1020210163029A
Other languages
English (en)
Inventor
김진형
전현호
김해동
최원섭
김민기
김기덕
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020210163029A priority Critical patent/KR20230076256A/ko
Publication of KR20230076256A publication Critical patent/KR20230076256A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B33/00Electroluminescent light sources
    • H05B33/02Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 능동 표식 시스템 및 이를 이용하는 능동 표식 방법에 관한 것으로, 본 발명의 능동 표식 시스템 및 이를 이용하는 능동 표식 방법은 발광하는 마커를 플레이트의 일 면에 부착하고, 이를 대상 물체의 표면에 결합시킴으로써, 외부 광이 부족한 우주 환경에서도 수용체가 마커의 위치를 용이하게 인식할 수 있도록 함으로써 인식 정확도를 극대화 시킬 수 있으며, 플레이트의 최외곽에 부착되는 마커와 플레이트의 최외곽과 중심 사이에 부착되는 방향 지시용 마커를 모두 포함함으로써, 최소한의 마커 사용으로 플레이트가 부착된 대상 물체의 자세를 인지할 수 있는 효과가 있다.

Description

표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법{Active marking system including marker and active marking method using same}
본 발명은 능동 표식 시스템 및 이를 이용하는 능동 표식 방법에 관한 것으로, 보다 상세하게는 마커가 내장된 표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법에 관한 것이다.
우주탐사, 궤도상 서비싱(OOS: On Orbit Servicing) 및 우주쓰레기 능동 제거(ADR: Active Debris Removal)과 같은 우주에서 수행되는 응용 서비스의 경우, 서비스를 제공하는 Servicer 와 제공 받는 Client, 또는 캡쳐 대상인 Target과 대상에 다가가는 Chaser로 쌍을 이루어 임무가 진행된다. 이러한 경우 Chaser 혹은 Servicer가 대상 우주 물체에 대해 인지하고, 대상 우주 물체에 대해 높은 정확도의 6자유도 자세 추정을 수행하는 과정이 필수적으로 요구된다.
종래의 국제우주정거장 등에서 지상에서 보낸 화물선을 도킹하는 경우와 같은 우주 환경에서의 응용서비스는, 대상 물체의 자세 추정을 위해 대상 물체에 2차원 기준 표식(Fiducial Marker)을 부착하여 부착된 표식을 Chaser 또는 Servicer가 읽음으로써 자세를 추정하고 대상물체에 대한 정보를 수신하는 방식을 채택하였다. 이 때, 기준 표식의 경우 AR(Augmented Reality)에서 주로 사용되는 2차원 바코드, QR 코드 혹은 ARuCo와 같은 표식을 사용하였다.
이 때, 2차원 표식이 대상체의 표면(곡면)부착되기 용이하도록 얇은 종이와 같은 면에 표식을 인쇄하여 부착하였고, 외부 광이 부족한 우주환경에서 인식률을 높이기 위해 패널에 반사율 높은 재질의 도료를 인쇄하여 사용하여 왔다. 그러나 이러한 방식은 궤도상에서 태양광이나 접근하는 Chaser에서 비춰주는 조명이 없는 경우, 대상체에 대한 인식/자세 추정이 매우 어렵다는 문제점이 있었다.
한국등록특허 10-2287935"우주물체의 각도 데이터를 추출하기 위한 레이저 추적 시스템 및 방법"
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서 본 발명의 목적은, 발광하는 마커를 플레이트의 일 면에 부착하고, 이를 대상 물체의 표면에 결합시킴으로써, 외부 광이 부족한 우주 환경에서도 수용체가 마커의 위치를 용이하게 인식할 수 있도록 함으로써 인식 정확도를 극대화 시킬 수 있는 표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법을 제공함에 있다.
또한, 플레이트의 최외곽에 부착되는 마커와 플레이트의 최외곽과 중심 사이에 부착되는 방향 지시용 마커를 모두 포함함으로써, 최소한의 마커 사용으로 플레이트가 부착된 대상 물체의 자세를 인지할 수 있는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법을 제공함에 있다.
상기한 바와 같은 문제점을 해결하기 위하여, 본 발명의 일 실시예에 따른 능동 표식 방법은 인식대상의 표면에 결합되는 베이스부와, 베이스부에 부착되어 태양광보다 낮은 광도로 발광하는 마커를 포함하는 표시체 및 표시체의 데이터를 취합 및 연산하는 연산부를 포함하는 능동 표식 시스템을 이용한 능동 표식 방법에 있어서, (a) 수용체가 베이스부의 이미지를 연산부에 입력하는 단계, (b) 연산부가 베이스부의 마커를 인식하여 베이스부의 범위 및 자세를 파악하는 단계, (c) 연산부가 베이스부의 이미지를 일정한 크기로 분할하는 단계, (d) 연산부가 분할된 영역과 마커의 위치를 대응시켜 각각의 마커의 인식번호를 도출하는 단계, (e) 연산부가 마커의 위치에따라 베이스부 및 인식 대상의 자세를 예측하는 단계를 포함하는 것을 특징으로 한다.
또한, 베이스부는 다각형 형태이며, 마커는, 베이스부의 각각의 꼭지점에 부착되는 외곽 마커를 포함하는 것을 특징으로 한다.
또한, (b) 단계는, 연산부가, (b1) 마커 중 최외곽의 점 중 하나의 점을 제 1 외곽 마커로 판단하는 단계, (b2) (b1) 단계에서 인식한 외곽 마커로부터 가장 먼 위치의 마커를 제 2 외곽 마커로 판단하는 단계, (b3) 제 1 외곽 마커와 제 2 외곽 마커를 잇는 경로로부터 가장 먼 위치인 마커를 제 3 외곽 마커로 판단 하는 단계를 포함하고, (b4) 제 1 외곽 마커와 제 2 외곽 마커와 제 3 외곽 마커를 꼭지점으로 하는 다각형의 형상을 도출하는 단계를 포함하는 것을 특징으로 한다.
또한, 외곽마커 중 어느 하나와 베이스부의 중심점 사이의 위치에 부착되는 방향 지시 마커가 더 포함되고, (b) 단계는, 연산부가, (b4) 각각의 외곽 마커와 방향 지시 마커의 상대위치 정보를 기 저장하고, 저장된 상대 위치 정보와, 수용체에 의해 인식된 외곽 마커와 방향지시 마커의 상대위치를 비교하여 베이스부의 자세를 파악하는 단계를 더 포함하는 것을 특징으로 한다.
또한, 연산부는, 각각의 마커의 위치 별 인식번호 정보가 기저장되고, (d) 단계는, 연산부가, (b) 단계에서 파악한 베이스부의 위상을 기반으로 각각의 마커가 포함된 영역의 위치에 따라 마커의 인식번호를 부가하는 것을 특징으로 한다.
또한, 연산부가 (f) 가우시안 필터 및 모폴로지 연산을 통해 노이즈를 제거하는 단계를 더 포함하며, (f) 단계는 (a) 단계와 (c) 단계의 사이에 수행되는 것을 특징으로 한다.
또한, (e) 단계는, 연산부가 Solve PNP 알고리즘을 통해 인식대상과 베이스부의 자세를 추정하는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 표시체는 인식대상의 좌표 및 자세를 나타내는 표시체로서, 인식대상의 표면에 결합되는 다각형의 평판인 베이스부, 및 베이스부의 일면에 구비된 적어도 하나 이상의 마커를 포함하고, 마커는 태양광보다 낮은 광도로 발광하는 것을 특징으로 한다.
또한, 마커는, 베이스부의 각각의 꼭지점에 부착되는 3개 이상의 외곽 마커를 포함하는 것을 특징으로 한다.
또한, 마커는, 외곽 마커 중 어느 하나와 베이스부의 중심점 사이의 위치에 부착되는 방향 지시 마커를 더 포함하는 것을 특징으로 한다.
또한, 베이스부는, 일면에 마커의 일면이 부착되는 제 1 플레이트와, 제 1 플레이트의 일면 및 마커의 타면을 덮어 고정하며, 마커가 부착된 위치와 상응하는 위치에 인식홀이 형성된 제 2 플레이트를 포함는 것을 특징으로 한다.
또한, 마커는, 중심부가 소정 높이로 돌출된 형상으로 형성되며, 마커의 중심부는 인식홀을 통해 제 2 플레이트의 외부로 돌출된 것을 특징으로 한다.
또한, 제 2 플레이트는, 타면에 인식홀의 가장자리를 따라 광투과 물질로 이루어진 커버 플레이트가 결합되는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 능동 표식 시스템은 제 8항의 표시체를 포함하고, 베이스부로부터 데이터를 수집하는 수용체, 수용체로부터 수신한 데이터를 취합 및 연산하여 베이스부와 인식대상의 자세를 예측하는 연산부를 포함하는 것을 특징으로 한다.
상기와 같은 구성에 의한 본 발명의 능동 표식 시스템 및 이를 이용하는 능동 표식 방법은 발광하는 마커를 플레이트의 일 면에 부착하고, 이를 대상 물체의 표면에 결합시킴으로써, 외부 광이 부족한 우주 환경에서도 수용체가 마커의 위치를 용이하게 인식할 수 있도록 함으로써 인식 정확도를 극대화 시킬 수 있는 효과가 있다.
또한, 플레이트의 최외곽에 부착되는 마커와 플레이트의 최외곽과 중심 사이에 부착되는 방향 지시용 마커를 모두 포함함으로써, 최소한의 마커 사용으로 플레이트가 부착된 대상 물체의 자세를 인지할 수 있는 효과가 있다.
도 1은 본 발명의 능동 표식 시스템의 구성을 도시한 블록도이다.
도 2는 본 발명의 표시체를 도시한 개략도이다.
도 3은 본 발명의 표시체의 분해사시도이다.
도 4는 본 발명의 표시체의 단면도이다.
도 5는 본 발명의 능동 표식 방법을 도시한 순서도이다.
도 6은 본 발명의 능동 표식 방법 중 베이스부 범위 파악 단계의 세부 단계를 도시한 순서도이다.
도 7은 본 발명의 능동 표식 방법 중 인식 번호 도출 단계의 세부 단계를 도시한 순서도이다.
도 8은 본 발명의 능동 표식 방법의 일 실시 예를 도시한 순서도이다.
이하, 본 발명의 기술적 사상을 첨부된 도면을 사용하여 더욱 구체적으로 설명한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
이하로, 도 1을 참조하여 본 발명의 능동 표식 시스템(1000)의 기본 구성에 대해 설명한다.
본 발명은 인식대상의 좌표 및 자세를 나타내기 위해 인식대상의 표면에 결합되는 표시체(100)와, 표시체(100)의 정보를 수신하는 수용체(200)를 포함할 수 있다. 표시체(100)는 표면에 소정 광도로 발광하는 마커(120)를 포함할 수 있으며, 수용체(200)는 화상을 인식할 수 있는 카메라를 포함할 수 있다. 이에 따라, 수용체(200)는 외부 광량이 부족한 우주 환경에서도 용이하게 마커(120)의 위치를 인식할 수 있다.
또한, 본 발명의 능동 표식 시스템(1000)은 수용체(200)로부터 수신한 데이터를 취합 및 연산하여 베이스부(110)와 인식대상의 자세를 예측하는 연산부(300)를 포함할 수 있다. 연산부(300)는 서버와 연결될 수 있고, 예측된 자세를 서버로 송신하여 취합되도록 할 수 있다. 또는 연산부(300)는 인식대상에 대해 서비스를 수행하는 체이서 또는 서비서 로봇에 내장된 제어 모듈에 포함된 것일 수 있고, 수용체(200)를 통해 수신한 표시체(100)의 정보를 연산 및 종합하여 체이서 또는 서비서 로봇의 구동을 제어할 수 있다.
이하로, 도 2 내지 4를 참조하여 본 발명의 표시체(100)에 대해 설명한다.
본 발명의 능동 표식 시스템(1000)은 상술한 바와 같이 인식대상의 좌표 및 자세를 나타내는 표시체(100)를 포함할 수 있고, 표시체(100)는 인식대상의 표면에 결합되는 다각형의 평판인 베이스부(110) 및 베이스부(110)의 일면에 구비된 적어도 하나 이상의 마커(120)를 포함할 수 있다. 이 때, 마커(120)는 태양광보다 낮은 광도로 발광하는 것이 바람직하다. 보다 자세히는, 본 발명의 능동 표식 시스템(1000)이 적용되는 외부 환경에서 예측되는 외란 중 최대한의 광량보다 낮은 광도로 발광하는 것이 바람직하다.
이에 따라 태양광과 같은 외란이 없을 시에는 베이스부(110) 또는 인식 대상 보다 마커(120)가 상대적으로 밝게 발광하여 마커(120)의 위치 인식이 용이하도록 할 뿐 아니라, 태양광과 같은 높은 광량의 외란이 있을 시에는, 마커(120)가 베이스부(110)나 인식 대상에서 반사되는 광량보다 더 낮은 광량으로 광을 발산하기 때문에, 마커(120)의 위치가 상대적으로 저광도로 발광하게 되고, 마커(120)의 인식이 역시 용이하도록 할 수 있다.
이 때, 도 2에 도시된 바와 같이, 베이스부(110)는 상술한 바와 같이 정사각형의 평판일 수 있다. 마커(120)는, 베이스부(110)의 각각의 꼭지점에 부착되는 4개의 외곽 마커(121)을 포함할 수 있다. 수용체(200)는 4개의 외곽 마커(121)의 위치를 수신하고 연산부(300)에 송신하여 베이스부(110)의 개략적인 범위를 특정할 수 있다. 이 때, 베이스부(110)의 개략적인 범위는 서로 인접한 위치의 외곽 마커(121)끼리 직선으로 연결하여 도출되는 것이 바람직하다. 베이스부(110)는 상술한 바와 같이 다각형의 평판이며, 외곽 마커(121)은 베이스부(110)의 꼭지점이기 때문에 이와 같은 알고리즘으로 개략적인 베이스부(110)의 범위가 특정될 수 있다.
더 나아가, 마커(120)는, 외곽 마커(121) 중 어느 하나와 베이스부(110)의 중심점 사이의 위치에 부착되는 방향 지시 마커(122)를 더 포함할 수 있다. 방향 지시 마커(122)는 도 2에 도시된 바와 같이 베이스부(110)의 형상이 점대칭 또는 선대칭 도형이거나, 정다각형인 경우에, 베이스부(110)가 회전함에 따른 인식 이미지의 차이가 없을 수 있어, 외곽 마커(121)만으로 완전한 자세추정이 어렵다는 문제를 보완하기 위한 구성으로써, 외곽 마커(121 중 어느 하나와 베이스부(110)의 중심(대각선의 교점) 사이 지점에 부착되는 것이 바람직하다. 이 때, 혼동을 방지하기 위하여 방향 지시 마커(122)는 표시체(100) 하나당 하나씩만 부착되는 것이 바람직하다.
연산부(300)는 방향 지시 마커(122)와 외곽 마커(121)들 간의 상대위치 정보가 기 저장되는 것이 바람직하다. 예를 들어, 방향 지시 마커(122)가 도 2의 외곽 마커(121) 2번과 베이스부(110)의 중심점 사이에 위치한다는 정보가 기 저장되고, 이후 수용체(200)에 의해 방향 지시 마커(122)와 외곽 마커(121)의 위치를 실측하면, 연산부(300)는 방향 지시 마커(122)와 가장 가까운 위치에 있는 외곽 마커(121)이 외곽 마커(121) 2번인 것을 확인할 수 있고, 이에 따른 표시체(100)의 위상이 파악 및 외곽 마커(121)의 넘버링이 용이해질 수 있다.
더하여, 마커(120)는, 베이스부(110)의 중심에 위치하는 중심 마커(123)을 포함할 수 있다. 중심 마커(123)을 포함함으로써, 중심 마커(123)로부터 가장 먼 거리에 위치하는 마커(120)가 외곽 마커(121)임을 인지할 수 있고, 중심 마커(123)과 외곽 마커(121) 사이에 위치되는 방향 지시 마커(122)의 산출이 가능해질 수 있다. 더 나아가, 베이스부(110)의 형상이 복잡하고, 외곽 마커(121)의 수가 많은 경우 보다 정확히 중심을 표시하기 위해, 중심 마커(123)은 타 마커(120)들과 차이를 두기 위해 외곽 마커(121) 및 방향 지시 마커(122)에 비해 더 높은 또는 더 낮은 광량으로 발광하거나 또는 광량이 일정한 패턴으로 변경되도록 제어될 수 있다.
이 때, 베이스부(110)는 도 2에 도시된 바와 같은 정사각형 형상이 아닐 수 있으며, 각 변의 길이 및 각 꼭지점의 각도가 서로 상동하지 않을 수 있다. 보다 자세히, 표시체(100)의 일 실시 예로, 베이스부(110)는 점대칭 또는 선대칭이 아닌 다각형이거나 또는 각 꼭지점 중 적어도 어느 두 개의 꼭지점 각도가 서로 상이한 다각형일 수 있다. 이와 같은 형태로 베이스부(110)가 형성되는 경우, 방향 지시 마커(122) 또는 중심 마커(123) 없이 외곽 마커(121)의 좌표만으로 표시체(100)의 자세를 특정할 수 있다.
연산부(300)는 베이스부(110)의 모델링 정보가 기 저장될 수 있고, 저장된 베이스부(110)의 모델링 정보와 수용체(200)로부터 수신한 외곽 마커(121)의 위치로부터 특정한 베이스부(110)의 범위를 비교하고, PnP 알고리즘(Perspective-n-point algorithm)을 통해 표시체(100)의 베이스부(110)와 수용체(200)가 이루는 3차원 각도 및 상대 위치 등을 산출할 수 있으며, 나아가 인식 대상의 자세를 특정할 수 있다. 이 때, 상술한 바와 같이, n(외곽 마커(121)의 수)은 3 이상의 자연수인 것이 바람직하며, 이에 따라 자세의 자유도가 0이 되어 알고리즘 적용 시 유의미한 해가 도출될 수 있다.
보다 자세히, PnP 알고리즘은 수용체(200)로부터 촬영된 2차원 화상 내에서의 마커(120) 좌표에 카메라 각도 등을 적용한 회전행렬을 전사하여 각각의 마커(120)의 위치의 3차원 좌표를 구할 수 있고, 이에 따라 이동 대상에 부착된 표시체(100)의 자세를 추정해낼 수 있다.
이 때, 연산부(300)는 표시체(100)가 인식대상의 표면에 부착되는 위치에 대한 정보가 기 저장될 수 있고, 표시체(100)와 수용체(200) 사이의 3차원 각도 및 상대 위치 정보를 토대로 인식대상과 수용체(200)가 포함되는 체이서 또는 서비서 로봇 사이의 위상 차를 특정해낼 수 있다.
또한, 베이스부(110)는, 도 2에 도시된 A 영역 또는 B 영역, 즉 자세정보를 추정하기 귀한 마커(120)가 위치하지 않는 영역에 해당 표시체(100) 또는 표시체(100)가 부착된 인식 대상의 고유정보를 나타낼 수 있는 2차원 표식이 부착될 수 있다. A 영역 또는 B 영역에 부착된 표식은 2차원 바코드이거나, QR코드 또는 ARuCo일 수 있다. A 영역 또는 B 영역에 부착된 표식은 표면에 광 반사율이 높은 재질이 코팅될 수 있고, 이에 따라 마커(120)로부터 발산되는 광 또는 외부 외란에 의해 수신되는 광에 의해 수용체(200)가 인식이 용이하도록 할 수 있다.
도 3에 도시된 바와 같이, 본 발명의 표시체(100)의 베이스부(110)는, 일면에 마커(120)의 일면이 부착되는 제 1 플레이트(111)와, 제 1 플레이트(111)의 일면 및 마커(120)의 타면을 덮어 고정하며, 마커(120)가 부착된 위치와 상응하는 위치에 인식 홀이 형성된 제 2 플레이트(112)를 포함할 수 있다. 또한 도 4에 도시된 바와 같이, 마커(120)는, 중심부가 소정 높이로 돌출된 형상으로 형성되며, 마커(120)의 중심부는 인식홀을 통해 제 2 플레이트(112)의 외부로 돌출된 것이 바람직하다.
이하로, 도 5 내지 7을 참조하여 연산부(300)의 구체적인 알고리즘과 본 발명의 뱝에 대해 설명한다.
도 5에 도시된 바와 같이, 본 발명의 뱝은, (a) 수용체(200)가 베이스부(110)의 이미지를 연산부(300)에 입력하는 단계, (b) 연산부(300)가 베이스부(110)의 마커(120)를 인식하여 베이스부(110)의 범위를 파악하는 단계, (c) 연산부(300)가 베이스부(110)의 이미지를 일정한 크기로 분할하는 단계, (d) 연산부(300)가 분할된 영역과 마커(120)의 위치를 대응시켜 각각의 마커(120)의 인식번호를 도출하는 단계, (e) 연산부(300)가 마커(120)의 위치에 따라 베이스부(110) 및 인식 대상의 자세를 예측하는 단계를 포함하는 것이 바람직하다.
(a) 단계는, 수용체(200)가 베이스부(110)의 이미지 및 영상을 연산부(300)에 입력하고, 연산부(300)가 수신된 이미지 및 영상을 기 저장된 정보와 비교 및 분석하는 방식으로 진행되는 것이 바람직하다.
(b) 단계는, 도 6에 도시된 바와 같이, 연산부(300)가, (b1) 마커(120) 중 최외곽의 점 중 하나의 점을 제 1 외곽 마커(121)로 판단하는 단계를 포함할 수 있다. (b2) (b1) 단계에서 인식한 외곽 마커(121)로부터 가장 먼 위치의 마커(120)를 제 2 외곽 마커(121)로 판단하는 단계, (b3) 제 1 외곽 마커(121)과 제 2 외곽 마커(121)을 잇는 경로로부터 가장 먼 위치인 마커(120)를 제 3 외곽 마커(121)로 판단하는 단계를 포함하고, (b4) 제 1 외곽 마커(121)과 제 2 외곽 마커(121)과 제 3 외곽 마커(121)을 꼭지점으로 하는 다각형의 형상을 도출하는 단계를 포함하는 것이 바람직하다. 이 때, 제 3 외곽 마커(121)은 1개 이상일 수 있다.
이 때, 연산부(300)는 (b4) 단계에서 도출된 베이스부(110)의 형상으로부터 다각형의 중심점(서로 마주보는 꼭지점을 이은 대각선이 교차하는 점)을 정의할 수 있다. 또는 표시체(100)가 베이스부(110)의 중심에 위치하는 중심 마커(123)을 더 포함하여 중심점의 위치를 수용체(200)에 의해 수신할 수 있다. 중심 마커(123)을 포함함으로써, 중심 마커(123)로부터 가장 먼 거리에 위치하는 마커(120)가 외곽 마커(121)임을 인지할 수 있고, 상술한 (b1) 내지 (b4) 단계의 더블체크가 가능할 수 있다.
이 때, 표시체(100)의 일 실시 예에서, 중심 마커(123)은 타 마커(120)들과 차이를 두기 위해 외곽 마커(121) 및 방향 지시 마커(122)에 비해 더 높은 또는 더 낮은 광량으로 발광하거나 또는 광량이 일정한 패턴으로 변경되도록 제어될 수 있다. 이에 따라 베이스부(110)가 복잡한 형상인 경우, 중심 마커(123)과 외곽 마커(121) 사이에 위치되는 방향 지시 마커(122)의 분별이 보다 용이해질 수 있다.
더 나아가, 마커(120)는, 외곽 마커(121) 중 어느 하나와 베이스부(110)의 중심점 사이의 위치에 부착되는 방향 지시 마커(122)를 더 포함할 수 있고, (d) 단계는, 도 7에 도시된 바와 같이, (b) 단계에서 산출한 베이스부(110)의 중심점과 외곽 마커(121의 위치로부터 방향 지시 마커(122)를 판별하는 단계를 포함할 수 있다.
또한, 연산부(300)는 각각의 외곽 마커(121)의 방향 지시 마커(122)와의 상대위치에 따른 인식번호 정보가 기 저장되고, (d2) 단계는, 연산부(300)가 (b) 단계에서 파악한 베이스부(110)의 범위를 기반으로 각각의 마커(120)가 포함된 영역의 위치에 따라 마커(120)의 인식번호를 부가하는 것이 바람직하다.
방향 지시 마커(122)는 베이스부(110)의 형상이 점대칭 또는 선대칭 도형이거나, 정다각형인 경우에, 베이스부(110)가 회전함에 따른 인식 이미지의 차이가 없을 수 있어, 외곽 마커(121) 만으로 완전한 자세추정이 어렵다는 문제를 보완하기 위한 구성으로써, 외곽 마커(121 중 어느 하나와 베이스부(110)의 중심(대각선의 교점) 사이 지점에 부착되는 것이 바람직하다. 이 때, 혼동을 방지하기 위하여 방향 지시 마커(122)는 표시체(100) 하나당 하나씩만 부착되는 것이 바람직하다.
예를 들어, 방향 지시 마커(122)가 외곽 마커(121) n번과 베이스부(110)의 중심점 사이에 위치한다는 정보가 기 저장되고, 이후 수용체(200)에 의해 방향 지시 마커(122)와 외곽 마커(121)의 위치를 실측하면, 연산부(300)는 방향 지시 마커(122)와 가장 가까운 위치에 있는 외곽 마커(121)이 외곽 마커(121) n번인 것을 확인할 수 있다.
(d1) 및 (d2) 단계는 본 발명의 베이스부(110)가 점대칭 또는 선대칭 도형이거나 각 꼭지점의 각도가 동일한 정다각형인 경우에 수행되는 단계인 것이 바람직하고, 이와 같은 형상인 경우 베이스부(110)가 중심을 기준으로 회전하였을 시 동일한 형상이 촬영되지 않아 이 후 단계인 (e) 단계에서 PnP 알고리즘 적용 시 하나의 해가 도출될 수 있으므로, 방향 지시 마커(122) 없이도 유의미한 해를 산출해낼 수 있다.
(d) 단계는, 본 발명의 표시체(100)의 일 실시 예에서, 베이스부(110)는 점대칭 또는 선대칭이 아닌 다각형이거나 각 꼭지점 중 적어도 어느 두 개의 꼭지점의 각도가 서로 상이한 다각형일 수 인 경우, (b) 단계에서 산출된 베이스부(110)의 각 꼭지점의 각도와, 각 변의 길이 정보를 토대로 각각의 외곽 마커(121)에 미리 지정된 인식 번호를 부여할 수 있다.
도 8에 도시된 바와 같이, 연산부(300)가 (f) 가우시안 필터 및 모폴로지 연산을 통해 노이즈를 제거하는 단계를 더 포함하며, (f) 단계는 (a) 단계와 (c) 단계의 사이에 수행되는 것이 바람직하다. (f) 단계를 포함함으로써, 외란 발생 시에도 연산부(300)가 각 마커(120)의 위치를 용이하게 추정할 수 있다.
또한, (e) 단계는, 연산부(300)가 PNP 알고리즘을 통해 인식대상과 베이스부(110)의 자세를 추정하는 것이 바람직하다. 보다 자세히, 연산부(300)는 베이스부(110)의 모델링 정보가 기 저장될 수 있고, 저장된 베이스부(110)의 모델링 정보와 수용체(200)로부터 수신한 외곽 마커(121)의 위치로부터 특정한 베이스부(110)의 범위를 비교하고, PnP 알고리즘(Perspective-n-point algorithm)을 통해 표시체(100)의 베이스부(110)와 수용체(200)가 이루는 3차원 각도 및 상대 위치 등을 산출할 수 있으며, 나아가 인식 대상의 자세를 특정할 수 있다. 이 때, 상술한 바와 같이, n(외곽 마커(121)의 수)은 3 이상의 자연수인 것이 바람직하며, 이에 따라 자세의 자유도가 0이되어 알고리즘 적용시 유의미한 해가 도출될 수 있다. PnP 알고리즘을 채택함으로써, 수용체(200)로부터 촬영되고, (b) 단계 내지 (d) 단계로부터 추출한 2차원 화상 내에서의 마커(120) 좌표에 카메라 각도 등을 적용한 회전행렬을 전사하여 각각의 마커(120)의 위치의 3차원 좌표를 구할 수 있고, 이에 따라 이동 대상에 부착된 표시체(100)의 자세를 추정해낼 수 있다.
이 때, 연산부(300)는 표시체(100)가 인식대상의 표면에 부착되는 위치에 대한 정보가 기 저장될 수 있고, 표시체(100)와 수용체(200) 사이의 3차원 각도 및 상대 위치 정보를 토대로 인식대상과 수용체(200)가 포함되는 체이서 또는 서비서 로봇 사이의 위상 차를 특정해낼 수 있다.
본 발명의 상기한 실시 예에 한정하여 기술적 사상을 해석해서는 안된다. 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당업자의 수준에서 다양한 변형 실시가 가능하다. 따라서 이러한 개량 및 변경은 당업자에게 자명한 것인 한 본 발명의 보호범위에 속하게 된다.
1000 : 능동 표식 시스템
100 : 표시체
110 : 베이스부
111 : 제 1 플레이트
112 : 제 2 플레이트
120 : 마커
121 : 외곽 마커
122 : 방향 지시 마커
123 : 중심 마커
200 : 수용체
300 : 연산부

Claims (13)

  1. 인식대상의 표면에 결합되는 베이스부와, 베이스부에 부착되어 태양광보다 낮은 광도로 발광하는 마커를 포함하는 표시체 및 상기 표시체의 데이터를 취합 및 연산하는 연산부를 포함하는 능동 표식 시스템을 이용한 능동 표식 방법에 있어서,
    (a) 수용체가 상기 베이스부의 이미지를 상기 연산부에 입력하는 단계,
    (b) 상기 연산부가 상기 베이스부의 상기 마커를 인식하여 상기 베이스부의 범위를 파악하는 단계;
    (c) 상기 연산부가 상기 베이스부의 이미지를 일정한 크기로 분할하는 단계;
    (d) 상기 연산부가 분할된 영역과 상기 마커의 위치를 대응시켜 각각의 상기 마커의 인식번호를 도출하는 단계;
    (e) 상기 연산부가 상기 마커의 위치에따라 상기 베이스부 및 상기 인식 대상의 자세를 예측하는 단계;를 포함하는 것을 특징으로 하는 능동 표식 방법.
  2. 제 1항에 있어서,
    상기 베이스부는 다각형 형태이며,
    상기 마커는,
    상기 베이스부의 각각의 꼭지점에 부착되는 외곽 마커를 포함하는 것을 특징으로 하는 능동 표식 방법.
  3. 제 2항에 있어서,
    상기 (b) 단계는,
    상기 연산부가,
    (b1) 상기 마커 중 최외곽의 점 중 하나의 점을 제 1 외곽 마커로 판단하는 단계,
    (b2) 상기 (b1) 단계에서 인식한 상기 외곽 마커로부터 가장 먼 위치의 상기 마커를 제 2 외곽 마커로 판단하는 단계,
    (b3) 상기 제 1 외곽 마커와 상기 제 2 외곽 마커를 잇는 경로로부터 가장 먼 위치인 마커를 제 3 외곽 마커로 판단 하는 단계를 포함하고,
    (b4) 상기 제 1 외곽 마커와 상기 제 2 외곽 마커와 상기 제 3 외곽 마커를 꼭지점으로 하는 다각형의 형상을 도출하는 단계를 포함하는 것을 특징으로 하는 능동 표식 방법.
  4. 제 3항에 있어서,
    상기 외곽마커 중 어느 하나와 상기 베이스부의 중심점 사이의 위치에 부착되는 방향 지시 마커가 더 포함되고,
    상기 (d) 단계는,
    상기 연산부가,
    (d1) 상기 베이스부의 중심점과 상기 외곽 마커의 위치로부터 상기 방향 지시 마커를 판별하는 단계를 더 포함하는 것을 특징으로 하는 능동 표식 방법.
  5. 제 4항에 있어서,
    상기 연산부는,
    각각의 상기 외곽 마커의 상기 방향 지시 마커와의 상대위치에 따른 인식번호 정보가 기 저장되고,
    (d) 단계는,
    상기 연산부가,
    (d2)상기 (d1) 단계에서 파악한 상기 방향 지시 마커위치를 기반으로, 각각의 상기 마커가 포함된 영역의 위치에 따라 각각의 상기 마커에 인식번호를 부가하는 것을 특징으로 하는 능동 표식 방법.
  6. 제 1항에 있어서,
    상기 연산부가
    (f) 가우시안 필터 및 모폴로지 연산을 통해 노이즈를 제거하는 단계;를 더 포함하며,
    상기 (f) 단계는 상기 (a) 단계와 상기 (c) 단계의 사이에 수행되는 것을 특징으로 하는 능동 표식 방법.
  7. 제 1항에 있어서,
    상기 (e) 단계는,
    상기 연산부가 PnP 알고리즘(Perspective-n-point algorithm)을 통해 상기 인식대상과 상기 베이스부의 자세를 추정하는 것을 특징으로 하는 능동 표식 방법.
  8. 인식대상의 좌표 및 자세를 나타내는 표시체로서,
    상기 인식대상의 표면에 결합되는 다각형의 평판인 베이스부; 및
    상기 베이스부의 일면에 구비된 적어도 하나 이상의 마커;를 포함하고,
    상기 마커는 태양광보다 낮은 광도로 발광하는 것을 특징으로 하는 표시체.
  9. 제 8항에 있어서,
    상기 마커는,
    상기 베이스부의 각각의 꼭지점에 부착되는 3개 이상의 외곽 마커를 포함하는 것을 특징으로 하는 표시체.
  10. 제 9항에 있어서,
    상기 마커는,
    상기 외곽 마커 중 어느 하나와 상기 베이스부의 중심점 사이의 위치에 부착되는 방향 지시 마커를 더 포함하는 것을 특징으로 하는 표시체.
  11. 제 9항에 있어서,
    상기 베이스부는,
    일면에 상기 마커의 일면이 부착되는 제 1 플레이트와,
    상기 제 1 플레이트의 일면 및 상기 마커의 타면을 덮어 고정하며, 상기 마커가 부착된 위치와 상응하는 위치에 인식홀이 형성된 제 2 플레이트를 포함하는 것을 특징으로 하는 표시체.
  12. 제 11항에 있어서,
    상기 마커는,
    중심부가 소정 높이로 돌출된 형상으로 형성되며,
    상기 마커의 중심부는 상기 인식홀을 통해 상기 제 2 플레이트의 외부로 돌출된 것을 특징으로 하는 표시체.
  13. 제 8항의 상기 표시체;를 포함하고,
    상기 베이스부로부터 데이터를 수집하는 수용체;
    상기 수용체로부터 수신한 데이터를 취합 및 연산하여 상기 베이스부와 상기 인식대상의 자세를 예측하는 연산부;를 포함하는 능동 표식 시스템.
KR1020210163029A 2021-11-24 2021-11-24 표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법 KR20230076256A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210163029A KR20230076256A (ko) 2021-11-24 2021-11-24 표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210163029A KR20230076256A (ko) 2021-11-24 2021-11-24 표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법

Publications (1)

Publication Number Publication Date
KR20230076256A true KR20230076256A (ko) 2023-05-31

Family

ID=86543119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210163029A KR20230076256A (ko) 2021-11-24 2021-11-24 표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법

Country Status (1)

Country Link
KR (1) KR20230076256A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102287935B1 (ko) 2020-06-03 2021-08-06 한국 천문 연구원 우주물체의 각도 데이터를 추출하기 위한 레이저 추적 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102287935B1 (ko) 2020-06-03 2021-08-06 한국 천문 연구원 우주물체의 각도 데이터를 추출하기 위한 레이저 추적 시스템 및 방법

Similar Documents

Publication Publication Date Title
US9625912B2 (en) Methods and systems for mobile-agent navigation
Krajník et al. A practical multirobot localization system
CN106774386B (zh) 基于多尺度标识物的无人机视觉导航降落系统
CN108022264B (zh) 相机位姿确定方法及设备
JP2019537077A (ja) 指標を使用した同時位置決め地図作成ナビゲーション方法、装置及びシステム
Arora et al. Infrastructure-free shipdeck tracking for autonomous landing
EP1074934A2 (en) Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
KR100698534B1 (ko) 이동로봇의 위치 인식용 랜드마크와 이를 이용한 위치 인식장치 및 방법
US7680336B2 (en) Information processing method and apparatus
US20190265721A1 (en) System and method for navigating a sensor-equipped mobile platform through an environment to a destination
EP3460756B1 (en) Tracking system and method thereof
CN108303096A (zh) 一种视觉辅助激光定位系统及方法
WO2005085896A1 (en) Passive positioning sensors
CN106003052B (zh) 一种机器人视觉导航地图的创建方法
CN112184765B (zh) 一种用于水下航行器的自主跟踪方法
US20220180552A1 (en) Device, method, and program for detecting position and orientation of target object
CN110969055A (zh) 用于车辆定位的方法、装置、设备和计算机可读存储介质
CN108544494A (zh) 一种基于惯性和视觉特征的定位装置、方法及机器人
JP2007121111A (ja) 合成開口レーダ画像による目標物識別方法及び装置
WO2018212287A1 (ja) 測定装置、測定方法およびプログラム
US11600024B2 (en) System and method for recalibrating an augmented reality experience using physical markers
KR20230076256A (ko) 표시체를 포함하는 능동 표식 시스템 및 이를 이용하는 능동 표식 방법
CN112074706A (zh) 精确定位系统
KR101233938B1 (ko) 객체 추적 로봇 및 그 방법
CN111289968A (zh) 用于通过车辆侧控制器定位车辆的方法以及标记和控制器

Legal Events

Date Code Title Description
E902 Notification of reason for refusal