KR101986015B1 - 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법 - Google Patents

다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법 Download PDF

Info

Publication number
KR101986015B1
KR101986015B1 KR1020170102930A KR20170102930A KR101986015B1 KR 101986015 B1 KR101986015 B1 KR 101986015B1 KR 1020170102930 A KR1020170102930 A KR 1020170102930A KR 20170102930 A KR20170102930 A KR 20170102930A KR 101986015 B1 KR101986015 B1 KR 101986015B1
Authority
KR
South Korea
Prior art keywords
image
camera
sensor simulation
flight
virtual environment
Prior art date
Application number
KR1020170102930A
Other languages
English (en)
Other versions
KR20190018233A (ko
Inventor
장재원
김태식
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020170102930A priority Critical patent/KR101986015B1/ko
Publication of KR20190018233A publication Critical patent/KR20190018233A/ko
Application granted granted Critical
Publication of KR101986015B1 publication Critical patent/KR101986015B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • G06F17/5009
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법에 관한 것이다. 본 발명에 따른 다중 센서 시뮬레이션 장치는, 관리자 단말로부터 입력되는 비행 환경조건을 고려하여, 비행체에서의, 스테레오 카메라의 촬상지점을 설정하는 설정부, 상기 촬상지점에서 상기 스테레오 카메라에 의해 촬상되는 피사체를, 가상환경 이미지로 구현하는 구현부, 및 상기 관리자 단말로부터의 분리 명령에 따라, 상기 스테레오 카메라를 구성하는 좌우 카메라 각각에서 상기 피사체를 바라보는 분리 이미지를, 상기 가상환경 이미지에서 추출하여, 상기 가상환경 이미지와 구분하여 표시하는 처리부를 포함할 수 있다.

Description

다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법{DEVICE AND METHOD FOR MULTIPLE SENSOR SIMULATION}
본 발명은 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법에 관한 것이다.
종래 기술에서 장애물 탐지를 위한 시스템은 라이다, 초음파 및 스테레오 카메라 등을 사용한다. 이러한 구성요소들(센서들)을 활용하여 시스템을 개발할 경우, 개발 과정 및 시험평가 과정에서 많은 예산과 시간이 소비되는 문제점이 있다.
특히, 장애물 탐지 알고리즘을 개발하는 데에 있어, 동일 조건의 시험 환경을 구현하여야 하지만, 실제 환경에서의 잡음 특성으로 인해 동일 조건을 구현하는 것은 매우 어려운 실정이다. 예컨대, 스테레오 카메라에 대한 시뮬레이션의 경우, 피사체의 화상은 조명과 밀접한 연관이 있어서, 조명에 대한 동일한 조건을 반복적으로 구현하는 데에 한계가 있다. 또한, 종래의 센서에 대한 시뮬레이션의 경우, 독립적으로 개발하여 시험할 수 있으나, 복합적인 센서 시뮬레이션 구현에는 한계가 있다.
따라서, 비행체의 연동과 관련하여, 동시에 라이다, 초음파 및 영상 기반의 스테레오 카메라에 대한 데이터 정보를 묘사해 줄 수 있는 다중 센서 시뮬레이터가 필요한 실정이다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 실제 환경과 유사한 가상환경에서 통합적으로 센서를 활용하여, 필요한 만큼의 반복 시험을 수행할 수 있는 것을 목적으로 한다.
또한, 본 발명은 장애물 탐지를 위한 알고리즘 및 개발 시스템의 성능을 신뢰성 높게 검증할 수 있게 하는 다른 목적을 가지고 있다.
상기의 목적을 이루기 위한 다중 센서 시뮬레이션 장치는, 관리자 단말로부터 입력되는 비행 환경조건을 고려하여, 비행체에서의, 스테레오 카메라의 촬상지점을 설정하는 설정부, 상기 촬상지점에서 상기 스테레오 카메라에 의해 촬상되는 피사체를, 가상환경 이미지로 구현하는 구현부, 및 상기 관리자 단말로부터의 분리 명령에 따라, 상기 스테레오 카메라를 구성하는 좌우 카메라 각각에서 상기 피사체를 바라보는 분리 이미지를, 상기 가상환경 이미지에서 추출하여, 상기 가상환경 이미지와 구분하여 표시하는 처리부를 포함할 수 있다.
또한, 상기 목적을 달성하기 위한 기술적 방법으로서, 다중 센서 시뮬레이션 방법은, 관리자 단말로부터 입력되는 비행 환경조건을 고려하여, 비행체에서의, 스테레오 카메라의 촬상지점을 설정하는 단계, 상기 촬상지점에서 상기 스테레오 카메라에 의해 촬상되는 피사체를, 가상환경 이미지로 구현하는 단계, 및 상기 관리자 단말로부터의 분리 명령에 따라, 상기 스테레오 카메라를 구성하는 좌우 카메라 각각에서 상기 피사체를 바라보는 분리 이미지를, 상기 가상환경 이미지에서 추출하여, 상기 가상환경 이미지와 구분하여 표시하는 단계를 포함하여 구성할 수 있다.
본 발명의 일실시예에 따르면, 실제 환경과 유사한 가상환경에서 통합적으로 센서를 활용하여, 필요한 만큼의 반복 시험을 수행함으로써 장애물 탐지를 위한 알고리즘 및 개발 시스템의 성능을 신뢰성 높게 검증할 수 있다.
도 1은 본 발명의 일실시예에 따른 다중 센서 시뮬레이션 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 다중 센서 시뮬레이션을 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 다중 센서 시뮬레이션 장치의 구현 예를 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 따른 다중 센서 시뮬레이션 방법을 구체적으로 도시한 작업 흐름도이다.
이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
본 명세서에서 설명되는 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법은 비행 시나리오가 적용되는 가상환경 이미지를 구현하고, 가상 환경 내에서 주어진 베이스라인 정보를 반영한 두 카메라 영상정보 제공하고, 가상 환경 내의 거리 측정을 위한 라이다 및 초음파 정보를 제공할 수 있다. 또한, 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법은 영상정보, 라이더 및 초음파 정보를 실제 센서와 동일한 물리적 인터페이스와 데이터 형식으로 외부 시험 장비로 제공할 수 있다.
도 1은 본 발명의 일실시예에 따른 다중 센서 시뮬레이션 장치를 나타내는 블록도이다.
본 발명의 다중 센서 시뮬레이션 장치(100)는 설정부(110), 구현부(120) 및 처리부(130)를 포함할 수 있다. 또한, 실시예에 따라, 다중 센서 시뮬레이션 장치(100)는 제어부(140)를 추가하여 구성할 수 있다.
설정부(110)는 관리자 단말로부터 입력되는 비행 환경조건을 고려하여, 비행체에서의, 스테레오 카메라의 촬상지점을 설정한다. 즉, 설정부(110)는 가상의 비행 환경을 생성하기 위하여 비행 환경조건에 의해 촬영할 지점을 설정할 수 있다. 이때, 설정부(110)는 스테레오 카메라가 평행식, 직교식, 수평식, 교차식 등 사용되는 카메라의 제어 방식을 고려하여, 비행 환경조건에 대한 스테레오 카메라의 촬상지점을 설정할 수 있다.
여기서, 관리자 단말은 다중 센서 시뮬레이션 장치(100)와 유무선으로 연결된 컴퓨터 단말(예컨대, 랩탑, 데스크탑, 태블릿PC, 스마트폰 등)이거나, 다중 센서 시뮬레이션 장치(100)에 장착된 컴퓨터 단말일 수 있다.
구현부(120)는 상기 촬상지점에서 상기 스테레오 카메라에 의해 촬상되는 피사체를, 가상환경 이미지로 구현한다. 즉, 구현부(120)는 가상의 비행 환경을 시각화하는 이미지로서, 가상환경 이미지를 구현할 수 있다. 즉, 가상환경 이미지는 비행 환경조건을 고려하여 피사체를 촬상한 이미지를 3D 입체영상으로 구현한 이미지일 수 있다. 예를 들어, 가상환경 이미지는 복수의 고층 빌딩이 나열된 도시를 하늘에서 바라보는 이미지일 수 있다.
또한, 구현부(120)는 상기 비행 환경조건에 대응하여 데이터베이스로부터 비행 시나리오를 검색하고, 상기 검색된 비행 시나리오에 기초하여, 상기 스테레오 카메라로부터 상기 피사체에 대한 입체 이미지를 획득하고, 상기 입체 이미지에 등장하는 장애물을 포함하여, 상기 가상환경 이미지를 구현할 수 있다. 즉, 구현부(120)는 가상의 비행 환경을 시각화 하기 위하여, 비행 환경조건에 대응하는 비행 시나리오에 기초하여, 스테레오 카메라로부터 획득한 입체 이미지를 통해 가상환경 이미지를 구현할 수 있다. 예를 들면, 비행 환경조건으로서 '맑은 날씨, 도시, 위도, 경도, 등'이 입력될 수 있고, 구현부(120)는 입력된 비행 환경조건에 대응하는 비행 시나리오를 검색하여, 피사체를 촬상하는 스테레오 카메라로부터 획득한 이미지를 이용하여 3D 입체영상의 가상환경 이미지를 구현할 수 있다.
또한, 구현부(120)는 획득된 상기 입체 이미지를, 상기 비행 환경조건 및 비행 시나리오에 대응하여 상기 데이터베이스에 저장할 수 있다. 즉, 구현부(120)는 입체 이미지를 데이터베이스에 저장하되, 기저장된 비행 환경조건 및 비행 시나리오에 대응시켜 저장함으로써, 기저장된 비행 환경조건 및 비행 시나리오를 갱신 및 저장할 수 있다.
또한, 구현부(120)는 설정된 주기의 도래에 따라, 상기 데이터베이스로부터 상기 입체 이미지를 불러와 반복 재생하고, 재생 시마다, 센서 시뮬레이션 수행에 따른 상기 센서데이터의 분석 결과를, 상기 데이터베이스에 저장할 수 있다. 즉, 구현부(120)는 스테레오 카메라에서 획득되는 두 카메라의 입체 이미지를 가상 환경에서 반복 재생이 가능하도록 구현할 수 있고, 동시에 동일 가상환경 이미지 내에서 초음파 센서와 라이다에 대해 분석된 결과(예컨대, 주변 장애물 식별 정보, 거리 데이터 등)를 데이터베이스에 저장할 수 있다.
가상환경 이미지를 구현하는 과정에 대해 보다 상세하게 설명하기 위해 도 2를 참고하여 설명하고자 한다.
도 2는 본 발명의 일 실시예에 따른 다중 센서 시뮬레이션을 설명하기 위한 도면이다.
도 2에 도시된 바와 같이, 구현부(120)는 스테레오 카메라로부터 촬상된 피사체에 대해 3D 입체영상인 가상환경 이미지(210)를 구현할 수 있다. 구현부(120)는 마치 비행체에 탑승한 사람이 피사체를 바라보는 시점에서의 가상환경 이미지를 구현할 수 있다. 이때, 구현부(120)는 기저장된 비행 시나리오에 기초하여, 가상환경 이미지(210)가 구현되도록 할 수 있다. 즉, 구현부(120)는 비행 환경조건에 따라 '맑은 날씨에 도시를 비행하는 시나리오'를 데이터베이스로부터 검색할 수 있고, 촬상한 입체 이미지를 이용하여 가상환경 이미지(210)를 구현할 수 있다.
다시 도 1을 참고하면, 구현부(120)는 상기 스테레오 카메라를 구성하는 좌우 카메라 각각이 갖는 수평 시야선을 연결하여, 상기 가상환경 이미지 내에 베이스라인(baseline)을 구현할 수 있다. 즉, 구현부(120)는 좌우 카메라를 통해 획득된 이미지를 가상환경 이미지로 구현할 때, 수평 시야선을 기준으로 가상환경 이미지에 베이스라인을 구현할 수 있다. 도 2를 참고하여 설명하면, 구현부(120)는 가상환경 이미지(210) 내에 장애물의 거리 감지를 위한 기준선이 되는 베이스라인(211)을 구현할 수 있다.
처리부(130)는 상기 관리자 단말로부터의 분리 명령에 따라, 상기 스테레오 카메라를 구성하는 좌우 카메라 각각에서 상기 피사체를 바라보는 분리 이미지를, 상기 가상환경 이미지에서 추출하여, 상기 가상환경 이미지와 구분하여 표시한다. 즉, 처리부(130)는 가상환경 이미지를 표시하면서, 동시에 분리 이미지를 별도로 표시할 수 있다. 예를 들면, 처리부(130)는 가상환경 이미지의 일부 영역에 또는 가상환경 이미지가 표시되는 디스플레이와 다른 디스플레이에, 스테레오 카메라의 제1 카메라와 제2 카메라가 촬상한 분리 이미지를 표시할 수 있다.
도 2를 참고하여 설명하면, 처리부(130)는 가상환경 이미지(210)와 별도로 분리 이미지(220)를 표시할 수 있다. 이때, 처리부(130)는 스테레오 카메라 간의 좌우 카메라가 피사체를 각각 바라보는 시점에서의 분리 이미지를 표시할 수 있다.
또한, 처리부(130)는 상기 베이스라인이 정중앙에 위치하도록 상기 분리 이미지를 추출할 수 있다. 즉, 처리부(130)는 베이스라인을 기준으로 좌우 카메라가 촬상한 이미지가 위치하도록 분리 이미지를 추출할 수 있다. 예를 들면, 처리부(130)는 베이스라인이 정중앙에 위치하는 제1 카메라(좌)가 촬상한 이미지와, 베이스라인이 정중앙에 위치하는 제2 카메라(우)가 촬상한 이미지를, 가상환경 이미지로부터 각각 추출할 수 있다.
제어부(140)는 상기 관리자 단말로부터의 거리측정 명령에 따라, 상기 스테레오 카메라의 촬영 모드를 라이다 모드 또는 초음파 모드로 전환할 수 있다. 즉, 제어부(140)는 가상환경 이미지 내에서 등장하는 장애물과의 거리측정을 위한 명령이 입력되면, 라이다 또는 초음파 센서를 턴온시켜 라이다 모드 또는 초음파 모드로 전환할 수 있다.
또한, 제어부(140)는 기본적으로 라이다 모드 및 초음파 모드를 동시에 수행할 수 있다. 즉, 제어부(140)는 라이다 모드 및 초음파 모드 중 적어도 하나의 모드로 전환할 수도 있지만, 기본적으로 동시에 모든 센서에 대한 시뮬레이션 정보를, 실제 센서와 동일한 인터페이스를 통해서 실제 센서와 동일한 데이터 형식으로 제공할 수 있다.
이때, 처리부(130)는 상기 스테레오 카메라를 구성하는 좌우 카메라 각각에서 상기 피사체를 스캔한 소스 이미지를, 상기 가상환경 이미지와 구분하여 표시할 수 있다. 즉, 처리부(130)는 좌우 카메라가 촬상하는 피사체 각각에 대하여, 라이다 모드 또는 초음파 모드를 통해 획득한 소스 이미지를 별도로 표시할 수 있다. 도 2를 참고하여 설명하면, 처리부(130)는 가상환경 이미지(210)로부터 분리되게, 라이다 모드에서 획득한 소스 이미지(230) 및 초음파 모드에서 획득한 소스 이미지(240)를 구분하여 표시할 수 있다.
또한, 제어부(140)는 센서가 감지한 센서데이터를 분석하여 상기 비행 환경조건 및 비행 시나리오에 따른 센서 시뮬레이션을 수행할 수 있다. 즉, 제어부(140)는 가상환경 이미지에 대해 감지된 센서데이터를 분석 및 제공하여 센서 시뮬레이션을 수행할 수 있다. 이때, 센서는, 예를 들어 초음파 센서일 수 있으나, 이에 한정되는 것은 아니다. 즉, 센서는 센서 시뮬레이션을 수행하고자 하는 임의의 센서일 수 있다.
또한, 제어부(140)는 초음파 센서의 송신 패턴을 생성하고, 상기 가상환경 이미지 내에서, 초음파 센서에 의해 생성된 송신 패턴을 상기 피사체를 향해 방사하고, 상기 송신 패턴 중 상기 장애물로부터의 접촉이 감지되는 부분으로부터의 거리를 분석하여 상기 비행 환경조건 및 비행 시나리오에 따른 센서 시뮬레이션을 수행할 수 있다. 즉, 제어부(140)는 실제 초음파 센서에서 방사하는 패턴에 대한, 가상의 송신 패턴을 생성하여 가상의 공간인 가상환경 이미지에서 송신 패턴을 방사할 수 있다. 이때, 제어부(140)는 송신 패턴을 통해 감지된 장애물과의 거리를 분석하여 제공함으로써 센서 시뮬레이션을 수행할 수 있다.
또한, 제어부(140)는 상기 라이다의 레이저를 생성하고, 상기 가상환경 이미지 내에서, 라이다에 의해 생성된 레이저를 상기 피사체를 향해 방사하고, 상기 장애물로부터 반사되어 돌아오는 레이저의 시간 및 거리를 분석하여 상기 비행 환경조건 및 비행 시나리오에 따른 센서 시뮬레이션을 수행할 수 있다. 즉, 제어부(140)는 라이다에서 방사하는 가상의 레이저를 생성하여 가상환경 이미지 내에서 방사할 수 있다. 이때, 제어부(140)는 실제 라이다가 방사하는 레이저와 매우 유사한 가상의 레이저를 생성할 수 있다. 제어부(140)는 가상의 레이저가 가상의 공간이 가상환경 이미지 내 임의의 장애물에 반사되어 돌아오면, 해당 장애물의 위치, 시간 및 거리를 분석하여 제공함으로써 센서 시뮬레이션을 수행할 수 있다.
또한, 제어부(140)는 센서 시뮬레이션을 수행한 결과를, 인터페이스로 전송할 수 있다. 이때, 인터페이스는 실제 센서와 동일한 물리적 형식으로 구성될 수 있으며, 다중 센서 시뮬레이션 장치(100)의 외부에 위치할 수 있다. 즉, 제어부(140)는 센서 시뮬레이션 결과를, 실제 센서와 동일한 인터페이스로 전송할 수 있고, 센서 시뮬레이션 신호를 센서와 동일한 데이터 형식으로 제공할 수 있다.
도 3은 본 발명의 일실시예에 따른 다중 센서 시뮬레이션 장치의 구현 예를 설명하기 위한 도면이다.
다중 센서 시뮬레이션 장치(310)는 유무선으로 연결된 추가의 시스템과 통신하며 시뮬레이션 수행을 할 수 있다. 즉, 다중 센서 시뮬레이션 장치(310)는 드론 장치(320)를 포함할 수 있다.
다중 센서 시뮬레이션 장치(310)는 드론 장치(320)로 영상 데이터, 라이다 데이터, 초음파 데이터 등을 전송할 수 있다. 예를 들면, 다중 센서 시뮬레이션 장치(310)는 외부 시험 대상인 드론 장치(320)로, 영상 데이터, 라이다 데이터 및 4채널의 초음파 데이터를 실제와 같은 물리적 인터페이스(예컨대, USB3.0, Ethernet, 및 RS232 * 4)로 전송할 수 있다. 이때, 전송되는 데이터는 실제 센서에서 제공하는 데이터 형식과 동일할 수 있다.
이러한, 본 발명의 다중 센서 시뮬레이션 장치(100)는 실제 환경과 유사한 가상환경에서 통합적으로 센서를 활용하여, 필요한 만큼의 반복 시험을 수행함으로써 장애물 탐지를 위한 알고리즘 및 개발 시스템의 성능을 신뢰성 높게 검증할 수 있다.
도 4는 본 발명의 일실시예에 따른 다중 센서 시뮬레이션 방법을 구체적으로 도시한 작업 흐름도이다.
우선 본 실시예에 따른 다중 센서 시뮬레이션 방법은 상술한 다중 센서 시뮬레이션 장치(100)에 의해 수행될 수 있다.
먼저, 다중 센서 시뮬레이션 장치(100)는 관리자 단말로부터 입력되는 비행 환경조건을 고려하여, 비행체에서의, 스테레오 카메라의 촬상지점을 설정한다(410). 즉, 단계(410)는 가상의 비행 환경을 생성하기 위하여 비행 환경조건에 의해 촬영할 지점을 설정하는 과정일 수 있다. 이때, 다중 센서 시뮬레이션 장치(100)는 스테레오 카메라가 평행식, 직교식, 수평식, 교차식 등 사용되는 카메라의 제어 방식을 고려하여, 비행 환경조건에 대한 스테레오 카메라의 촬상지점을 설정할 수 있다.
여기서, 관리자 단말은 다중 센서 시뮬레이션 장치(100)와 유무선으로 연결된 컴퓨터 단말(예컨대, 랩탑, 데스크탑, 태블릿PC, 스마트폰 등)이거나, 다중 센서 시뮬레이션 장치(100)에 장착된 컴퓨터 단말일 수 있다.
다음으로, 다중 센서 시뮬레이션 장치(100)는 상기 촬상지점에서 상기 스테레오 카메라에 의해 촬상되는 피사체를, 가상환경 이미지로 구현한다(420). 즉, 단계(420)는 가상의 비행 환경을 시각화하는 이미지로서, 가상환경 이미지를 구현하는 과정일 수 있다. 즉, 가상환경 이미지는 비행 환경조건을 고려하여 피사체를 촬상한 이미지를 3D 입체영상으로 구현한 이미지일 수 있다. 예를 들어, 가상환경 이미지는 복수의 고층 빌딩이 나열된 도시를 하늘에서 바라보는 이미지일 수 있다.
또한, 단계(420)는 상기 스테레오 카메라를 구성하는 좌우 카메라 각각이 갖는 수평 시야선을 연결하여, 상기 가상환경 이미지 내에 베이스라인(baseline)을 구현하는 과정을 포함할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 좌우 카메라를 통해 획득된 이미지를 가상환경 이미지로 구현할 때, 수평 시야선을 기준으로 가상환경 이미지에 베이스라인을 구현할 수 있다.
또한, 단계(420)는 상기 비행 환경조건에 대응하여 데이터베이스로부터 비행 시나리오를 검색하고, 상기 검색된 비행 시나리오에 기초하여, 상기 스테레오 카메라로부터 상기 피사체에 대한 입체 이미지를 획득하고, 상기 입체 이미지에 등장하는 장애물을 포함하여, 상기 가상환경 이미지를 구현하는 과정을 포함할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 가상의 비행 환경을 시각화 하기 위하여, 비행 환경조건에 대응하는 비행 시나리오에 기초하여, 스테레오 카메라로부터 획득한 입체 이미지를 통해 가상환경 이미지를 구현할 수 있다. 예를 들면, 비행 환경조건으로서 '맑은 날씨, 도시, 위도, 경도, 등'이 입력될 수 있고, 다중 센서 시뮬레이션 장치(100)는 입력된 비행 환경조건에 대응하는 비행 시나리오를 검색하여, 피사체를 촬상하는 스테레오 카메라로부터 획득한 이미지를 이용하여 3D 입체영상의 가상환경 이미지를 구현할 수 있다.
또한, 단계(420)는 획득된 상기 입체 이미지를, 상기 비행 환경조건 및 비행 시나리오에 대응하여 상기 데이터베이스에 저장하는 과정을 포함할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 입체 이미지를 데이터베이스에 저장하되, 기저장된 비행 환경조건 및 비행 시나리오에 대응시켜 저장함으로써, 기저장된 비행 환경조건 및 비행 시나리오를 갱신 및 저장할 수 있다.
또한, 단계(420)는 설정된 주기의 도래에 따라, 상기 데이터베이스로부터 상기 입체 이미지를 불러와 반복 재생하고, 재생 시마다, 센서 시뮬레이션 수행에 따른 상기 센서데이터의 분석 결과를, 상기 데이터베이스에 저장하는 과정을 포함할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 스테레오 카메라에서 획득되는 두 카메라의 입체 이미지를 가상 환경에서 반복 재생이 가능하도록 구현할 수 있고, 동시에 동일 가상환경 이미지 내에서 초음파 센서와 라이다에 대해 분석된 결과(예컨대, 주변 장애물 식별 정보, 거리 데이터 등)를 데이터베이스에 저장할 수 있다.
다음으로, 다중 센서 시뮬레이션 장치(100)는 상기 관리자 단말로부터의 분리 명령에 따라, 상기 스테레오 카메라를 구성하는 좌우 카메라 각각에서 상기 피사체를 바라보는 분리 이미지를, 상기 가상환경 이미지에서 추출하여, 상기 가상환경 이미지와 구분하여 표시한다(430). 즉, 단계(430)는 가상환경 이미지를 표시하면서, 동시에 분리 이미지를 별도로 표시하는 과정일 수 있다. 예를 들면, 다중 센서 시뮬레이션 장치(100)는 가상환경 이미지의 일부 영역에 또는 가상환경 이미지가 표시되는 디스플레이와 다른 디스플레이에, 스테레오 카메라의 제1 카메라와 제2 카메라가 촬상한 분리 이미지를 표시할 수 있다.
또한, 단계(430)는 상기 베이스라인이 정중앙에 위치하도록 상기 분리 이미지를 추출하는 과정을 포함할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 베이스라인을 기준으로 좌우 카메라가 촬상한 이미지가 위치하도록 분리 이미지를 추출할 수 있다. 예를 들면, 다중 센서 시뮬레이션 장치(100)는 베이스라인이 정중앙에 위치하는 제1 카메라(좌)가 촬상한 이미지와, 베이스라인이 정중앙에 위치하는 제2 카메라(우)가 촬상한 이미지를, 가상환경 이미지로부터 각각 추출할 수 있다.
실시예에 따라, 다중 센서 시뮬레이션 장치(100)는 상기 관리자 단말로부터의 거리측정 명령에 따라, 상기 스테레오 카메라의 촬영 모드를 라이다 모드 또는 초음파 모드로 전환할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 가상환경 이미지 내에서 등장하는 장애물과의 거리측정을 위한 명령이 입력되면, 라이다 또는 초음파 센서를 턴온시켜 라이다 모드 또는 초음파 모드로 전환할 수 있다.
또한, 다중 센서 시뮬레이션 장치(100)는 기본적으로 라이다 모드 및 초음파 모드를 동시에 수행할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 라이다 모드 및 초음파 모드 중 적어도 하나의 모드로 전환할 수도 있지만, 기본적으로 동시에 모든 센서에 대한 시뮬레이션 정보를, 실제 센서와 동일한 인터페이스를 통해서 실제 센서와 동일한 데이터 형식으로 제공할 수 있다.
이때, 단계(430)는 상기 스테레오 카메라를 구성하는 좌우 카메라 각각에서 상기 피사체를 스캔한 소스 이미지를, 상기 가상환경 이미지와 구분하여 표시할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 좌우 카메라가 촬상하는 피사체 각각에 대하여, 라이다 모드 또는 초음파 모드를 통해 획득한 소스 이미지를 별도로 표시할 수 있다.
실시예에 따라, 다중 센서 시뮬레이션 장치(100)는 센서가 감지한 센서데이터를 분석하여 상기 비행 환경조건 및 비행 시나리오에 따른 센서 시뮬레이션을 수행할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 가상환경 이미지에 대해 감지된 센서데이터를 분석 및 제공하여 센서 시뮬레이션을 수행할 수 있다. 이때, 센서는, 예를 들어 초음파 센서일 수 있으나, 이에 한정되는 것은 아니다. 즉, 센서는 센서 시뮬레이션을 수행하고자 하는 임의의 센서일 수 있다.
실시예에 따라, 다중 센서 시뮬레이션 장치(100)는 초음파 센서의 송신 패턴을 생성하고, 상기 가상환경 이미지 내에서, 초음파 센서에 의해 생성된 송신 패턴을 상기 피사체를 향해 방사하고, 상기 송신 패턴 중 상기 장애물로부터의 접촉이 감지되는 부분으로부터의 거리를 분석하여 상기 비행 환경조건 및 비행 시나리오에 따른 센서 시뮬레이션을 수행할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 실제 초음파 센서에서 방사하는 패턴에 대한, 가상의 송신 패턴을 생성하여 가상의 공간인 가상환경 이미지내에서 송신 패턴을 방사할 수 있다. 이때, 다중 센서 시뮬레이션 장치(100)는 송신 패턴을 통해 감지된 장애물과의 거리를 분석하여 제공함으로써 센서 시뮬레이션을 수행할 수 있다.
실시예에 따라, 다중 센서 시뮬레이션 장치(100)는 상기 라이다의 레이저를 생성하고, 상기 가상환경 이미지 내에서, 라이다에 의해 생성된 레이저를 상기 피사체를 향해 방사하고, 상기 장애물로부터 반사되어 돌아오는 레이저의 시간 및 거리를 분석하여 상기 비행 환경조건 및 비행 시나리오에 따른 센서 시뮬레이션을 수행할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 라이다에서 방사하는 가상의 레이저를 생성하여 가상환경 이미지내에서 방사할 수 있다. 이때, 다중 센서 시뮬레이션 장치(100)는 실제 라이다가 방사하는 레이저와 매우 유사한 가상의 레이저를 생성할 수 있다. 다중 센서 시뮬레이션 장치(100)는 가상의 레이저가 가상의 공간이 가상환경 이미지 내 임의의 장애물에 반사되어 돌아오면, 해당 장애물의 위치, 시간 및 거리를 분석하여 제공함으로써 센서 시뮬레이션을 수행할 수 있다.
실시예에 따라, 다중 센서 시뮬레이션 장치(100)는 센서 시뮬레이션을 수행한 결과를, 인터페이스로 전송할 수 있다. 이때, 인터페이스는 실제 센서와 동일한 물리적 형식으로 구성될 수 있으며, 다중 센서 시뮬레이션 장치(100)의 외부에 위치할 수 있다. 즉, 다중 센서 시뮬레이션 장치(100)는 센서 시뮬레이션 결과를, 실제 센서와 동일한 인터페이스로 전송할 수 있고, 센서 시뮬레이션 신호를 센서와 동일한 데이터 형식으로 제공할 수 있다.
이러한, 본 발명의 다중 센서 시뮬레이션 방법은 실제 환경과 유사한 가상환경에서 통합적으로 센서를 활용하여, 필요한 만큼의 반복 시험을 수행함으로써 장애물 탐지를 위한 알고리즘 및 개발 시스템의 성능을 신뢰성 높게 검증할 수 있다.
본 발명의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100 : 다중 센서 시뮬레이션 장치
110 : 설정부
120 : 구현부
130 : 처리부
140 : 제어부

Claims (15)

  1. 관리자 단말로부터 입력되는 비행 환경조건을 고려하여, 비행체에서의, 스테레오 카메라의 촬상지점을 설정하는 설정부;
    상기 촬상지점에서 상기 스테레오 카메라에 의해 촬상되는 피사체를, 가상환경 이미지로 구현하고, 상기 스테레오 카메라를 구성하는 제1 카메라와 제2 카메라 각각이 갖는 수평 시야선을 연결하여, 상기 가상환경 이미지 내에 베이스라인(baseline)을 구현하는 구현부; 및
    상기 관리자 단말로부터의 분리 명령에 따라, 상기 제1 카메라와 상기 제2 카메라 각각에서 상기 피사체를 바라보는 분리 이미지를, 상기 가상환경 이미지에서 추출하여, 상기 가상환경 이미지와 구분하여 표시하는 처리부
    를 포함하고,
    상기 처리부는,
    상기 베이스라인이 정중앙에 위치하는 제1 카메라가 촬상한 좌 이미지와, 상기 베이스라인이 정중앙에 위치하는 제2 카메라가 촬상한 우 이미지를, 상기 분리 이미지로서 각각 추출하는
    다중 센서 시뮬레이션 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 관리자 단말로부터의 거리측정 명령에 따라,
    상기 스테레오 카메라의 촬영 모드를 라이다 모드 또는 초음파 모드로 전환하는 제어부
    를 더 포함하고,
    상기 처리부는,
    상기 제1 카메라와 상기 제2 카메라 각각에서 상기 피사체를 스캔한 소스 이미지를, 상기 가상환경 이미지와 구분하여 표시하는
    다중 센서 시뮬레이션 장치.
  4. 제1항에 있어서,
    상기 구현부는,
    상기 비행 환경조건에 대응하여 데이터베이스로부터 비행 시나리오를 검색하고,
    상기 검색된 비행 시나리오에 기초하여, 상기 스테레오 카메라로부터 상기 피사체에 대한 입체 이미지를 획득하고,
    상기 입체 이미지에 등장하는 장애물을 포함하여, 상기 가상환경 이미지를 구현하는
    다중 센서 시뮬레이션 장치.
  5. 제4항에 있어서,
    상기 다중 센서 시뮬레이션 장치는,
    센서가 감지한 센서데이터를 분석하여 상기 비행 환경조건 및 상기 비행 시나리오에 따른 센서 시뮬레이션을 수행하는 제어부
    를 더 포함하는 다중 센서 시뮬레이션 장치.
  6. 제4항에 있어서,
    상기 다중 센서 시뮬레이션 장치는,
    상기 가상환경 이미지 내에서, 초음파 센서에 의해 생성된 송신 패턴을 상기 피사체를 향해 방사하고, 상기 송신 패턴 중 상기 장애물로부터의 접촉이 감지되는 부분으로부터의 거리를 분석하여 상기 비행 환경조건 및 상기 비행 시나리오에 따른 센서 시뮬레이션을 수행하는 제어부
    를 더 포함하는 다중 센서 시뮬레이션 장치.
  7. 제4항에 있어서,
    상기 다중 센서 시뮬레이션 장치는,
    상기 가상환경 이미지 내에서, 라이다에 의해 생성된 레이저를 상기 피사체를 향해 방사하고, 상기 장애물로부터 반사되어 돌아오는 레이저의 시간 및 거리를 분석하여 상기 비행 환경조건 및 상기 비행 시나리오에 따른 센서 시뮬레이션을 수행하는 제어부
    를 더 포함하는 다중 센서 시뮬레이션 장치.
  8. 제4항에 있어서,
    상기 구현부는,
    획득된 상기 입체 이미지를, 상기 비행 환경조건 및 상기 비행 시나리오에 대응하여 상기 데이터베이스에 저장하는
    다중 센서 시뮬레이션 장치.
  9. 제8항에 있어서,
    상기 구현부는,
    설정된 주기의 도래에 따라, 상기 데이터베이스로부터 상기 입체 이미지를 불러와 반복 재생하고, 재생 시마다, 센서 시뮬레이션 수행에 따른 센서데이터의 분석 결과를, 상기 데이터베이스에 저장하는
    다중 센서 시뮬레이션 장치.
  10. 관리자 단말로부터 입력되는 비행 환경조건을 고려하여, 비행체에서의, 스테레오 카메라의 촬상지점을 설정하는 단계;
    상기 촬상지점에서 상기 스테레오 카메라에 의해 촬상되는 피사체를, 가상환경 이미지로 구현하고, 상기 스테레오 카메라를 구성하는 제1 카메라와 제2 카메라 각각이 갖는 수평 시야선을 연결하여, 상기 가상환경 이미지 내에 베이스라인을 구현하는 단계; 및
    상기 관리자 단말로부터의 분리 명령에 따라, 상기 제1 카메라와 상기 제2 카메라 각각에서 상기 피사체를 바라보는 분리 이미지를, 상기 가상환경 이미지에서 추출하여, 상기 가상환경 이미지와 구분하여 표시하는 단계
    를 포함하고,
    상기 표시하는 단계는,
    상기 베이스라인이 정중앙에 위치하는 제1 카메라가 촬상한 좌 이미지와, 상기 베이스라인이 정중앙에 위치하는 제2 카메라가 촬상한 우 이미지를, 상기 분리 이미지로서 각각 추출하는 단계
    를 포함하는 다중 센서 시뮬레이션 방법.
  11. 삭제
  12. 제10항에 있어서,
    상기 관리자 단말로부터의 거리측정 명령에 따라,
    상기 스테레오 카메라의 촬영 모드를 라이다 모드 또는 초음파 모드로 전환하는 단계; 및
    상기 제1 카메라와 상기 제2 카메라 각각에서 상기 피사체를 스캔한 소스 이미지를, 상기 가상환경 이미지와 구분하여 표시하는 단계
    를 더 포함하는 다중 센서 시뮬레이션 방법.
  13. 제10항에 있어서,
    상기 구현하는 단계는,
    상기 비행 환경조건에 대응하여 데이터베이스로부터 비행 시나리오를 검색하는 단계;
    상기 검색된 비행 시나리오에 기초하여, 상기 스테레오 카메라로부터 상기 피사체에 대한 입체 이미지를 획득하는 단계; 및
    상기 입체 이미지에 등장하는 장애물을 포함하여, 상기 가상환경 이미지를 구현하는 단계
    를 포함하는 다중 센서 시뮬레이션 방법.
  14. 제13항에 있어서,
    상기 다중 센서 시뮬레이션 방법은,
    상기 가상환경 이미지 내에서, 초음파 센서에 의해 생성된 송신 패턴을 상기 피사체를 향해 방사하는 단계; 및
    상기 송신 패턴 중 상기 장애물로부터의 접촉이 감지되는 부분으로부터의 거리를 분석하여 상기 비행 환경조건 및 상기 비행 시나리오에 따른 센서 시뮬레이션을 수행하는 단계
    를 더 포함하는 다중 센서 시뮬레이션 방법.
  15. 제13항에 있어서,
    상기 다중 센서 시뮬레이션 방법은,
    상기 가상환경 이미지 내에서, 라이다에 의해 생성된 레이저를 상기 피사체를 향해 방사하는 단계; 및
    상기 장애물로부터 반사되어 돌아오는 레이저의 시간 및 거리를 분석하여 상기 비행 환경조건 및 상기 비행 시나리오에 따른 센서 시뮬레이션을 수행하는 단계
    를 더 포함하는 다중 센서 시뮬레이션 방법.
KR1020170102930A 2017-08-14 2017-08-14 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법 KR101986015B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170102930A KR101986015B1 (ko) 2017-08-14 2017-08-14 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170102930A KR101986015B1 (ko) 2017-08-14 2017-08-14 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법

Publications (2)

Publication Number Publication Date
KR20190018233A KR20190018233A (ko) 2019-02-22
KR101986015B1 true KR101986015B1 (ko) 2019-06-04

Family

ID=65584855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170102930A KR101986015B1 (ko) 2017-08-14 2017-08-14 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법

Country Status (1)

Country Link
KR (1) KR101986015B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230111305A (ko) 2022-01-18 2023-07-25 정희용 메타버스 기반 시뮬레이션 시스템
KR102619976B1 (ko) 2023-05-24 2024-01-02 주식회사 블루커뮤니케이션 인공지능 기술을 활용한 온라인 교육 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472984B1 (ko) * 2021-12-06 2022-12-01 주식회사 아이두젠 차박 텐트 가상 매칭 시뮬레이션 서비스 제공 장치, 방법 및 프로그램

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101077588B1 (ko) * 2009-06-26 2011-10-27 한국공항공사 라이다를 이용한 공항 장애물 관리 시스템
KR101511610B1 (ko) * 2013-07-23 2015-04-13 현대오트론 주식회사 초음파 센서를 이용한 avm 시스템 및 어라운드뷰 이미지 제공 방법
KR20160102845A (ko) * 2015-02-23 2016-08-31 한남대학교 산학협력단 비행 가능한 전방위 촬영시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Manuela Chessa 외 2, A Virtual Reality Simulator for Active Stereo Vision Systems, VISAPP 2009, Vol 2, pp 444-449.*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230111305A (ko) 2022-01-18 2023-07-25 정희용 메타버스 기반 시뮬레이션 시스템
KR102619976B1 (ko) 2023-05-24 2024-01-02 주식회사 블루커뮤니케이션 인공지능 기술을 활용한 온라인 교육 시스템

Also Published As

Publication number Publication date
KR20190018233A (ko) 2019-02-22

Similar Documents

Publication Publication Date Title
US10726264B2 (en) Object-based localization
KR102092392B1 (ko) 실 공간에서 관심지점 관련 정보를 자동으로 수집 및 업데이트하는 방법 및 시스템
US20210274358A1 (en) Method, apparatus and computer program for performing three dimensional radio model construction
KR102096926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
KR101986015B1 (ko) 다중 센서 시뮬레이션 장치 및 다중 센서 시뮬레이션 방법
JP6404527B1 (ja) カメラ制御システム、カメラ制御方法、およびプログラム
KR101971791B1 (ko) 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템 및 그 방법
KR102221817B1 (ko) 위치정보를 제공하는 단말기, 위치정보 측정 방법 및 시스템
KR20150033864A (ko) 레이저 스캐너를 이용하여 장애물을 인식하기 위한 특징점 추출 장치 및 방법
KR102189926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
CN111105695A (zh) 地图制作方法、装置、电子设备及计算机可读存储介质
US9418284B1 (en) Method, system and computer program for locating mobile devices based on imaging
KR102106029B1 (ko) 간판 검출 성능 향상을 위한 방법 및 시스템
JP2019075037A (ja) 情報処理装置、情報処理方法、およびプログラム
KR20160073491A (ko) 모바일 단말기를 이용한 인터렉티브 건설 공정 관리 시스템 및 사용자 인터페이스
US20220299627A1 (en) Apparatus and Method for Collecting and Auto-Labelling Measurement Data in Traffic Scenario
JP7020418B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Baeck et al. Drone based near real-time human detection with geographic localization
JP6762108B2 (ja) 目標物検知装置、処理方法、プログラム
WO2021024685A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2018134866A1 (ja) カメラ校正装置
KR20230049969A (ko) 글로벌 측위 장치 및 방법
JP6546898B2 (ja) 3次元空間特定装置、方法、及びプログラム
KR102618069B1 (ko) 지상조사 로봇의 점군 자료와 시각정보를 이용한 실내건물 재난정보 분석 방법 및 장치
JP7075090B1 (ja) 情報処理システム、及び、情報処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant