KR20210019221A - 2d 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템 - Google Patents

2d 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템 Download PDF

Info

Publication number
KR20210019221A
KR20210019221A KR1020190098088A KR20190098088A KR20210019221A KR 20210019221 A KR20210019221 A KR 20210019221A KR 1020190098088 A KR1020190098088 A KR 1020190098088A KR 20190098088 A KR20190098088 A KR 20190098088A KR 20210019221 A KR20210019221 A KR 20210019221A
Authority
KR
South Korea
Prior art keywords
view image
distance
depth information
map
image
Prior art date
Application number
KR1020190098088A
Other languages
English (en)
Other versions
KR102234461B1 (ko
Inventor
이동환
김덕화
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020190098088A priority Critical patent/KR102234461B1/ko
Priority to US16/989,201 priority patent/US11482009B2/en
Publication of KR20210019221A publication Critical patent/KR20210019221A/ko
Application granted granted Critical
Publication of KR102234461B1 publication Critical patent/KR102234461B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • G06T3/08
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Abstract

2D 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템이 개시된다. 깊이 정보 생성 방법은 거리뷰 이미지에 대응되는 2D 지도를 이용하여 상기 2D 지도 상의 객체의 거리 정보를 계산하는 단계; 상기 거리뷰 이미지로부터 상기 객체에 대한 시맨틱(semantic) 정보를 추출하는 단계; 및 상기 거리 정보와 상기 시맨틱 정보를 이용하여 상기 거리뷰 이미지의 깊이 정보를 생성하는 단계를 포함한다.

Description

2D 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템{METHOD AND SYSTEM FOR GENERATING DEPTH INFORMATION OF STREET VIEW IMAGE USING 2D MAP}
아래의 설명은 지도 작성을 위한 정보로서 이미지의 깊이 정보를 생성하는 기술에 관한 것이다.
SLAM(Simultaneous Localization And Mapping) 기술은 자율주행, 드론 등 각종 기술에 광범위하게 활용되는 기술로, GPS 정보, 주행 거리 정보, 관성 센서 등을 활용하여 관측 지점을 추정한 후 관측 지점 마다 얻어진 깊이 값을 이용하여 지형 지도를 작성하는 기술이다.
이러한 SLAM 기술에서는 관측 지점에 대한 정확한 위치 정보와 관측 지점별로 얻어진 정확한 깊이 값을 취득하는 것이 정밀한 지도를 얻기 위해 중요한 요소로 작용한다.
일반적으로 관측 지점에 대한 정보를 얻기 위해 적외선 센서, 초음파 센서, 레이저, 이미지 센서 등의 별도 소자가 포함된 전용 장비가 필요하다.
지도 작성 기술의 일례로서, 한국 공개특허공보 제10-2018-0053094호(공개일 2018년 05월 21일)에는 깊이 센서가 수집한 깊이 값과 이미지 센서가 수집한 이미지를 매칭하여 3차원 지도를 작성하는 기술이 개시되어 있다.
공개되어 있는 2D 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성할 수 있는 방법 및 시스템을 제공한다.
지도 작성을 위한 별도 전용 장비를 이용하지 않고도 실제 지도 상에서 실측치(real date)에 가까운 깊이 정보를 획득할 수 있는 방법 및 시스템을 제공한다.
컴퓨터 시스템에서 실행되는 깊이 정보 생성 방법에 있어서, 상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 깊이 정보 생성 방법은, 상기 적어도 하나의 프로세서에 의해, 거리뷰 이미지에 대응되는 2D 지도를 이용하여 상기 2D 지도 상의 객체의 거리 정보를 계산하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 거리뷰 이미지로부터 상기 객체에 대한 시맨틱(semantic) 정보를 추출하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 거리 정보와 상기 시맨틱 정보를 이용하여 상기 거리뷰 이미지의 깊이 정보를 생성하는 단계를 포함하는 깊이 정보 생성 방법을 제공한다.
일 측면에 따르면, 상기 계산하는 단계는, 상기 2D 지도 상에서의 상기 거리뷰 이미지에 포함된 위치 정보를 기준으로 상기 객체까지의 거리를 구할 수 있다.
다른 측면에 따르면, 상기 계산하는 단계는, 상기 2D 지도 상에서의 상기 거리뷰 이미지에 포함된 위치 정보를 기준으로 가상 광선(virtual ray)을 투사하여 상기 객체와 만나는 교점을 찾는 단계; 및 상기 위치 정보에서 상기 교점까지의 거리를 구하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 추출하는 단계는, 상기 거리뷰 이미지에서 상기 객체에 해당되는 부분을 추출하여 수직 방향의 깊이 정보로서 객체 마스크를 생성하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 추출하는 단계는, 시맨틱 분할(semantic segmentation) 기법을 통해 상기 거리뷰 이미지의 각 픽셀을 배경과 객체로 분류함으로써 상기 시맨틱 정보를 추출할 수 있다.
또 다른 측면에 따르면, 상기 생성하는 단계는, 상기 객체 마스크에 수평 방향의 깊이 정보로서 상기 거리 정보를 삽입함으로써 상기 거리뷰 이미지의 깊이 정보를 생성할 수 있다.
또 다른 측면에 따르면, 상기 깊이 정보 생성 방법은, 상기 적어도 하나의 프로세서에 의해, 지도 서비스를 통해 공개된 데이터로서 상기 거리뷰 이미지와 상기 2D 지도를 획득하는 단계를 더 포함할 수 있다.
또 다른 측면에 따르면, 상기 획득하는 단계는, 상기 거리뷰 이미지에 포함된 위치 정보를 기초로 상기 거리뷰 이미지가 촬영된 지역의 2D 지도를 획득하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 깊이 정보 생성 방법은, 상기 적어도 하나의 프로세서에 의해, 상기 거리뷰 이미지인 구형 파노라마 이미지(spherical panoramic image)를 단위 각도 별로 크로핑(cropping)하여 전처리하는 단계를 더 포함할 수 있다.
또 다른 측면에 따르면, 상기 전처리하는 단계는, 상기 거리뷰 이미지를 구형 좌표계(spherical coordinate)로 변환하는 단계; 및 핀-홀 카메라 모델(pin-hole camera model)을 기반으로 상기 구형 좌표계 상의 이미지를 투영(projection)하는 방식을 통해 상기 단위 각도 별 이미지를 획득하는 단계를 포함할 수 있다.
상기한 깊이 정보 생성 방법을 상기 컴퓨터 시스템에 실행시키기 위해 비-일시적인 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램을 제공한다.
컴퓨터 시스템에 있어서, 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 거리뷰 이미지에 대응되는 2D 지도를 이용하여 상기 2D 지도 상의 객체의 거리 정보를 계산하는 거리 정보 계산부; 상기 거리뷰 이미지로부터 상기 객체에 대한 시맨틱 정보를 포함하는 객체 마스크를 생성하는 마스크 생성부; 및 상기 거리 정보와 상기 객체 마스크를 이용하여 상기 거리뷰 이미지의 깊이 정보를 생성하는 깊이 정보 생성부를 포함하는 컴퓨터 시스템을 제공한다.
본 발명의 실시예들에 따르면, 공개되어 있는 2D 지도를 이용하여 거리뷰 이미지의 깊이 정보를 정확하고 정밀하게 구할 수 있다.
본 발명의 실시예들에 따르면, 지도 작성을 위한 별도 전용 장비를 이용하지 않고도 실제 지도를 이용하여 이미지의 깊이를 실측치로 얻을 수 있다.
도 1은 본 발명의 일실시예에 있어서 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 컴퓨터 시스템이 수행할 수 있는 깊이 정보 생성 방법의 예를 도시한 순서도이다.
도 4는 본 발명의 일실시예에 있어서 거리뷰 이미지와 2D 지도를 획득하는 과정을 설명하기 위한 예시 도면이다.
도 5는 본 발명의 일실시예에 있어서 거리뷰 이미지를 전처리하는 과정을 설명하기 위한 예시 도면이다.
도 6 내지 도 8은 본 발명의 일실시예에 있어서 2D 지도를 이용하여 수평 방향의 깊이 정보를 구하는 과정을 설명하기 위한 예시 도면이다.
도 9는 본 발명의 일실시예에 있어서 거리뷰 이미지를 이용하여 수직 방향의 깊이 정보를 구하는 과정을 설명하기 위한 예시 도면이다.
도 10은 본 발명의 일실시예에 있어서 거리뷰 이미지의 최종 깊이 정보를 구하는 과정을 설명하기 위한 예시 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명의 실시예들은 지도 작성을 위한 정보로서 이미지의 깊이 정보를 획득하는 기술에 관한 것이다.
본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 이미 공개되어 있는 2D 지도를 이용하여 거리뷰 이미지의 깊이 정보를 구할 수 있고, 이를 통해 지도 작성의 간소화, 효율성, 정확성, 정밀성, 최적화, 속도 등 여러 측면에 있어서 상당한 장점들을 달성한다.
도 1은 본 발명의 일실시예에 따른 컴퓨터 시스템의 예를 도시한 블록도이다. 예를 들어, 본 발명의 실시예들에 따른 깊이 정보 생성 시스템은 도 1을 통해 도시된 컴퓨터 시스템(100)에 의해 구현될 수 있다.
도 1에 도시된 바와 같이 컴퓨터 시스템(100)은 본 발명의 실시예들에 따른 깊이 정보 생성 방법을 실행하기 위한 구성요소로서, 메모리(110), 프로세서(120), 통신 인터페이스(130) 그리고 입출력 인터페이스(140)를 포함할 수 있다.
메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 시스템(100)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 시스템(100)의 메모리(110)에 로딩될 수 있다.
프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 인터페이스(130)은 네트워크(160)를 통해 컴퓨터 시스템(100)이 다른 장치와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 시스템(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 시스템(100)의 통신 인터페이스(130)를 통해 컴퓨터 시스템(100)으로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 시스템(100)이 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
통신 방식은 제한되지 않으며, 네트워크(160)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 유선/무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(160)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(160)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드, 카메라 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 시스템(100)과 하나의 장치로 구성될 수도 있다.
또한, 다른 실시예들에서 컴퓨터 시스템(100)은 도 1의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 시스템(100)은 상술한 입출력 장치(150) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 컴퓨터 시스템(100)이 지도 작성에 필요한 인터페이스 모듈, 각종 물리적인 버튼, 입출력 포트 등의 다양한 구성요소들이 컴퓨터 시스템(100)에 더 포함되도록 구현될 수 있다.
본 발명은 이미지 기반 측위(visual localization) 기술에 관한 것으로, 특히 실외 지도에 적용 가능한 기술이다.
이미지 기반 측위를 위해서는 해당되는 지역의 3차원 구조를 알아야 한다. 여기서, 3차원 구조는 이미지의 특정 픽셀에 대응되는 3차원 좌표를 포함할 수 있고, 또한 이미지의 깊이 값을 포함할 수 있다. 다시 말해, 3차원 구조를 안다는 것은 이미지의 3차원 좌표와 깊이 값을 안다는 것과 동일한 의미이다.
일반적으로, SfM(structure from motion)과 같은 기술을 통해 RGB 이미지를 이용하여 3차원 구조를 얻을 수 있다. 그러나, 이미지만을 이용하는 경우 스케일 값을 얻을 수 없고 깊이 값의 경우 추정 값에 불과하여 정확도가 떨어진다.
깊이 센서가 부착된 RGB-D 이미지 센서를 이용하는 것이 가능하기는 하나, RGB-D 이미지 센서의 경우 깊이 값의 잡음이 매우 심하다는 단점이 있고, 깊이에 대해 센싱 가능한 범위(range)가 제한적이기 때문에 실외 지도 작성에는 사용이 불가능하다.
본 발명의 실시예들은 이미 공개되어 있는 2D 지도를 이용하여 거리뷰 이미지의 깊이를 정밀하게 구하는 기술에 관한 것이다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이고, 도 3은 본 발명의 일실시예에 따른 컴퓨터 시스템이 수행할 수 있는 깊이 정보 생성 방법의 예를 도시한 순서도이다.
도 2에 도시된 바와 같이, 프로세서(120)는 데이터 획득부(201), 이미지 전처리부(202), 거리 정보 계산부(203), 마스크 생성부(204), 및 깊이 정보 생성부(205)를 포함할 수 있다.
이러한 프로세서(120)의 구성요소들은 적어도 하나의 프로그램 코드에 의해 제공되는 제어 명령에 따라 프로세서(120)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(120)가 거리뷰 이미지의 깊이 정보를 생성하기 위해 필요한 데이터를 획득하도록 컴퓨터 시스템(100)을 제어하기 위해 동작하는 기능적 표현으로서 데이터 획득부(201)가 사용될 수 있다.
프로세서(120) 및 프로세서(120)의 구성요소들은 도 3의 깊이 정보 생성 방법이 포함하는 단계들(S310 내지 S350)을 수행할 수 있다. 예를 들어, 프로세서(120) 및 프로세서(120)의 구성요소들은 메모리(110)가 포함하는 운영체제의 코드와 상술한 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 적어도 하나의 프로그램 코드는 깊이 정보 생성 방법을 처리하기 위해 구현된 프로그램의 코드에 대응될 수 있다.
깊이 정보 생성 방법은 도시된 순서대로 발생하지 않을 수 있으며, 단계들 중 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.
프로세서(120)는 깊이 정보 생성 방법을 위한 프로그램 파일에 저장된 프로그램 코드를 메모리(110)에 로딩할 수 있다. 예를 들어, 깊이 정보 생성 방법을 위한 프로그램 파일은 메모리(110)와는 구분되는 영구 저장 장치에 저장되어 있을 수 있고, 프로세서(120)는 버스를 통해 영구 저장 장치에 저장된 프로그램 파일로부터 프로그램 코드가 메모리(110)에 로딩되도록 컴퓨터 시스템(100)을 제어할 수 있다.
이때, 프로세서(120) 및 프로세서(120)가 포함하는 데이터 획득부(201), 이미지 전처리부(202), 거리 정보 계산부(203), 마스크 생성부(204), 및 깊이 정보 생성부(205) 각각은 메모리(110)에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(S310 내지 S350)을 실행하기 위한 프로세서(120)의 서로 다른 기능적 표현들일 수 있다.
단계들(S310 내지 S350)의 실행을 위해, 프로세서(120) 및 프로세서(120)의 구성요소들은 직접 제어 명령에 따른 연산을 처리하거나 또는 컴퓨터 시스템(100)을 제어할 수 있다.
도 3을 참조하면, 단계(S310)에서 데이터 획득부(201)는 거리뷰 이미지의 깊이 정보를 생성하기 위해 필요한 데이터를 획득하는 것으로, 거리뷰 이미지와 해당 이미지가 촬영된 지역의 2D 지도를 획득할 수 있다.
도 4는 본 발명의 일실시예에 있어서 거리뷰 이미지와 2D 지도를 획득하는 과정을 설명하기 위한 예시 도면이다.
도 4를 참조하면, 거리뷰 이미지(401)는 지도 상의 거리를 360도 방향으로 촬영한 구형 파노라마 이미지(spherical panoramic image)로, 한 지점을 여러 방향에서 볼 수 있다. 이때, 거리뷰 이미지(401)에는 거리뷰 이미지(401)를 촬영한 위치 정보(예컨대, GPS 등)가 포함될 수 있다. 데이터 획득부(201)는 거리뷰 이미지(401)에 포함된 위치 정보를 기초로 거리뷰 이미지(401)를 촬영한 지역을 포함한 2D 지도(402)를 거리뷰 이미지(401)와 함께 획득할 수 있다. 예를 들어, 데이터 획득부(201)는 거리뷰 이미지(401)에 포함된 위치 정보를 중심으로 사전에 정해진 일정 반경의 2D 지도 이미지를 획득할 수 있다.
거리뷰 이미지(401)와 2D 지도(402)는 기존 지도 서비스를 통해 공개되어 있는 지도 데이터를 사용할 수 있다. 데이터 획득부(201)는 지도 서비스를 제공하기 위해 필요한 전반의 정보들을 저장 및 유지하는 데이터베이스로부터 거리뷰 이미지(401)와 2D 지도(402)를 획득할 수 있다. 데이터베이스는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 시스템(100)에 포함되거나 혹은 컴퓨터 시스템(100)과 연동 가능한 별개의 컴퓨터 시스템 상에 구축될 수 있다.
다시 도 3을 참조하면, 단계(S320)에서 이미지 전처리부(202)는 단계(S310)에서 획득한 거리뷰 이미지를 깊이 정보 생성을 위해 사용 가능한 이미지 형태로 전처리할 수 있다. 이미지 전처리부(202)는 깊이 정보 생성을 위한 어플리케이션에 맞게 단위 각도 별로 해당 각도에서의 거리뷰 이미지를 잘라낼 수 있다.
일례로, 이미지 전처리부(202)는 거리뷰 이미지에 대한 이미지 분석을 통해 거리뷰 이미지에서 사전에 정해진 객체(이하, '특정 객체'라 칭함)가 포함된 특정 각도의 이미지를 크로핑(cropping)할 수 있다. 이미지 전처리부(202)는 지도 화면 상에 표시되는 다양한 객체 중 특정 객체 유형(예컨대, 건물이나 주요 시설물 등)을 대상으로 실물 객체 이미지를 학습한 모델을 통해 거리뷰 이미지에서 해당 객체가 포함된 특정 각도의 이미지를 크로핑할 수 있다.
도 5는 본 발명의 일실시예에 있어서 거리뷰 이미지를 전처리하는 과정을 설명하기 위한 예시 도면이다.
도 5를 참조하면, 이미지 전처리부(202)는 구형 파노라마 이미지 형태의 거리뷰 이미지(401)를 여러 각도에서 크로핑함으로써 깊이 정보 생성을 위해 사용 가능한 형태로 전처리된 이미지(501)를 획득할 수 있다. 이때, 이미지 전처리부(202)는 구형 파노라마로 촬영된 360도 이미지인 거리뷰 이미지(401)를 구형 좌표계(spherical coordinate)로 변환한 후 핀-홀 카메라 모델(pin-hole camera model)을 기반으로 구형 좌표계 상의 이미지를 투영(projection)하는 방식을 통해 특정 각도의 이미지(501)를 획득할 수 있다.
상기한 이미지 전처리 과정(S320)은 실시예에 따라 생략 가능한 선택적인(optional) 과정에 해당될 수 있다.
다시 도 3을 참조하면, 단계(S330)에서 거리 정보 계산부(203)는 거리뷰 이미지에 포함된 위치 정보(즉, 거리뷰 이미지가 촬영된 위치 정보)(이하, '거리뷰 촬영 위치'라 칭함)와 해당 거리뷰 이미지가 촬영된 지역의 2D 지도를 이용하여 지도 상에 표시되는 특정 객체의 거리 정보를 계산할 수 있다. 다시 말해, 거리 정보 계산부(203)는 거리뷰 촬영 위치와 2D 지도를 이용하여 거리뷰 이미지의 수평 방향의 깊이 정보를 구할 수 있다.
도 6 내지 도 8은 본 발명의 일실시예에 있어서 2D 지도를 이용하여 수평 방향의 깊이 정보를 구하는 과정을 설명하기 위한 예시 도면이다.
도 6을 참조하면, 거리 정보 계산부(203)는 가상 광선 투사법(virtual ray casting)을 이용하는 것으로, 2D 지도(402)에서 거리뷰 촬영 위치(61)를 기점으로 하는 가상 광선(62)을 이용하여 2D 지도(402) 상에 포함된 특정 객체까지의 거리를 구할 수 있다.
상세하게, 도 7에 도시한 바와 같이 거리 정보 계산부(203)는 2D 지도(402) 상의 객체 스캔을 위해 2D 지도(402)에 대해 수평 방향으로 거리뷰 촬영 위치(61)를 기점으로 하는 가상 광선(62)을 투사하여 2D 지도(402) 상의 건물과 같은 특정 객체(70)의 외곽선과 교차하는 교점(73)을 찾을 수 있다. 이때, 거리 정보 계산부(203)는 지도 이미지의 픽셀 정보만큼 한 픽셀 당 가상 광선(62)을 투사하여 특정 객체(70)와 만나는 교점(73)을 찾는다. 거리 정보 계산부(203)는 거리뷰 촬영 위치(61)와 교점(73) 간의 거리를 구함으로써 각 객체까지의 거리 정보를 계산할 수 있다.
요컨대, 도 8을 참조하면 거리 정보 계산부(203)는 2D 지도(402)와 거리뷰 촬영 위치(61)를 이용하여 2D 지도(402)에 표시되는 특정 객체의 거리를 구함으로써 픽셀 정보에 따른 수평 방향의 깊이 정보(80)를 획득할 수 있다.
다시 도 3을 참조하면, 단계(S340)에서 마스크 생성부(204)는 단계(S320)에서 전처리된 거리뷰 이미지에서 특정 객체에 해당되는 영역을 추출하여 객체 마스크를 생성할 수 있다.
도 9는 본 발명의 일실시예에 있어서 거리뷰 이미지를 이용하여 수직 방향의 깊이 정보를 구하는 과정을 설명하기 위한 예시 도면이다.
일례로, 마스크 생성부(204)는 거리뷰 이미지의 수직 방향의 깊이 정보를 나타내는 객체 마스크를 생성하기 위해 딥러닝(deep learning) 기반의 시맨틱 분할(semantic segmentation) 기법을 적용할 수 있다.
도 9를 참조하면, 마스크 생성부(204)는 시맨틱 분할 기법을 통해 거리뷰 이미지(501)에서 건물과 같은 특정 객체에 해당되는 부분만을 추출하여 객체 마스크(901)를 만들 수 있다. 시맨틱 분할 기법은 이미지의 각 픽셀을 분류하는 것으로, CNN(convolution neural network)과 같은 학습 모델을 통해 이미지를 구성하고 있는 각 픽셀을 배경과 객체로 분류하는 방식이다.
다시 도 3을 참조하면, 단계(S350)에서 깊이 정보 생성부(205)는 단계(S330)에서 계산된 거리 정보와 단계(S340)에서 생성된 객체 마스크를 이용하여 거리뷰 이미지 전체의 깊이 정보를 생성할 수 있다.
도 10은 본 발명의 일실시예에 있어서 거리뷰 이미지의 최종 깊이 정보를 구하는 과정을 설명하기 위한 예시 도면이다.
도 10을 참조하면, 깊이 정보 생성부(205)는 수직 방향의 깊이 정보로서 생성된 객체 마스크(901)의 특정 객체에 해당되는 부분에 2D 지도로부터 획득한 거리 정보(수평 방향의 깊이 정보)(80)를 삽입함으로써 이미지 전체의 깊이 정보를 구할 수 있다. 즉, 깊이 정보 생성부(205)는 거리뷰 이미지의 수직 방향의 깊이 정보에 수평 방향의 깊이 정보를 반영하여 거리뷰 이미지의 최종 깊이 정보를 생성할 수 있다.
따라서, 본 발명의 실시예들은 이미 공개되어 있는 지도로서 거리뷰 이미지가 촬영된 지역의 2D 지도를 이용하여 거리뷰 이미지의 정확한 깊이 정보를 구할 수 있다.
이처럼 본 발명의 실시예들에 따르면, 이미 공개되어 있는 2D 지도를 이용하여 거리뷰 이미지의 깊이 정보를 정확하고 정밀하게 구할 수 있다. 더욱이, 본 발명의 실시예들에 따르면, 지도 작성을 위한 별도 전용 장비를 이용하지 않고도 실제 지도를 이용하여 이미지의 깊이 정보를 생성함으로써 실측치에 가까운 결과를 얻을 수 있다. 또한, 본 발명의 실시예들에 따르면, 이미지의 시맨틱 정보와 이미 공개된 2D 지도로부터 거리뷰 이미지의 깊이 정보를 얻을 수 있어 SfM 방식에 비하여 현저히 빠른 처리 속도를 달성할 수 있고 이미지 센서를 이용하는 것에 비해 깊이에 대한 센싱 범위가 길어 실외 지도 작성에 보다 적합한 이점이 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 컴퓨터 시스템에서 실행되는 깊이 정보 생성 방법에 있어서,
    상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,
    상기 깊이 정보 생성 방법은,
    상기 적어도 하나의 프로세서에 의해, 거리뷰 이미지에 대응되는 2D 지도를 이용하여 상기 2D 지도 상의 객체의 거리 정보를 계산하는 단계;
    상기 적어도 하나의 프로세서에 의해, 상기 거리뷰 이미지로부터 상기 객체에 대한 시맨틱(semantic) 정보를 추출하는 단계; 및
    상기 적어도 하나의 프로세서에 의해, 상기 거리 정보와 상기 시맨틱 정보를 이용하여 상기 거리뷰 이미지의 깊이 정보를 생성하는 단계
    를 포함하는 깊이 정보 생성 방법.
  2. 제1항에 있어서,
    상기 계산하는 단계는,
    상기 2D 지도 상에서의 상기 거리뷰 이미지에 포함된 위치 정보를 기준으로 상기 객체까지의 거리를 구하는 것
    을 특징으로 하는 깊이 정보 생성 방법.
  3. 제1항에 있어서,
    상기 계산하는 단계는,
    상기 2D 지도 상에서의 상기 거리뷰 이미지에 포함된 위치 정보를 기준으로 가상 광선(virtual ray)을 투사하여 상기 객체와 만나는 교점을 찾는 단계; 및
    상기 위치 정보에서 상기 교점까지의 거리를 구하는 단계
    를 포함하는 깊이 정보 생성 방법.
  4. 제1항에 있어서,
    상기 추출하는 단계는,
    상기 거리뷰 이미지에서 상기 객체에 해당되는 부분을 추출하여 수직 방향의 깊이 정보로서 객체 마스크를 생성하는 단계
    를 포함하는 깊이 정보 생성 방법.
  5. 제1항에 있어서,
    상기 추출하는 단계는,
    시맨틱 분할(semantic segmentation) 기법을 통해 상기 거리뷰 이미지의 각 픽셀을 배경과 객체로 분류함으로써 상기 시맨틱 정보를 추출하는 것
    을 특징으로 하는 깊이 정보 생성 방법.
  6. 제4항에 있어서,
    상기 생성하는 단계는,
    상기 객체 마스크에 수평 방향의 깊이 정보로서 상기 거리 정보를 삽입함으로써 상기 거리뷰 이미지의 깊이 정보를 생성하는 것
    을 특징으로 하는 깊이 정보 생성 방법.
  7. 제1항에 있어서,
    상기 깊이 정보 생성 방법은,
    상기 적어도 하나의 프로세서에 의해, 지도 서비스를 통해 공개된 데이터로서 상기 거리뷰 이미지와 상기 2D 지도를 획득하는 단계
    를 더 포함하는 깊이 정보 생성 방법.
  8. 제7항에 있어서,
    상기 획득하는 단계는,
    상기 거리뷰 이미지에 포함된 위치 정보를 기초로 상기 거리뷰 이미지가 촬영된 지역의 2D 지도를 획득하는 단계
    를 포함하는 깊이 정보 생성 방법.
  9. 제1항에 있어서,
    상기 깊이 정보 생성 방법은,
    상기 적어도 하나의 프로세서에 의해, 상기 거리뷰 이미지인 구형 파노라마 이미지(spherical panoramic image)를 단위 각도 별로 크로핑(cropping)하여 전처리하는 단계
    를 더 포함하는 깊이 정보 생성 방법.
  10. 제9항에 있어서,
    상기 전처리하는 단계는,
    상기 거리뷰 이미지를 구형 좌표계(spherical coordinate)로 변환하는 단계; 및
    핀-홀 카메라 모델(pin-hole camera model)을 기반으로 상기 구형 좌표계 상의 이미지를 투영(projection)하는 방식을 통해 상기 단위 각도 별 이미지를 획득하는 단계
    를 포함하는 깊이 정보 생성 방법.
  11. 제1항 내지 제10항 중 어느 한 항의 깊이 정보 생성 방법을 상기 컴퓨터 시스템에 실행시키기 위해 비-일시적인 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램.
  12. 컴퓨터 시스템에 있어서,
    메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    거리뷰 이미지에 대응되는 2D 지도를 이용하여 상기 2D 지도 상의 객체의 거리 정보를 계산하는 거리 정보 계산부;
    상기 거리뷰 이미지로부터 상기 객체에 대한 시맨틱 정보를 포함하는 객체 마스크를 생성하는 마스크 생성부; 및
    상기 거리 정보와 상기 객체 마스크를 이용하여 상기 거리뷰 이미지의 깊이 정보를 생성하는 깊이 정보 생성부
    를 포함하는 컴퓨터 시스템.
  13. 제12항에 있어서,
    상기 거리 정보 계산부는,
    상기 2D 지도 상에서의 상기 거리뷰 이미지에 포함된 위치 정보를 기준으로 상기 객체까지의 거리를 구하는 것
    을 특징으로 하는 컴퓨터 시스템.
  14. 제12항에 있어서,
    상기 거리 정보 계산부는,
    상기 2D 지도 상에서의 상기 거리뷰 이미지에 포함된 위치 정보를 기준으로 가상 광선을 투사하여 상기 객체와 만나는 교점을 찾은 후 상기 위치 정보에서 상기 교점까지의 거리를 구하는 것
    을 특징으로 하는 컴퓨터 시스템.
  15. 제12항에 있어서,
    상기 마스크 생성부는,
    상기 거리뷰 이미지에서 상기 객체에 해당되는 부분을 추출하여 수직 방향의 깊이 정보로서 객체 마스크를 생성하는 것
    을 특징으로 하는 컴퓨터 시스템.
  16. 제12항에 있어서,
    상기 마스크 생성부는,
    시맨틱 분할 기법을 통해 상기 거리뷰 이미지의 각 픽셀을 배경과 객체로 분류함으로써 상기 시맨틱 정보를 추출하는 것
    을 특징으로 하는 컴퓨터 시스템.
  17. 제12항에 있어서,
    상기 깊이 정보 생성부는,
    상기 객체 마스크에 수평 방향의 깊이 정보로서 상기 거리 정보를 삽입함으로써 상기 거리뷰 이미지의 깊이 정보를 생성하는 것
    을 특징으로 하는 컴퓨터 시스템.
  18. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    지도 서비스를 통해 공개된 데이터로서 상기 거리뷰 이미지와 상기 2D 지도를 획득하는 데이터 획득부
    를 더 포함하고,
    상기 데이터 획득부는,
    상기 거리뷰 이미지에 포함된 위치 정보를 기초로 상기 거리뷰 이미지가 촬영된 지역의 2D 지도를 획득하는 것
    을 특징으로 하는 컴퓨터 시스템.
  19. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 거리뷰 이미지인 구형 파노라마 이미지를 단위 각도 별로 크로핑하여 전처리하는 이미지 전처리부
    를 더 포함하는 컴퓨터 시스템.
  20. 제19항에 있어서,
    상기 이미지 전처리부는,
    상기 거리뷰 이미지를 구형 좌표계로 변환한 후 핀-홀 카메라 모델(pin-hole camera model)을 기반으로 상기 구형 좌표계 상의 이미지를 투영(projection)하는 방식을 통해 상기 단위 각도 별 이미지를 획득하는 것
    을 특징으로 하는 컴퓨터 시스템.
KR1020190098088A 2019-08-12 2019-08-12 2d 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템 KR102234461B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190098088A KR102234461B1 (ko) 2019-08-12 2019-08-12 2d 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템
US16/989,201 US11482009B2 (en) 2019-08-12 2020-08-10 Method and system for generating depth information of street view image using 2D map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190098088A KR102234461B1 (ko) 2019-08-12 2019-08-12 2d 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20210019221A true KR20210019221A (ko) 2021-02-22
KR102234461B1 KR102234461B1 (ko) 2021-04-01

Family

ID=74568388

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190098088A KR102234461B1 (ko) 2019-08-12 2019-08-12 2d 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템

Country Status (2)

Country Link
US (1) US11482009B2 (ko)
KR (1) KR102234461B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022270683A1 (ko) * 2021-06-23 2022-12-29 주식회사 쓰리아이 깊이 맵 이미지 생성 방법 및 그를 위한 컴퓨팅 장치
KR102600939B1 (ko) * 2022-07-15 2023-11-10 주식회사 브이알크루 비주얼 로컬라이제이션을 위한 데이터를 생성하기 위한 방법 및 장치

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114764890A (zh) * 2020-12-30 2022-07-19 富泰华工业(深圳)有限公司 人行通道环境评估方法、装置及电子设备
CN113139110B (zh) * 2021-04-28 2023-09-22 北京百度网讯科技有限公司 区域特征处理方法、装置、设备、存储介质和程序产品
WO2023038369A1 (en) * 2021-09-10 2023-03-16 Samsung Electronics Co., Ltd. Semantic three-dimensional (3d) building augmentation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312778A (ja) * 2001-04-09 2002-10-25 Be Here Corp モーションパノラマ画像を電子的に配信する方法および装置
KR20190076815A (ko) * 2018-03-27 2019-07-02 한화시스템 주식회사 전자 장치의 이동체 포즈 추정 방법
KR20190089681A (ko) * 2018-01-22 2019-07-31 네이버 주식회사 파노라마 뷰에 대한 3차원 모델을 생성하는 방법 및 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9404764B2 (en) * 2011-12-30 2016-08-02 Here Global B.V. Path side imagery
US10600235B2 (en) * 2012-02-23 2020-03-24 Charles D. Huston System and method for capturing and sharing a location based experience
US9202123B2 (en) * 2012-11-06 2015-12-01 Novatel Inc. Spherical pin-hole model for use with camera lens image data
US10019657B2 (en) * 2015-05-28 2018-07-10 Adobe Systems Incorporated Joint depth estimation and semantic segmentation from a single image
KR101962755B1 (ko) 2016-11-11 2019-03-28 (주)티랩스 3차원 지도 작성을 위한 데이터 수집 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312778A (ja) * 2001-04-09 2002-10-25 Be Here Corp モーションパノラマ画像を電子的に配信する方法および装置
KR20190089681A (ko) * 2018-01-22 2019-07-31 네이버 주식회사 파노라마 뷰에 대한 3차원 모델을 생성하는 방법 및 시스템
KR20190076815A (ko) * 2018-03-27 2019-07-02 한화시스템 주식회사 전자 장치의 이동체 포즈 추정 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022270683A1 (ko) * 2021-06-23 2022-12-29 주식회사 쓰리아이 깊이 맵 이미지 생성 방법 및 그를 위한 컴퓨팅 장치
KR102600939B1 (ko) * 2022-07-15 2023-11-10 주식회사 브이알크루 비주얼 로컬라이제이션을 위한 데이터를 생성하기 위한 방법 및 장치

Also Published As

Publication number Publication date
US11482009B2 (en) 2022-10-25
KR102234461B1 (ko) 2021-04-01
US20210049372A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
KR102234461B1 (ko) 2d 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템
US11632536B2 (en) Method and apparatus for generating three-dimensional (3D) road model
US10962366B2 (en) Visual odometry and pairwise alignment for high definition map creation
CN108362295B (zh) 车辆路径引导设备和方法
US20200401617A1 (en) Visual positioning system
KR102347239B1 (ko) 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템
TW202001786A (zh) 用於更新高度自動化駕駛地圖的系統和方法
KR102092392B1 (ko) 실 공간에서 관심지점 관련 정보를 자동으로 수집 및 업데이트하는 방법 및 시스템
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
KR102096926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
KR102218881B1 (ko) 차량 위치 결정 방법 및 시스템
JP6589636B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP7131994B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
CN112686951A (zh) 用于确定机器人位置的方法、装置、终端及存储介质
KR20210015516A (ko) 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템
KR102106029B1 (ko) 간판 검출 성능 향상을 위한 방법 및 시스템
KR102189926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
US20220230350A1 (en) Position recognition method and system based on visual information processing
KR102150954B1 (ko) 점군 정보 가공 장치 및 방법
KR20230049969A (ko) 글로벌 측위 장치 및 방법
KR102520189B1 (ko) 무인 비행체 또는 항공기에 의해 촬영된 항공 영상에 기반하여 hd 맵을 생성하는 방법 및 시스템
Hettiarachchi Reconstruction of 3D Environments from UAV’s Aerial Video Feeds
KR20240053224A (ko) 건물 형상 정보를 이용하여 3d 지도를 생성하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
JP2019213061A (ja) 情報処理装置、その制御方法及びプログラム。

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)