KR20110033859A - 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체 - Google Patents

부감 화상 생성장치, 부감 화상 생성방법 및 기록매체 Download PDF

Info

Publication number
KR20110033859A
KR20110033859A KR1020117003641A KR20117003641A KR20110033859A KR 20110033859 A KR20110033859 A KR 20110033859A KR 1020117003641 A KR1020117003641 A KR 1020117003641A KR 20117003641 A KR20117003641 A KR 20117003641A KR 20110033859 A KR20110033859 A KR 20110033859A
Authority
KR
South Korea
Prior art keywords
point
point group
height
dimensional
ground
Prior art date
Application number
KR1020117003641A
Other languages
English (en)
Other versions
KR101269981B1 (ko
Inventor
미쓰노부 요시다
마사카즈 미야
요시히로 시마
준이치 타키구치
류지로 쿠로사키
Original Assignee
미쓰비시덴키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 미쓰비시덴키 가부시키가이샤 filed Critical 미쓰비시덴키 가부시키가이샤
Publication of KR20110033859A publication Critical patent/KR20110033859A/ko
Application granted granted Critical
Publication of KR101269981B1 publication Critical patent/KR101269981B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/30Clipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/12Relief maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

수목이나 터널 등의 차폐물에 의한 차폐를 제거한 도로 화상을 얻는 것을 목적으로 한다. 이동체 계측장치(200)가 탑재된 차량으로 대상 지역을 주행하면서, 거리 방위 점 군(291), 카메라 영상(292), GPS 관측 정보(293), 자이로 계측값(294) 및 주행거리계 계측값(295)을 취득한다. 위치 자세 표정장치(300)는 GPS 관측 정보(293), 자이로 계측값(294) 및 주행거리계 계측값(295)에 근거하여 차량의 위치 자세를 표정한다. 포인트 클라우드 생성장치(400)는 카메라 영상(292), 거리 방위 점 군(291) 및 위치 자세 표정값(391)에 근거하여 포인트 클라우드(491)를 생성한다. 점 군 정사 화상 생성장치(100)는 포인트 클라우드(491)로부터 도로면보다 높은 점을 제거하고 도로면에 가까운 점만을 추출하고, 추출한 각 점만을 수평면에 정사 투영하여 점 군 정사 화상(191)을 생성한다. 점 군 정사 화상(191)은 차폐물에 의한 차폐가 제거된 도로면을 표시한다.

Description

부감 화상 생성장치, 부감 화상 생성방법 및 부감 화상 생성 프로그램{BIRD'S-EYE IMAGE FORMING DEVICE, BIRD'S-EYE IMAGE FORMING METHOD, AND BIRD'S-EYE IMAGE FORMING PROGRAM}
본 발명은, 예를 들면, 착색된 레이저 점 군(point cloud)을 사용하여 도로 정사 화상(orthoimage)을 생성하는 부감 화상 생성장치, 부감 화상 생성방법 및 부감 화상 생성 프로그램에 관한 것이다.
레이저 스캐너에 의해 계측된 거리 방위를 표시하는 레이저 점 군으로부터 계측물의 3차원 입체 형상이 복원된다. 입체 형상은 레이저 점이 많을수록 정확해지기 때문에, 방대한 레이저 점이 취득된다.
그런데, 레이저 점 군 중에는 복원 대상 이외의 사물을 계측한 점 군도 포함되기 때문에, 대량의 레이저 점 중에서 복원 대상을 계측한 레이저 점 군을 추출 할 필요가 있다.
종래, 이하의 방법으로 레이저 점 군의 추출이 행해지고 있었다.
(1) 레이저 점 군을 3차원적으로 보고, 육안으로 필요한 점을 추출한다.
(2) 카메라 영상에 레이저 점 군을 중첩 표시하여 대상물의 판별을 보조하고, 육안으로 필요한 점을 추출한다.
방법 (1)에는, 예를 들면, 이하와 같은 과제가 있다.
(A) 추출할 레이저 점을 한 점씩 지정할 필요가 있다.
(B) 추출한 레이저 점 군을 직접, CAD(Computer Aided Design)에서 이용할 수 없다.
방법 (2)에는, 예를 들면, 이하와 같은 과제가 있다.
(A) 카메라의 시야 방향으로 배치되어 표시된 레이저 점 군에서밖에 대상물을 판별할 수 없다.
(B) 적절한 카메라 영상을 선택하는 작업에 노력이 든다.
(C) 어느 장소에 있는 대상물을 판별하고 있는지 파악하기 어렵다.
상기한 방법은, 필요한 점을 한 점씩 육안으로 추출할 필요가 있어, 기본적으로 시간이 걸린다. 자동 인식기술의 개발도 행해지고 있지만, 인식가능한 것이 한정되어 있고, 인식율은 충분하지 않으며, 육안에 의한 정정이 필요하였다.
일본국 특개 2007-218705호 공보
본 발명은, 예를 들면, 취득된 막대한 레이저 점으로부터 불필요한 점을 배제하고, 필요로 하는 레이저 점만을 효율적으로 추출하는 것을 목적으로 한다.
본 발명의 부감 화상 생성장치는, 지상의 각 지점의 3차원 좌표를 나타내는 3차원 점 군을 사용하여 지상의 부감 화상을 생성하는 부감 화상 생성장치로서, 상기 3차원 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 3차원 점 군의 각 점을 CPU(Central Processing Unit)을 사용하여 평면에 투영하여 지상의 부감 화상을 생성하는 3차원 점 군 투영부를 구비한다.
상기 부감 화상 생성장치는, 상기 3차원 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 3차원 점 군으로부터 소정 범위 내의 높이를 나타내는 각 점을 소정 높이 점 군(高点群: height point cloud)으로서 CPU를 사용하여 추출하는 소정 높이 점 군 추출부를 구비하고, 상기 3차원 점 군 투영부는, 상기 소정 높이 점 군 추출부에 의해 상기 3차원 점 군으로부터 추출된 소정 높이 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 소정 높이 점 군의 각 점을 CPU를 사용하여 평면에 투영하여 부감 화상을 생성한다.
상기 부감 화상 생성장치는, 상기 3차원 점 군 투영부에 의해 상기 평면에 투영된 상기 3차원 점 군의 각 점의 점 밀도를 상기 평면을 소정의 크기로 구분한 구역마다 CPU를 사용하여 산출하는 점 밀도 산출부와, 상기 점 밀도 산출부에 의해 산출된 점 밀도에 근거하여 상기 부감 화상으로부터 입설물(立設物: standing feature)이 표시되어 있는 화상 부분을 CPU를 사용하여 특정하는 입설물 특정부와, 상기 입설물 특정부에 의해 특정된 화상 부분을 다른 화상 부분과 구별하여 나타낸 부감 화상을 CPU를 사용하여 생성하는 입설물 구별부를 구비한다.
본 발명에 따르면, 예를 들면, 육안을 필요로 하지 않고 도로면을 표시하는 레이저 점 군(소정 높이 점 군)을 추출하고, 터널이나 수목에 의한 차폐가 제거된 도로의 부감 화상을 생성할 수 있다.
또한 예를 들면, 육안을 필요로 하지 않고 전주 등의 입설물을 표시하는 레이저 점 군을 추출하고, 입설물을 도로면과 구별하여 표시한 부감 화상을 생성할 수 있다.
도 1은 실시형태 1에 있어서의 점 군 정사 화상 생성 시스템(800)의 구성도.
도 2는 실시형태 1에 있어서의 이동체 계측장치(200)의 외관을 도시한 도면.
도 3은 실시형태 1에 있어서의 점 군 정사 화상 생성장치(100)의 하드웨어 자원의 일례를 도시한 도면.
도 4는 실시형태 1에 있어서의 점 군 정사 화상 생성방법을 나타낸 흐름도.
도 5는 이동체 계측장치(200)가 주행한 지역(대상 지역)의 도로도.
도 6은 대상 지역(도 5)의 점 군 정사 화상(191).
도 7은 포인트 클라우드(491)로 나타낸 부감 화상의 일례.
도 8은 포인트 클라우드(491)로 나타낸 부감 화상의 일례.
도 9는 실시형태 2에 있어서의 점 군 정사 화상 생성장치(100)의 구성도.
도 10은 실시형태 2에 있어서의 점 군 정사 화상 생성처리(S140)의 흐름도.
도 11은 지면 높이(139a)로부터의 높이가 50cm 이하인 소정 높이 점 군(129a)이 정사 투영된 대상 지역 b(도 6)의 점 군 정사 화상(191).
도 12는 지면 높이(139a)로부터의 높이가 50cm 이하인 소정 높이 점 군(129a)이 정사 투영된 대상 지역 a(도 6)의 점 군 정사 화상(191).
도 13은 실시형태 3에 있어서의 점 군 정사 화상 생성장치(100)의 구성도.
도 14는 실시형태 3에 있어서의 점 군 정사 화상 생성처리(S140)의 흐름도.
도 15는 지면 높이(139a)로부터의 높이가 50cm 이상인 소정 높이 점 군(129a)이 정사 투영된 대상 지역 b(도 6)의 점 군 정사 화상(191).
도 16은 대상 지역 b의 부분 확대도.
도 17은 지면 높이(139a)로부터의 높이가 50cm 이상인 소정 높이 점 군(129a)이 정사 투영된 대상 지역 a(도 6)의 점 군 정사 화상(191).
도 18은 대상 지역 a의 부분 확대도.
도 19는 실시형태 4(실시예 1)에 있어서의 지면 높이(139a)의 특정 방법을 도시한 도면.
도 20은 실시형태 4(실시예 2)에 있어서의 지면 높이(139a)의 특정 방법을 도시한 도면.
도 21은 실시형태 4(실시예 2)에 있어서의 연석(緣石) 점 군의 특정 방법을 도시한 도면.
도 22는 도로와 도로 좌우의 연석을 나타낸 포인트 클라우드(491)의 화상이 표시된 화면을 도시한 도면.
도 23은 실시형태 4(실시예 2)에 있어서의 연석 점 군 특정방법을 나타낸 흐름도.
도 24는 실시형태 4(실시예 2)에 있어서의 연석 점 군 특정방법에 의해 특정된 연석 점 군을 도시한 도면.
도 25는 실시형태 4(실시예 3(1))에 있어서의 지면 높이(139a)의 특정방법을 도시한 도면.
도 26은 실시형태 4(실시예 3(2))에 있어서의 지면 높이(139a)의 특정방법을 도시한 도면.
도 27은 실시형태 5에 있어서의 지도 데이터 생성 시스템(801)의 구성도.
실시형태 1
실시형태 1에서는, 지상의 각 지점의 3차원 좌표를 나타내는 3차원 점 군을 사용하여 지상의 부감 화상을 생성하는 부감 화상 생성장치에 대해 설명한다.
도 1은, 실시형태 1에 있어서의 점 군 정사 화상 생성 시스템(800)의 구성도다.
실시형태 1에 있어서의 점 군 정사 화상 생성 시스템(800)의 구성에 대하여, 도 1에 근거하여 이하에서 설명한다.
점 군 정사 화상 생성 시스템(800)은, 이동체 계측장치(200), 위치 자세 표정(標定: localizing)장치(300), 포인트 클라우드 생성장치(400) 및 점 군 정사 화상 생성장치(100)를 갖는다.
이동체 계측장치(200)는, 레이저 스캐너(210), 카메라(220), GPS 수신기(230), 자이로(240) 및 주행거리계(odometer)(250)를 구비한 이동체(예를 들면, 차량, 비행기)이다.
이동체 계측장치(200)는, 지상(또는, 상공)을 이동하면서, 3차원 점 군의 기초가 되는 각종의 계측 데이터를 취득한다.
레이저 스캐너(210)는, 각 지점을 향해 레이저를 조사하여, 각 지점에 위치하는 지상물에 반사하여 되돌아온 레이저를 관측한다. 그리고, 레이저 스캐너(210)는, 레이저의 조사 방향에 근거하여 지상물이 위치하는 방위를 계측하는 동시에, 레이저의 조사로부터 반사 레이저의 관측까지의 시간에 근거하여 지상물까지의 거리를 계측한다.
레이저 스캐너(210)는, 레이저 레이다, 레이저 레인지파인더(LRF)로도 불린다.
이하, 레이저 스캐너(210)에 의해 계측된 각 지점의 지상물까지의 거리 및 방위와 레이저 조사 방향을 나타내는 점 군 데이터를 「거리 방위 점 군(291)」이라고 한다.
카메라(220)는, 레이저 스캐너(210)에 의한 거리 방위 점 군(291)의 계측과 동시에, 레이저 스캐너(210)의 계측 지점(레이저 스캐너(210)에 의한 레이저 관측시에 이동체 계측장치(200)가 위치하고 있는 지점)으로부터 지상물을 촬영한다.
이하, 카메라(220)의 촬영에 의해 얻어진 화상 데이터를 카메라 영상(292)이라고 한다.
GPS 수신기(230)는, 레이저 스캐너(210)에 의한 거리 방위 점 군(291)의 계측과 동시에, 복수의 GPS 위성(GPS: Global Positioning System)으로부터 발신되는 측위 신호를 관측한다. 그리고, GPS 수신기(230)는, 측위 신호가 표시하는 항법 메시지, 측위 신호를 반송하는 반송파의 위상, 측위 신호의 반송 시간에 근거하여 산출되는 GPS 수신기(230)로부터 GPS 위성까지의 거리를 나타내는 의사 거리, 의사 거리에 근거하여 산출되는 측위 결과 등의 정보를 취득한다.
이하, GPS 수신기(230)에 의해 얻어진 정보를 「GPS 관측 정보(293)」라고 한다.
자이로(240)는, 레이저 스캐너(210)에 의한 거리 방위 점 군(291)의 계측과 동시에, 이동체 계측장치(200)의 3축 방향(롤, 피치, 요(yaw))의 각속도를 계측한다.
이하, 자이로(240)에 의해 계측된 3축 방향의 각속도를 「자이로 계측값(294)」이라고 한다.
주행거리계(250)는, 레이저 스캐너(210)에 의한 거리 방위 점 군(291)의 계측과 동시에, 이동체 계측장치(200)의 속도 변화량을 계측한다.
이하, 주행거리계(250)에 의해 계측된 속도 변화량을 「주행거리계 계측값(295)」이라고 한다.
계측장치 기억부(290)는, 거리 방위 점 군(291), 카메라 영상(292), GPS 관측 정보(293), 자이로 계측값(294) 및 주행거리계 계측값(295)을 기억한다.
거리 방위 점 군(291), 카메라 영상(292), GPS 관측 정보(293), 자이로 계측값(294) 및 주행거리계 계측값(295)은 각각 계측 시각을 나타내고, 계측 시각으로 서로 대응된다.
도 2는, 실시형태 1에 있어서의 이동체 계측장치(200)의 외관을 도시한 도면이다.
예를 들면, 이동체 계측장치(200)는 도 2에 나타낸 것과 같이 차량(202)으로 구성된다.
레이저 스캐너(210), 카메라(220), GPS 수신기(230) 및 자이로(240)는, 차량(202)의 천장부에 설치된 천판(201)에 고정하여 설치된다. 주행거리계(250)는 차량(202)에 설치된다. 레이저 스캐너(210)와 카메라(220)의 위치는 예로서, 차량(202)의 전방에 설치해도 차량(202)의 후방에 설치해도 상관없다.
차량(202)은, 계측 대상 지역의 도로를 주행한다.
레이저 스캐너(210)는, 차량(202)의 후방에 설치되고, 차량(202)의 폭 방향(X축 방향)으로 240°정도 흔들리면서, 차량(202)의 후방 및 차량(202)의 측방을 향해 레이저를 조사한다. 그리고, 레이저 스캐너(210)는, 차량(202)의 후방 및 차량(202)의 측방에 위치하는 지상물에 반사하여 되돌아온 레이저를 관측하여, 계측 대상 지역에 있는 지상물을 계측한 거리 방위 점 군(291)을 취득한다.
카메라(220)는, 차량(202)의 전방에 설치되고, 차량(202)의 진행 방향(z축 방향)의 촬영을 반복하여, 계측 대상 지역의 카메라 영상(292)을 취득한다.
GPS 수신기(230)는, 천판(201)의 3개소에 설치되고, 각각에서 GPS 위성으로부터 수신한 측위 신호로부터 GPS 관측 정보(293)를 취득한다.
자이로(240)는, 차량(202)의 x, y, z축의 각속도를 계측하여, 자이로 계측값(294)을 취득한다.
주행거리계(250)는, 타이어의 회전수를 계수하여 이동체 계측장치(200)의 속도 변화량을 계측하여, 주행거리계 계측값(295)을 취득한다.
도 2에 있어서, 점 O는 이동체 계측장치(200)의 좌표 중심(이하, 항측(航測) 기준점이라고 한다)을 나타내고, 이동체 계측장치(200)의 좌표란 점 O의 좌표를 의미한다. 레이저 스캐너(210), 카메라(220), GPS 수신기(230) 및 자이로(240)로부터 점 O까지의 변위량(이하, 오프셋이라고 한다)은 미리 계측되고, 레이저 스캐너(210), 카메라(220), GPS 수신기(230) 및 자이로(240)의 좌표는 점 O의 좌표에 오프셋을 가산하여 구할 수 있다.
이하, 레이저 스캐너(210), 카메라(220), GPS 수신기(230) 및 자이로(240)의 좌표는 점 O와 일치하고, 이동체 계측장치(200)의 좌표와 같은 것으로 하여 설명한다.
또한, 카메라(220)의 시선 방향은 이동체 계측장치(200)의 자세각과 같은 것으로 한다.
도 1에 있어서, 위치 자세 표정장치(300)는, 위치 자세 표정부(310) 및 표정장치 기억부(390)를 구비하고, 이동체 계측장치(200)의 계측시의 위치 자세를 산출한다.
위치 자세 표정부(310)는, 이동체 계측장치(200)에 의해 취득된 GPS 관측 정보(293), 자이로 계측값(294) 및 주행거리계 계측값(295)에 근거하여, 이동체 계측장치(200)의 계측시의 위치(위도, 경도, 높이[고도])(East, North, Up) 및 자세각(롤 각, 피치 각, 요 각)을 CPU(Central Processing Unit)을 사용하여 산출한다.
예를 들면, 위치 자세 표정부(310)는, GPS 관측 정보(293)에 포함되는 측위 결과를 이동체 계측장치(200)의 위치로 한다.
또한 예를 들면, 위치 자세 표정부(310)는, GPS 관측 정보(293)에 포함되는 반송파의 위상에 근거하여 의사 거리를 산출하고, 산출한 의사 거리에 근거하여 이동체 계측장치(200)의 위치를 산출한다.
또한 예를 들면, 위치 자세 표정부(310)는, 자이로 계측값(294) 및 주행거리계 계측값(295)에 근거하여, 데드 레커닝(dead reckoning)에 의해 이동체 계측장치(200)의 위치 및 자세각을 산출한다. 데드 레커닝이란, 자세각의 각속도와 이동 속도를 적분하여 과거의 어느 시점으로부터의 변화량을 구하고, 과거의 위치 및 자세각에 변화량을 가산하여 현재의 위치 및 자세각을 구하는 방법이다.
이하, 위치 자세 표정부(310)에 의해 산출된 이동체 계측장치(200)의 위치 및 자세각을 「위치 자세 표정값(391)」이라고 한다. 위치 자세 표정값(391)은, 각 시각에 있어서 이동체 계측장치(200)의 위치 및 자세각을 나타낸다.
표정장치 기억부(390)는, 위치 자세 표정값(391)을 기억한다.
포인트 클라우드 생성장치(400)는, 3차원 점 군 생성부(410), 포인트 클라우드 생성부(420) 및 포인트 클라우드 생성장치 기억부(490)를 구비하고, 지상의 각 지점의 3차원 좌표 및 색을 표시하는 3차원 점 군을 생성한다.
3차원 점 군 생성부(410)는, 이동체 계측장치(200)에 의해 취득된 거리 방위 점 군(291) 및 위치 자세 표정장치(300)에 의해 산출된 위치 자세 표정값(391)에 근거하여, 3차원 점 군(419a)을 CPU를 사용하여 생성한다. 이때, 3차원 점 군 생성부(410)는, 거리 방위 점 군(291)의 각 점에 대하여, 각 점의 계측 시각에 있어서 이동체 계측장치(200)의 위치 자세를 위치 자세 표정값(391)으로부터 추출하고, 추출한 위치 자세로부터 각 점이 표시하는 거리 방위만큼 떨어진 지점의 3차원 좌표를 산출하고, 거리 방위 점 군(291)의 각 점의 3차원 좌표를 표시하는 3차원 점 군(419a)을 생성한다.
포인트 클라우드 생성부(420)는, 3차원 점 군 생성부(410)에 의해 생성된 3차원 점 군(419a)과 이동체 계측장치(200)에 의해 취득된 카메라 영상(292)에 근거하여, 포인트 클라우드(491)를 CPU를 사용하여 생성한다. 포인트 클라우드(491)는, 각 점이 3차원 좌표와 함께 색을 표시하여, 착색된 레이저 점 군으로도 불린다.
이때, 포인트 클라우드 생성부(420)는, 촬영 지점으로부터 촬상 방향(카메라(220)의 시선 방향)으로 초점거리만큼 떨어진 지점에서 촬상 방향과 직교하는 평면을 카메라(220)의 촬상 평면으로 하여 산출한다. 촬상 평면은 카메라 영상(292)의 평면과 같다. 그리고, 포인트 클라우드 생성부(420)는, 3차원 점 군(419a)의 각 점이 나타내는 3차원 좌표에 근거하여 3차원 점 군(419a)의 각 점을 카메라 영상(292)(촬상 평면)에 투영하고, 카메라 영상(292) 내부의 투영된 위치의 화소의 색을 해당 점의 색으로 한다.
포인트 클라우드 생성장치 기억부(490)는 포인트 클라우드(491)를 기억한다.
점 군 정사 화상 생성장치(100)(부감 화상 생성장치의 일례)는, 포인트 클라우드 투영부(110) 및 화상 생성장치 기억부(190)를 구비하고, 대상 지역의 부감 화상을 포인트 클라우드(491)를 사용하여 생성한다.
포인트 클라우드 투영부(110)는, 포인트 클라우드 생성장치(400)에 의해 생성된 포인트 클라우드(491)를 사용하여, 대상 지역의 부감 화상을 CPU를 사용하여 생성한다. 이때, 포인트 클라우드 투영부(110)는, 대상 지역의 위도·경도에 대응하는 수평면을 산출하고, 산출한 수평면에 포인트 클라우드(491)의 각 점을 각각의 3차원 좌표에 근거하여 정사 투영한다. 포인트 클라우드 투영부(110)는, 정사 투영으로서, 포인트 클라우드(491)의 각 점의 3차원 좌표(x, y, z)를 「z(높이)=0」으로서 취급하여, 2차원 좌표 (x, y)에 대응하는 수평면 내의 부분에 각 점을 배치한다.
예를 들면, 포인트 클라우드 투영부(110)는, 대상 지역 상공의 소정의 시점으로부터 바로 아래 방향으로 카메라 촬영한 것으로 가정하여 촬상 평면을 산출하고, 산출한 촬상 평면에 포인트 클라우드(491)의 각 점을 정사 투영한다. 소정의 시점은 계측 지역의 중심의 위도·경도와 소정의 높이를 3차원 좌표로 하고, 포인트 클라우드(491)의 각 점은 위도·경도가 일치하는 촬상 평면 내의 부분에 투영된다.
포인트 클라우드(491)의 각 점이 정사 투영된 수평면은, 계측 지역을 상공으로부터 수직 방향으로 내려다 본 화상을 나타낸다.
이하, 포인트 클라우드(491)의 각 점이 정사 투영된 수평면에 표시되는 Bitmap 화상을 「점 군 정사 화상(191)(부감 화상의 일례)」이라고 한다.
단, 포인트 클라우드(491)의 각 점이 정사 투영되는 평면은, 수평면에 한정되지 않고, 수평면에 대하여 경사진 평면이어도 된다. 이 경우, 포인트 클라우드(491)의 각 점이 정사 투영된 평면은, 계측 지역을 상공으로부터 경사 방향으로 내려다본 화상(부감 화상의 일례)을 나타낸다.
또한, 포인트 클라우드 투영부(110)에 의한 포인트 클라우드(491)의 투영은 정사 투영에 한정되지 않고, 예를 들면, 중심 투영이라도 상관없다.
도 3은, 실시형태 1에 있어서의 점 군 정사 화상 생성장치(100)의 하드웨어 자원의 일례를 도시한 도면이다.
도 3에 있어서, 점 군 정사 화상 생성장치(100)는, 프로그램을 실행하는 CPU(911)(Central·Processing·Unit, 중앙처리장치, 처리장치, 연산장치, 마이크로세서, 마이크로컴퓨터, 프로세서라고도 한다)을 구비하고 있다. CPU(911)은, 버스(912)를 거쳐 ROM(913), RAM(914), 통신 보드(915), 표시장치(901), 키보드(902), 마우스(903), FDD(904)(Flexible·Disk·Drive), CDD(905)(콤팩 디스크 장치), 프린터 장치(906), 스캐너 장치(907), 자기 디스크 장치(920)와 접속되어, 이들 하드웨어 디바이스를 제어한다. 자기 디스크 장치(920) 대신에, 광 디스크 장치, 메모리 카드 판독기록장치 등의 기억장치이어도 된다.
RAM(914)은, 휘발성 메모리의 일례이다. ROM(913), FDD(904), CDD(905), 자기 디스크 장치(920)의 기억매체는, 불휘발성 메모리의 일례이다. 이들은, 기억기기, 기억장치 혹은 기억부의 일례이다.
통신 보드(915), 키보드(902), 스캐너 장치(907), FDD(904) 등은, 입력기기, 입력장치 혹은 입력부의 일례이다.
또한, 통신 보드(915), 표시장치(901), 프린터 장치(906) 등은, 출력기기, 출력장치 혹은 출력부의 일례이다.
통신 보드(915)는, 유선 또는 무선으로, LAN(Local Area Network), 인터넷, ISDN 등의 WAN(WAN), 전화 회선 등의 통신망에 접속되어 있다.
자기 디스크 장치(920)에는, OS(921)(오퍼레이팅 시스템), 윈도우 시스템(922), 프로그램 군(923), 파일 군(924)이 기억되어 있다. 프로그램 군(923)의 프로그램은, CPU(911), OS(921), 윈도우 시스템(922)에 의해 실행된다.
상기 프로그램 군(923)에는, 실시형태의 설명에 있어서 「∼부」로서 설명하는 기능을 실행하는 프로그램이 기억되어 있다. 프로그램은, CPU(911)에 의해 판독되어 실행된다.
파일 군(924)에는, 실시형태의 설명에 있어서, 「∼부」의 기능을 실행했을 때의 「∼의 판정 결과」, 「∼의 계산 결과」, 「∼의 처리 결과 」 등의 결과 데이터, 「∼부」의 기능을 실행하는 프로그램 사이에서 교환할 데이터, 그 밖의 정보와 데이터와 신호 값과 변수값과 파라미터가, 「∼파일」이나 「∼데이터베이스」의 각 항목으로서 기억되어 있다.
「∼파일」과 「∼데이터베이스」는, 디스크나 메모리 등의 기록매체에 기억된다. 디스크나 메모리 등의 기억매체에 기억된 정보와 데이터와 신호 값과 변수값과 파라미터는, 판독기록회로를 거쳐 CPU(911)에 의해 메인 메모리나 캐시 메모리에 판독되어, 추출·검색·참조·비교·연산·계산·처리·출력·인쇄·표시 등의 CPU의 동작에 사용된다. 추출·검색·참조·비교·연산·계산·처리·출력·인쇄·표시·추출의 CPU의 동작의 동안에, 정보와 데이터와 신호 값과 변수값과 파라미터는, 메인 메모리나 캐시 메모리나 버퍼 메모리에 일시적으로 기억된다.
또한, 실시형태의 설명에 있어서 설명하는 흐름도의 화살표의 부분은 주로 데이터나 신호의 입출력을 나타내고, 데이터나 신호 값은, RAM(914)의 메모리, FDD(904)의 플렉시블 디스크, CDD(905)의 콤팩 디스크, 자기 디스크 장치(920)의 자기 디스크, 기타 광 디스크, 미니 디스크, DVD(Digital·Versatile·Disc) 등의 기록매체에 기록된다. 또한, 데이터나 신호 값은, 버스(912)나 신호선이나 케이블 기타의 전송매체에 의해 온라인 전송된다.
또한, 실시형태의 설명에 있어서 「∼부」로서 설명하는 것은, 「∼회로」, 「∼장치」, 「∼기기」, 「수단」이어도 되고, 또한, 「∼스텝」, 「∼절차」, 「∼처리」이어도 된다. 즉, 「∼부」로서 설명하는 것은, ROM(913)에 기억된 펌웨어로 실현되어 있어도 상관없다. 또는, 소프트웨어만, 또는, 소자·디바이스·기판·배선 등의 하드웨어만, 또는, 소프트웨어와 하드웨어의 조합, 더구나, 펌웨어와의 조합으로 실시되어도 상관없다. 펌웨어와 소프트웨어는, 프로그램으로서, 자기 디스크, 플렉시블 디스크, 광 디스크, 콤팩 디스크, 미니 디스크, DVD 등의 기록매체에 기억된다. 프로그램은 CPU(911)에 의해 판독되어, CPU(911)에 의해 실행된다. 즉, 프로그램은, 「∼부」로서 컴퓨터를 기능시키는 것이다. 또는, 「∼부」의 절차나 방법을 컴퓨터에 실행시키는 것이다.
이동체 계측장치(200), 위치 자세 표정장치(300) 및 포인트 클라우드 생성장치(400)도 점 군 정사 화상 생성장치(100)와 마찬가지로, CPU나 메모리를 구비하고, 「∼부」로서 설명하는 기능을 실행한다.
도 4는, 실시형태 1에 있어서의 점 군 정사 화상 생성방법을 나타낸 흐름도이다.
실시형태 1에 있어서의 점 군 정사 화상 생성 시스템(800)의 점 군 정사 화상 생성방법에 대하여, 도 4에 근거하여 이하에서 설명한다.
이동체 계측장치(200), 위치 자세 표정장치(300), 포인트 클라우드 생성장치(400), 점 군 정사 화상 생성장치(100) 및 각각의 「∼부」는, 이하에서 설명하는 처리를 CPU를 사용하여 실행한다.
<S110: 거리 방위 점 군 계측처리>
우선, 이동체 계측장치(200)의 차량(202)으로 대상 지역을 주행한다.
대상 지역의 주행중, 이동체 계측장치(200)에 구비되는 레이저 스캐너(210), 카메라(220), GPS 수신기(230), 자이로(240) 및 주행거리계(250)는, 각각 계측을 행하여, 거리 방위 점 군(291), 카메라 영상(292), GPS 관측 정보(293), 자이로 계측값(294) 및 주행거리계 계측값(295)을 취득한다.
<S120: 위치 자세 표정처리>
다음에, 위치 자세 표정장치(300)의 위치 자세 표정부(310)는, S110에서 취득된 GPS 관측 정보(293), 자이로 계측값(294) 및 주행거리계 계측값(295)에 근거하여, 위치 자세 표정값(391)을 산출한다.
위치 자세 표정값(391)은, 대상 지역을 주행했을 때의 이동체 계측장치(200)의 각 시각의 3차원 좌표와 3차원 자세각을 나타낸다.
<S130: 포인트 클라우드 생성처리>
다음에, 포인트 클라우드 생성장치(400)의 3차원 점 군 생성부(410)는, S110에서 취득된 거리 방위 점 군(291)과 S120에서 산출된 위치 자세 표정값(391)에 근거하여 3차원 점 군(419a)을 생성한다. 그리고, 포인트 클라우드 생성장치(400)의 포인트 클라우드 생성부(420)는, 3차원 점 군(419a)과 S110에서 취득된 카메라 영상(292)에 근거하여 포인트 클라우드(491)를 생성한다.
3차원 점 군(419a)은, 거리 방위 점 군(291)의 각 점의 3차원 좌표를 나타낸다. 3차원 점 군(419a)의 각 점은 거리 방위 점 군(291)의 각 점에 대응한다.
3차원 점 군 생성부(410)는, 거리 방위 점 군(291)의 각 점의 계측 시각에 있어서의 이동체 계측장치(200)의 위치 자세를 위치 자세 표정값(391)으로부터 추출하고, 추출한 위치 자세로부터 각 점이 나타내는 거리 방위만큼 떨어진 지점의 3차원 좌표를 각 점의 3차원 좌표로서 산출한다.
포인트 클라우드(491)는, 3차원 점 군(419a)의 각 점의 3차원 좌표 및 색을 나타낸다. 포인트 클라우드(491)의 각 점은 3차원 점 군(419a) 및 거리 방위 점 군(291)의 각 점에 대응한다.
포인트 클라우드 생성부(420)는, 3차원 점 군(419a)의 각 점을 각각의 3차원 좌표에 근거하여 카메라 영상(292)에 투영하여, 투영처의 화소의 색을 각 점의 색으로 한다.
단, 포인트 클라우드(491)는, 포인트 클라우드 생성부(420)에 의해 착색되지 않아도 상관없다. 또한, 포인트 클라우드(491)는, 관측된 레이저의 반사 휘도에 대응하는 흑백 정보(그레이스케일)를 표시해도 된다. 예를 들면, 포인트 클라우드 생성부(420)는, 레이저의 반사 휘도가 높을수록 희고, 레이저의 반사 휘도가 낮을수록 검은 색을 포인트 클라우드(491)의 각 점에 설정한다.
<S140:점 군 정사 화상 생성처리>
그리고, 점 군 정사 화상 생성장치(100)의 포인트 클라우드 투영부(110)는, S130에서 생성된 포인트 클라우드(491)를 사용하여 점 군 정사 화상(191)을 생성한다.
점 군 정사 화상(191)은, 대상 지역을 상공으로부터 수직 방향으로 내려다 본 화상을 나타낸다.
포인트 클라우드 투영부(110)는, 대상 지역의 위도·경도에 대응하는 수평면에 포인트 클라우드(491)의 각 점을 정사 투영한 화상을 대상 지역의 점 군 정사 화상(191)으로 한다.
단, 포인트 클라우드(491)의 각 점이 정사 투영되는 평면은, 수평면에 한정되지 않고, 수평면에 대하여 경사진 평면이어도 된다.
또한, 포인트 클라우드 투영부(110)에 의한 포인트 클라우드(491)의 투영은 정사 투영에 한정되지 않고, 예를 들면, 중심 투영이어도 상관없다.
이하에, 점 군 정사 화상 생성방법(S110∼S140)에 의해 생성되는 점 군 정사 화상(191)의 일례를 나타낸다.
도 5는, 이동체 계측장치(200)가 주행한 지역(대상 지역)의 도로도를 나타낸 것이다.
예를 들면, 거리 방위 점 군 계측처리(S110)에 있어서, 이동체 계측장치(200)기 도 5에 나타낸 지역을 주행하면서 계측을 행하여, 거리 방위 점 군(291), 카메라 영상(292), GPS 관측 정보(293), 자이로 계측값(294) 및 주행거리계 계측값(295)을 취득한 것으로 한다.
도 6은, 대상 지역(도 5)의 점 군 정사 화상(191)을 나타낸 것이다.
점 군 정사 화상 생성처리(S140)에 있어서, 포인트 클라우드 투영부(110)가 포인트 클라우드(491)를 정사 투영함으로써, 도 6에 나타낸 것과 같은 점 군 정사 화상(191)이 얻어진다.
도 6에 나타낸 것과 같이, 점 군 정사 화상(191)은, 도 5에 나타낸 도로도와 일치하고 있다. 점 군 정사 화상(191)은, 이동체 계측장치(200)의 계측 정밀도와 위치 자세 표정장치(300)의 위치 자세 표정 정밀도에 대응하여, 대상 지역의 도로를 높은 정밀도로 표시할 수 있다.
도 7, 도 8은, 포인트 클라우드(491)로 표시된 부감 화상의 일례이며, 각각 다른 교차점 부분을 확대한 화상이다.
점 군 정사 화상 생성처리(S140)에 있어서, 수평면에 대하여 경사진 평면에 포인트 클라우드(491)가 투영된 경우(또는, 점 군 정사 화상(191)이 화상처리에 의해 수평축에 대하여 회전하여 표시된 경우), 도 7과 도 8에 나타낸 것과 같은 부감 화상이 얻어진다.
도 7과 도 8에 나타낸 것과 같이, 포인트 클라우드(491)의 투영에 의해 얻어지는 부감 화상은, 교차점, 주택, 주차 자동차, 횡단보도 등의 각종 지상물을 표시할 수 있다. 부감 화상에 표시되는 각 지상물은, 위치, 크기 등이, 이동체 계측장치(200)의 계측 정밀도와 위치 자세 표정장치(300)의 위치 자세 표정 정밀도에 대응한 높은 정밀도로 표시된다.
점 군 정사 화상 생성장치(100)는, 포인트 클라우드(491)를 평면에 투영함으로써, 실제로는 카메라 촬영되지 않고 있는 각도(수직 아래쪽, 비스듬한 아래쪽 등)로부터 본 대상 지역을 높은 정밀도로 표시하는 화상(점 군 정사 화상(191), 부감 화상 등)을 얻을 수 있다.
실시형태 1에서는, 이하와 같은 점 군 정사 화상 생성장치(100)에 대해 설명하였다.
점 군 정사 화상 생성장치(100)는, 이동체 계측장치(200)에 의해 취득된 레이저 점 군(거리 방위 점 군(291))을 이용하여, 표지, 백선(白線), 노면 마크, 맨홀, 연석, 전주, 폴(pole), 가로등, 전선, 벽 등의 지상물을 정밀도 좋게 검출한다.
포인트 클라우드(491)는 1점마다 3차원 위치 정보(3차원 좌표)를 갖고 있다. 그 때문에, 점 군 정사 화상 생성장치(100)는, 포인트 클라우드(491)를 늘어놓아 임의의 방향에서 바라 본 화상을 작성할 수 있다. 따라서, 점 군 정사 화상 생성장치(100)는, 포인트 클라우드(491)를 늘어놓아 바로 위로부터 보는 것에 의해, 항공사진의 정사 화상과 동등한 점 군 정사 화상(191)을 작성할 수 있다. 또한, 점 군 정사 화상(191)은, 차량으로부터 촬상된 카메라 영상을 사용하여 작성되는 정사 화상에 비해 왜곡이 적고, 정밀도가 높고, 시야각이 넓다.
점 군 정사 화상(191)에는, 백선, 연석, 벽면 등의 지상물이 명확하게 표시된다. 이 때문에, 점 군 정사 화상(191)은, 도로도의 작성에 이용할 수 있다. 예를 들면, CAD(Computer Aided Design)의 배경에 점 군 정사 화상(191)을 부착하고, 점 군 정사 화상(191)에 표시되는 각 지상물을 선으로 덧그려 트레이스함으로써, 현재상황의 도로도를 고속으로 작성할 수 있다. 더구나, 화상처리에 의해 점 군 정사 화상(191)으로부터 각 지상물을 추출하여, 도로도를 자동 작성할 수도 있다.
특허문헌 1(일본국 특개 2007-218705호 공보)에는, 계측 대차에서 취득된 각종의 계측 데이터에 근거하여, 계측 대차의 위치 자세를 산출하고(특허문헌 1의 S101), 노면 형상 모델(3차원 점 군)을 생성(특허문헌 1의 S106)하는 방법이 개시되어 있다. 또한, 특허문헌 1에는, 노면 형상 모델(3차원 점 군)을 카메라 영상에 투영하는 방법(특허문헌 1의 S107)이 개시되어 있다.
이동체 계측장치(200)는 특허문헌 1의 계측 대차에 해당하고, 위치 자세 표정장치(300)는 특허문헌 1의 차량 위치 자세(3축) 연산부에 해당하고, 포인트 클라우드 생성장치(400)는 특허문헌 1의 노면 형상 모델 생성부에 해당한다.
실시형태 2
실시형태 2에서는, 도로가 수목이나 터널 등에 의해 차폐되지 않고 눈에 보이는 점 군 정사 화상(191)을 생성하는 형태에 대해 설명한다.
이하, 실시형태 1과 다른 사항에 대하여 주로 설명하고, 설명을 생략하는 사항에 대해서는 실시형태 1과 같은 것으로 한다.
도 9는, 실시형태 2에 있어서의 점 군 정사 화상 생성장치(100)의 구성도다.
실시형태 2에 있어서의 점 군 정사 화상 생성장치(100)의 구성에 대하여, 도 9에 근거하여 이하에서 설명한다.
점 군 정사 화상 생성장치(100)(부감 화상 생성장치의 일례)는, 포인트 클라우드 투영부(110), 소정 높이 점 군 추출부(120), 지면 높이 특정부(130), 점 군 정사 화상 표시부(140), 카메라 영상 표시부(150) 및 화상 생성장치 기억부(190)를 구비한다.
지면 높이 특정부(130)는, 포인트 클라우드 생성장치(400)에 의해 생성된 포인트 클라우드(491)(3차원 점 군의 일례)의 각 점이 표시하는 3차원 좌표의 높이(고도)에 근거하여 지면 높이(139a)를 CPU를 사용하여 특정한다.
소정 높이 점 군 추출부(120)는, 포인트 클라우드 생성장치(400)에 의해 생성된 포인트 클라우드(491)(3차원 점 군의 일례)의 각 점이 표시하는 3차원 좌표에 근거하여 포인트 클라우드(491)로부터 소정 범위 내의 높이를 나타내는 각 점을 추출한다.
특히, 소정 높이 점 군 추출부(120)는, 지면 높이 특정부(130)에 의해 특정된 지면 높이(139a)에 근거하여, 지면으로부터의 높이가 소정의 높이 이하인 각 점을 포인트 클라우드(491)로부터 추출한다.
이하, 소정 높이 점 군 추출부(120)에 의해 포인트 클라우드(491)로부터 추출된 각 점을 소정 높이 점 군(129a)이라고 한다.
포인트 클라우드 투영부(110)(3차원 점 군 투영부의 일례)는, 소정 높이 점 군 추출부(120)에 의해 포인트 클라우드(491)로부터 추출된 소정 높이 점 군(129a)의 각 점이 표시하는 3차원 좌표에 근거하여, 소정 높이 점 군(129a)의 각 점을 CPU를 사용하여 평면에 투영하여 점 군 정사 화상(191)(부감 화상의 일례)을 생성한다.
점 군 정사 화상 표시부(140)(부감 화상 표시부의 일례)는, 포인트 클라우드 투영부(110)에 의해 생성된 점 군 정사 화상(191)을 표시장치(901)에 표시한다.
카메라 영상 표시부(150)는, 점 군 정사 화상 표시부(140)에 의해 표시된 점 군 정사 화상(191) 중에서 지정된 화상 부분에 투영된 점을 CPU를 사용하여 특정하고, 특정한 점이 계측된 계측 지점에서 촬영된 카메라 영상(292)을 표시장치(901)에 표시한다.
화상 생성장치 기억부(190)는, 이동체 계측장치(200)에 의해 취득된 카메라 영상(292) 및 포인트 클라우드 투영부(110)에 의해 생성된 점 군 정사 화상(191)을 기억한다.
도 10은, 실시형태 2에 있어서의 점 군 정사 화상 생성처리(S140)의 흐름도이다.
실시형태 2에 있어서의 점 군 정사 화상 생성처리(S140)의 흐름에 대하여, 도 10에 근거하여 이하에서 설명한다.
점 군 정사 화상 생성장치(100)의 각 「∼부」는, 이하에서 설명하는 처리를 CPU를 사용하여 실행한다.
<S141A: 지면 높이 특정처리>
우선, 지면 높이 특정부(130)는, 포인트 클라우드(491)의 각 점이 표시하는 3차원 좌표의 높이에 근거하여 지면 높이(139a)를 특정한다.
예를 들면, 지면 높이 특정부(130)는, 어떤 구역의 지면 높이(139a)를 특정하는 경우, 그 구역 내의 위도·경도를 나타내는 각 점으로부터 높이가 가장 낮은 점을 추출하고, 추출한 점이 나타내는 높이를 그 구역의 지면 높이(139a)로 한다.
지면 높이(139a)의 특정방법의 상세에 대하여는, 실시형태 4에서 설명한다.
<S142A: 소정 높이 점 군 추출처리>
다음에, 소정 높이 점 군 추출부(120)는, S141A에 있어서 특정된 지면 높이(139a)를 기준의 높이로 하고, 지면 높이(139a)로부터의 높이가 소정의 높이 이하인 각 점을 포인트 클라우드(491)로부터 소정 높이 점 군(129a)으로서 추출한다.
즉, 소정 높이 점 군(129a)은, 지면 높이(139a)로부터의 높이가 소정의 높이보다 높은 각 점이 포인트 클라우드(491)로부터 제거된 것이다.
예를 들면, 소정의 높이가 「50cm」인 경우, 소정 높이 점 군 추출부(120)는, 3차원 좌표의 높이가 「(지면 높이(139a))+50[cm]」 이하인 각 점을 포인트 클라우드(491)로부터 소정 높이 점 군(129a)으로서 추출한다. 지면 높이(139a)가 구역마다 특정되어 있을 경우, 소정 높이 점 군 추출부(120)는, 소정 높이 점 군(129a)을 구역마다 추출한다.
<S143A: 3차원 점 군 투영처리>
다음에, 포인트 클라우드 투영부(110)는, S142A에 있어서 추출된 소정 높이 점 군(129a)의 각 점을 수평면에 정사 투영하여 점 군 정사 화상(191)을 생성한다.
단, 소정 높이 점 군(129a)의 각 점이 정사 투영되는 평면은 수평면에 한정되지 않고, 포인트 클라우드 투영부(110)에 의한 투영은 정사 투영에 한정되지 않는다.
<S144A: 부감 화상 표시처리>
다음에, 점 군 정사 화상 표시부(140)는, S143A에 있어서 생성된 점 군 정사 화상(191)을 표시장치(901)에 표시시킨다.
여기에서, 이용자가, 표시장치(901)에 표시된 점 군 정사 화상(191) 중에서 카메라 영상(292)을 확인하고 싶은 화상 부분을 마우스(903)나 키보드(902) 등을 사용하여 지정하는 것으로 한다.
<S145A: 카메라 영상 표시처리>
그리고, 카메라 영상 표시부(150)는, 이용자에게서 지정된 화상 부분에 대응하는 카메라 영상(292)을 표시장치(901)에 표시한다.
이때, 카메라 영상 표시부(150)는, 이용자에게서 지정된 화상 부분에 투영되어 있는 포인트 클라우드(491)의 점을 특정하고, 특정한 점(이하, 특정 점이라고 한다)의 계측 지점으로부터 촬상된 카메라 영상(292)을 특정하고, 특정한 카메라 영상(292)을 표시장치(901)에 표시한다.
특정되는 카메라 영상(292)은, 특정 점이 계측된 시각에 촬상된 카메라 영상(292)이다. 또한, 특정 점이 계측된 시각이란, 특정 점의 원래 데이터인 거리 방위 점 군(291)의 점이 계측된 시각을 말한다.
이용자는, 점 군 정사 화상(191)에서는 확인하기 어려운 지상물을 표시장치(901)에 표시된 카메라 영상(292)에 의해 확인할 수 있다.
이하에서, 점 군 정사 화상 생성처리(S141A∼S143A)에 의해 생성되는 점 군 정사 화상(191)의 일례를 나타낸다.
도 11은, 대상 지역 b(도 6)의 점 군 정사 화상(191)이며, 도 12는, 대상 지역 a(도 6)의 점 군 정사 화상(191)이다. 도 11, 도 12 모두, 지면 높이(139a)로부터의 높이가 50cm 이하인 소정 높이 점 군(129a)만이 정사 투영된 것이다.
소정 높이 점 군 추출 처리(S142A)에서는, 지면 높이(139a)로부터의 높이가 50cm보다 높은 각 점이 포인트 클라우드(491)로부터 제거되고, 지면 높이(139a)로부터의 높이가 50cm 이하의 높이인 각 점만이 소정 높이 점 군(129a)으로서 추출되었다.
이 때문에, 도 11, 도 12 모두에서, 도로가 수목이나 터널 등의 차폐물에 의해 차폐되어 있지 않아, 백선과 도로 경계 등을 뚜렷하게 인식할 수 있다.
실시형태 2에 있어서, 이하와 같은 점 군 정사 화상 생성장치(100)에 대해 설명하였다.
종래부터 도로 화상으로서 이용되고 있는 항공사진에서는, 수목의 아래나 터널의 내부라고 하는 수직 방향에서 볼 때 차폐되어 있는 도로 부분을 표시할 수 없었다.
한편, 점 군 정사 화상 생성장치(100)는, 포인트 클라우드(491) 중에서, 도로면(지면 높이(139a))으로부터 소정의 높이 이하의 점 군(소정 높이 점 군(129a))만을 사용하도록 제한을 걸어 점 군 정사 화상(191)을 생성함으로써, 수목이나 터널 등의 차폐물을 제외하여, 도로를 샅샅이 표현할 수 있다.
더구나, 이동체 계측장치(200)의 차량(202)이 주위로부터 소정의 차 간격(예를 들면, 5m 정도)을 두어 주행함으로써, 다른 차량을 계측한 계측값이 포함되지 않는 거리 방위 점 군(291)이 취득된다. 그리고, 점 군 정사 화상 생성장치(100)는, 다른 차량을 계측한 계측값이 포함되지 않는 거리 방위 점 군(291)으로부터 생성된 포인트 클라우드(491)를 사용하여, 주행중의 차량이 전혀 없는 점 군 정사 화상(191)을 만들어 낼 수 있다.
즉, 점 군 정사 화상 생성장치(100)는, 보이지 않는 부분이 없는 깨끗한 도로 화상을 만들어 낼 수 있다.
또한, 이용자가 점 군 정사 화상(191)에 보여지고 있는 지상물(예를 들면, 전주, 가로등, 표지)의 종류나 내용을 확인할 수 없는 경우, 점 군 정사 화상 생성장치(100)는 점 군 정사 화상(191)에 연동시켜 카메라 영상(292)을 표시한다. 예를 들면, 점 군 정사 화상 생성장치(100)는, CAD 화면에 점 군 정사 화상(191)과 카메라 영상(292)을 링크시켜 표시한다. 이때, 점 군 정사 화상 생성장치(100)는, 각 점이 계측된 시각에 근거하여, 그 부근에서 촬영된 카메라 영상(292)을 꺼낸다. 이에 따라, 이용자는 점 군 정사 화상(191)에 보이고 있는 지상물이 전주인지, 가로등인지, 또는, 표지인지 판별할 수 있다. 점 군 정사 화상 생성장치(100)는, 카메라 영상(292)을 표시시킬 때, 카메라 영상(292)을 화상처리하여 표지나 간판 등의 내용(기재되어 있는 문자나 도형 등)을 추출하고, 추출한 정보를 카메라 영상(292)과 함께 표시해도 된다. 이에 따라, 이용자는, 전주나 가로 등의 구별 이외에, 표지나 간판 등의 내용을 확인할 수 있다.
실시형태 3
실시형태 3에서는, 입설물을 특정할 수 있는 점 군 정사 화상(191)을 생성하는 형태에 대해 설명한다.
이하, 실시형태 1∼2와 다른 사항에 대하여 주로 설명하고, 설명을 생략하는 사항에 대해서는 실시형태 1∼2와 같은 것으로 한다.
도 13은, 실시형태 3에 있어서의 점 군 정사 화상 생성장치(100)의 구성도다.
실시형태 3에 있어서의 점 군 정사 화상 생성장치(100)의 구성에 대해, 도 13에 근거하여 이하에서 설명한다.
점 군 정사 화상 생성장치(100)(부감 화상 생성장치의 일례)는, 포인트 클라우드 투영부(110), 점 군 정사 화상 표시부(140), 카메라 영상 표시부(150), 점 밀도 산출부(160), 입설물 특정부(170), 입설물 구별부(180) 및 화상 생성장치 기억부(190)를 구비한다.
점 밀도 산출부(160)는, 포인트 클라우드 투영부(110)에 의해 생성된 점 군 정사 화상(191)의 점 밀도(169a)를 점 군 정사 화상(191)을 소정의 크기로 구분한 구역마다 CPU를 사용하여 산출한다.
입설물 특정부(170)는, 점 밀도 산출부(160)에 의해 산출된 점 밀도(169a)에 근거하여, 점 군 정사 화상(191)으로부터 입설물이 표시되어 있는 화상 부분을 CPU를 사용하여 특정한다.
이하, 입설물 특정부(170)에 의해 특정된 화상 부분을 입설물 표시 화상 부분(179a)라고 한다.
입설물 구별부(180)는, 입설물 특정부(170)에 의해 특정된 입설물 표시 화상 부분(179a)을 다른 화상 부분과 구별하여 표시한 점 군 정사 화상(191)을 CPU를 사용하여 생성한다.
도 14는, 실시형태 3에 있어서의 점 군 정사 화상 생성처리(S140)의 흐름도다.
실시형태 3에 있어서의 점 군 정사 화상 생성처리(S140)의 흐름에 대하여, 도 14에 근거하여 이하에서 설명한다.
점 군 정사 화상 생성장치(100)의 각 「∼부」는, 이하에서 설명하는 처리를 CPU를 사용하여 실행한다.
<S141B: 3차원 점 군 투영처리>
포인트 클라우드 투영부(110)는, 포인트 클라우드(491)를 수평면에 정사 투영하여 점 군 정사 화상(191)을 생성한다.
이하, 포인트 클라우드(491)가 정사 투영된 수평면을 「투영면」이라고 한다.
<S142B: 점 밀도 산출처리>
밀도 산출부(160)는, 투영면을 소정의 크기로 구분하고, 구역마다 포인트 클라우드(491)의 각 점의 점 밀도(169a)를 산출한다.
각 구역의 크기는 미소하고, 예를 들면, 화상 내에서의 크기가 아니라, 실세계에서의 크기로 「30cm×30cm」 정도이다. 또한 예를 들면, 점 군 정사 화상(191)의 1 화소가 1 구역에 대응해도 상관없다.
여기에서, 「점 밀도(169a)」란, 미소 구역 내에 투영된 포인트 클라우드(491)의 점의 수를 표시하는 것으로 한다.
<S143B: 입설물 특정처리>
입설물 특정부(170)는, S142B에 있어서 산출된 점 밀도(169a)가 소정수 이상인 각 미소 구역을 입설물 표시 화상 부분(179a)으로서 특정한다.
레이저 스캐너(210)는 차량(202)의 측방의 높이 방향으로도 계측을 행하기 때문에, 벽면, 전주, 가로등 등, 높이를 갖는 지상물(이하, 입설물이라고 한다)은 높이 방향으로 복수점이 계측된다. 한편, 도로면과 같이 높이를 갖지 않는 지상물은 높이 방향으로 1점밖에 계측되지 않는다. 이 때문에, 입설물의 점 밀도(169a)는 도로면의 점 밀도(169a)보다 크다. 따라서, 입설물 표시 화상 부분(179a)은, 점 밀도(169a)가 소정수 이상인 각 미소 구역을 입설물 표시 화상 부분(179a)으로서 특정한다.
예를 들면, 입설물 특정부(170)는, 10점 이상의 점이 투영되고 있는 미소 구역을 입설물 표시 화상 부분(179a)으로서 특정한다.
<S144B: 입설물 구별처리>
입설물 구별부(180)는, S143B에 있어서 특정된 입설물 표시 화상 부분(179a)을 다른 화상 부분과 구별하여 표시한 점 군 정사 화상(191)을 생성한다.
예를 들면, 입설물 구별부(180)는, 입설물 표시 화상 부분(179a)에 소정의 색을 착색한다.
또한 예를 들면, 입설물 구별부(180)는, 입설물 표시 화상 부분(179a)과 다른 화상 부분에서 다른 배색(입설물 표시 화상 부분(179a)이 「적색」, 다른 화상 부분이 「흑색」 등)으로 한다.
또한 예를 들면, 입설물 구별부(180)는, 입설물 표시 화상 부분(179a)에 특정한 마크를 부가한다.
더구나, 입설물 구별부(180)는, 입설물 표시 화상 부분(179a)을 점 밀도마다 나누어, 점 밀도마다 다른 배색이나 마크를 부가해도 된다. 예를 들면, 입설물 구별부(180)는, 점 밀도가 큰 순서로 「백색」→「녹색」→「적색」을 착색한다.
<S145B: 부감 화상 표시처리>
점 군 정사 화상 표시부(140)는, S144B에서 생성된 점 군 정사 화상(191)을 표시장치(901)에 표시시킨다.
<S146B: 카메라 영상 표시처리>
카메라 영상 표시부(150)는, S145A(도 10)와 마찬가지로, 이용자에게서 지정된 화상 부분에 대응하는 카메라 영상(292)을 표시장치(901)에 표시한다.
점 군 정사 화상 생성장치(100)는, 미소 구역의 점 밀도를 산출함으로써, 점 군 정사 화상(191) 내부의 입설물을 특정할 수 있다. 이에 따라, 이용자는, 전주 등의 입설물이 어디에 위치하고 있는지를 알 수 있다.
점 군 정사 화상 생성장치(100)는, 실시형태 2와 마찬가지로, 지면 높이 특정부(130) 및 소정 높이 점 군 추출부(120)를 구비해도 된다.
소정 높이 점 군 추출부(120)는, 지면 높이 특정부(130)에 의해 특정된 지면 높이(139a)를 기준의 높이로 하고, 지면 높이(139a)로부터의 높이가 소정의 높이 이상인 각 점을 포인트 클라우드(491)로부터 소정 높이 점 군(129a)으로서 추출한다. 즉, 소정 높이 점 군(129a)은, 지면 높이(139a)로부터의 높이가 소정의 높이 미만인 각 점이 포인트 클라우드(491)로부터 제거된 것이다.
포인트 클라우드 투영부(110)는, 소정 높이 점 군 추출부(120)에 의해 추출된 소정 높이 점 군(129a)을 사용하여 점 군 정사 화상(191)을 생성한다.
예를 들면, 소정 높이 점 군 추출부(120)가, 실시형태 2와는 반대로 지면 높이(139a)로부터의 높이가 「50cm」 미만인 각 점을 제거함으로써, 포인트 클라우드 투영부(110)는 도로면이 보여지지 않는 점 군 정사 화상(191)을 생성할 수 있다.
이에 따라, 점 군 정사 화상 생성장치(100)는 입설물을 더욱 정확하게 특정하여, 이용자는 입설물을 보다 용이하게 판별할 수 있다.
이하에서, 지면 높이(139a)로부터의 높이가 50cm 이상인 소정 높이 점 군(129a)이 정사 투영된 점 군 정사 화상(191)의 일례를 나타낸다.
도 15는, 대상 지역 b(도 6)의 점 군 정사 화상(191)이고, 도 16은, 대상 지역 b의 부분 확대도다.
도 17은, 대상 지역 a(도 6)의 점 군 정사 화상(191)이며, 도 18은, 대상 지역 a의 부분 확대도다.
도 15∼도 18은 모두, 지면 높이(139a)로부터의 높이가 50cm 이상인 소정 높이 점 군(129a)만이 정사 투영된 점 군 정사 화상(191)이며, 도로면은 보이지 않고 있다.
도 15의 점선 틀 내부를 확대한 도 16 및 도 17의 점선 틀 내부를 확대한 도 18에 나타낸 것과 같이, 점 군 정사 화상(191)은 가로등, 나무, 벽, 전선, 전주 등의 지상물을 뚜렷이 나타낸다.
또한, 점 군 정사 화상(191)은, 점 밀도에 의해 구분된다. 예를 들면, 점 밀도가 짙어짐에 따라, 「적색→녹색→백색」으로 변화한다. 전주와 같이 수직으로 서 있는 것은 점 밀도가 짙어지기 때문에, 녹색점 또는 백색점으로 표시된다.
이와 같은 점 군 정사 화상(191)을 사용함으로써, 입설물의 위치의 확정이 용이해져, 종래의 수작업과 비교하여, 입설물의 위치의 확정에 걸리는 작업시간을 대폭 경감할 수 있다.
또한, 도 18에서는, 집의 벽면이나 전주로부터 전선이 나오고 있는 모양을 알 수 있다. 전선의 유무에 의해 전주와 가로등을 구별할 수도 있다. 대상물이 전주, 가로등 또는 그 밖의 입설물의 어느것인지를 구별할 수 없는 경우, 이용자는, 점 군 정사 화상 생성장치(100)에 카메라 영상(292)을 표시시켜, 카메라 영상(292)을 확인함으로써, 정확하게 식별할 수 있다.
실시형태 3에서는, 이하와 같은 점 군 정사 화상 생성장치(100)에 대해 설명하였다.
점 군 정사 화상(191)은 바로 위에서 본 화상을 나타낸다. 그 때문에, 전주와 같이 지면과 같은 계열의 색의 입체물(입설물)은 사려져 버린다. 또한, 전주 등의 입체물은 도로도에 있어서 중요한 타겟이다.
따라서, 점 군 정사 화상 생성장치(100)는, 점 군 정사 화상(191)의 미소 구역마다 점 밀도를 산출하고, 점 밀도마다 휘도, 색, 형상 등을 나누어 표시한다.
전주나 벽면은 기본적으로 수직하게 건설된다. 따라서, 수직 방향으로 포인트 클라우드(491)가 투영된 점 군 정사 화상(191)의 점 밀도는 전주나 벽면 부분에서 상승한다. 한편, 지면 등은, 수직 방향으로는 한 점밖에 없기 때문에, 점 밀도가 낮아진다.
이것으로부터, 점 밀도마다 휘도, 색, 형상 등을 나누어 표시하는 점 군 정사 화상(191)으로부터, 전주 등의 입체물이 어디에 있는지를 용이하게 판별·검출할 수 있다.
더구나, 소정의 높이 이상의 포인트 클라우드 생성장치 기억부(490)만을 사용하여 점 군 정사 화상(191)을 생성한다고 하는 제한을 가함으로써, 입체물을 보다 용이하게 판별·검출할 수 있다.
실시형태 4
실시형태 4에서는, 지면 높이 특정부(130)에 의한 지면 높이(139a)의 특정방법에 대해 설명한다.
<실시예 1>
지면 높이 특정부(130)는, 구역 내의 위도·경도를 표시하는 포인트 클라우드(491)의 각 점으로부터 높이가 가장 낮은 점을 추출하고, 추출한 점이 나타내는 높이를 그 구역의 지면 높이(139a)로 한다.
도 19는, 실시형태 4(실시예 1)에 있어서의 지면 높이(139a)의 특정방법을 도시한 도면이다. 도 19의 상부 도면은 언덕길의 평면도를 나타내고, 도 19의 하부 도면은 언덕길의 측면도를 나타낸다.
지면 높이 특정부(130)는, 도 19의 상부 도면에 나타낸 것과 같이 언덕길을 포함하는 대상 지역을 위도·경도로 메쉬 형상으로 분할하여 소정의 크기(예를 들면 100m×100m)로 구분하고, 도 19의 하부 도면에 나타낸 것과 같이 각 구역 내의 점 중 높이가 가장 낮은 점 P를 추출한다. 그리고, 지면 높이 특정부(130)는, 점 P가 표시하는 3차원 좌표의 높이를 해당 구역의 지면 높이(139a)로 한다.
소정 높이 점 군 추출부(120)가 점 P(지면 높이(139a))로부터 소정의 높이 x(예를 들면, 50cm) 이하의 각 점을 포인트 클라우드(491)로부터 추출함으로써, 포인트 클라우드 투영부(110)는 언덕길을 표시하는 점 군 정사 화상(191)을 생성할 수 있다.
<실시예 2>
지면 높이 특정부(130)는, 포인트 클라우드(491)로부터 도로의 연석을 표시하는 각 점을 추출하고, 추출한 각 점이 표시하는 3차원 좌표에 근거하여 지면 높이(139a)를 특정한다.
도 20은, 실시형태 4(실시예 2)에 있어서의 지면 높이(139a)의 특정방법을 나타낸 도면이고, 대상 지역을 소정의 크기로 구분한 1개의 구역을 나타내고 있다.
우선, 지면 높이 특정부(130)는, 포인트 클라우드(491)의 각 점이 나타내는 3차원 좌표에 근거하여, 언덕길의 좌우의 연석(2개의 연석 부분)을 표시하는 각 점을 특정한다.
다음에, 지면 높이 특정부(130)는, 한쪽의 연석을 표시하는 각 점으로부터 고도가 가장 높은 점 A와 고도가 가장 낮은 점 B를 추출하고, 다른 쪽의 연석을 표시하는 각 점으로부터 고도가 가장 높은 점 C를 추출한다. 점 C는, 가장 낮은 점이나 연석을 표시하는 임의의 한 점이라도 상관없다.
그리고, 지면 높이 특정부(130)는, 추출한 3점 A, B, C의 3차원 좌표에 근거하여 점 A, 점 B 및 점 C를 통과하는 평면의 3차원 방정식을 언덕길의 구배를 표시하는 방정식(이하, 노면 방정식이라고 한다)으로서 산출한다.
지면 높이 특정부(130)에 의해 산출된 노면 방정식은, 위도·경도마다 언덕길의 지면 높이(139a)를 나타낸다.
소정 높이 점 군 추출부(120)는, 포인트 클라우드(491)의 각 점이 위치하는 구역을 각 점의 위도·경도에 근거하여 특정하고, 각 점의 위도·경도를 해당 구역의 노면 방정식에 대입하여 지면 높이(139a)를 산출하고, 산출한 지면 높이(139a)와 각 점의 높이를 비교하여 소정 높이 점 군(129a)을 추출한다.
다음에, 연석을 표시하는 각 점(이하, 연석 점 군이라고 한다)을 특정하는 방법으로서, (1) 이용자에게 연석의 3점 A, B, C를 선택시키는 방법과 (2) 각 점의 위치의 불연속성에 근거한 연석 점 군의 특정방법을 설명한다.
우선, (1) 이용자에게 연석의 3점 A, B, C를 선택시키는 방법에 대해 설명한다.
지면 높이 특정부(130)는, 특허문헌 1(일본국 특개 2007-218705호 공보)의 S107(도 13)과 같이 포인트 클라우드(491)를 카메라 영상(292)에 투영하고, 포인트 클라우드(491)를 투영시킨 카메라 영상(292)(포인트 클라우드(491)와 카메라 영상(292)이 중첩한 화상)를 표시장치(901)에 표시하고, 표시한 포인트 클라우드(491)의 각 점으로부터 이용자에게 3점 A, B, C를 선택하게 한다.
다음에, (2) 각 점의 위치의 불연속성에 근거한 연석 점 군의 특정방법에 대해 설명한다.
도 21은, 실시형태 4(실시예 2)에 있어서의 연석 점 군의 특정방법을 도시한 도면이다.
도 21의 상부 도면은, 도로와 도로 좌우의 연석을 표시하는 수직 단면도이며, 좌우로 수평 방향(위도·경도 방향), 상하로 높이(고도) 방향이 취해져 있다. 도 21의 하부 도면은, 상부 도면의 점선 틀 내의 확대도다. 도면 중의 원은 각각 포인트 클라우드(491)의 1점을 나타낸다. 이하, 각 원을 「3D 점」이라고 한다. 각3D 점은, 이동체 계측장치(200)의 이동과 함께, 왼쪽에서 오른쪽으로, 오른쪽에서 왼쪽으로 순서대로 계측된다. 이하, 왼쪽에서 오른쪽으로 또는 오른쪽에서 왼쪽으로의 계측에 의해 얻어지는 횡으로 늘어선 복수의 3D 점을 연결한 선을 「주사 라인」이라고 한다. 도 21은, 왼쪽에서 오른쪽으로의 1개의 주사 라인 위의 복수의 3D 점을 원으로 나타내고 있다.
도 22는, 도로와 도로 좌우의 연석을 나타낸 포인트 클라우드(491)의 화상이 표시된 화면을 나타낸 도면이다.
도 22에는, 포인트 클라우드(491)를 사용하여 도로 평면을 표시한 화상(점 군 정사 화상(191)의 일례)을 표시시킨 메인 화면(도면 전체)과, 샛길 부분의 포인트 클라우드(491)를 추출하고, 추출한 포인트 클라우드(491)를 사용하여 샛길의 수직 단면을 표시한 화상을 표시시킨 부화면(도면 좌측 상부)을 나타내고 있다.
도 22의 부 화면에 표시되어 있는 화상은, 도 21에 대응하는 실제 데이터의 화상이다.
지면 높이 특정부(130)는, 계측 순서가 연속되는 복수의 3D 점에 근거하여 해당 부분의 기울기를 표시하는 직선을 산출하고, 산출한 직선이 나타내는 기울기의 변화량에 근거하여 도로와 연석의 분기점을 연석을 표시하는 3D 점으로서 특정한다.
예를 들면, 도 21에 있어서, 지면 높이 특정부(130)는, I번째의 3D 점을 기점으로 하고, I번째, I-1번째 및 I-2번째의 3D 점에 근거하여 직선 1을 산출하는 동시에, I번째, I+1번째 및 I+2번째의 3D 점에 근거하여 직선 2를 산출한다. 이하, x번째의 3D 점을 「x 점」으로 기재한다. 직선 1은 I점을 통과하는 동시에 I-1점과 I-2점의 중간점을 통과하는 직선이며, 직선 2는 I점을 통과하는 동시에 I+1점과 I+2점의 중간점을 통과하는 직선이다. 단, 직선 1, 2는, 연속되는 4개 이상의 3D 점(예를 들면, I-3점∼I점, I점∼I+3점)에 근거하여 산출되어도 되고, 2개의 3D 점(I-1점∼I점, I점∼I+1점)에 근거하여 산출되어도 된다.
그리고, 지면 높이 특정부(130)는, 직선 1과 직선 2의 기울기의 차이(변화량)와 직선 2(연석 좌측에서는 직선 1)를 구성하는 복수의 3D 점의 고저 차이에 근거하여 연석의 3D 점을 특정한다. 지면 높이 특정부(130)는, 변화량이 소정량 이상이고, 또한, I점의 높이와 I+2점의 높이의 고저 차이가 연석의 높이에 해당하는 소정값(예를 들면, 20cm) 이하이면, I-1점 또는 I+1점을 연석의 3D 점으로 판정한다. I+2점은, 직선 2를 구성하는 I점, I+1점 및 I+2점 중에서 I점과의 고저 차이가 가장 큰 3D 점이다. 통상, 도로의 연석측은 경사져 있기 때문에 지면 높이(139a)의 산출에 사용하기 위해서는, I점이 아니라, I점과 전후하는 어느 한개의 3D 점(…, I-2점, I-1점, I+1점, I+2점, …)을 연석의 3D 점으로 선택하면 된다. 예를 들면, 지면 높이 특정부(130)는, I-1점 또는 I+1점을 연석의 3D 점으로 한다. 단, I점을 연석의 3D 점으로 선택해도 된다.
지면 높이 특정부(130)는, 포인트 클라우드(491)의 각 점 각각을 기점으로 하여 상기한 방법에 의해 연석 점 군을 특정한다.
도 23은, 실시형태 4(실시예 2)에 있어서의 연석 점 군 특정방법을 나타낸 흐름도다.
연석 점 군 특정방법(도 21)의 처리의 흐름에 대하여, 도 23에 근거하여 이하에서 설명한다.
우선, 지면 높이 특정부(130)는, 포인트 클라우드(491)를 판독한다(S210).
다음에, 지면 높이 특정부(130)는, 주사 라인을 순서대로 1개 선택하고, 선택한 주사 라인 위의 복수의 3D 점을 포인트 클라우드(491)로부터 추출한다. 이하, 추출된 주사 라인 위의 복수의 3D 점을 「주사 점 군」이라고 한다(S220).
다음에, 지면 높이 특정부(130)는, 추출한 주사 점 군으로부터 1개의 3D 점을 기점 I로서 선택하고, 선택한 기점 I로부터 연속되는 복수점에 근거하여 기점을 통과하는 2개의 직선 1, 2를 산출한다(S230).
다음에, 지면 높이 특정부(130)는, 직선 1과 직선 2의 기울기의 차이와 직선 2(또는, 직선 1)를 구성하는 복수의 3D 점의 고저 차이에 근거하여 기점 I가 연석 부분인지 판정한다(S231).
지면 높이 특정부(130)는, 기점 I가 연석 부분이라고 판정하면, 연석의 3D 점(예를 들면, I-1점, I+1점)을 기억한다(S232).
지면 높이 특정부(130)는, S220에서 추출한 주사 점 군의 각 점에 대하여 S230∼S232를 반복하여, 좌우의 연석의 3D 점을 특정하여 기억한다(S233).
더구나, 지면 높이 특정부(130)는, S230∼S233에 있어서 좌우의 연석의 3D 점을 특정할 수 없었을 경우(S240), 레이저 조사 각도와 각 점의 높이에 근거하여 연석의 3D 점을 특정하여 기억한다(S250).
구체적으로, 지면 높이 특정부(130)는 아래와 같이 하여 연석의 3D 점을 특정한다.
우선, 지면 높이 특정부(130)는, 1개 이전의 주사 라인에서 특정된 연석의 3D 점에 레이저 조사 각도가 가까운 복수의 3D 점을 주사 점 군으로부터 추출한다. 예를 들면, 지면 높이 특정부(130)는, 1개 이전의 주사 라인에서 특정된 연석의 3D 점이 주사 라인 위의 n번째의 3D 점이면, 주사 점 군으로부터 주사 라인 위의 n-3∼n+3점을 추출한다.
그리고, 지면 높이 특정부(130)는, 추출된 복수의 3D 점(n-3점∼n+3점) 중 가장 높이가 낮은 3D 점의 1개(또는 복수) 이전(또는 이후)의 3D 점을 연석의 3D 점으로서 기억한다. 이때, 1개 이전의 주사 라인에서 특정된 연석의 3D 점과의 레이저 조사 각도의 차이가 소정값(예를 들면, 1도) 이하인 것을 연석의 3D 점으로 하는 조건에 추가해도 된다.
지면 높이 특정부(130)는, 전체 주사 라인에 대하여 S220∼S250을 반복하여(S260), 좌측의 연석을 표시하는 복수의 3D 점과 우측의 연석을 표시하는 복수의 3D 점을 각각 그룹핑한다(S270).
도 24는, 실시형태 4(실시예2)에 있어서의 연석 점 군 특정방법에 의해 특정된 연석 점 군을 도시한 도면이다.
도 24에 나타낸 것과 같이, 실시형태 4(실시예 2)에 있어서의 연석 점 군 특정방법에 의해 특정된 연석 점 군은, 도 5에 나타낸 대상 지역의 도로도와 일치하고 있다.
<실시예 3>
지면 높이 특정부(130)는, 이동체 계측장치(200)의 항측 기준점 O의 높이에 근거하여 지면 높이(139a)를 특정한다.
항측 기준점이란, 도 2에서 설명한 것과 같이, 이동체 계측장치(200)의 좌표 중심이다.
이동체 계측장치(200)의 항측 기준점 O의 높이에 근거하여 지면 높이(139a)를 특정하는 방법으로서, (1) 도로면의 3차원 방정식을 산출하여 지면 높이(139a)를 특정하는 방법과 (2) 계측 시각마다 지면 높이(139a)를 특정하는 방법을 설명한다.
도 25는, 실시형태 4(실시예 3(1))에 있어서의 지면 높이(139a)의 특정방법을 도시한 도면이다.
(1) 도로면의 3차원 방정식을 산출하여 지면 높이(139a)를 특정하는 방법에 대하, 도 25에 근거하여 이하에서 설명한다.
여기에서, t0, t1, t2의 각 시각에 대하여, 항측 기준점 O의 3차원 좌표와 포인트 클라우드(491)의 각 점이 얻어지고 있는 것으로 한다.
또한, 미리 계측된 항측 기준점 O의 지면으로부터의 높이를 2000mm로 한다.
지면 높이 특정부(130)는, 시각 t0, t1, t2 각각의 항측 기준점 O의 높이에 근거하여, 각 항측 기준점 O를 통과하는 평면(또는, 각 항측 기준점 O가 가장 가깝게 되는 평면)으로부터 2000mm 낮은 평면의 3차원 방정식을 도로면을 표시하는 3차원 방정식으로서 산출한다. 그리고, 지면 높이 특정부(130)는, 도로면의 3차원 방정식에 포인트 클라우드(491)의 각 점의 위도·경도를 대입하여, 지면 높이(139a)를 산출한다.
도 26은, 실시형태 4(실시예 3(2))에 있어서의 지면 높이(139a)의 특정방법을 도시한 도면이다.
(2) 계측 시각마다 지면 높이(139a)를 특정하는 방법에 대하여, 도 26에 근거하여 이하에서 설명한다.
여기에서, 각 시각에 대하여, 항측 기준점 O의 3차원 좌표와 포인트 클라우드(491)의 각 점이 얻어지고 있는 것으로 한다.
또한, 미리 계측된 항측 기준점 O의 지면으로부터의 높이를 2000mm로 한다.
지면 높이 특정부(130)는, 포인트 클라우드(491)의 각 점이 계측된 시각에 있어서의 항측 기준점 O의 높이보다 2000mm 낮은 높이를 지면 높이(139a)로서 산출한다.
단, 지면 높이 특정부(130)는 지면 높이(139a)를 산출하지 않고, 소정 높이 점 군 추출부(120)는 항측 기준점 O의 높이보다 1500mm 낮은 높이(지면으로부터 500mm[소정의 높이]의 높이)를 수정 분리 기준 높이로서 산출하고, 포인트 클라우드(491)로부터 수정 분리 기준 높이보다 낮은 각 점(또는, 높은 각 점)을 소정 높이 점 군(129a)으로서 추출해도 된다.
실시형태 4에서 설명한 각 특정방법에 의해, 지면 높이 특정부(130)는, 도로가 경사면으로 되어 있어도, 지면 높이(139a)를 정밀도가 좋게 산출할 수 있다.
실시형태 5
점 군 정사 화상 생성장치(100)에 의해 생성되는 점 군 정사 화상(191)은, 예를 들면, 도로도의 작성에 유용하다.
실시형태 5에서는, 도로도를 작성하는 시스템에 대해 설명한다.
도 27은, 실시형태 5에 있어서의 지도 데이터 생성 시스템(801)의 구성도다.
실시형태 5에 있어서의 지도 데이터 생성 시스템(801)의 구성에 대하여, 도 27에 근거하여 이하에서 설명한다.
지도 데이터 생성 시스템(801)은, 각 실시예에서 설명한 점 군 정사 화상 생성 시스템(800)의 구성 이외에, CAD장치(500)를 갖는다.
종래부터, 건물이나 도로를 표시하는 도시 계획도나, 전주, 맨홀, 광고탑 등의 도로 점유물을 나타내는 가로 대장이나, 도로 연석, 가드레일, 표지 등이 기재된 도로 관리대장 부도 등이 도로관리에 사용되고, 이들 도시 계획도, 가로 대장 및 도로 관리대장 부도의 정밀도 향상이 요구되고 있다.
점 군 정사 화상(191)은, 높은 정밀도로, 수목이나 터널 등의 차폐물에 의한 차폐를 제거하여 도로를 표시하고(실시형태 2), 또한 전주나 가로등 등의 입설물을 강조하여 표시한다(실시형태 3). 이 때문에, 도시 계획도, 가로 대장 및 도로 관리대장 부도의 작성에 유용하다.
CAD장치(500)는, CAD부(510) 및 CAD 기억부(590)를 구비하고, 점 군 정사 화상 생성장치(100)에 의해 생성된 점 군 정사 화상(191)을 사용하여 지도 데이터(591)(예를 들면, 도시 계획도나 도로 관리대장 부도)를 생성한다.
CAD부(510)는, CPU를 사용하고, 이용자의 조작에 따라 점 군 정사 화상(191) 및 카메라 영상(292)을 표시장치(901)에 표시하는 동시에 지도 데이터(591)를 생성한다.
CAD 기억부(590)는 지도 데이터(591)를 기억한다.
이용자는, CAD장치(500)를 키보드(902)나 마우스(903)를 사용하여 조작하여, 실시형태 2에서 작성된 점 군 정사 화상(191)을 표시시키고, 표시시킨 점 군 정사 화상(191)에 표시되는 도로를 트레이스함으로써 도로도를 작도하고, 작도한 도로도를 지도 데이터(591)로서 보존한다.
더구나, 이용자는, 실시형태 3에서 작성된 점 군 정사 화상(191)을 표시시키고, 표시시킨 점 군 정사 화상(191)에 표시되는 입설물을 순서대로 선택하여 선택 개소의 카메라 영상(292)을 표시시킨다. 그리고, 이용자는, 표시시킨 카메라 영상(292)으로부터 입설물의 종류를 특정하고, 각 입설물의 위치 및 종류를 설정한 도로도를 지도 데이터(591)로서 보존한다.
CAD부(510)는, 도로나 각 입설물을, 이용자의 선택에 의해서가 아니라, 화상처리에 의해 추출해도 된다.
이와 같이, 이용자는, 점 군 정사 화상(191)을 이용함으로써, 종래보다 간단하게 도시 계획도나 도로 관리대장 부도를 작성할 수 있다.
각 실시형태에 있어서, 점 군 정사 화상 생성장치(100), 이동체 계측장치(200), 위치 자세 표정장치(300), 포인트 클라우드 생성장치(400), CAD장치(500)의 각 장치는, 별개의 장치이어도, 서로의 구성을 포함하는 1개의 장치이어도 된다.
또한, 각 장치는, 네트워크 접속되어 있지 않은 독립된 장치이어도, 유선 또는 무선으로 LAN이나 인터넷에 접속되어, 서로 데이터 송수신을 행하는 통신장치이어도 된다.
100 점 군 정사 화상 생성장치, 110 포인트 클라우드 투영부, 120 소정 높이 점 군 추출부, 129a 소정 높이 점 군, 130 지면 높이 특정부, 139a 지면 높이, 140 점 군 정사 화상 표시부, 150 카메라 영상 표시부, 160 점 밀도 산출부, 169a 점 밀도, 170 입설물 특정부, 179a 입설물 표시 화상 부분, 180 입설물 구별부, 190 화상 생성장치 기억부, 191 점 군 정사 화상, 200 이동체 계측장치, 201 천판, 202 차량, 210 레이저 스캐너, 220 카메라, 230 GPS 수신기, 240 자이로, 250 주행거리계, 290 계측장치 기억부, 291 거리 방위 점 군, 292 카메라 영상, 293 GPS 관측 정보, 294 자이로 계측값, 295 주행거리계 계측값, 300 위치 자세 표정장치, 310 위치 자세 표정부, 390 표정장치 기억부, 391 위치 자세 표정값, 400 포인트 클라우드 생성장치, 410 3차원 점 군 생성부, 419a 3차원 점 군, 420 포인트 클라우드 생성부, 490 포인트 클라우드 생성장치 기억부, 491 포인트 클라우드, 500 CAD장치, 510 CAD부, 590 CAD 기억부, 591 지도 데이터, 800 점 군 정사 화상 생성 시스템, 801 지도 데이터 생성 시스템, 901 표시장치, 902 키보드, 903 마우스, 904 FDD, 905 CDD, 906 프린터 장치, 907 스캐너 장치, 908 마이크, 909 스피커, 911 CPU, 912 버스, 913 ROM, 914 RAM, 915 통신 보드, 920 자기 디스크 장치, 921 OS, 922 윈도우 시스템, 923 프로그램 군, 924 파일 군

Claims (22)

  1. 지상의 각 지점의 3차원 좌표를 나타내는 3차원 점 군을 사용하여 지상의 부감 화상을 생성하는 부감 화상 생성장치로서,
    상기 3차원 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 3차원 점 군의 각 점을 CPU(Central Processing Unit)을 사용하여 평면에 투영하여 지상의 부감 화상을 생성하는 3차원 점 군 투영부를 구비한 것을 특징으로 하는 부감 화상 생성장치.
  2. 제 1항에 있어서,
    상기 부감 화상 생성장치는,
    상기 3차원 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 3차원 점 군으로부터 소정 범위 내의 높이를 나타내는 각 점을 소정 높이 점 군으로서 CPU를 사용하여 추출하는 소정 높이 점 군 추출부를 구비하고,
    상기 3차원 점 군 투영부는,
    상기 소정 높이 점 군 추출부에 의해 상기 3차원 점 군으로부터 추출된 소정 높이 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 소정 높이 점 군의 각 점을 CPU를 사용하여 평면에 투영하여 부감 화상을 생성하는 것을 특징으로 하는 부감 화상 생성장치.
  3. 제 2항에 있어서,
    상기 소정 높이 점 군 추출부는,
    소정의 높이 이하의 각 점을 상기 소정 높이 점 군으로서 추출하는 것을 특징으로 하는 부감 화상 생성장치.
  4. 제 3항에 있어서,
    상기 소정 높이 점 군 추출부는,
    지면으로부터의 높이가 소정의 높이 이하인 각 점을 상기 소정 높이 점 군으로서 추출하는 것을 특징으로 하는 부감 화상 생성장치.
  5. 제 1항에 있어서,
    상기 부감 화상 생성장치는,
    상기 3차원 점 군 투영부에 의해 상기 평면에 투영된 상기 3차원 점 군의 각 점의 점 밀도를 상기 평면을 소정의 크기로 구분한 구역마다 CPU를 사용하여 산출하는 점 밀도 산출부와,
    상기 점 밀도 산출부에 의해 산출된 점 밀도에 근거하여 상기 부감 화상으로부터 입설물이 표시되어 있는 화상 부분을 CPU를 사용하여 특정하는 입설물 특정부와,
    상기 입설물 특정부에 의해 특정된 화상 부분을 다른 화상 부분과 구별하여 나타낸 부감 화상을 CPU를 사용하여 생성하는 입설물 구별부를 구비한 것을 특징으로 하는 부감 화상 생성장치.
  6. 제 5항에 있어서,
    상기 부감 화상 생성장치는,
    상기 3차원 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 3차원 점 군으로부터 소정 범위의 높이를 나타내는 각 점을 소정 높이 점 군으로서 CPU를 사용하여 추출하는 소정 높이 점 군 추출부를 구비하고,
    상기 3차원 점 군 투영부는,
    상기 소정 높이 점 군 추출부에 의해 상기 3차원 점 군으로부터 추출된 소정 높이 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 소정 높이 점 군의 각 점을 CPU를 사용하여 평면에 투영하여 부감 화상을 생성하는 것을 특징으로 하는 부감 화상 생성장치.
  7. 제 6항에 있어서,
    상기 소정 높이 점 군 추출부는,
    소정의 높이 이상의 각 점을 상기 소정 높이 점 군으로서 추출하는 것을 특징으로 하는 부감 화상 생성장치.
  8. 제 7항에 있어서,
    상기 소정 높이 점 군 추출부는, 지면으로부터의 높이가 소정의 높이 이상인 각 점을 상기 소정 높이 점 군으로서 추출하는 것을 특징으로 하는 부감 화상 생성장치.
  9. 제 4항 또는 제 8항에 있어서,
    상기 부감 화상 생성장치는,
    상기 3차원 점 군의 각 점이 나타내는 높이에 근거하여 CPU를 사용하여 지면 높이를 특정하는 지면 높이 특정부를 구비하고,
    상기 소정 높이 점 군 추출부는,
    상기 지면 높이 특정부에 의해 특정된 지면 높이에 근거하여 상기 소정 높이 점 군을 추출하는 것을 특징으로 하는 부감 화상 생성장치.
  10. 제 9항에 있어서,
    상기 지면 높이 특정부는,
    상기 3차원 점 군 투영부에 의해 상기 3차원 점 군의 각 점이 투영된 상기 평면을 소정의 크기로 구분한 각 구역의 지면 높이를, 해당 구역에 투영된 상기 3차원 점 군의 각 점이 나타내는 높이에 근거하여 특정하고,
    상기 소정 높이 점 군 추출부는,
    상기 지면 높이 특정부에 의해 특정된 각 구역의 지면 높이에 근거하여 상기 소정 높이 점 군을 구역마다 추출하는 것을 특징으로 하는 부감 화상 생성장치.
  11. 제 10항에 있어서,
    상기 지면 높이 특정부는,
    제1 구역에 투영된 상기 3차원 점 군의 각 점으로부터 높이가 낮은 순서로 소정수의 점을 추출하고, 추출한 소정수의 점이 나타내는 높이에 근거하여 상기 제1 구역의 지면 높이를 특정하는 것을 특징으로 하는 부감 화상 생성장치.
  12. 제 11항에 있어서,
    상기 지면 높이 특정부는,
    상기 제1 구역에 투영된 상기 3차원 점 군의 각 점으로부터 높이가 가장 낮은 점을 추출하고, 추출한 점이 나타내는 높이를 상기 제1 구역의 지면 높이로 하는 것을 특징으로 하는 부감 화상 생성장치.
  13. 제 9항에 있어서,
    상기 지면 높이 특정부는,
    상기 3차원 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 3차원 점 군으로부터 도로의 연석을 표시하는 각 점을 추출하고, 추출한 각 점이 나타내는 3차원 좌표에 근거하여 상기 지면 높이를 특정하는 것을 특징으로 하는 부감 화상 생성장치.
  14. 제 13항에 있어서,
    상기 지면 높이 특정부는,
    상기 추출한 각 점이 나타내는 3차원 좌표에 근거하여 도로면을 표시하는 3차원 방정식을 산출하고, 산출한 3차원 방정식에 근거하여 도로면의 높이를 상기 지면 높이로서 산출하는 것을 특징으로 하는 부감 화상 생성장치.
  15. 제 14항에 있어서,
    상기 지면 높이 특정부는,
    상기 3차원 점 군 투영부에 의해 생성된 부감 화상으로부터 도로 양측에서 쌍으로 되는 2개의 연석 부분을 특정하고, 한쪽의 연석 부분에 투영된 각 점으로부터 적어도 2점을 추출하고, 다른 쪽의 연석 부분에 투영된 각 점으로부터 적어도 1점을 추출하고, 추출한 적어도 3점을 통과하는 평면을 표시하는 3차원 방정식을 상기 도로면을 표시하는 3차원 방정식으로서 산출하고, 산출한 3차원 방정식에 근거하여 도로면의 높이를 상기 지면 높이로서 산출하는 것을 특징으로 하는 부감 화상 생성장치.
  16. 제 1항 내지 제 15항 중 어느 한 항에 있어서,
    상기 부감 화상 생성장치는,
    생성된 부감 화상을 표시장치에 표시하는 부감 화상 표시부와,
    상기 부감 화상 표시부에 의해 표시된 부감 화상 내에서 지정된 화상 부분에 투영된 점을 CPU를 사용하여 특정하고, 특정한 점이 계측된 계측 지점에서 촬영된 카메라 영상을 표시장치에 표시하는 카메라 영상 표시부를 구비한 것을 특징으로 하는 부감 화상 생성장치.
  17. 제 1항 내지 제 16항 중 어느 한 항에 있어서,
    상기 3차원 점 군은,
    차량에 설치된 레이저 스캐너에 의해 계측된 각 지점까지의 거리 방위를 나타내는 거리 방위 점 군에 근거하여 생성되는 것을 특징으로 하는 부감 화상 생성장치.
  18. 제 1항 내지 제 17항 중 어느 한 항에 있어서,
    상기 3차원 점 군의 각 점은,
    3차원 좌표와 함께 3차원 좌표가 나타내는 지점의 지상물의 색을 표시하는 것을 특징으로 하는 부감 화상 생성장치.
  19. 지상의 각 지점의 3차원 좌표를 나타내는 3차원 점 군을 사용하여 지상의 부감 화상을 생성하는 부감 화상 생성방법으로서,
    3차원 점 군 투영부가, 상기 3차원 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 3차원 점 군의 각 점을 CPU(Central Processing Unit)를 사용하여 평면에 투영하여 지상의 부감 화상을 생성하는 3차원 점 군 투영처리를 실행하는 것을 특징으로 하는 부감 화상 생성방법.
  20. 제 19항에 있어서,
    소정 높이 점 군 추출부가, 상기 3차원 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 3차원 점 군으로부터 소정 범위 내의 높이를 나타내는 각 점을 소정 높이 점 군으로서 CPU를 사용하여 추출하는 소정 높이 점 군 추출처리를 실행하고,
    상기 3차원 점 군 투영부가, 상기 3차원 점 군 투영처리로서, 상기 소정 높이 점 군 추출부에 의해 상기 3차원 점 군으로부터 추출된 소정 높이 점 군의 각 점이 나타내는 3차원 좌표에 근거하여 상기 소정 높이 점 군의 각 점을 CPU를 사용하여 평면에 투영하여 부감 화상을 생성하는 것을 특징으로 하는 부감 화상 생성방법.
  21. 제 19항에 있어서,
    점 밀도 산출부가, 상기 3차원 점 군 투영부에 의해 상기 평면에 투영된 상기 3차원 점 군의 각 점의 점 밀도를 상기 평면을 소정의 크기로 구분한 구역마다 CPU를 사용하여 산출하는 점 밀도 산출처리를 실행하고,
    입설물 특정부가, 상기 점 밀도 산출부에 의해 산출된 점 밀도에 근거하여 상기 부감 화상으로부터 입설물이 표시되어 있는 화상 부분을 CPU를 사용하여 특정하는 입설물 특정처리를 실행하고,
    입설물 구별부가, 상기 입설물 특정부에 의해 특정된 화상 부분을 다른 화상 부분과 구별하여 표시한 부감 화상을 CPU를 사용하여 생성하는 입설물 구별처리를 실행하는 것을 특징으로 하는 부감 화상 생성방법.
  22. 청구항 19∼청구항 21 중 어느 한 항에 기재된 부감 화상 생성방법을 컴퓨터에 실행시키는 부감 화상 생성 프로그램.
KR1020117003641A 2008-08-29 2009-08-24 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체 KR101269981B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2008-221359 2008-08-29
JP2008221359 2008-08-29
PCT/JP2009/064700 WO2010024212A1 (ja) 2008-08-29 2009-08-24 俯瞰画像生成装置、俯瞰画像生成方法および俯瞰画像生成プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020127028797A Division KR101319471B1 (ko) 2008-08-29 2009-08-24 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체

Publications (2)

Publication Number Publication Date
KR20110033859A true KR20110033859A (ko) 2011-03-31
KR101269981B1 KR101269981B1 (ko) 2013-05-31

Family

ID=41721380

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020117003641A KR101269981B1 (ko) 2008-08-29 2009-08-24 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체
KR1020127028797A KR101319471B1 (ko) 2008-08-29 2009-08-24 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020127028797A KR101319471B1 (ko) 2008-08-29 2009-08-24 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체

Country Status (6)

Country Link
US (1) US8665263B2 (ko)
EP (1) EP2320382A4 (ko)
JP (4) JP4832596B2 (ko)
KR (2) KR101269981B1 (ko)
CN (1) CN102138163B (ko)
WO (1) WO2010024212A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101394425B1 (ko) * 2012-11-23 2014-05-13 현대엠엔소프트 주식회사 지도 데이터 유지보수 장치 및 방법

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2556339B8 (en) 2010-04-09 2018-12-26 TomTom Navigation B.V. Method and device for generating a cost function
CN101887596B (zh) * 2010-06-01 2013-02-13 中国科学院自动化研究所 树木点云数据基于分割和自动生长的三维模型重建方法
US8565958B1 (en) * 2011-06-02 2013-10-22 Google Inc. Removing extraneous objects from maps
GB201114591D0 (en) 2011-08-23 2011-10-05 Tomtom Int Bv Methods of and apparatus for displaying map information
CN102445186B (zh) * 2011-09-28 2013-06-05 中交第二公路勘察设计研究院有限公司 一种激光雷达扫描生成公路设计地表信息方法
GB201116960D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Monocular camera localisation using prior point clouds
JP4948689B1 (ja) * 2011-10-06 2012-06-06 アジア航測株式会社 レーザオルソ画像生成装置及びそのプログラム
US9116011B2 (en) 2011-10-21 2015-08-25 Here Global B.V. Three dimensional routing
US8553942B2 (en) 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
US9047688B2 (en) 2011-10-21 2015-06-02 Here Global B.V. Depth cursor and depth measurement in images
US9024970B2 (en) 2011-12-30 2015-05-05 Here Global B.V. Path side image on map overlay
US9404764B2 (en) * 2011-12-30 2016-08-02 Here Global B.V. Path side imagery
US8731247B2 (en) * 2012-01-20 2014-05-20 Geodigital International Inc. Densifying and colorizing point cloud representation of physical surface using image data
JP5823021B2 (ja) 2012-03-23 2015-11-25 三菱電機株式会社 配線ボックス
JP5947666B2 (ja) * 2012-08-21 2016-07-06 アジア航測株式会社 走行路上地物画像生成方法及び走行路上地物画像生成プログラム並びに走行路上地物画像生成装置
US9398423B2 (en) * 2012-12-26 2016-07-19 Truemotion, Inc. Methods and systems for driver identification
CN103149569B (zh) * 2013-02-25 2014-12-10 昆山南邮智能科技有限公司 基于小波变换的激光雷达高压线识别方法
US11037319B2 (en) 2013-04-15 2021-06-15 X - Sight Systems Ltd. Contaminant detection and bird risk management at airports
US9858798B2 (en) 2013-05-28 2018-01-02 Aai Corporation Cloud based command and control system integrating services across multiple platforms
JP6006179B2 (ja) * 2013-06-20 2016-10-12 株式会社パスコ データ解析装置、データ解析方法、及びプログラム
US9449227B2 (en) * 2014-01-08 2016-09-20 Here Global B.V. Systems and methods for creating an aerial image
JP6389049B2 (ja) * 2014-03-17 2018-09-12 アジア航測株式会社 レーザ点群色付方法及びレーザ点群色付プログラム
JP6359868B2 (ja) * 2014-04-25 2018-07-18 東芝プラントシステム株式会社 3次元データ表示装置、3次元データ表示方法、及び3次元データ表示プログラム
WO2015198423A1 (ja) * 2014-06-25 2015-12-30 三菱電機株式会社 建築限界測定図の作成装置、建築限界測定図データの作成装置、建築限界測定図の作成方法、建築限界測定図および建築限界測定図データ
JP6432825B2 (ja) * 2014-08-22 2018-12-05 株式会社Ihi 3次元点群データの位置合わせ方法と装置及びその移動体システム
US9443312B2 (en) * 2014-08-29 2016-09-13 Leica Geosystems Ag Line parametric object estimation
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
DE102014013677B4 (de) * 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
CN113643569B (zh) * 2014-10-30 2024-02-02 三菱电机株式会社 自动驾驶辅助系统
JP6435781B2 (ja) * 2014-10-31 2018-12-12 株式会社豊田中央研究所 自己位置推定装置及び自己位置推定装置を備えた移動体
US20160342861A1 (en) * 2015-05-21 2016-11-24 Mitsubishi Electric Research Laboratories, Inc. Method for Training Classifiers to Detect Objects Represented in Images of Target Environments
CN104864889B (zh) * 2015-05-29 2018-05-29 山东鲁能智能技术有限公司 一种基于视觉的机器人里程计校正系统及方法
JP6589410B2 (ja) * 2015-06-24 2019-10-16 株式会社豊田中央研究所 地図生成装置及びプログラム
US9830509B2 (en) 2015-06-29 2017-11-28 Nokia Technologies Oy Method and apparatus for constructing a digital elevation model utilizing ground points captured by ground-based LiDAR
CN105184852B (zh) * 2015-08-04 2018-01-30 百度在线网络技术(北京)有限公司 一种基于激光点云的城市道路识别方法及装置
JP6451544B2 (ja) * 2015-08-04 2019-01-16 日産自動車株式会社 道路境界検出装置、自己位置推定装置及び道路境界検出方法
JP6561670B2 (ja) * 2015-08-10 2019-08-21 日産自動車株式会社 段差検出装置及び段差検出方法
KR102360464B1 (ko) * 2015-08-31 2022-02-09 현대오토에버 주식회사 연결도로정보 획득 장치 및 방법
JP6062020B2 (ja) * 2015-11-18 2017-01-18 三菱電機株式会社 指定点投影方法、プログラムおよびコンピュータ
JP6906304B2 (ja) * 2015-12-30 2021-07-21 ダッソー システムズDassault Systemes 埋め込まれた周波数ベースの探索および3dグラフィカルデータ処理
CN105719284B (zh) * 2016-01-18 2018-11-06 腾讯科技(深圳)有限公司 一种数据处理方法、装置及终端
US20190056223A1 (en) * 2016-03-22 2019-02-21 Mitsubishi Electric Corporation Measuring apparatus
JPWO2017199333A1 (ja) * 2016-05-17 2019-03-14 パイオニア株式会社 情報出力装置、端末装置、制御方法、プログラム及び記憶媒体
CN106052697B (zh) * 2016-05-24 2017-11-14 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和系统
CN106097444B (zh) * 2016-05-30 2017-04-12 百度在线网络技术(北京)有限公司 高精地图生成方法和装置
CN107742091B (zh) * 2016-08-22 2019-01-29 腾讯科技(深圳)有限公司 一种路肩提取的方法及装置
CN107871129B (zh) * 2016-09-27 2019-05-10 北京百度网讯科技有限公司 用于处理点云数据的方法和装置
CN113008263B (zh) * 2016-11-01 2024-04-30 松下电器(美国)知识产权公司 数据生成方法及数据生成装置
CN108335337B (zh) * 2017-01-20 2019-12-17 高德软件有限公司 一种正射影像图的生成方法及装置
CN106791797A (zh) 2017-03-14 2017-05-31 京东方科技集团股份有限公司 一种双视显示的方法和装置
CN108732582B (zh) * 2017-04-20 2020-07-10 百度在线网络技术(北京)有限公司 车辆定位方法和装置
EP3460518B1 (en) * 2017-09-22 2024-03-13 Leica Geosystems AG Hybrid lidar-imaging device for aerial surveying
CN110073403A (zh) * 2017-11-21 2019-07-30 深圳市大疆创新科技有限公司 输出影像生成方法、设备及无人机
KR101910751B1 (ko) * 2017-11-22 2018-10-22 중앙대학교 산학협력단 건설 구조물의 구성요소 형상 특징을 고려한 3차원 데이터 획득 방법 및 시스템
CN109902542B (zh) * 2017-12-11 2023-11-21 财团法人车辆研究测试中心 三维感测器的动态地面侦测方法
KR101998396B1 (ko) * 2017-12-22 2019-07-09 한국기술교육대학교 산학협력단 3d 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템
KR101998397B1 (ko) * 2017-12-22 2019-07-09 한국기술교육대학교 산학협력단 작업 공간 모델링에서 뎁스 이미지를 이용한 버텍스 최적화 방법 및 시스템
CN108319895B (zh) * 2017-12-29 2021-09-17 百度在线网络技术(北京)有限公司 用于识别电子地图中的路口的方法和装置
US20200014909A1 (en) 2018-07-03 2020-01-09 Faro Technologies, Inc. Handheld three dimensional scanner with autofocus or autoaperture
JP7204772B2 (ja) * 2018-10-23 2023-01-16 マクセル株式会社 ヘッドアップディスプレイシステム
KR20200046437A (ko) 2018-10-24 2020-05-07 삼성전자주식회사 영상 및 맵 데이터 기반 측위 방법 및 장치
CN111174777A (zh) * 2018-11-09 2020-05-19 阿里巴巴集团控股有限公司 定位方法、装置以及电子设备
JP2020204602A (ja) * 2018-11-20 2020-12-24 株式会社エムアールサポート オルソ画像作成システム、オルソ画像作成方法、それに使用される対空標識及び道路調査方法
CN111238494B (zh) * 2018-11-29 2022-07-19 财团法人工业技术研究院 载具、载具定位系统及载具定位方法
US11922659B2 (en) * 2018-11-29 2024-03-05 Nec Solution Innovators, Ltd. Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
JP7004636B2 (ja) * 2018-12-04 2022-01-21 三菱電機株式会社 表示データ生成装置、表示データ生成方法、および表示データ生成プログラム
US11665372B2 (en) * 2019-01-07 2023-05-30 Samsung Electronics Co., Ltd. Fast projection method in video-based point cloud compression codecs
JP7189029B2 (ja) * 2019-01-08 2022-12-13 朝日航洋株式会社 立面図作成方法
CN111771229B (zh) * 2019-01-30 2023-11-21 百度时代网络技术(北京)有限公司 用于自动驾驶车辆的点云重影效果检测系统
US10762690B1 (en) 2019-02-11 2020-09-01 Apple Inc. Simulated overhead perspective images with removal of obstructions
CN110111414B (zh) * 2019-04-10 2023-01-06 北京建筑大学 一种基于三维激光点云的正射影像生成方法
CN111829531A (zh) * 2019-04-15 2020-10-27 北京京东尚科信息技术有限公司 二维地图构建方法、装置、机器人定位系统和存储介质
CN110108259A (zh) * 2019-04-18 2019-08-09 中国科学院地理科学与资源研究所 一种野外地物的照片采集装置及信息测算方法
CN109991984B (zh) * 2019-04-22 2024-04-30 上海蔚来汽车有限公司 用于生成高精细地图的方法、装置和计算机存储介质
WO2020255548A1 (ja) * 2019-06-17 2020-12-24 株式会社エムアールサポート オルソ画像作成システム、オルソ画像作成方法、それに使用される対空標識及び道路調査方法
JP7441509B2 (ja) 2019-08-23 2024-03-01 株式会社エムアールサポート オルソ画像作成方法、オルソ画像作成システム、3次元モデル作成方法、3次元モデル作成システム及びそれに使用される標識
CN112634181A (zh) 2019-09-24 2021-04-09 北京百度网讯科技有限公司 用于检测地面点云点的方法和装置
CN110766798B (zh) * 2019-11-30 2023-02-14 中铁一局集团有限公司 一种基于激光扫描数据的隧道监控量测成果可视化方法
US11788859B2 (en) 2019-12-02 2023-10-17 Here Global B.V. Method, apparatus, and computer program product for road noise mapping
US11393489B2 (en) * 2019-12-02 2022-07-19 Here Global B.V. Method, apparatus, and computer program product for road noise mapping
KR102312892B1 (ko) * 2019-12-20 2021-10-15 재단법인대구경북과학기술원 도로 연석 검출 방법 및 장치
CN111210488B (zh) * 2019-12-31 2023-02-03 武汉中海庭数据技术有限公司 激光点云中道路立杆的高精度提取系统及方法
JP7122721B2 (ja) * 2020-06-02 2022-08-22 株式会社Zmp 物体検出システム、物体検出方法及び物体検出プログラム
CN111784834A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 一种点云地图生成方法、装置以及电子设备
JP2022016908A (ja) * 2020-07-13 2022-01-25 フォルシアクラリオン・エレクトロニクス株式会社 俯瞰画像生成装置、俯瞰画像生成システム及び自動駐車装置
CN111815772B (zh) * 2020-07-20 2023-06-23 云南财经大学 高原山地土地利用方法、系统、存储介质和计算机设备
KR102543871B1 (ko) * 2021-01-18 2023-06-20 네이버랩스 주식회사 도로정보 변화 영역 보완 방법 및 시스템
JP2022121049A (ja) * 2021-02-08 2022-08-19 トヨタ自動車株式会社 自己位置推定装置
CN113320518B (zh) * 2021-06-25 2022-06-03 东风汽车集团股份有限公司 一种坡道停车后防溜车方法及系统
WO2023067717A1 (ja) * 2021-10-20 2023-04-27 日本電気株式会社 施設点検表示装置、情報処理装置、施設点検表示方法及び非一時的なコンピュータ可読媒体
CN116109643B (zh) * 2023-04-13 2023-08-04 深圳市明源云科技有限公司 市场布局数据采集方法、设备及计算机可读存储介质
CN116342858B (zh) * 2023-05-29 2023-08-25 未来机器人(深圳)有限公司 物体检测方法、装置、电子设备及存储介质
CN117372273B (zh) * 2023-10-26 2024-04-19 航天科工(北京)空间信息应用股份有限公司 无人机影像的正射影像生成方法、装置、设备和存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
JP2003156330A (ja) * 2001-11-22 2003-05-30 Nec Corp 航空機搭載地形計測装置及び方法
US7242460B2 (en) * 2003-04-18 2007-07-10 Sarnoff Corporation Method and apparatus for automatic registration and visualization of occluded targets using ladar data
US8294712B2 (en) * 2003-09-19 2012-10-23 The Boeing Company Scalable method for rapidly detecting potential ground vehicle under cover using visualization of total occlusion footprint in point cloud population
CN1938738A (zh) * 2004-03-31 2007-03-28 日本先锋公司 地图生成装置及导航装置
CN100410622C (zh) * 2004-05-14 2008-08-13 佳能株式会社 用于获得目标物体的位置和方位的信息处理方法和设备
JP3966419B2 (ja) * 2004-12-15 2007-08-29 三菱電機株式会社 変化領域認識装置および変化認識システム
US20070065002A1 (en) * 2005-02-18 2007-03-22 Laurence Marzell Adaptive 3D image modelling system and apparatus and method therefor
JP2006323608A (ja) * 2005-05-18 2006-11-30 Kozo Keikaku Engineering Inc 立体構造物群モデル作成装置、立体構造物群モデル作成方法及び立体モデル作成システム
JP4619962B2 (ja) 2006-02-15 2011-01-26 三菱電機株式会社 路面標示計測システム、白線モデル計測システムおよび白線モデル計測装置
US7822266B2 (en) * 2006-06-02 2010-10-26 Carnegie Mellon University System and method for generating a terrain model for autonomous navigation in vegetation
CA2678156C (en) 2007-02-16 2013-10-08 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
CA2725800A1 (en) * 2008-07-31 2010-02-04 Tele Atlas B.V. Method of displaying navigation data in 3d

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101394425B1 (ko) * 2012-11-23 2014-05-13 현대엠엔소프트 주식회사 지도 데이터 유지보수 장치 및 방법

Also Published As

Publication number Publication date
US20110164037A1 (en) 2011-07-07
JP4832596B2 (ja) 2011-12-07
EP2320382A4 (en) 2014-07-09
KR101319471B1 (ko) 2013-10-17
CN102138163B (zh) 2014-04-30
EP2320382A1 (en) 2011-05-11
JP2011233165A (ja) 2011-11-17
JPWO2010024212A1 (ja) 2012-01-26
US8665263B2 (en) 2014-03-04
JP5319741B2 (ja) 2013-10-16
JP2012018170A (ja) 2012-01-26
US20110310091A2 (en) 2011-12-22
JP5058364B2 (ja) 2012-10-24
WO2010024212A1 (ja) 2010-03-04
JP2013225336A (ja) 2013-10-31
KR20120132704A (ko) 2012-12-07
KR101269981B1 (ko) 2013-05-31
CN102138163A (zh) 2011-07-27
JP5808369B2 (ja) 2015-11-10

Similar Documents

Publication Publication Date Title
KR101269981B1 (ko) 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체
JP5435306B2 (ja) 画像処理システム及び位置測位システム
JP5714940B2 (ja) 移動体位置測定装置
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
JP5505723B2 (ja) 画像処理システム及び位置測位システム
US20110109618A1 (en) Method of displaying navigation data in 3d
US20110103651A1 (en) Computer arrangement and method for displaying navigation data in 3d
CN101681525A (zh) 产生多视点全景图的方法及设备
JP2011215057A (ja) 風景マッチング用参照データ生成システム及び位置測位システム
JP2009075117A (ja) 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
US8773458B2 (en) Method of and computer implemented system for generating a junction view image
JP2011170599A (ja) 屋外構造物計測装置及び屋外構造物計測方法
JP5177579B2 (ja) 画像処理システム及び位置測位システム
WO2010068185A1 (en) Method of generating a geodetic reference database product
JP2009276266A (ja) ナビゲーション装置
US11189082B2 (en) Simulated overhead perspective images with removal of obstructions
JP2021071885A (ja) 領域切り出し方法および領域切り出しプログラム
JP2019139680A (ja) 仮想環境作成装置

Legal Events

Date Code Title Description
A201 Request for examination
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160427

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170504

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180503

Year of fee payment: 6