KR101928689B1 - 점군 화상 생성 장치 및 표시 시스템 - Google Patents

점군 화상 생성 장치 및 표시 시스템 Download PDF

Info

Publication number
KR101928689B1
KR101928689B1 KR1020177034186A KR20177034186A KR101928689B1 KR 101928689 B1 KR101928689 B1 KR 101928689B1 KR 1020177034186 A KR1020177034186 A KR 1020177034186A KR 20177034186 A KR20177034186 A KR 20177034186A KR 101928689 B1 KR101928689 B1 KR 101928689B1
Authority
KR
South Korea
Prior art keywords
dimensional
point
data
point cloud
measurement
Prior art date
Application number
KR1020177034186A
Other languages
English (en)
Other versions
KR20170140353A (ko
Inventor
겐지 도가시
다다시 오자와
Original Assignee
미쓰비시덴키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 미쓰비시덴키 가부시키가이샤 filed Critical 미쓰비시덴키 가부시키가이샤
Publication of KR20170140353A publication Critical patent/KR20170140353A/ko
Application granted granted Critical
Publication of KR101928689B1 publication Critical patent/KR101928689B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

계측 차량(110)에 설치된 레이저 스캐너(115)로부터 레이저가 주변 물체에 조사되는 것에 의해, 복수의 조사점까지의 방위와 거리가 계측된다. 3차원 점군 생성부(123)는, 각 조사점에 있어서의 계측치에 근거하여, 각 조사점의 3차원 좌표치를 나타내는 데이터인 3차원 점군 데이터(203)를 생성한다. 2차원 투영부(230)는, 시점 위치 및 시선 방향에 근거하여, 3차원 점군 데이터에 대하여 2차원 투영 처리를 행하여, 점군 화상을 생성한다. 조작부(400)는, 시점 위치 및 시선 방향의 각각을 독립적으로 변경하기 위한 유저 인터페이스에 대응한다.

Description

점군 화상 생성 장치 및 표시 시스템
본 발명은, 도로 등을 주행하면서 주변의 지물(地物)의 3차원 형상을 나타내는 3차원 점군(point cloud) 데이터를 취득하는 지물 계측 시스템에 관한 것이고, 특히, 취득한 3차원 점군 데이터에 의해 나타내어지는 지물의 점군 화상을 생성하는 기술에 관한 것이다.
측량 분야에 있어서, 이동하면서 지물의 3차원 정보를 취득하는 모바일 매핑 시스템(MMS)이 보급되고 있다.
MMS는, GPS 위성이 가시(可視)인 환경 하에 있어서, 높은 정밀도의 계측이 가능하다. 또한, 측위 보강 정보를 이용하는 것에 의해, 주행 중에 높은 정밀도의 3차원 점군 데이터를 생성하고, 3차원 점군을 리얼타임으로 표시하는 것도 가능하게 된다. GPS는, Global Positioning System의 약칭이다.
(선행 기술 문헌)
(특허 문헌)
(특허 문헌 1) 국제 공개 2008/099915호
(특허 문헌 2) 일본 특허 공개 2015-31018호
본 발명은, 주행 중에 취득되는 지물의 점군 화상을 리얼타임으로 표시 가능한 시스템에 있어서, 계측 지점에 있어서 취득되는 지물의 점군 화상을 소망하는 방식으로 표시하기 위한 점군 화상 생성 장치를 제공하는 것을 목적으로 한다.
본 발명의 점군 화상 생성 장치는, 계측 차량에 설치된 레이저 스캐너로부터 레이저를 주변 물체에 조사하는 것에 의해 복수의 조사점까지의 방위와 거리를 계측 하여 얻어진 각 조사점에 있어서의 계측치에 근거하여, 상기 각 조사점의 3차원 좌표치를 나타내는 데이터인 3차원 점군 데이터를 생성하는 3차원 점군 생성부와, 시점 위치 및 시선 방향에 근거하여, 상기 3차원 점군 데이터에 대하여 2차원 투영 처리를 행하여, 점군 화상을 생성하는 2차원 투영부와, 상기 시점 위치 및 상기 시선 방향의 각각을 독립적으로 변경하기 위한 유저 인터페이스를 구비한다.
본 발명에 의하면, 주행 중에 취득되는 지물의 점군 화상을 리얼타임으로 표시 가능한 시스템에 있어서, 계측 지점에 있어서 취득되는 지물의 점군 화상을 소망하는 방식으로 표시하기 위한 점군 화상 생성 장치를 제공할 수 있다.
도 1은 실시의 형태 1에 있어서의 점군 화상 생성 장치(100)의 구성도.
도 2는 실시의 형태 1에 있어서의 계측 차량(110)의 외관도.
도 3은 실시의 형태 1에 있어서의 표시 장치(300)의 표시의 예를 나타내는 도면.
도 4는 실시의 형태 1에 있어서의 시점 위치의 설명도.
도 5는 실시의 형태 1에 있어서의 점군 화상(310)의 구성도.
도 6은 실시의 형태 1에 있어서의 인터페이스 화상(320)의 구성도.
도 7은 실시의 형태 1에 있어서의 점군 화상 생성 방법의 플로차트.
도 8은 실시의 형태 1에 있어서의 시선 방향마다의 점군 화상(310)을 나타내는 도면.
도 9는 실시의 형태 1에 있어서의 상하 좌우의 이동 오프셋마다의 점군 화상(310)을 나타내는 도면.
도 10은 실시의 형태 1에 있어서의 전후의 이동 오프셋마다의 점군 화상(310)을 나타내는 도면.
도 11은 실시의 형태 1에 있어서의 상하 좌우의 회전 오프셋마다의 점군 화상(310)을 나타내는 도면.
도 12는 실시의 형태에 있어서의 점군 화상 생성 장치(100)의 하드웨어 구성도.
도 13은 실시의 형태 2에 의한 표시 시스템을 구비한 계측 차량의 일례를 나타내는 도면.
도 14는 실시의 형태 2에 의한 표시 시스템의 구성을 나타내는 도면.
도 15는 실시의 형태 2에 의한 표시 시스템에 있어서의, 점군 화상을 표시하는 표시 장치의 표시 화면을 나타내는 도면.
도 16은 실시의 형태 2에 의한 표시 시스템에 있어서의, 점군 화상의 시점을 조작하는 조작부의 표시의 예를 나타내는 도면.
도 17은 실시의 형태 2에 의한 조작부의 5개의 입력 버튼의 선택에 의해, 전환 표시되는 점군 화상의 일례를 나타내는 도면.
도 18은 실시의 형태 2에 의한 조작부의 오프셋값 설정부에 있어서, 기준이 되는 시점 위치에 대하여 수평 및 수직 방향으로 소정의 오프셋값을 설정한 경우에 표시되는 점군 화상의 일례를 나타내는 도면.
도 19는 실시의 형태 2에 의한 조작부의 오프셋값 설정부에 있어서, 기준이 되는 시점 위치에 대하여, 전후로 소정의 오프셋값을 설정한 경우에 표시되는 점군 화상의 일례를 나타내는 도면.
도 20은 실시의 형태 2에 의한 조작부의 오프셋값 설정부에 있어서, 기준이 되는 시선 방향에 대하여, 수평 및 수직 방향으로 소정 각도의 오프셋값을 설정한 경우에 표시되는 점군 화상의 일례를 나타내는 도면.
도 21은 실시의 형태 3에 의한 표시 시스템의 구성을 나타내는 도면.
도 22는 실시의 형태 3에 의한 표시 시스템의 점군 인식 처리부에 있어서의, 기준 데이터 생성부의 기준 3차원 점군 데이터의 생성 처리를 설명하는 도면.
도 23은 실시의 형태 3에 의한 표시 시스템의 점군 인식 처리부에 있어서의, 기준 데이터 생성부 및 차분 처리부의 격자점 정렬 처리의 흐름을 설명하는 도면.
도 24는 실시의 형태 4에 있어서의 <실시예 1>의 점군 화상(310)의 변화를 나타내는 도면.
도 25는 실시의 형태 4에 있어서의 <실시예 2, 3>의 점군 화상(310)의 변화를 나타내는 도면.
도 26은 실시의 형태 5에 있어서의 시점 조작 모드 전환 버튼(314)을 나타내는 도면.
도 27은 실시의 형태 5에 있어서의 슬라이드(315, 316)가 오버레이 표시된 점군 화상(310)을 나타내는 도면.
도 28은 실시의 형태 5에 있어서의 시점 위치 마크(317)가 오버레이 표시된 점군 화상(310)을 나타내는 도면.
실시의 형태 1.
도로 등을 주행하면서, 주변의 지물의 3차원 형상을 나타내는 3차원 점군 데이터를 취득하고, 취득한 3차원 점군 데이터에 의해 나타내어지는 지물의 3차원 형상을 리얼타임으로 표시하는 점군 화상 생성 장치(100)에 대하여, 도 1 내지 도 12에 근거하여 설명한다.
***구성의 설명***
도 1에 근거하여, 점군 화상 생성 장치(100)의 구성에 대하여 설명한다.
점군 화상 생성 장치(100)는, 계측 차량(110)과, 계측 데이터 처리부(200)와, 표시 장치(300)와, 조작부(400)를 구비한다.
계측 차량(110)은, 도로를 주행하면서 각종 계측을 행하는 차량이다.
각종 계측에 의해, 측위 보강 데이터(101)와, 측위 데이터(102)와, 관성 계측 데이터(103)와, 주행 거리 데이터(104)와, 방위 거리 데이터(105)가 얻어진다.
도 2에 근거하여, 계측 차량(110)의 구성에 대하여 설명한다.
계측 차량(110)은, 차체의 지붕에 마련된 천판(119)을 구비하고 있다. 또한, 계측 차량(110)은, 오도미터(odometer)(114)를 구비하고 있다.
천판(119)에는, 측위 보강 신호 수신기(111)와, 측위 신호 수신기(112)와, 관성 계측 장치(113)와, 레이저 스캐너(115)가 설치되어 있다.
측위 보강 신호 수신기(111)는, GNSS 위성 또는 지상의 무선 LAN 또는 휴대 전화 회선으로부터, 계측 차량(110)의 위치를 높은 정밀도로 측위하기 위해 이용하는 측위 보강 데이터(101)를 수신한다. GNSS는 전 지구 측위 시스템의 약칭이다.
측위 보강 데이터(101)는, GNSS 위성으로부터 전달되는 경우와, GNSS 보정 정보 전달 서비스 사업자로부터 휴대 전화망을 통해서 전달되는 경우가 생각된다.
GNSS 위성이 측위 보강 데이터(101)를 전달하는 준천정 위성(quasi-zenith satellite)인 경우, 센티미터급의 정밀도의 측위 보강 데이터(101)는, 준천정 위성으로부터 송신되는 L6대역의 신호에 포함된다. 이 경우, 측위 보강 데이터(101)는, GPS 위성의 위성 시계의 오차, GPS 위성의 궤도 오차, 주파수간 바이어스, 전리층 전파 지연의 오차 및 대류권 지연의 오차를 나타낸다.
측위 신호 수신기(112)는, 측위 위성으로부터 송신되는 측위 신호를 수신하고, 측위 신호의 수신 결과를 이용하여 계측 차량(110)의 위치를 측위한다. 측위 위성의 일례는 GPS 위성이다.
측위 데이터(102)는, 측위 신호 수신기(112)에 의해 측위된 계측 차량(110)의 위치를 나타내는 데이터이다.
관성 계측 장치(113)는, 계측 차량(110)의 3축 방향의 각도 및 각속도를 계측하는 자이로와, 계측 차량(110)의 3축 방향의 가속도를 계측하는 가속도 센서를 구비한다. 계측 차량(110)의 3축 방향의 각도는 앙각과 회전각과 방위각이다.
관성 계측 데이터(103)는, 관성 계측 장치(113)에 의해 얻어진 정보를 나타내는 데이터이다.
오도미터(114)는, 계측 차량(110)의 바퀴가 회전할 때마다 출력되는 차속 펄스를 검출하고, 타이어의 회전 반경과 바퀴의 회전량을 이용한 적분 계산에 의해 주행 거리를 산출한다.
주행 거리 데이터(104)는, 오도미터(114)에 의해 산출된 주행 거리를 나타내는 데이터이다.
레이저 스캐너(115)는, 1초 동안에 100회전 정도의 속도로 회전하면서 레이저를 출사하여, 계측 차량(110)의 주위에 위치하는 지물을 스캔한다.
그때, 레이저 스캐너(115)는, 레이저가 조사된 지점(조사점)마다, 레이저를 출사한 시각과 지물로부터 반사된 레이저를 수신한 시각의 시각 차이를 계측하고, 계측한 시각 차이를 이용하여 레이저가 조사된 지점까지의 거리를 구한다. 또한, 레이저 스캐너(115)는, 레이저가 출사된 방향을 나타내는 방위를 구한다.
방위 거리 데이터(105)는, 계측 시각과 거리와 방위를 서로 대응시킨 데이터이다. 계측 시각은, 레이저 스캐너(115)에 의한 계측이 행해졌을 때의 시각이다. 계측 시각의 일례는, 레이저가 출사된 시각 또는 레이저가 수신된 시각이다.
도 1로 돌아가서, 점군 화상 생성 장치(100)의 설명을 계속한다.
계측 데이터 처리부(200)는, 위치 연산부(121)와, 자세 연산부(122)와, 3차원 점군 생성부(123)와, 위치 추정부(220)와, 2차원 투영부(230)를 구비한다.
위치 연산부(121)는, 측위 보강 데이터(101)와 측위 데이터(102)와 관성 계측 데이터(103)와 주행 거리 데이터(104)를 이용하여, 계측 시각에 있어서의 계측 차량(110)의 위치인 계측 위치의 3차원 좌표치를 산출한다. 계측 위치는 자기 위치 또는 자차 위치라고도 한다.
그리고, 위치 연산부(121)는, 산출한 계측 위치를 나타내는 계측 위치 데이터(201)를 생성한다.
자세 연산부(122)는, 측위 데이터(102)와 관성 계측 데이터(103)와 주행 거리 데이터(104)를 이용하여, 계측 시각에 있어서의 계측 차량(110)(또는 레이저 스캐너(115))의 자세인 계측 자세를 산출한다.
그리고, 자세 연산부(122)는, 산출한 계측 자세를 나타내는 계측 자세 데이터(202)를 생성한다.
3차원 점군 생성부(123)는, 방위 거리 데이터(105)와 계측 위치 데이터(201)와 계측 자세 데이터(202)를 이용하여, 레이저 스캐너(115)에 의해 계측된 지물을 나타내는 3차원 점군으로 나타내는 3차원 점군 데이터(203)를 생성한다.
이때, 3차원 점군 생성부(123)는, 방위 거리 데이터(105)가 나타내는 방위를 계측 자세 데이터(202)가 나타내는 계측 자세를 이용하여 보정하고, 보정 후의 방위와 계측 위치 데이터(201)가 나타내는 계측 위치와 방위 거리 데이터(105)가 나타내는 거리를 이용하여, 레이저가 조사된 지점의 3차원 좌표치를 산출한다.
3차원 점군 데이터(203)는, 계측 차량(110)에 설치된 레이저 스캐너(115)로부터 레이저를 주변의 지물에 조사하는 것에 의해 복수의 레이저 조사점까지의 방위와 거리를 계측하여 얻어지는 방위 거리 데이터(105)를 이용하여 생성되는 데이터로서, 복수의 레이저 조사점 각각의 3차원 좌표치를 나타내는 데이터이다.
위치 추정부(220)는, 계측 위치의 3차원 좌표치를 나타내는 계측 위치 데이터(201)를 이용하여, 점군 화상(310)이 표시될 때의 계측 차량(110)의 위치인 추정 위치의 3차원 좌표치를 추정한다. 추정 위치는, 현재 위치 또는 추정 자기 위치라고도 한다.
그리고, 위치 추정부(220)는, 추정한 3차원 좌표치를 나타내는 추정 위치 데이터(229)를 생성한다.
2차원 투영부(230)는, 계측 위치 데이터(201)와 계측 자세 데이터(202)와 3차원 점군 데이터(203)와 추정 위치 데이터(229)를 이용하여, 조작부(400)로부터 출력되는 조작 데이터(204)가 나타내는 정보에 따라, 투영 점군 데이터(235)와 투영 마크 데이터(236)를 생성한다. 도시를 생략하지만, 계측 위치 데이터(201)는 위치 연산부(121)로부터 2차원 투영부(230)에 입력되고, 계측 자세 데이터(202)는 자세 연산부(122)로부터 2차원 투영부(230)에 입력된다.
투영 점군 데이터(235)는, 3차원 점군 데이터(203)를 2차원 좌표치로 변환한 데이터이다. 생성된 투영 점군 데이터(235) 및 투영 마크 데이터(236)는, 표시 장치(300)에 출력된다.
2차원 투영부(230)에 있어서의 좌표 변환 처리(투영 처리)에 대해서는 후술한다.
도 5는 투영 점군 데이터(235) 및 투영 마크 데이터(236)에 근거하여 표시 장치(300)에 표시되는 점군 화상(310)의 일례를 나타내는 도면이다.
점군 화상(310)은, 3차원 점군(311)과, 계측 위치 마크(312)와, 추정 위치 마크(313)를 포함하고 있다.
3차원 점군(311)은, 계측 차량(110)에 설치된 레이저 스캐너(115)로부터 레이저를 주변의 지물에 조사하여 얻어지는 복수의 조사점을 나타내고, 3차원 점군 데이터(203)에 근거하여 표시된다. 3차원 점군(311)을 구성하는 각 점은 삼각형에 의해 나타내어지고 있다.
계측 위치 마크(312)는, 계측 차량(110)이 각종 계측 데이터를 취득했을 때의 계측 차량(110)의 위치인 계측 위치를 나타낸다. 계측 위치는 자기 위치 또는 자차 위치라고도 한다.
추정 위치 마크(313)는, 점군 화상(310)이 표시될 때의 계측 차량(110)의 위치인 추정 위치를 나타낸다. 추정 위치는 현재 위치 또는 자차 위치라고도 한다.
계측 위치 마크(312) 및 추정 위치 마크(313)는, 투영 마크 데이터(236)에 근거하여 표시된다.
도 1로 돌아가서, 점군 화상 생성 장치(100)의 설명을 계속한다.
조작부(400)는, 이용자가 지정한 시점 위치 및 시선 방향을 나타내는 조작 데이터(204)를 출력한다.
조작부(400)는, 인터페이스 화상(320), 또는, 인터페이스 화상(320)이 나타내는 유저 인터페이스를 조작하기 위한 소프트웨어 또는 하드웨어이다.
인터페이스 화상(320)은, 시점 위치 및 시선 방향을 변경하기 위한 유저 인터페이스를 나타내는 화상이다.
이용자는, 키보드 및 마우스 등의 입력 장치를 이용하여, 인터페이스 화상(320)이 나타내는 유저 인터페이스를 조작하는 것에 의해, 시점 위치 및 시선 방향을 지정한다. 이용자는, 터치 패드 또는 터치 패널 등의 입력 장치를 이용하여, 시점 위치 및 시선 방향을 지정하더라도 좋다.
도 3에 근거하여, 표시 장치(300)의 표시의 예에 대하여 설명한다.
표시 장치(300)는, 점군 화상(310)과 조작부(400)에 대응하는 인터페이스 화상(320)을 표시한다. 표시 장치(300)는, 이용자에 의해 조작되는 터치 패널을 구비하더라도 좋다.
도 4는 표시 장치(300)에 표시되는 점군 화상(310)의 시점 위치에 대하여 설명하기 위한 도면이다.
계측 차량(110)의 위치(자차 위치(401))로부터 소정 거리를 둔 위치에 기준 시점 위치(411)가 설정된다. 초기 상태에 있어서는, 해당 기준 시점 위치(411)로부터 계측 차량(110)의 진행 방향(전방)으로 향하는 시선 방향에 보이는 지물의 점군 화상(310)이 표시된다. 기준 시점 위치(411)는, 기준 위치 또는 시점 기준 위치라고도 한다.
이용자는, 조작부(400)를 통해서, 기준 시점 위치(411)로부터의 시선 방향을 소망하는 방향으로 바꿈과 아울러, 기준 시점 위치(411)에 대하여 소정의 오프셋값을 마련한 시점 위치를 설정하는 것이 가능하다.
도 6에 근거하여, 인터페이스 화상(320)의 구성에 대하여 설명한다.
인터페이스 화상(320)은, 전방 버튼(321F)과, 후방 버튼(321B)과, 좌측 버튼(321L)과, 우측 버튼(321R)과, 하방 버튼(321D)을 포함하고 있다.
전방 버튼(321F)과 후방 버튼(321B)과 좌측 버튼(321L)과 우측 버튼(321R)은 화살표의 형상을 갖는 버튼이고, 하방 버튼(321D)은 정방형의 형상을 갖는 버튼이다.
전방 버튼(321F)은 하방 버튼(321D)의 위에 배치되고, 후방 버튼(321B)은 하방 버튼(321D)의 아래에 배치되고, 좌측 버튼(321L)은 하방 버튼(321D)의 좌측에 배치되고, 우측 버튼(321R)은 하방 버튼(321D)의 우측에 배치되어 있다.
전방 버튼(321F)은, 시선 방향을 계측 차량(110)의 진행 방향으로 향하게 하기 위한 버튼이다.
후방 버튼(321B)은, 시선 방향을 계측 차량(110)의 진행 방향에 대하여 역방향으로 향하게 하기 위한 버튼이다.
좌측 버튼(321L)은, 시선 방향을 계측 차량(110)의 진행 방향에 대하여 좌측 방향으로 향하게 하기 위한 버튼이다.
우측 버튼(321R)은, 시선 방향을 계측 차량(110)의 진행 방향에 대하여 우측 방향으로 향하게 하기 위한 버튼이다.
하방 버튼(321D)은, 시선 방향을 하방 방향으로 향하게 하기 위한 버튼이다.
인터페이스 화상(320)은, 좌우 위젯(322X)과, 전후 위젯(322Y)과, 상하 위젯(322Z)과, 앙각 위젯(323P)과, 방위각 위젯(323Y)과, 취소 버튼(329)을 포함하고 있다.
좌우 위젯(322X)은, 시점 위치를 기준 시점 위치(411)에 대하여, 계측 차량(110)의 좌우 방향으로 이동시키는 이동량을 지정하기 위한 유저 인터페이스이다.
전후 위젯(322Y)은, 시점 위치를 기준 시점 위치(411)에 대하여, 계측 차량(110)의 전후 방향으로 이동시키는 이동량을 지정하기 위한 유저 인터페이스이다.
상하 위젯(322Z)은, 시점 위치를 기준 시점 위치(411)에 대하여, 계측 차량(110)의 상하 방향으로 이동시키는 이동량을 지정하기 위한 유저 인터페이스이다.
앙각(angle-of-elevation) 위젯(323P)은, 기준 시점 위치(411)로부터의 시선 방향을 수직 방향으로 소정 각도 이동시키기 위한 오프셋량을 설정하기 위한 유저 인터페이스이다.
방위각 위젯(323Y)은, 기준 시점 위치(411)로부터의 시선 방향을 수평 방향으로 소정 각도 이동시키기 위한 오프셋량을 설정하기 위한 유저 인터페이스이다.
취소 버튼(329)은, 지정된 이동량 및 지정된 오프셋량을 취소하기 위한 버튼이다.
이하, 2차원 투영부(230)의 투영 처리에 대하여 설명한다.
2차원 투영부(230)는, 계측 위치 데이터(201)와 계측 자세 데이터(202)를 이용하여 기준 시점 위치(411)를 산출하고, 해당 기준 시점 위치(411)와 조작부(400)로부터의 조작 데이터(204)를 이용하여 이용자가 지정한 시점 위치와 시선 방향을 구한다.
2차원 투영부(230)는, 이용자가 지정한 시점 위치와 시선 방향에 근거하여 3차원 점군 데이터(203)를 2차원 좌표 데이터로 변환하는 2차원 투영 처리를 행하여, 투영 점군 데이터(235)를 생성한다.
마찬가지로, 2차원 투영부(230)는, 이용자가 지정한 시점 위치와 시선 방향에 근거하여, 계측 위치 데이터(201) 및 추정 위치 데이터(229)를 각각 2차원 좌표 데이터로 변환하는 2차원 투영 처리를 행하여, 투영 마크 데이터(236)를 생성한다.
***동작의 설명***
점군 화상 생성 장치(100)의 동작은 점군 화상 생성 방법에 상당한다. 또한, 점군 화상 생성 방법은 점군 화상 생성 프로그램의 처리 순서에 상당한다.
도 7에 근거하여, 점군 화상 생성 방법에 대하여 설명한다.
스텝 S110은 계측 처리이다.
스텝 S110에 있어서, 계측 차량(110)의 각 기기는 계측을 행하고, 계측으로 얻어진 데이터를 출력한다. 출력되는 데이터는, 측위 보강 데이터(101), 측위 데이터(102), 관성 계측 데이터(103), 주행 거리 데이터(104) 및 방위 거리 데이터(105)이다.
스텝 S120은 위치 연산 처리이다.
스텝 S120에 있어서, 위치 연산부(121)는, 측위 보강 데이터(101)와 측위 데이터(102)와 관성 계측 데이터(103)와 주행 거리 데이터(104)를 이용하여, 계측 위치의 3차원 좌표치를 산출한다. 계측 위치는, 계측시의 계측 차량(110)의 위치이다.
그리고, 위치 연산부(121)는, 계측 위치의 3차원 좌표치를 나타내는 계측 위치 데이터(201)를 생성하고, 생성한 계측 위치 데이터(201)를 출력한다.
스텝 S130은 자세 연산 처리이다.
스텝 S130에 있어서, 자세 연산부(122)는, 측위 데이터(102)와 관성 계측 데이터(103)와 주행 거리 데이터(104)를 이용하여, 계측 자세를 산출한다. 계측 자세는, 계측시의 계측 차량(110)의 자세이다.
그리고, 자세 연산부(122)는, 계측 자세를 나타내는 계측 자세 데이터(202)를 생성하고, 생성한 계측 자세 데이터(202)를 출력한다.
스텝 S140은 3차원 점군 생성 처리이다.
스텝 S140에 있어서, 3차원 점군 생성부(123)는, 계측 위치 데이터(201)와 계측 자세 데이터(202)와 방위 거리 데이터(105)를 이용하여, 레이저가 조사된 각 조사점의 3차원 좌표치를 산출한다.
그리고, 3차원 점군 생성부(123)는, 각 조사점의 3차원 좌표치를 나타내는 3차원 점군 데이터(203)를 생성하고, 생성한 3차원 점군 데이터(203)를 출력한다.
스텝 S150은 위치 추정 처리이다.
스텝 S150에 있어서, 위치 추정부(220)는, 계측 위치 데이터(201)를 이용하여, 추정 위치의 3차원 좌표치를 산출한다. 추정 위치는, 점군 화상(310)이 표시될 때의 계측 차량(110)의 위치로서 추정되는 위치이다.
그리고, 위치 추정부(220)는, 추정 위치의 3차원 좌표치를 나타내는 추정 위치 데이터(229)를 생성하고, 생성한 추정 위치 데이터(229)를 출력한다.
위치 추정부(220)는, 이하와 같이 추정 위치를 산출한다.
위치 추정부(220)는, 최신의 계측 위치 데이터(201)가 취득된 시각과 현재 시각의 차이를 구하고, 최신의 계측 위치 데이터(201)가 취득된 시점에 있어서의 주행 궤적, 각속도 및 가속도로부터 현재 시각에 있어서의 자기 위치를 추정 위치로서 산출한다. 여기서, 현재 시각이란 2차원 투영부(230)로부터 출력된 투영 점군 데이터(235)와 투영 마크 데이터(236)에 근거하여 표시 장치(300)가 점군 화상(310)을 표시하는 시각이다. 이 현재 시각은, 계측 위치 데이터(201)가 취득되고 나서, 계측 위치 데이터(201)가 취득된 시각과 동 시각에 취득된 점군 화상(310)이 표시 장치(300)에 표시될 때까지 요하는 처리 시간을 고려하여 구해진다.
예컨대, 시각 T0에 있어서, 지점 P0에 존재하는 계측 차량(110)이 X축 방향으로 시속 50킬로미터로 등속 직선 운동하고 있는 것으로 한다. 이 경우, 현재 시각 T1에 있어서, 계측 차량(110)은, (50×1000/3600)×(T1-T0)[미터]만큼, 지점 P0으로부터 X축 방향으로 진행한 지점 P1에 존재하는 것이라고 추정된다.
스텝 S160은 2차원 투영 처리이다.
스텝 S160에 있어서, 2차원 투영부(230)는, 3차원 점군 데이터베이스와 계측 위치 데이터(201)와 계측 자세 데이터(202)를 이용하여, 조작 데이터(204)가 나타내는 정보에 따라, 투영 점군 데이터(235)를 생성한다.
2차원 투영부(230)는, 계측 위치 데이터(201)를 이용하여, 조작 데이터(204)가 나타내는 정보에 따라, 투영 마크 데이터(236)를 생성한다.
그리고, 2차원 투영부(230)는, 투영 점군 데이터(235)와 투영 마크 데이터(236)를 표시 장치(300)에 출력한다.
스텝 S170은 점군 화상 표시 처리이다.
스텝 S170에 있어서, 표시 장치(300)는, 투영 점군 데이터(235)와 투영 마크 데이터(236)를 이용하여 점군 화상(310)을 생성하고, 생성한 점군 화상(310)을 표시한다.
도 8에, 시선 방향마다의 점군 화상(310)을 나타낸다.
도 8의 (F)는 전방 버튼(321F)이 눌린 경우, 다시 말해, 시선 방향이 계측 차량(110)의 진행 방향인 경우의 점군 화상(310)을 나타내고 있다.
도 8의 (B)는 후방 버튼(321B)이 눌린 경우, 다시 말해, 시선 방향이 계측 차량(110)의 진행 방향에 대하여 역방향인 경우의 점군 화상(310)을 나타내고 있다.
도 8의 (L)은 좌측 버튼(321L)이 눌린 경우, 다시 말해, 시선 방향이 계측 차량(110)의 진행 방향에 대하여 좌측 방향인 경우의 점군 화상(310)을 나타내고 있다.
도 8의 (R)은 우측 버튼(321R)이 눌린 경우, 다시 말해, 시선 방향이 계측 차량(110)의 진행 방향에 대하여 우측 방향인 경우의 점군 화상(310)을 나타내고 있다.
도 8의 (D)는 하방 버튼(321D)이 눌린 경우, 다시 말해, 시선 방향이 하방 방향인 경우의 점군 화상(310)을 나타내고 있다.
도 9에, 상하 좌우의 이동 오프셋마다의 점군 화상(310)을 나타낸다.
도 9의 (0)은 상하 위젯(322Z)으로 지정된 이동량 및 좌우 위젯(322X)으로 지정된 이동량이 제로인 경우, 다시 말해, 시점 위치가 기준 시점 위치(411)와 동일한 경우의 점군 화상(310)을 나타내고 있다.
도 9의 (U)는 상하 위젯(322Z)으로 +5.0미터가 지정된 경우, 다시 말해, 시점 위치가 기준 시점 위치(411)로부터 상방으로 이동한 경우의 점군 화상(310)을 나타내고 있다.
도 9의 (D)는 상하 위젯(322Z)으로 -5.0미터가 지정된 경우, 다시 말해, 시점 위치가 기준 시점 위치(411)로부터 하방으로 이동한 경우의 점군 화상(310)을 나타내고 있다.
도 9의 (L)은 좌우 위젯(322X)으로 +5.0미터가 지정된 경우, 다시 말해, 시점 위치가 기준 시점 위치(411)로부터 좌측으로 이동한 경우의 점군 화상(310)을 나타내고 있다.
도 9의 (R)은 좌우 위젯(322X)으로 -5.0미터가 지정된 경우, 다시 말해, 시점 위치가 기준 시점 위치(411)로부터 우측으로 이동한 경우의 점군 화상(310)을 나타내고 있다.
도 10에, 전후의 이동 오프셋마다의 점군 화상(310)을 나타낸다.
도 10의 (O)는 전후 위젯(322Y)으로 지정된 이동량이 제로인 경우, 다시 말해, 시점 위치가 기준 시점 위치(411)와 동일한 경우의 점군 화상(310)을 나타내고 있다.
도 10의 (F)는 전후 위젯(322Y)으로 +5.0미터가 지정된 경우, 다시 말해, 시점 위치가 기준 시점 위치(411)로부터 전방으로 이동한 경우의 점군 화상(310)을 나타내고 있다.
도 10의 (B)는 전후 위젯(322Y)으로 -5.0미터가 지정된 경우, 다시 말해, 시점 위치가 기준 시점 위치(411)로부터 후방으로 이동한 경우의 점군 화상(310)을 나타내고 있다.
도 11에, 상하 좌우의 회전 오프셋마다의 점군 화상(310)을 나타낸다.
도 11의 (O)는 앙각 위젯(323P)으로 지정된 오프셋량 및 방위각 위젯(323Y)으로 지정된 오프셋량이 제로인 경우, 다시 말해, 2차원 투영면이 회전하지 않은 경우의 점군 화상(310)을 나타내고 있다.
도 11의 (U)는 앙각 위젯(323P)으로 +10도가 지정된 경우, 다시 말해, 2차원 투영면이 위쪽으로 기운 경우의 점군 화상(310)을 나타내고 있다.
도 11의 (D)는 앙각 위젯(323P)으로 -10도가 지정된 경우, 다시 말해, 2차원 투영면이 아래쪽으로 기운 경우의 점군 화상(310)을 나타내고 있다.
도 11의 (L)은 방위각 위젯(323Y)으로 +10도가 지정된 경우, 다시 말해, 2차원 투영면이 좌측으로 기운 경우의 점군 화상(310)을 나타내고 있다.
도 11의 (R)은 방위각 위젯(323Y)으로 -10도가 지정된 경우, 다시 말해, 2차원 투영면이 우측으로 기운 경우의 점군 화상(310)을 나타내고 있다.
***효과의 설명***
실시의 형태 1에 의해, 주행 중에 취득되는 지물의 점군 화상을 리얼타임으로 표시 가능한 시스템에 있어서, 계측 지점에 있어서 취득되는 지물의 점군 화상을 소망하는 방식으로 표시하기 위한 점군 화상 생성 장치(100)를 제공할 수 있다.
점군 화상 생성 장치(100)는, 이용자가 지정하는 시선 방향으로부터 본 3차원 점군(311)을 나타내는 점군 화상(310)을 표시할 수 있다.
이용자는, 인터페이스 화상(320)의 버튼을 누르는 것에 의해, 3차원 점군(311)을 참조하는 시선 방향을 용이하게 변경할 수 있다.
이용자는, 인터페이스 화상(320)의 위젯으로 이동량 및 오프셋량을 지정하는 것에 의해, 3차원 점군(311)을 참조하는 시선 방향을 용이하게 변경할 수 있다.
이용자는, 취소 버튼(329)을 누르는 것에 의해, 지정한 이동량 및 오프셋량을 리셋할 수 있다.
이용자는, 3차원 점군(311)을 참조하는 시선 방향을 변경하는 것에 의해, 도로에 놓인 장해물 및 도로의 함몰 부분을 다양한 방향으로부터 참조할 수 있다.
점군 화상 생성 장치(100)는, 계측 위치 마크(312)와 추정 위치 마크(313)를 점군 화상(310)에 포함시킬 수 있다.
이용자는, 계측 위치 마크(312)와 추정 위치 마크(313)를 참조하는 것에 의해, 계측 위치와 현재 위치(추정 위치)와 3차원 점군(311)의 관계를 파악할 수 있다.
이용자는, 계측 위치와 현재 위치와 3차원 점군(311)의 관계를 파악하는 것에 의해, 도로에 놓인 장해물의 위치 및 도로의 함몰 부분을 파악할 수 있다.
삼각형의 묘화는 원형의 묘화보다 용이하기 때문에, 점군 화상 생성 장치(100)는, 3차원 점군의 각 3차원 점의 형상을 삼각형으로 하는 것에 의해, 저가의 그래픽 보드를 이용하여 3차원 점군을 단시간에 묘화할 수 있다.
***다른 구성***
계측 데이터 처리부(200)는, 1대의 컴퓨터로 구성하더라도 좋고, 복수 대의 컴퓨터로 구성하더라도 좋다. 예컨대, 계측 데이터 처리부(200)는, 위치 연산부(121)와 자세 연산부(122)와 3차원 점군 생성부(123)를 구비하는 제 1 장치와, 위치 추정부(220)와 2차원 투영부(230)를 구비하는 제 2 장치에 의해 구성하더라도 좋다. 제 1 장치는 계측 차량(110)에 탑재된다. 한편, 제 2 장치는, 계측 차량(110)에 탑재되더라도 좋고, 원격지의 센터에 마련되더라도 좋다. 표시 장치(300) 및 조작부(400)는, 계측 차량(110)에 탑재되더라도 좋고, 원격지의 센터에 마련되더라도 좋다.
점군 화상(310)에 있어서, 계측 위치 마크(312)와 추정 위치 마크(313) 중 어느 하나를 생략하더라도 좋다.
계측 차량(110)의 주행 궤적을 나타내는 주행 궤적 마크를 점군 화상(310)에 추가하더라도 좋다.
인터페이스 화상(320)에 있어서, 적어도 어느 하나의 버튼 또는 위젯을 생략하더라도 좋다.
***하드웨어 구성의 설명***
도 12에 근거하여, 점군 화상 생성 장치(100)의 하드웨어 구성의 예에 대하여 설명한다.
점군 화상 생성 장치(100)는, 프로세서(901), 보조 기억 장치(902), 메모리(903), 통신 장치(904), 입력 인터페이스(905), 출력 인터페이스(906)라고 하는 하드웨어를 구비하는 컴퓨터이다.
프로세서(901)는 신호선(910)을 통해서 다른 하드웨어와 접속되어 있다. 입력 인터페이스(905)는 케이블(911)을 통해서 입력 장치(907)에 접속되어 있다. 출력 인터페이스(906)는 케이블(912)을 통해서 출력 장치(908)에 접속되어 있다.
프로세서(901)는, 프로세싱을 행하는 IC이고, 다른 하드웨어를 제어한다. 프로세서(901)의 일례는, CPU, DSP, GPU이다. IC는 Integrated Circuit의 약칭이다. CPU는 Central Processing Unit의 약칭이고, DSP는 Digital Signal Processor의 약칭이고, GPU는 Graphics Processing Unit의 약칭이다.
보조 기억 장치(902)는 데이터를 기억한다. 보조 기억 장치(902)의 일례는, ROM, 플래시 메모리, HDD이다. ROM은 Read Only Memory의 약칭이고, HDD는 Hard Disk Drive의 약칭이다.
메모리(903)는 데이터를 기억한다. 메모리(903)의 일례는 RAM이다. RAM은 Random Access Memory의 약칭이다.
통신 장치(904)는, 데이터를 수신하는 리시버(9041)와, 데이터를 송신하는 트랜스미터(9042)를 구비한다. 통신 장치(904)의 일례는, 통신 칩, NIC이다. NIC는 Network Interface Card의 약칭이다.
입력 인터페이스(905)는 케이블(911)이 접속되는 포트이고, 포트의 일례는 USB 단자이다. USB는 Universal Serial Bus의 약칭이다.
출력 인터페이스(906)는 케이블(912)이 접속되는 포트이고, USB 단자 및 HDMI 단자는 포트의 일례이다. HDMI(등록상표)는 High Definition Multimedia Interface의 약칭이다.
입력 장치(907)는 데이터, 명령 및 요구를 입력한다. 입력 장치(907)의 일례는, 마우스, 키보드, 터치 패널, 터치 패드이다.
출력 장치(908)는 데이터, 결과 및 응답을 출력한다. 출력 장치(908)의 일례는, 디스플레이, 프린터이다. 디스플레이의 일례는 LCD이다. LCD는 Liquid Crystal Display의 약칭이다.
보조 기억 장치(902)에는 OS가 기억되어 있다. OS는 Operating System의 약칭이다.
또한, 보조 기억 장치(902)에는, 위치 연산부(121), 자세 연산부(122), 3차원 점군 생성부(123), 위치 추정부(220), 2차원 투영부(230)라고 하는 「부」의 기능을 실현하는 프로그램이 기억되어 있다. 「부」의 기능을 실현하는 프로그램은 기억 매체에 기억할 수 있다.
OS의 적어도 일부는 메모리(903)에 로드되고, 프로세서(901)는 OS를 실행하면서 「부」의 기능을 실현하는 프로그램을 실행한다. 「부」의 기능을 실현하는 프로그램은, 메모리(903)에 로드되고, 프로세서(901)에 읽혀, 프로세서(901)에 의해 실행된다.
또, 점군 화상 생성 장치(100)가 복수의 프로세서(901)를 구비하고, 복수의 프로세서(901)가 「부」의 기능을 실현하는 프로그램을 협동하여 실행하더라도 좋다.
「부」의 처리의 결과를 나타내는 데이터, 정보, 신호치 및 변수치 등은, 메모리(903), 보조 기억 장치(902), 프로세서(901) 내의 레지스터, 또는, 프로세서(901) 내의 캐시 메모리에 기억된다.
「부」는 「서킷트리」로 실장하더라도 좋다. 「부」는 「회로」, 「공정」, 「순서」 또는 「처리」로 바꿔 읽더라도 좋다.
「회로」 및 「서킷트리」는, 프로세서(901), 로직 IC, GA, ASIC, FPGA라고 하는 처리 회로를 포함하는 개념이다. GA는 Gate Array의 약칭이고, ASIC는 Application Specific Integrated Circuit의 약칭이고, FPGA는 Field-Programmable Gate Array의 약칭이다.
실시의 형태 2.
도 13은 본 발명과 관련되는 실시의 형태 2에 의한 표시 시스템을 구비한 계측 차량의 일례를 나타내는 도면이다. 도 14는 실시의 형태 2에 의한 표시 시스템의 구성을 나타내는 도면이다. 도 13에 있어서, 이동체인 계측 차량(1110)은, 루프(지붕) 위에 설치된 천판 위에, 계측부(1100)를 구성하는 각종 계측 기기를 외장하고 있다. 계측 차량(1110)은, 계측부(1100), 및 후술하는 계측 데이터 처리부(1200), 표시 장치(1300), 및 조작부(1400)를 탑재하여, MMS를 구성하고 있다. 계측 차량(1110)은, 운전수와, 표시 시스템의 조작자와, 표시 시스템의 화면 표시를 응시하여 노면을 검사하는 검사원 등이 탑승한다.
도 14에 있어서, 실시의 형태 2에 의한 표시 시스템은, 계측 차량(1110)에 외장된 계측부(1100)와, 계측 데이터 처리부(1200)와, 표시 장치(1300)와, 조작부(1400)로 구성되어, 표시 장치(1300)에 노면 상태를 표시한다. 계측 데이터 처리부(1200)는 데이터 처리 유닛을 구성하고, 계측 차량(1110)의 차내에 탑재된다. 계측 데이터 처리부(1200)는, 위치 자세 계측부(1206)와, 레이저 점군 3차원화 처리부(1203)와, 2차원 투영 변환 처리부(1204)와, 자기 위치 설정부(1205)와, 점군 인식 처리부(1250)로 구성된다. 또한, 표시 장치(1300) 및 조작부(1400)는, 계측 차량(1110)의 차내에 탑재된다.
또, 표시 장치(1300) 또는 조작부(1400)는, 계측 차량(1110)의 외부에 구성되더라도 좋고, 이 경우는, 계측 데이터 처리부(1200)와, 표시 장치(1300) 및 조작부(1400)를, 무선 데이터 전송 장치에 의해 접속한다.
계측부(1100)는, 측위 보강 신호 수신부(1101)와, GNSS 수신기(1102)와, IMU(1103)와, 오도메트리 장치(1104)와, 레이저 스캐너(1105)로 구성되고, 각종 계측 데이터를 각 측정 시각에 취득한다. IMU는 Inertial Measurement Unit의 약칭이다. 계측부(1100)는, 클록 펄스를 계수하여 측정 시각을 계측한다. 계측 데이터 처리부(1200)는, 계측부(1100)에 의해 얻어진 각종 계측 데이터를 처리하고, 점군 화상 데이터(1013)를 생성한다. 계측 데이터 처리부(1200)는, CPU(Central Processing Unit)와 기억 장치 등으로 구성한다. 표시 장치(1300)는, 계측 데이터 처리부(1200)에 의해 생성된 점군 화상 데이터(1013)로부터 점군 화상을 표시한다. 조작부(1400)는, 표시 장치(1300)에 표시되는 점군 화상의 시점, 시점 방향 등의 시점 정보(1012)를 입력하는 것에 의해 점군 화상의 표시 방식을 지정한다.
측위 보강 신호 수신부(1101)는, 전 지구 측위 시스템 GNSS(Global Navigation Satellite System) 위성 또는 지상의 무선 LAN 또는 휴대 전화 회선에 의해, 후술하는 자기 위치 연산부(1201)에 있어서의 자기 위치의 고정밀 측위 연산에 이용하는 측위 보강 데이터(1001)를 취득한다. GNSS 위성은, GPS, GLONASS(Global Navigation Satellite System), GALILEO, 준천정 위성 등이다.
또, 준천정 위성은, 일본 내에 있어서 60° 이상의 높은 앙각에 위치하기 때문에, 측위 보강 신호 수신부(1101)는, 준천정 위성으로부터 비교적 끊임없이 측위 보강 정보를 수신할 수 있다.
측위 보강 정보는, GNSS 위성으로부터 전달되는 경우와, GNSS 보정 정보 전달 서비스 사업자로부터 무선 LAN 또는 휴대 전화망을 통해서 전달되는 경우가 생각된다. 측위 보강 정보를 전달하는 GNSS 위성이 준천정 위성인 경우, ㎝(센티미터)급 측위 정밀도의 보강을 행하는 측위 보강 정보는, 준천정 위성이 송신하는 L6대역의 신호에 포함된다. 측위 보강 정보는, GNSS 위성의 위성 시계 오차, 궤도 오차, 및 주파수간 바이어스와, GNSS 위성과 관측점의 사이에 있어서의 L6대역의 신호의 전리층 전파 지연 오차 및 대류권 지연 오차로 이루어진다.
GNSS 수신기(1102)는, GPS, GLONASS, GALILEO, 준천정 위성 등의 GNSS 측위 신호를 수신하고, 계측 차량의 위치를 나타내는 측위 데이터(1002)를 예컨대 0.1초보다 짧은 간격(예컨대 10㎐)으로 취득한다. 취득한 측위 데이터(1002)는, 계측 시각의 시각 태그와 함께 출력된다. GNSS 측위 신호는, GPS 위성, GLONASS 위성, GALILEO 위성 등의 GNSS 위성으로부터 발신되는 L1대역, L2대역, L5대역의 GNSS 신호이고, GNSS 위성과 관측점의 사이의 시간차(의사 거리), 반송파 위상, 시각을 계측할 수 있다. 또한, GNSS 측위 신호의 관측 데이터는, 얼머낵(almanac), 궤도 정보, 시계의 보정치, 전리층 보정 데이터, 헬스 데이터 등으로 이루어지는 항법 메시지와, 신호 반송파를 변조한 C/A 코드, P 코드 등의 코드 정보가 포함된다. GNSS 측위 신호의 코드, 반송파 위상 등의 관측 데이터를 이용하여, 높은 정밀도의 리얼타임 측위를 행할 수 있다.
또, GNSS 수신기(1102)는, 3개의 GNSS 신호 수신 안테나와, 각각의 GNSS 신호 수신 안테나에 접속된 3개의 수신기로 구성되면 된다. 이 경우, 3개의 GNSS 신호 수신 안테나 및 수신기를 이용함으로써, GNSS 측위 신호를 이용하여 계측 차량(1110)의 자세를 계측할 수 있다.
물론, 1개 또는 2개의 GNSS 신호 수신 안테나와, 각각의 GNSS 신호 수신 안테나에 접속된 1개 또는 2개의 수신기로 구성되더라도 좋다. 또한, GNSS 수신기(1102)와 측위 보강 신호 수신부(1101)를 일체적으로 구성하더라도 좋다.
GNSS 수신기(1102)가 N개(N은 2 이상의 정수)의 GNSS 신호 수신 안테나 및 수신기로 구성되는 경우, 미리 N개의 GNSS 수신기(1102)의 중심 위치로부터 레이저 스캐너(1105)까지의 위치 벡터를 구한다. 그리고, N개의 GNSS 수신기(1102)의 계측 데이터의 중심 위치로부터 해당 위치 벡터를 빼서 얻어지는 위치 좌표를, 계측 차량(1110)의 레이저 스캐너(1105)의 위치로서 구한다.
IMU(1103)는, 계측 차량의 3축 방향의 기울기(피치각(pitch angle), 롤각(roll angle), 요각(yaw angle))를 나타내는 각도 데이터, 각속도 데이터(1003)를 취득하는 자이로와, 3축 방향의 가속도 데이터(1006)를 취득하는 가속도 센서로 구성된다. IMU(1103)는, 각도 데이터, 각속도 데이터(1003), 가속도 데이터(1006)를 예컨대 0.1초보다 짧은 간격(예컨대 100㎐)으로 측정 시각과 함께 출력한다.
오도메트리 장치(1104)는, 오도메트리 수법에 의해, 계측 차량의 바퀴의 회전에 따라 얻어지는 타이어의 회전 속도 또는 차속 펄스로부터, 타이어의 회전 반경과 회전수의 적분에 의해 주행 거리를 나타내는 주행 거리 데이터(1004)를 취득한다. 오도메트리 장치(1104)는, 주행 거리 데이터(1004)를 예컨대 0.1초보다 짧은 간격(예컨대 10㎐)으로 측정 시각과 함께 출력한다.
레이저 스캐너(1105)는 펄스 변조한 레이저를 출사한다. 레이저 스캐너(1105)는, 광학 거울을 회전시키는 것에 의해 레이저의 출사 방향을 바꾸어 주사를 행한다. 레이저 스캐너(1105)는, 소정의 주사 속도(예컨대 100회전/초)로 계측 차량의 주위에 위치하는 지물을 스캔하고, 레이저의 출사 시각과 지물로부터 반사된 레이저의 수신 시각의 차이로부터 구해지는 해당 지물까지의 「거리」를 복수의 주사점에 있어서 구한다. 또한, 레이저 스캐너(1105)는, 각 주사점에 있어서의 레이저의 출사 방향을 나타내는 「방향」을 구하고, 거리 방향 데이터(1005)로서 출력한다. 또한, 레이저 스캐너(1105)는, 레이저의 출사 방향의 물체에 있어서의 레이저 조사점으로부터 반사한 레이저 펄스를 수신하고, 수신한 레이저 펄스의 에너지 수신 강도를, 「레이저 반사 강도」로서 취득한다. 레이저 스캐너(1105)는, 자기의 측정 시각에 관련시켜 거리 방향 데이터(1005)와 레이저 반사 강도를 관리하고, 예컨대 1초 동안에 3만회의 거리 방향 데이터(1005)와 레이저 반사 강도 데이터와 데이터의 측정 시각을 출력한다.
또, GNSS 위성으로부터 전달되어, GNSS 수신기(1102)에 의해 수신된 시각 데이터를 바탕으로, 레이저 스캐너(1105)의 측정 시각을 보정하더라도 좋다.
다음으로, 위치 자세 계측부(1206)는, 계측 차량(1110)의 이동 시간 중에, 계측 차량(1110)의 자기 위치를 계측하는 자기 위치 연산부(1201), 및 계측 차량(1110)의 자세를 계측하는 자세 연산부(1202)로 구성된다.
자기 위치 연산부(1201)는, 측위 보강 신호 수신부(1101)로부터의 측위 보강 데이터(1001), GNSS 수신기(1102)로부터의 측위 데이터(1002), IMU(1103)로부터의 계측 정보, 오도메트리 장치(1104)로부터의 주행 거리 데이터(1004) 및 각각의 측정 시각에 근거하여, 데드 레코닝(dead reckoning)에 의한 GNSS/INS 복합 항법 연산을 행한다. GNSS는 Global Navigation Satellite System의 약칭이고, INS는 Inertial Navigation System의 약칭이다. 자기 위치 연산부(1201)는, GNSS/INS 복합 항법 연산에 의해, 거리 방향 데이터(1005)의 측정 시각에 있어서의 계측 차량(1110)의 위치를 나타내는 자기 위치 데이터와, 계측 차량(1110)의 속도, 가속도, 각속도의 데이터를 산출한다. IMU(1103)로부터의 계측 정보란, 각속도 데이터(1003) 및 가속도 데이터(1006) 등이다. 자기 위치 연산부(1201)는, 자기 위치 데이터와 그 측정 시각을, 2차원 투영 변환 처리부(1204) 및 자기 위치 설정부(1205)에 출력한다. 또한, 자기 위치 연산부(1201)는, 가속도 데이터(1006)와 각속도 데이터(1003)와 그들의 측정 시각을, 자기 위치 설정부(1205)에 출력한다.
자세 연산부(1202)는, GNSS 수신기(1102)로부터의 측위 데이터(1002), IMU(1103)로부터의 계측 정보, 오도메트리 장치(1104)로부터의 주행 거리 데이터(1004) 및 각각의 측정 시각에 근거하여, 데드 레코닝에 의한 GNSS/INS 복합 항법 연산을 행한다. 이 GNSS/INS 복합 항법 연산에 의해, 자세 연산부(1202)는, 거리 방향 데이터(1005)의 측정 시각에 있어서의 계측 차량(1110)에 탑재된 레이저 스캐너(1105)의 자세를 나타내는 자세 데이터(1008)를 산출한다. 자세 연산부(1202)는, 자세 데이터(1008)와 그 측정 시각을, 2차원 투영 변환 처리부(1204) 및 자기 위치 설정부(1205)에 출력한다.
레이저 점군 3차원화 처리부(1203)는, 계측 차량(1110)의 이동 시간 중에, 자세 연산부(1202)로부터의 자세 데이터(1008) 및 측정 시각, 자기 위치 연산부(1201)로부터의 자기 위치 데이터(1007) 및 측정 시각, 레이저 스캐너(1105)로부터의 계측 데이터에 근거하여, 각각의 시각의 동기를 취하면서, 3차원 좌표 점군 데이터(1010)를 생성한다. 레이저 스캐너(1105)로부터의 계측 데이터는, 거리 방향 데이터(1005), 레이저 반사 강도 및 측정 시각으로 이루어진다. 3차원 좌표 점군 데이터(1010)는, 상기 계측 데이터에 있어서 각 측정 시각에 순차적으로 취득되는, 지물 또는 노면에 있어서의 레이저 스캐너(1105)의 각 레이저 반사점(이하, 레이저 계측점 또는 계측점)을 나타내는 3차원 좌표 및 그 휘도 데이터로 이루어지는 3차원 좌표점의 모임으로 구성된다. 레이저 점군 3차원화 처리부(1203)는, 생성한 3차원 좌표 점군 데이터(1010)를 점군 인식 처리부(1250)에 순차적으로 출력한다. 이때 3차원 좌표 점군 데이터(1010)에 있어서의 각 3차원 좌표점의 휘도 데이터는, 대응하는 레이저 반사점의 레이저 반사 강도를 소정 비트수의 계조(예컨대 그레이 스케일 계조)로 표현한다.
여기서 레이저 점군 3차원화 처리부(1203)는, 계측 차량(1110)에 탑재된 레이저 스캐너(1105)의 자세를 나타내는 자세 데이터(1008)에 근거하여, 거리 방향 데이터(1005)에 포함되는 「방향」을, ENU 좌표계로 표현된 「방향」으로 보정하는 처리를 행한다. 거리 방향 데이터(1005)에 포함되는 「방향」은, 계측 차량(1110)의 고정 좌표계(국소 좌표계)로 표현된 레이저의 출사 방향을 나타낸다. ENU 좌표계는, E(동쪽 방향), N(북쪽 방향), U(천정 방향)의 3축의 절대 좌표계이다.
또한, 레이저 점군 3차원화 처리부(1203)는, 자기 위치 연산부(1201)의 자기 위치 데이터(1007)로부터 계측 차량(1110)의 위치를 얻는다. 그리고, 레이저 점군 3차원화 처리부(1203)는, 상기 보정 후의 레이저의 출사 방향의 거리 방향 데이터(1005)에 포함되는 레이저의 반사점까지의 「거리」와 계측 차량(1110)의 위치에 근거하여, 레이저 조사점의 위치를 ENU 좌표계로 표현함으로써, 상기 3차원 좌표 점군 데이터(1010)에 있어서의 각 3차원 좌표점의 3차원 좌표를 구한다.
점군 인식 처리부(1250)는, 계측 차량(1110)의 이동 시간 중에, 레이저 점군 3차원화 처리부(1203)로부터 출력되는 3차원 좌표 점군 데이터(1010)에 있어서의 각 3차원 좌표점에 대하여, 그 높이와 계측 차량(1110)의 기준 높이의 차이를 구한다. 그리고, 점군 인식 처리부(1250)는, 구한 높이의 차이에 따라 미리 설정된 색 정보를 선택하여, 3차원 좌표점을 착색한다. 계측 차량(1110)의 기준 높이는, 예컨대 계측 차량(1110)의 타이어의 접지면의 높이(계측 차량(1110)이 주행하는 면의 높이)로 설정한다. 색 정보는, 예컨대 기준 높이로부터, 상하 방향(높이 방향)으로 5㎝의 높이 간격으로 구획한 구역마다, 상이한 색을 미리 설정하여 둔다. 이것에 의해, 예컨대, 3차원 좌표점이 계측 차량(1110)의 기준 높이보다 0㎝ 이상 5㎝ 미만 높은 경우는 제 1 색(예컨대 황색), 5㎝ 이상 10㎝ 미만 높은 경우는 제 2 색(예컨대 적색)으로 하고, 10㎝ 이상 15㎝ 미만 높은 경우는 제 3 색(예컨대 분홍색)으로 한다. 또한, 예컨대, 3차원 좌표점이 계측 차량(1110)의 기준 높이보다 0㎝ 이상 5㎝ 미만 낮은 경우는 제 4 색(예컨대 황록색)으로 하고, 5㎝ 이상 10㎝ 미만 낮은 경우는 제 5 색(예컨대 담청색)으로 하고, 10㎝ 이상 15㎝ 미만 낮은 경우는 제 6 색(예컨대 청색)으로 한다. 또한, 3차원 좌표 점군 데이터(1010)에 있어서, 기준 높이로부터 소정의 높이까지의 범위인 색 구분 범위로부터 벗어난 각 3차원 좌표점에 대해서는, 휘도 데이터에 근거하는 그레이 스케일의 색 정보를 부여한다. 예컨대 노면보다 15㎝ 이상 높은 위치 및 노면보다 15㎝ 이상 낮은 위치에 대해서는, 흑색으로부터 백색의 사이의 휘도 데이터에 따른 계조의 회색을 색 정보로 한다.
또, 점군 인식 처리부(1250)는, 자세 연산부(1202)로부터 자세 데이터(1008)를 얻어, 자세 데이터(1008)에 근거하여 자기의 진행 방향(계측 차량(1110)의 바퀴가 굴러 진행하는 방향 또는 계측 차량(1110)의 전후 방향)을 인식하더라도 좋다. 이것에 의해, 점군 인식 처리부(1250)는, 자기의 진행 방향에 수직인 계측 차량(1110)의 차폭 방향으로, 일반적인 도로의 폭(예컨대 폭 4m 이상의 폭) 이상의 위치를 도로의 경계선으로 간주할 수 있다. 그리고, 점군 인식 처리부(1250)는, 도로의 경계선보다 바깥쪽의 영역에 대하여, 3차원 좌표 점군 데이터(1010)에 대하여 휘도 데이터에 따른 계조의 그레이 스케일의 색 정보를 부여하여, 색을 갖는 3차원 좌표 점군 데이터(1011)를 생성하더라도 좋다.
점군 인식 처리부(1250)는, 레이저 점군 3차원화 처리부(1203)가 측정 시각마다 순차적으로 생성하는, 3차원 좌표 점군 데이터(1010)에 있어서의 각 레이저 반사점에 대응한 3차원 좌표점의 3차원 좌표 및 그 휘도 데이터에 대하여, 상기 선택한 색 정보를 부여하여 색을 갖는 3차원 좌표 점군 데이터(1011)를 생성한다. 그리고, 점군 인식 처리부(1250)는, 생성 데이터를 2차원 투영 변환 처리부(1204)에 입력한다.
자기 위치 설정부(1205)는, 자기 위치 연산부(1201)로부터 3차원 좌표(ENU 좌표계)로 표현되는 자기 위치 데이터(1007) 및 가속도, 각속도 데이터(1003)가 입력된다. 자기 위치 설정부(1205)는, 자세 연산부(1202)로부터 3차원 좌표계(ENU 좌표계)로 표현되는 자세 데이터(1008)가 입력된다. 자기 위치 설정부(1205)는, 입력된 자기 위치 데이터(1007)를 메모리에 저장한다. 자기 위치 설정부(1205)는, 현재 시각 t0에 자기 위치 연산부(1201)로부터 입력되는 자기 위치 데이터(1007)와, 현재 시각 t0으로부터 소정 시각 nΔt(n=1, 2, …, N(양의 정수)) 전까지의 복수의 자기 위치 데이터(t0-Δt, t0-2Δt, …, t0-NΔt)로 이루어지는 궤적 데이터를 출력한다. 또한, 자기 위치 설정부(1205)는, 최신의 자기 위치 데이터(1007)가 취득된 시각과 현재 시각의 차이를 구한다. 다음으로, 자기 위치 설정부(1205)는, 최신의 자기 위치 데이터(1007)가 취득된 시점에 있어서의 주행 궤적을 구성하는 궤적 데이터, 속도, 가속도, 각속도로부터, 운동학에 근거하여 현재 시각에 있어서의 자기 위치를 추정하고, 추정 자기 위치 데이터로서 2차원 투영 변환 처리부(1204)에 출력한다. 또한, 복수의 자기 위치 데이터(1007)를 통과하는 스플라인 곡선을 산출하여, 추정 자기 위치를 구하더라도 좋다. 스플라인 곡선을 이용하는 경우, 궤적 데이터로서 복수의 속도, 가속도, 각속도를 이용하더라도 좋다.
2차원 투영 변환 처리부(1204)는, 계측 차량(1110)의 이동 시간 중에, 조작부(1400)에 의해 지정된 시점 정보(1012)와 자세 연산부(1202)로부터 입력되는 자세 데이터(1008)와 자기 위치 설정부(1205)로부터 입력되는 자기 위치 데이터(1007) 또는 추정 자기 위치 데이터(1009)에 근거하여, 색을 갖는 3차원 좌표 점군 데이터(1011)로부터, 3차원 좌표 점군 데이터(1010)의 각 3차원 좌표점을 화면 표시용으로 2차원 화면에 순차적으로 투영한다. 또, 색을 갖는 3차원 좌표 점군 데이터(1011)는, 색 정보가 부여된 3차원 좌표 점군 데이터(1010)이고, 점군 인식 처리부(1250)가 측정 시각마다 순차적으로 생성한다.
다음으로, 2차원 투영 변환 처리부(1204)는, 2차원 좌표점으로 표현한 점군 데이터(이하, 2차원 좌표 점군 데이터)를, 점군 화상 데이터(1013)로서 생성한다.
그리고, 2차원 투영 변환 처리부(1204)는, 생성한 점군 화상 데이터(1013)를 표시 장치(1300)에 입력함으로써, 표시 장치(1300)에 노면 주변이 착색된 점군 화상을 화면 표시한다.
또한, 2차원 투영 변환 처리부(1204)는, 계측 차량(1110)의 이동 시간 중에, 조작부(1400)에 의해 지정된 시점 정보(1012)와 자세 연산부(1202)로부터 입력되는 자세 데이터(1008)와 자기 위치 설정부(1205)로부터 입력되는 자기 위치 데이터(1007) 또는 추정 자기 위치 데이터(1009)에 근거하여, 마크 데이터(1014)를 생성한다. 마크 데이터(1014)는, 자기 위치 마크 또는 추정 자기 위치 마크와, 궤적 마크를 각각 형성한다.
조작부(1400)는, 계측 차량(1110)의 이동 시간 중에, 조작자의 입력 정보에 근거하여, 계측 차량(1110)에 고정된 국소 좌표계로부터 본 시점 정보(1012)를 출력한다. 시점 정보(1012)는, 시점과 시선 방향으로 구성되고, 조작자의 입력에 의해 시점과 시선 방향이 변경된다. 조작부(1400)는, 표시 장치(1300)에 표시되는 점군 화상의 시점 위치, 시점 위치의 조정량 등을 입력하는 것에 의해, 점군 화상의 표시 방식을 지정한다.
도 15는 실시의 형태 2에 의한 점군 화상을 표시하는 표시 장치(1300)의 표시 화면을 예시하는 도면이다. 도면에 나타내는 바와 같이, 표시 장치(1300)는, 주행 중의 계측 차량(1110)에 의해 취득된 3차원 좌표 점군(1501)으로부터 형성되는 점군 화상을 표시한다. 점군 화상은, 지물(1502)을 나타내는 화상, 및 노면(1503)을 나타내는 화상이 포함된다. 또한, 점군 화상은, 점군 인식 처리부(1250)에 의해 부여되는 색 정보에 근거하여, 3차원 좌표점이 착색된 등고선 모양의 점군 그래프(이하, 등고선 그래프(1509))를 형성한다. 등고선 그래프(1509)는, 등고선 모양의 점군 그래프이며, 점군으로 표현한 단채도(段彩圖) 또는 윤곽도이다. 또한, 표시 장치(1300)는, 2차원 투영 변환 처리부(1204)의 마크 데이터(1014)에 근거하여, 자기 위치 마크(1504), 추정 자기 위치 마크(1505), 궤적 마크(1506)의 화상을 각각 표시한다.
도 15에 나타내는 바와 같이, 계측 차량(1110)의 이동 시간 중에 있어서, 표시 장치(1300)의 표시 화면에 노면(1503)의 등고선 그래프(1509)를 표시한다. 이것에 의해, 노면(1503)에 있어서의 요철 상태, 노면 높이가 낮은 영역, 노면 높이가 높은 영역, 노면이 솟아올라 있는 영역, 노면에 구멍이 뚫려 있다고 유추되는 영역 등을, 표시 장치(1300)의 표시 화면 상에 즉시 명시할 수 있다. 그리고, 노면의 검사원은, 계측 차량(1110)의 이동 시간 중에, 표시 시스템(1210)을 이용하여, 도로의 노면 상태의 변화를 즉시 발견할 수 있다. 따라서, 어떤 노면 이상(노면 상태의 변화)이나 노면 상의 장해물이 발생한 경우에도, 그 자리에서 도로 관리자에게 노면 상태의 정보를 통보하거나, 다른 통행 차량에 노면 상태의 정보를 전달하는 등의 대처를 행하는 것이 가능하게 된다.
도 16은 실시의 형태 2의 표시 시스템에 있어서의, 점군 화상의 시점을 조작하는 조작부(1400)의 표시의 예를 나타내는 도면이다.
조작부(1400)는, 계측 차량의 전방, 후방, 우측, 좌측의 4방향에 보이는 지물의 점군 화상을 전환하여 표시하기 위한 전방 보기 선택 버튼(1601), 후방 보기 선택 버튼(1602), 우측 보기 선택 버튼(1603), 좌측 보기 선택 버튼(1604)의 4개의 입력 버튼을 구비한다. 또한, 조작부(1400)는, 위쪽에서 아래쪽으로 본 지물의 점군 화상(조감도)을 표시하기 위한 하방 보기 선택 버튼(1605)의 입력 버튼을 중앙에 구비한다. 전방 보기 선택 버튼(1601), 후방 보기 선택 버튼(1602), 우측 보기 선택 버튼(1603), 좌측 보기 선택 버튼(1604)의 각 입력 버튼은, 조작자가 직관적으로 이해하기 쉽도록, 예컨대 시선 방향을 향한 화살표 형상으로 표현된다. 하방 보기 선택 버튼(1605)의 입력 버튼은, 조작자가 직관적으로 이해하기 쉽도록, 예컨대 4각형 형상으로 표현된다.
조작부(1400)는 기준의 시점 위치에 대하여, 수평(X), 수직(Z), 전후(Y)의 방향의 오프셋값(1606)을 입력 설정하기 위한 설정부를 더 구비한다. 또한, 조작부(1400)는, 기준 시점 위치로부터의 시선 방향을 수평 방향(Yaw) 및 수직 방향(Pitch)으로 소정 각도 이동시키기 위한 시점 위치의 조정량인 오프셋값(1607)을 입력 설정하기 위한 설정부를 구비한다.
또한, 조작부(1400)는, 오프셋값(1606, 1607)을 초기화하기 위한 클리어 버튼(1608)을 구비한다.
2차원 투영 변환 처리부(1204)는, 조작부(1400)를 통해서 입력되는 기준의 시점 위치에 대한 오프셋값(1606, 1607)에 근거하여 시점 위치를 산출한다. 그리고, 2차원 투영 변환 처리부(1204)는, 조작부(1400)에 의해 지정되는 전방, 후방, 우측, 좌측, 하방 중 어느 하나의 시선 방향에 보이는 지물의 점군 화상의 3차원 좌표 데이터를, 산출한 시점 위치 및 전방, 후방, 우측, 좌측, 하방 중 어느 하나의 시선 방향을 기준으로 2차원 평면에 투영하여, 2차원 투영 변환 처리를 행한다. 2차원 투영 변환 처리는, 3차원 좌표 데이터를 2차원 좌표 데이터로 변환하는 처리이다.
점군 화상 데이터(1013)는, 2차원 투영 변환 처리부(1204)에 의해 2차원 투영 처리된 지물 및 노면을 포함한다. 이 점군 화상 데이터(1013)는, 자기 위치 마크(1504)의 2차원 좌표 데이터와, 추정 자기 위치 마크(1505)의 2차원 좌표 데이터와, 궤적 마크(1506)의 2차원 좌표 데이터와 함께, 표시 장치(1300)에 출력된다.
자기 위치 마크(1504)의 2차원 좌표 데이터는, 자기 위치 설정부(1205)로부터 입력되는 자기 위치 데이터(1007)(3차원 좌표의 데이터)에 의해 나타내어진다.
현재의 자기 위치를 나타내는 추정 자기 위치 마크(1505)의 2차원 좌표 데이터는, 자기 위치 설정부(1205)로부터 입력되는 추정 자기 위치 데이터(1009)(3차원 좌표의 데이터)에 의해 나타내어진다.
궤적 마크(1506)의 2차원 좌표 데이터는, 자기 위치 설정부(1205)로부터 입력되는 과거의 복수의 자기 위치 데이터(1007)(3차원 좌표의 데이터)를 나타낸다.
여기서, 현재 시각이란, 2차원 투영 변환 처리부(1204)로부터 출력된 2차원 점군 좌표 데이터에 근거하여, 표시 장치(1300)가 화상 표시를 행하는 시각이다. 이 현재 시각은, 자기 위치 연산부(1201)에 의해 자기 위치 데이터(1007)가 취득되고 나서, 해당 자기 위치 데이터(1007)와 동 시각에 취득된 점군 화상이, 2차원 투영 변환 처리부(1204)에서 생성되어, 표시 장치(1300)에 전송된 후, 표시 장치(1300)에서 표시될 때까지 요하는 처리 시간(지연 시간)을 고려하여 구해진다. 예컨대 해당 지연 시간으로서 대략 1초 정도가 설정된다. 이 지연 시간은, 계측 데이터 처리부(1200)를 구성하는 CPU의 처리 속도나, 데이터 전송 지연 시간 등에 따라 변화한다(지연 시간은 구성 기기에 따라 상이하지만, 예컨대 0.1초 내지 3초 정도이다). 이 때문에 자기 위치 마크(1504)는, 추정 자기 위치 마크(1505)보다 상기 지연 시간만큼 지연된 위치에 표시된다. 바꿔 말하면, 추정 자기 위치 마크(1505)는 자기 위치 마크(1504)의 표시 위치에 있어서의 상기 지연 시간만큼을 보정한 위치로서, 보다 현재 시각의 계측 차량(1110) 및 레이저 스캐너(1105)의 현재 자기 위치에 가까운 위치를 표시하게 된다.
예컨대 차량이 시각 T0[s]에 있어서 지점 P0에 있고, X축 방향으로 50[㎞/h]로 등속 직선 운동하고 있었다고 하면, 현재 시각 T1[s]에는, P0으로부터 50×1000/3600×(T1-T0)[m]만큼, X축 방향으로 진행한 지점 P1에 존재한다고 추정한다.
또, 조작부(1400)는, 자기 위치(1609) 및 추정 자기 위치(1610)의 표시 여부를 제어하는 전환 버튼을 마련하더라도 좋다. 예컨대 자기 위치(1609)를 누름으로써 자기 위치 마크를 표시하고, 자기 위치(1609)를 다시 누름으로써 자기 위치 마크를 비표시로 한다. 또한, 예컨대 추정 자기 위치(1610)를 누름으로써 추정 자기 위치 마크를 표시하고, 추정 자기 위치(1610)를 다시 누름으로써 추정 자기 위치 마크를 비표시로 한다.
2차원 투영 변환 처리부(1204)는, 상술한 바와 같이, 자기 위치 설정부(1205)로부터 자기 위치 데이터(1007) 및 추정 자기 위치 데이터(1009)가 입력되면, 자기 위치 마크 및 추정 자기 위치 마크에 대하여, 조작부(1400)의 시점 정보(1012)에 근거하여 2차원 좌표 데이터로 변환하는 변환 처리를 행한다. 자기 위치 마크는 3차원 좌표에서의 자기 위치 데이터(1007)를 나타내고, 추정 자기 위치 마크는 추정 자기 위치 데이터(1009)를 나타낸다.
그리고, 2차원 투영 변환 처리부(1204)는, 자기 위치 마크와 추정 자기 위치 마크에 대한 2차원 좌표 데이터를 점군 화상 데이터(1013)와 함께 표시 장치(1300)에 출력한다.
이상의 처리를 행하는 것에 의해, 2차원 투영 변환 처리부(1204)는, 측정 시각마다 생성되는 점군 화상 데이터(1013)의 좌표 데이터, 및 자기 위치, 현재의 추정 자기 위치를 나타내는 좌표 데이터에, 시점으로부터 본 2차원 화상으로의 투영 변환 처리를 행한다. 그리고, 2차원 투영 변환 처리부(1204)는, 레이저 스캐너(1105)에 의해 순차적으로 취득되는 지물의 3차원 형상을 나타내는 화상을 표시 장치(1300)에 출력한다.
도 17은 도 16에 나타내는 조작부(1400)의 5개의 입력 버튼의 각 선택에 의해, 전환 표시되는 점군 화상의 일례를 나타내는 도면이다. 도 17에 있어서, (a)는 하방, (b)는 좌측, (c)는 우측, (d)는 전방, (e)는 후방에 보이는 점군 화상을 각각 나타내고 있다. 도시의 간략화를 위해, 도면 중에 등고선 그래프(1509)의 표시를 생략하고 있다.
도 18은 도 16에 나타내는 조작부(1400)의 오프셋값의 설정부에 있어서, 기준이 되는 시점 위치에 대하여 수평 및 수직 방향으로 소정의 오프셋값을 설정한 경우에 표시되는 점군 화상의 일례를 나타내는 도면이다. 도 18에 있어서, (a)는 기준 시점 위치로부터 본 점군 화상이고, (b)는 좌측으로 5m, (c)는 우측으로 5m, (d)는 상방으로 5m, (e)는 하방으로 5m의 오프셋값을 설정한 경우의 화상이다. 도시의 간략화를 위해, 도면 중에 등고선 그래프(1509)의 표시를 생략하고 있다.
도 19는 도 16에 나타내는 조작부(1400)의 오프셋값의 설정부에 있어서, 기준이 되는 시점 위치에 대하여, 전후로 소정의 오프셋값을 설정한 경우에 표시되는 점군 화상의 일례를 나타내는 도면이다. 도 19에 있어서, (a)는 기준 시점 위치로부터 본 점군 화상이고, (b)는 전방으로 5m, (c)는 후방으로 5m의 오프셋값을 설정한 경우의 화상이다. 도시의 간략화를 위해, 도면 중에 등고선 그래프(1509)의 표시를 생략하고 있다.
도 20은 도 16에 나타내는 조작부(1400)의 오프셋값의 설정부에 있어서, 기준이 되는 시선 방향에 대하여, 수평 및 수직 방향으로 소정 각도의 오프셋값을 설정한 경우에 표시되는 점군 화상의 일례를 나타내는 도면이다. 도 20에 있어서, (a)는 기준 시선 방향으로 본 점군 화상이고, (b)는 좌측 방향으로 10°, (c)는 우측 방향으로 10°, (d)는 상방으로 10°, (e)는 하방으로 10°의 오프셋값을 설정한 경우의 화상이다. 도시의 간략화를 위해, 도면 중에 등고선 그래프(1509)의 표시를 생략하고 있다.
이상 설명한 바와 같이, 실시의 형태 2에 의한 표시 시스템(1210)은, 위치 자세 계측부(1206)와, 레이저 점군 3차원화 처리부(1203)와, 점군 인식 처리부(1250)와, 조작부(1400)와, 2차원 투영 변환 처리부(1204)와, 표시 장치(1300)를 구비한 것을 특징으로 한다.
위치 자세 계측부(1206)는, 이동체인 계측 차량(1110)의 이동 중에, 해당 계측 차량(1110)의 위치 및 자세를 계측한다.
레이저 점군 3차원화 처리부(1203)는, 계측 차량(1110)의 이동 중에, 해당 계측 차량(1110)이 갖는 레이저 스캐너(1105)에 의해 순차적으로 얻어지는 계측점의 거리 및 방향 정보와, 상기 위치 자세 계측부(1206)에 의해 순차적으로 얻어지는 계측 차량(1110)의 위치 및 자세에 근거하여, 해당 계측점의 3차원 위치 좌표를 순차적으로 계측한다. 계측점은 레이저 조사점에 대응한다. 또한, 계측점의 거리 및 방향 정보는, 레이저 스캐너(1105)가 노면을 포함하는 주위 물체로의 레이저 주사를 행하는 것에 의해 순차적으로 얻어진다.
그리고, 레이저 점군 3차원화 처리부(1203)는, 계측한 3차원 위치 좌표점을 3차원 좌표 점군 데이터(1010)로서 출력한다.
점군 인식 처리부(1250)는, 계측 차량(1110)의 이동 중에, 상기 레이저 점군 3차원화 처리부(1203)로부터 순차적으로 출력되는 3차원 좌표 점군 데이터(1010)에 있어서의, 색 구분 범위 내의 높이를 가진 3차원 위치 좌표점에, 해당 높이에 따른 색 정보를 순차적으로 부여한다.
조작부(1400)는, 시점 정보(1012)가 입력된다.
2차원 투영 변환 처리부(1204)는, 계측 차량(1110)의 이동 중에, 상기 조작부(1400)에서 입력된 시점 정보(1012)와, 계측 차량(1110)의 위치 및 자세에 근거하여, 점군 화상 데이터(1013)를 생성한다. 점군 화상 데이터(1013)는, 상기 점군 인식 처리부(1250)에 의해 색 정보가 부여된 3차원 좌표 점군 데이터(1010)에 있어서의 3차원 위치 좌표점을 2차원 화면 내의 대응점에 투영 변환하여 생성된다.
표시 장치(1300)는, 상기 계측 차량(1110)의 이동 중에, 상기 2차원 투영 변환 처리부(1204)가 생성한 점군 화상 데이터(1013)를 화면 표시한다.
실시의 형태 2의 표시 시스템(1210)에 의하면, 이동체인 계측 차량(1110)의 이동 중에, 노면의 높이에 따른 등고선 그래프(1509)(등고선 모양의 점군 그래프로서, 점군으로 표현한 단채도 또는 윤곽도이다)를 표시함과 아울러, 해당 노면을 보는 시점을 변경할 수 있다. 그 때문에, 계측 차량(1110)의 이동에 따라 시시각각 변화하는 노면 상태를, 시각적으로 파악하기 쉬운 상태로 즉시 표시할 수 있다.
또한, 계측 차량(1110)의 이동 중에, 실시간(예컨대 지연 시간 1초 이내)으로 등고선 그래프(1509)(등고선 모양의 점군 그래프로서, 점군으로 표현한 단채도 또는 윤곽도이다) 및 주위 물체에 대한 시점의 변경을 할 수 있다. 또한, 2차원 투영 변환 처리부(1204)는, 자기 위치, 추정 자기 위치, 및 자기 위치의 궤적의 3차원 위치 좌표점을, 2차원 화면 내의 대응점에 투영 변환하여 점군 화상 데이터(1013)를 생성한다. 이것에 의해, 2차원 투영 변환 처리부(1204)는, 계측 차량(1110)의 이동 중에, 3차원 좌표 점군 데이터(1010)의 취득 계획 또는 취득 타이밍 또는 취득 위치 또는 이동 속도를 변경할 수 있다.
또한, 조작부(1400)는, 전방 보기 선택 버튼(1601), 후방 보기 선택 버튼(1602), 우측 보기 선택 버튼(1603), 좌측 보기 선택 버튼(1604), 및 하방 보기 선택 버튼(1605)을 갖는다. 그리고, 조작부(1400)는, 각각의 버튼 선택에 근거하여, 시점 및 시선 방향을 변경한다. 그 때문에, 계측 차량(1110)의 이동 중에 시점 변경을 간편하게 즉시 행할 수 있다. 또한, 하방 보기 선택 버튼(1605)을 중앙에 배치한다. 그리고, 좌측 보기 선택 버튼(1604)을 하방 보기 선택 버튼(1605)의 좌측에 배치하고, 우측 보기 선택 버튼(1603)을 하방 보기 선택 버튼(1605)의 우측에 배치하고, 전방 보기 선택 버튼(1601)을 하방 보기 선택 버튼(1605) 상방에 배치하고, 후방 보기 선택 버튼(1602)을 하방 보기 선택 버튼(1605)의 하방에 배치한다. 또한, 각 선택 버튼을 화살표로 표시한다. 이것에 의해, 조작을 직관적으로 이해할 수 있다고 하는 이점이 있다.
실시의 형태 3.
도 21은 본 발명과 관련되는 실시의 형태 3에 의한 표시 시스템의 구성을 나타내는 도면이다. 도 21에 의한 실시의 형태 3의 표시 시스템은, 도 14에서 설명한 실시의 형태 2에 의한 표시 시스템에 있어서, 점군 인식 처리부(1250)가, 차분 처리부(1510)와 기준 데이터 생성부(1520)와 인식부(1530)로 구성된 것을 특징으로 한다.
또, 도 21에 있어서, 도 14와 동일한 구성의 것에 대해서는, 구성 및 신호 또는 입출력 데이터의 도시를 생략하고 있다.
점군 인식 처리부(1250)에 있어서, 레이저 점군 3차원화 처리부(1203)로부터 입력된 3차원 좌표 점군 데이터(1010)는, 순차적으로 기준 데이터 생성부(1520)에 입력됨과 아울러, 차분 처리부(1510)에 입력된다. 기준 데이터 생성부(1520)는, 3차원 좌표 점군 데이터(1010)를 시계열적으로 저장하고, 입력 데이터로부터 기준 3차원 점군 데이터(1015)를 생성한다. 기준 3차원 점군 데이터(1015)는, 예컨대 노면의 기준 모델을 나타내는 3차원 좌표 점군 데이터(1010)로 구성된다.
차분 처리부(1510)는, 레이저 점군 3차원화 처리부(1203)로부터 입력된 3차원 좌표 점군 데이터(1010)의 근방에서 기준 데이터 생성부(1520)에 저장된 기준 3차원 점군 데이터(1015)와, 레이저 점군 3차원화 처리부(1203)로부터 입력된 3차원 좌표 점군 데이터(1010)의 차분 3차원 점군 좌표 데이터(1016)를 구한다. 그리고, 차분 처리부(1510)는, 차분 3차원 점군 좌표 데이터(1016)를 인식부(1530)에 입력한다. 인식부(1530)는, 이 차분 3차원 점군 좌표 데이터(1016)에 근거하여, 레이저 점군 3차원화 처리부(1203)로부터 입력된 3차원 좌표 점군 데이터(1010)의 근방에 있어서의 노면을 나타내는 기준 3차원 점군 데이터(1015)와의 높이의 차이가 색 구분 범위 내인 3차원 점군 좌표 데이터에 대하여, 그 높이의 차이에 따른 색 정보를 부여한다.
2차원 투영 변환 처리부(1204)는, 점군 인식 처리부(1250)의 인식부(1530)에서 색 정보를 부여한 색을 갖는 3차원 좌표 점군 데이터(1011)에 대하여, 3차원 좌표 점군 데이터(1010)의 각 3차원 좌표점을 화면 표시용으로 2차원 화면에 순차적으로 투영한다. 그리고, 2차원 투영 변환 처리부(1204)는, 2차원 좌표점으로 표현한 점군 데이터(이하, 2차원 좌표 점군 데이터)를, 점군 화상 데이터(1013)로서 생성한다. 2차원 투영 변환 처리부(1204)는, 생성한 점군 화상 데이터(1013)를 표시 장치(1300)에 입력한다. 표시 장치(1300)는, 노면 주변이 착색된 점군 화상으로서, 노면을 나타내는 기준 3차원 점군 데이터(1015)로부터의 차분 화상을 화면 표시한다.
여기서 기준 데이터 생성부(1520)의 3차원 점군의 생성 처리에 대하여 설명한다.
도 22는 점군 인식 처리부(1250)에 있어서의, 기준 데이터 생성부(1520)의 기준 3차원 점군 데이터(1015)의 생성 처리를 설명하는 도면이다. 도 22의 (a)는 레이저 점군 3차원화 처리부(1203)로부터 입력되는 3차원 좌표 점군 데이터(1010)의 점군을 나타낸다. 도 22의 (b)는 기준 데이터 생성부(1520)가 생성한 기준 3차원 점군 데이터(1015)의 점군을 나타낸다.
레이저 점군 3차원화 처리부(1203)로부터 입력되는 3차원 좌표 점군 데이터(1010)는, 계측 차량(1110)으로부터 계측점까지의 거리, 계측 차량(1110)의 속도에 의해, 3차원 좌표 점군 데이터(1010)의 3차원 좌표점의 점밀도에 격차를 갖는다. 레이저 점군 3차원화 처리부(1203)에서 상이한 시각에 계측된 복수의 3차원 좌표 점군 데이터(1010)의 좌표를 비교하는 경우, 그 좌표 사이에 격차가 있는 것에 의해, 비교 처리가 복잡해진다.
이 때문에 기준 데이터 생성부(1520)는, ENU 좌표계의 수평면(XY 평면)에 평행한 그리드(이하, 기준 그리드)를 형성하여 3차원 좌표 점군 데이터(1010)의 비교를 행하고, 기준 3차원 점군 데이터(1015)를 생성한다.
구체적으로는, 레이저 점군 3차원화 처리부(1203)로부터 입력되는 3차원 좌표 점군 데이터(1010)에 있어서, 각각의 3차원 좌표점마다, 근방의 기준 3차원 점군 데이터(1015)를 추출한다.
다음으로, 레이저 점군 3차원화 처리부(1203)에서 계측한 도 22의 (a)에 나타내는 바와 같은 3차원 좌표 점군 데이터(1010)에 대하여, 각 3차원 좌표점 (X0, Y0, H1)의 높이 좌표 H1은 그대로로 한다. 그리고, 각각의 3차원 좌표점을, 도 22의 (b)에 나타내는 바와 같은 기준 그리드에 있어서의 근방의 격자점의 XY 좌표(예컨대 (X1, Y1))로 대표되는 격자점 상의 3차원 좌표점으로 이동한다. 이 이동 후의 격자점 상의 3차원 좌표 점군 데이터(1010)(예컨대 3차원 좌표점 (X1, Y1, H1))를, 해당 노면의 기준면을 나타내는 기준 3차원 점군 데이터(1015)로서 갱신한다.
이 기준 3차원 점군 데이터(1015)는, 레이저 점군 3차원화 처리부(1203)로부터의 3차원 좌표 점군 데이터(1010)의 입력에 따라, 순차적으로 최신의 값으로 갱신되어 간다. 또, 기준 3차원 점군 데이터(1015)의 초기치는, 별도로 계측된 데이터를 이용하여 미리 설정하여 둔다.
다음으로, 차분 처리부(1510)는, 도 22의 (a)에 나타내는 바와 같은 레이저 점군 3차원화 처리부(1203)에서 새롭게 계측한 신 3차원 좌표 점군 데이터의 각각의 3차원 좌표점 (X2, Y2, H2)를, 도 22의 (b)에 나타내는 바와 같은 근방의 격자점의 XY 좌표(예컨대 (X1, Y1))로 이동한다. 또, 해당 3차원 좌표점의 근방의 기준 3차원 점군 데이터(1015)에 있어서의 기준 그리드 격자점의 3차원 좌표점의 높이 H2는 그대로로 한다. 그리고, 차분 처리부(1510)는, 신 3차원 좌표 점군 데이터에 있어서의 3차원 좌표점을, 예컨대 격자점 상의 3차원 좌표점 (X1, Y1, H2)로 대표시키는 격자점 정렬 처리를 행한다.
신 3차원 좌표 점군 데이터의 3차원 좌표점 (X1, Y1, H2)는, 새롭게 계측한 신 3차원 좌표 점군 데이터의 근방의 기준 3차원 점군 데이터(1015)에 있어서의 기준 그리드의 격자점 (X1, Y1)로 이동한 3차원 좌표점이다.
차분 처리부(1510)는, 해당 신 3차원 좌표 점군 데이터의 3차원 좌표점 (X1, Y1, H2)의 높이 H2와, 해당 신 3차원 좌표 점군 데이터의 근방의 기준 3차원 점군 데이터(1015)에 있어서의 기준 그리드의 격자점의 3차원 좌표 점군 데이터의 높이 H1의 차이 Z2(=H2-H1)를, 소정의 높이 기준 H0과 비교한다.
또한, 차분 처리부(1510)는, 신 3차원 좌표 점군 데이터의 근방의 기준 3차원 점군 데이터(1015)에 있어서의 기준 그리드의 각 격자점에 대하여, 신 3차원 좌표 점군 데이터의 3차원 좌표점의 높이 H2(=Z2+H1)를 높이 좌표로 한다. 또한, 차분 처리부(1510)는, 신 3차원 좌표 점군 데이터의 근방의 기준 3차원 점군 데이터(1015)에 있어서의 기준 그리드의 격자점의 XY 좌표를 그대로로 한다. 그리고, 차분 처리부(1510)는, 차분 3차원 좌표점 (X, Y, H2)로 구성되는 차분 3차원 점군 좌표 데이터(1016)를 산출하는 격자점 정렬 처리를 행한다. 차분 처리부(1510)는, 차분 3차원 좌표 점군 데이터를 출력한다.
또, 차분 처리부(1510)는, 신 3차원 좌표 점군 데이터의 근방의 기준 3차원 점군 데이터(1015)에 있어서의 기준 그리드의 격자점의 3차원 점군 데이터를 병용하여 출력하더라도 좋다.
인식부(1530)는, 차분 처리부(1510)로부터의 차분 3차원 점군 좌표 데이터(1016)의 높이 좌표 Z에 대하여, 높이 기준 H0과의 차이에 따른 색 정보를 선택하고, 차분 3차원 점군 좌표 데이터(1016)를 착색한다. 예컨대, 높이 기준 H0=n×Δh(n=-N, …, -2, -1, 1, 2, …, N)로 하고, 높이 좌표 Z와 높이 기준 H0의 차이 Z2가, n-1로부터 n의 사이에서 단계적으로 변화할 때마다, 착색하는 색을 변경한다. Δh=5㎝의 경우, 다음과 같이 색을 변경한다. Z2=0㎝ 이상 5㎝ 미만의 경우는 제 1 색(예컨대 황색), Z2=5㎝ 이상 10㎝ 미만의 경우는 제 2 색(예컨대 적색), Z2=10㎝ 이상 15㎝ 미만의 경우는 제 3 색(예컨대 분홍색)으로 한다. 또한, Z2=-15㎝ 이상 -10㎝ 미만의 경우는 제 4 색(예컨대 청색), Z2=-10㎝ 이상 -5㎝ 미만의 경우는 제 5 색(예컨대 담청색), Z2=-5㎝ 이상 0㎝ 미만의 경우는 제 6 색(예컨대 황록색)으로 한다.
또한, 인식부(1530)는, 실시의 형태 2의 도 14와 마찬가지로, 레이저 점군 3차원화 처리부(1203)로부터 출력되는 3차원 좌표 점군 데이터(1010)에 있어서의 각 3차원 좌표점에 대하여, 그 높이와 계측 차량(1110)의 기준 높이의 차이를 구하고, 구한 높이의 차이에 따라 미리 설정된 색 정보를 선택하더라도 좋다. 그리고, 인식부(1530)는, 3차원 좌표점을 착색하여, 색을 갖는 3차원 점군 데이터를 생성하더라도 좋다. 이것에 의해, 노면을 나타내는 등고선 그래프와 차분 화상의 양쪽을, 표시 장치(1300)에 표시할 수 있다.
또한, 3차원 좌표 점군 데이터(1010)에 있어서의 색 구분 범위 밖의 각 3차원 좌표점에 대해서는, 휘도 데이터에 근거하는 그레이 스케일의 색 정보를 부여하여, 색을 갖는 3차원 점군 데이터를 생성하더라도 좋다. 예컨대 노면보다 15㎝ 이상 높은 위치 및 노면보다 15㎝ 이상 낮은 위치에 대해서는, 흑색으로부터 백색의 사이의 휘도 데이터에 따른 계조의 회색을 색 정보로 하더라도 좋다. 이때, 어떤 수법에 의해 도로의 경계선 또는 도로 가장자리를 인식하여, 도로 범위 밖의 3차원 좌표 점군 데이터(1010)에 있어서의 각 3차원 좌표점에 그레이 스케일의 색 정보를 부여하더라도 좋다.
노면을 나타내는 3차원 좌표 점군 데이터(1010)는, 레이저 점군 3차원화 처리부(1203)에 있어서 측정 시각마다 순차적으로 생성된다.
인식부(1530)는, 순차적으로 생성되는 3차원 좌표 점군 데이터(1010)에 있어서의 각 레이저 반사점에 대응한 3차원 좌표점의 3차원 좌표 및 그 휘도 데이터에 대하여, 상기 선택한 색 정보를 부여하여 색을 갖는 3차원 좌표 점군 데이터(1011)를 생성한다. 그리고, 인식부(1530)는, 생성한 데이터를 2차원 투영 변환 처리부(1204)에 입력한다.
다음으로, 기준 데이터 생성부(1520) 및 차분 처리부(1510)가 행하는 격자점 정렬 처리에 대하여 설명한다. 격자점 정렬 처리에 있어서, 3차원 좌표 점군 데이터(1010)를 구성하는 각 3차원 좌표점은, 대응하는 기준 그리드의 격자점인 근방의 격자점으로 대표된다. 여기서는, 대상으로 하는 기준 그리드의 격자점으로 대표되는 3차원 좌표점의 높이의 선택 처리에 대하여 설명한다. 도 23은 기준 데이터 생성부(1520) 및 차분 처리부(1510)의 격자점 정렬 처리의 흐름을 설명하는 도면이다.
도 23에 있어서, 기준 데이터 생성부(1520) 및 차분 처리부(1510)는, 스텝 S1101에 있어서, 레이저 점군 3차원화 처리부(1203)로부터의 3차원 좌표 점군 데이터(1010)에 대하여 해당 기준 그리드의 각각의 격자점의 근방 3점이 되는, 3차원 좌표점을 선택한다.
다음으로, 스텝 S1102에 있어서, 3차원 좌표 점군 데이터(1010)로부터 선택한 각 3차원 좌표점으로부터, 해당 기준 그리드의 격자점까지의 거리가 임계치(예컨대 격자의 한 변의 길이) 이하라고 판별한 경우, 스텝 S1103으로 이행한다. 3차원 좌표 점군 데이터(1010)로부터 선택한 각 3차원 좌표점은, 대응하는 기준 그리드의 격자점에 있어서의 근방점이다.
또한, 상기 기준 그리드의 격자점까지의 거리가 임계치(예컨대 격자의 한 변의 길이)보다 크다고 판별한 경우, 스텝 S1105로 이행한다. 여기서, 상기 기준 그리드의 격자점까지의 거리는, XY 좌표 차이의 제곱합에 있어서의 제곱근으로부터 구한다.
계속하여, 스텝 S1103에 있어서, 3차원 좌표 점군 데이터(1010)로부터 선택한, 대응하는 기준 그리드의 격자점의 근방 3점이 되는 3차원 좌표점에 대하여, 이들 근방점의 높이의 차이가 임계치 이하가 되는 경우, 스텝 S1104로 이행한다. 또한, 이들 근방점의 높이의 차이가 임계치보다 큰 경우, 스텝 S1105로 이행한다. 또, 여기서의 임계치를 노면으로부터 소정 범위의 높이로 설정함으로써, 인식부(1530)가 색 정보를 부여하는 3차원 좌표점이 노면을 나타내도록 한다.
다음으로, 스텝 S1104에 있어서, 3차원 좌표 점군 데이터(1010)로부터 선택한, 대응하는 기준 그리드의 격자점의 근방 3점으로부터, 해당 기준 그리드의 격자점까지의 거리에 대하여 가중치 부여를 행하는 것에 의해, 기준 그리드의 격자점으로 대표되는 3차원 좌표점의 높이 Zave를 결정한다.
여기서, 근방 3점의 높이가 W1, W2, W3이고, 근방점의 해당 기준 그리드의 격자점으로부터의 수평 거리가 D1, D2, D3인 경우, 격자점의 3차원 좌표점의 높이 Zave는, 다음 식으로 구하여 가중치 부여를 행한다.
Zave=(1/D1×Z1+1/D2×Z2+1/D3×Z3)/(1/D1+1/D2+1/D3)
스텝 S1105에서는, 스텝 S1102에 있어서, 3차원 좌표 점군 데이터(1010)로부터 선택한 근방 3점 중 1개 또는 2개의 근방점으로부터, 대응하는 기준 그리드의 격자점까지의 거리가 임계치보다 크다고 판별한 경우, 선택한 근방 3점 중 해당 격자점의 최근방 1점의 높이를 해당 격자점 상의 3차원 좌표점의 높이로서 선택한다.
또, 3차원 좌표 점군 데이터(1010)로부터 선택한 근방 3점으로부터 대응하는 기준 그리드의 격자점까지의 거리가 모두 임계치(예컨대 격자의 한 변의 길이)보다 커지는 경우는, 해당 격자점 상의 3차원 좌표점이 없다고 판별한다.
또한, 스텝 S1105에서는, 스텝 S1103에 있어서, 3차원 좌표 점군 데이터(1010)를 선택한 기준 그리드의 격자점의 근방점의 높이의 차이가 임계치(예컨대 5㎝)보다 큰 경우, 해당 기준 그리드의 격자점의 최근방 1점의 높이를 격자점 상의 3차원 좌표점의 높이로서 선택한다.
이상 설명한 바와 같이, 실시의 형태 3에 의한 표시 시스템(1210)은, 레이저 점군 3차원화 처리부(1203)와, 점군 인식 처리부(1250)와, 조작부(1400)와, 2차원 투영 변환 처리부(1204)를 구비한다.
레이저 점군 3차원화 처리부(1203)는, 이동체의 이동 중에, 노면을 포함하는 주위 물체로의 레이저 주사에 의해 얻어지는 레이저 계측점까지의 거리 및 방향 정보 및 상기 이동체의 위치 및 자세의 계측치에 근거하여, 해당 레이저 계측점의 3차원 위치 좌표를 순차적으로 계측하고, 3차원 좌표 점군 데이터(1010)로서 출력한다.
점군 인식 처리부(1250)는, 상기 이동체의 이동 중에, 상기 레이저 점군 3차원화 처리부(1203)로부터 순차적으로 출력되는 3차원 좌표 점군 데이터(1010)에, 노면으로부터의 높이에 따른 색 정보를 부여한다.
조작부(1400)는, 시점 정보(1012)가 입력된다.
2차원 투영 변환 처리부(1204)는, 상기 이동체의 이동 중에, 상기 조작부(1400)에서 입력된 시점 정보(1012)와, 상기 이동체의 위치 및 자세의 계측치에 근거하여, 상기 점군 인식 처리부(1250)에 의해 색 정보가 부여된 3차원 좌표 점군 데이터(1010)에 있어서의 3차원 위치 좌표점을 투영한다. 그리고, 2차원 투영 변환 처리부(1204)는 점군 화상 데이터(1013)를 생성한다.
점군 인식 처리부(1250)는, 레이저 점군 3차원화 처리부(1203)에 의해 새롭게 취득된 3차원 좌표 점군 데이터(1010)와, 미리 설정된 노면 형상을 나타내는 기준 3차원 점군 데이터(1015)와의 높이의 차이에 따른 색 정보를 부여하는 것을 특징으로 한다.
이것에 의해, 3차원 좌표 점군 데이터(1010)에 의해, 과거에 취득한 노면의 형상 모델을 나타내는 기준 3차원 점군 데이터(1015)로부터의 차분 화상을 얻을 수 있으므로, 과거로부터의 노면의 변화를 시인하기 쉬워진다고 하는 효과가 얻어진다.
실시의 형태 3에 있어서, 이하와 같은 점군 인식 처리부(1250)에 대하여 설명했다.
점군 인식 처리부(1250)는, 기준 그리드의 격자점마다, 신 3차원 좌표 점군 데이터와 기준 3차원 점군 데이터의 각각으로부터 복수의 3차원 좌표점을 선택한다. 다음으로, 점군 인식 처리부(1250)는, 신 3차원 좌표 점군 데이터로부터 선택한 복수의 3차원 좌표점을 이용하여 상기 신 3차원 좌표 점군 데이터의 해당 격자점의 높이를 결정한다. 또한, 점군 인식 처리부(1250)는, 기준 3차원 점군 데이터로부터 선택한 복수의 3차원 좌표점을 이용하여 기준 3차원 점군 데이터의 해당 격자점의 높이를 결정한다. 그리고, 점군 인식 처리부(1250)는, 신 3차원 좌표 점군 데이터의 해당 격자점의 높이와 기준 3차원 점군 데이터의 해당 격자점의 높이의 차이에 따른 색 정보를, 신 3차원 좌표 점군 데이터의 해당 격자점으로 대표되는 3차원 좌표점에 부여한다.
점군 인식 처리부(1250)는, 선택한 복수의 3차원 좌표점으로부터 해당 격자점까지의 수평 방향에 있어서의 거리가 모두 거리 임계치 이하이고, 또한, 선택한 복수의 3차원 좌표점의 높이의 차이가 모두 높이 임계치 이하인 경우, 선택한 복수의 3차원 좌표점의 각각의 높이에 해당 3차원 좌표점으로부터 해당 격자점까지의 수평 방향에 있어서의 거리에 따른 가중치 부여를 행한다. 그리고, 점군 인식 처리부(1250)는, 가중치 부여한 복수의 높이를 이용하여 해당 격자점의 높이를 산출한다.
점군 인식 처리부(1250)는, 선택한 복수의 3차원 좌표점으로부터 해당 격자점까지의 거리의 적어도 하나가 거리 임계치 이하이고, 또한, 선택한 복수의 3차원 좌표점으로부터 해당 격자점까지의 거리의 적어도 어느 하나가 거리 임계치를 넘는 경우, 선택한 복수의 3차원 좌표점으로부터 해당 격자점에 가장 가까운 3차원 좌표점을 선택한다. 그리고, 점군 인식 처리부(1250)는, 선택한 3차원 좌표점의 높이를 해당 격자점의 높이로 한다.
점군 인식 처리부(1250)는, 선택한 복수의 3차원 좌표점으로부터 해당 격자점까지의 거리가 모두 거리 임계치 이하이고, 또한, 선택한 복수의 3차원 좌표점의 높이의 차이의 적어도 어느 하나가 높이 임계치를 넘는 경우, 선택한 복수의 3차원 좌표점으로부터 해당 격자점에 가장 가까운 3차원 좌표점을 선택한다. 그리고, 점군 인식 처리부(1250)는, 선택한 3차원 좌표점의 높이를 해당 격자점의 높이로 한다.
여기서, 실시의 형태 2, 3의 기술 분야에 대하여 설명한다.
실시의 형태 2, 3은, 이동체에 탑재되고, 이동체가 이동하는 노면 및 이동체 주변의 지물 및 다른 이동체에 대하여, 그 3차원 형상을 나타내는 3차원 점군 데이터를 취득하고, 취득한 3차원 점군 데이터에 근거하여 노면 상태를 표시하는 표시 시스템에 관한 것이다.
다음으로, 실시의 형태 2, 3의 배경 기술에 대하여 설명한다.
종래, MMS(Mobile Mapping System)를 이용하여, 주행하는 포장 노면의 계측점의 집합인 3차원 점군 데이터를 취득하고, 취득한 3차원 점군 데이터를 이용하여, 이 포장 노면의 요철을 계측하는 노면 성상 계측 시스템이 알려져 있다. MMS는, 자기 위치 및 자세 표정기(標定器)와 레이저를 탑재한 차량에 의해 구성된다. 자기 위치 및 자세 표정기는, GPS(Global Positioning System) 및 IMU 등이다.
MMS는, GPS 위성이 가시인 환경 하에 있어서, 고정밀 계측이 가능하다. 또한, 측위 보강 정보를 이용하는 것에 의해, 주행 중에 취득된 3차원 점군 데이터를 리얼타임으로 표시하는 것도 가능하게 된다.
예컨대 특허 문헌 2에는, 노면 성상 계측 시스템 및 표시 시스템이 개시되어 있다. 노면 성상 계측 시스템은, 기준선 설정 수단과, 기준 영역 설정 수단과, 기준 노면 모델 작성 수단과, 계측 노면 모델 작성 수단과, 차분 추출 수단을 구비하고, 차분에 근거하여 포장 노면의 요철을 검출한다. 표시 시스템은, 요철 정도를 표시한다.
이 노면 성상 계측 시스템은, 기준 노면 모델과 계측 노면 모델이 얻어지면, 양자를 겹쳐 차분을 추출한다. 그리고, 노면 성상 계측 시스템은, 기준 노면 모델을 정규로서 인식하고, 기준 노면 모델과 계측 노면 모델의 사이에서 고저차가 생긴 부분을 차분으로서 추출한다. 추출된 차분은, 그 정도에 따른 등고선도(윤곽도)나, 차분의 정도에 따라 채색한 단채도 등으로 나타내어진다. 이들 그림은, 바퀴자국 패임(rutting)이라고 하는 노면의 요철을 검출하기 위해 확인된다. 또한, 차분을 임계치와 비교함으로써, 바퀴자국 패임이나 유해한 요철을 자동적으로 검출할 수도 있다.
다음으로, 실시의 형태 2, 3이 해결하고자 하는 과제에 대하여 설명한다.
종래의 노면 성상 계측 시스템은, 등고선도나 단채도 등을 이용하여, 이동체의 이동 중에 노면의 요철 정도를 표시하는 것이 아니다. 이 때문에 이동체의 이동에 따라 시시각각 변화하는 노면 상태를, 이동체의 이동 시간 중에 시인할 수 없다.
예컨대 도로의 노면을 정기 검사하는 경우, 이동체인 계측 차량이 도로를 정기적으로 주행하여 노면 상태를 계측함과 아울러, 검사원이 도로의 노면을 눈으로 확인한다. 그 계측 차량에 의한 계측 데이터는 하드 디스크에 저장되고, 검사원이 하드 디스크를 계측 사무소에 갖고 돌아가 해석을 행한다. 이 때문에 이동체의 이동 중에 노면의 요철 정도를 즉시 확인할 수 없다. 그리고, 검사원이 노면 이상을 놓치면, 어떤 노면 이상 또는 노면 상의 장해물이 발생한 경우에, 그 대응이 늦어 버린다.
실시의 형태 2, 3은, 이러한 과제를 해결하기 위해 이루어진 것으로서, 이동체의 이동에 따라 시시각각 변화하는 노면 상태를, 이동체의 이동 시간 중에 시인하기 쉬운 상태로 표시하는 것을 목적으로 한다.
다음으로, 실시의 형태 2, 3에 있어서의 과제를 해결하기 위한 수단에 대하여 설명한다.
표시 시스템은, 레이저 점군 3차원화 처리부와, 점군 인식 처리부와, 조작부와, 2차원 투영 변환 처리부를 구비한 것이다.
레이저 점군 3차원화 처리부는, 이동체의 이동 중에, 노면을 포함하는 주위 물체로의 레이저 주사에 의해 얻어지는 레이저 계측점까지의 거리 및 방향 정보 및 상기 이동체의 위치 및 자세의 계측치에 근거하여, 해당 레이저 계측점의 3차원 위치 좌표를 순차적으로 계측하고, 3차원 좌표 점군 데이터로서 출력한다.
점군 인식 처리부는, 상기 이동체의 이동 중에, 상기 레이저 점군 3차원화 처리부로부터 순차적으로 출력되는 3차원 좌표 점군 데이터에, 노면으로부터의 높이에 따른 색 정보를 부여한다.
조작부는, 시점 정보가 입력된다.
2차원 투영 변환 처리부는, 상기 이동체의 이동 중에, 상기 조작부에서 입력된 시점 정보와, 상기 이동체의 위치 및 자세의 계측치에 근거하여, 상기 점군 인식 처리부에 의해 색 정보가 부여된 3차원 좌표 점군 데이터에 있어서의 3차원 위치 좌표점을 투영하여, 점군 화상 데이터를 생성한다.
다음으로, 실시의 형태 2, 3의 효과에 대하여 설명한다.
실시의 형태 2, 3에 의하면, 이동체의 이동 중에, 노면의 높이에 따른 등고선 모양의 점군 그래프(점군으로 표현한 단채도 또는 윤곽도)를 표시함과 아울러, 해당 노면을 보는 시점을 변경할 수 있다. 그 때문에, 이동체의 이동에 따라 시시각각 변화하는 노면 상태를 시각적으로 파악하기 쉬운 상태로 표시할 수 있다.
실시의 형태 2, 3에서 설명한 요소와 실시의 형태 1에서 설명한 요소의 대응 관계를 이하에 나타낸다. 대응하는 요소끼리는 적어도 일부가 공통되는 요소이다. 모순이 생기지 않으면, 각 요소는 대응하는 요소로 대체하더라도 좋고, 각 요소의 명칭은 대응하는 요소의 명칭으로 바꿔 읽더라도 좋다.
계측 차량(1110)은 계측 차량(110)에 대응한다. 측위 보강 신호 수신부(1101), GNSS 수신기(1102), IMU(1103), 오도메트리 장치(1104)는, 각각 측위 보강 신호 수신기(111), 측위 신호 수신기(112), 관성 계측 장치(113), 오도미터(114)에 대응한다.
표시 시스템(1210)은, 점군 화상 생성 장치(100)에 대응하는 것이고, 점군 화상 생성 장치(100)와 마찬가지의 하드웨어를 구비한다.
계측 데이터 처리부(1200)는 계측 데이터 처리부(200)에 대응한다. 위치 자세 계측부(1206)는 위치 연산부(121) 및 자세 연산부(122)에 대응한다. 자기 위치 연산부(1201), 자세 연산부(1202), 레이저 점군 3차원화 처리부(1203)는, 각각 위치 연산부(121), 자세 연산부(122), 3차원 점군 생성부(123)에 대응한다. 자기 위치 설정부(1205), 2차원 투영 변환 처리부(1204)는, 각각 위치 추정부(220), 2차원 투영부(230)에 대응한다.
표시 장치(1300), 조작부(1400)는, 각각의 표시 장치(300), 조작부(400)에 대응한다.
3차원 좌표 점군(1501), 자기 위치 마크(1504), 추정 자기 위치 마크(1505)는, 각각 3차원 점군(311), 계측 위치 마크(312), 추정 위치 마크(313)에 대응한다. 자기 위치, 추정 자기 위치는, 각각 계측 위치, 추정 위치에 대응한다.
3차원 좌표 점군 데이터(1010) 및 색을 갖는 3차원 좌표 점군 데이터(1011)는, 3차원 점군 데이터(203)에 대응한다. 점군 화상 데이터(1013)는, 투영 점군 데이터(235)에 대응한다.
조작부(1400)의 표시의 예는, 인터페이스 화상(320)에 대응한다. 전방 보기 선택 버튼(1601), 후방 보기 선택 버튼(1602), 우측 보기 선택 버튼(1603), 좌측 보기 선택 버튼(1604), 하방 보기 선택 버튼(1605)은, 각각 전방 버튼(321F), 후방 버튼(321B), 우측 버튼(321R), 좌측 버튼(321L), 하방 버튼(321D)에 대응한다. 오프셋값(1606)은, 좌우 위젯(322X), 전후 위젯(322Y) 및 상하 위젯(322Z)에 대응한다. 오프셋값(1607)은, 앙각 위젯(323P) 및 방위각 위젯(323Y)에 대응한다. 클리어 버튼(1608)은, 취소 버튼(329)에 대응한다.
실시의 형태 4.
점군 화상(310)의 시점 위치를 결정하는 방법에 대하여, 도 4, 도 24 및 도 25에 근거하여 설명한다. 단, 실시의 형태 1과 중복되는 설명은 생략한다.
***구성의 설명***
점군 화상 생성 장치(100)의 구성은, 실시의 형태 1과 동일하다.
점군 화상 생성 장치(100)의 2차원 투영부(230)는, 레이저 스캐너(115)가 계측을 행했을 때의 계측 차량(110)의 위치인 계측 위치와, 점군 화상(310)이 표시될 때의 계측 차량(110)의 위치인 추정 위치 중 어느 하나를 기점으로 하여, 시점 위치를 결정한다. 그리고, 2차원 투영부(230)는, 결정한 시점 위치에 근거하여 2차원 투영 처리를 행한다. 이 2차원 투영 처리에 의해, 점군 화상(310)의 데이터인 투영 점군 데이터(235)가 생성된다.
***동작의 설명***
2차원 투영부(230)가 시점 위치를 결정하는 방법으로서, <실시예 1> 내지 <실시예 3>을 설명한다.
실시의 형태 1에서 설명한 도 4에 있어서, 자차 위치(401)로부터 기준 시점 위치(411)까지의 벡터를 기준의 오프셋량이라고 한다. 기준의 오프셋량은, 계측 차량(110)의 좌우 방향의 거리 Dx와, 계측 차량(110)의 전후 방향의 거리 Dy와, 계측 차량(110)의 상하 방향의 거리 Dz를 포함한다. 구체적으로, 거리 Dx는 제로이고, 거리 Dy는 마이너스의 값이고, 거리 Dz는 플러스의 값이다. 다시 말해, 기준 시점 위치(411)는, 자차 위치(401)의 후방의 사선 상에 위치하는 지점이다. 기준의 오프셋량은 미리 결정되어 있다.
<실시예 1>
2차원 투영부(230)는, 계측 위치를 기점으로 하여 시점 위치를 결정한다. 다시 말해, 도 4에 나타낸 자차 위치(401)는 계측 위치이다.
구체적으로, 2차원 투영부(230)는 시점 위치를 이하와 같이 결정한다.
우선, 2차원 투영부(230)는, 계측 위치 데이터(201)가 나타내는 계측 위치의 좌표치에 기준의 오프셋량을 더하여, 기준 시점 위치(411)의 좌표치를 산출한다.
그리고, 2차원 투영부(230)는, 기준 시점 위치(411)의 좌표치에 조작 데이터(204)가 나타내는 오프셋량을 더하여, 시점 위치의 좌표치를 산출한다.
도 24에, 계측 위치를 기점으로 하여 시점 위치를 결정한 경우의 점군 화상(310)의 변화를 나타낸다. (1)은 계측 차량(110)이 정지했을 때의 점군 화상(310)을 나타내고, (2)는 계측 차량(110)이 정지하고 나서 지연 시간이 경과했을 때의 점군 화상(310)을 나타내고 있다. 지연 시간은, 레이저 스캐너(115)가 계측을 행하고 나서, 계측에 의해 얻어진 점군을 포함한 점군 화상(310)이 표시될 때까지의 시간이다. (2)에 있어서, 계측 위치 마크(312)는 추정 위치 마크(313)와 겹쳐 있다.
도 24에 나타내는 바와 같이, 계측 차량(110)이 정지하고 나서 지연 시간이 경과할 때까지의 사이에, 시점 위치가 전방으로 이동하면서, 점군이 전방에 추가된다. 그 때문에, 계측 차량(110)이 정지하더라도 지연 시간이 경과할 때까지의 사이에, 도로 주변을 묘화한 점군 화상(310)이 전방으로 스크롤된다. (2)의 점군 화상(310)은, 계측 차량(110)이 정지한 후, 폭 W만큼 전방으로 스크롤된 화상이다.
<실시예 2>
2차원 투영부(230)는, 추정 위치를 기점으로 하여 시점 위치를 결정한다. 다시 말해, 도 4에 나타낸 자차 위치(401)는 추정 위치이다.
구체적으로, 2차원 투영부(230)는 시점 위치를 이하와 같이 결정한다.
우선, 2차원 투영부(230)는, 추정 위치 데이터(229)가 나타내는 추정 위치의 좌표치에 기준의 오프셋량을 더하여, 기준 시점 위치(411)의 좌표치를 산출한다.
그리고, 2차원 투영부(230)는, 기준 시점 위치(411)의 좌표치에 조작 데이터(204)가 나타내는 오프셋량을 더하여, 시점 위치의 좌표치를 산출한다.
도 25에, 추정 위치를 기점으로 하여 시점 위치를 결정한 경우의 점군 화상(310)의 변화를 나타낸다. (1)은 계측 차량(110)이 정지했을 때의 점군 화상(310)을 나타내고, (2)는 계측 차량(110)이 정지하고 나서 지연 시간이 경과했을 때의 점군 화상(310)을 나타내고 있다. (2)에 있어서, 계측 위치 마크(312)는 추정 위치 마크(313)와 겹쳐 있다.
도 25에 나타내는 바와 같이, 계측 차량(110)이 정지하고 나서 지연 시간이 경과할 때까지의 사이에, 시점 위치가 변하지 않고, 점군이 전방에 추가된다. 그 때문에, 계측 차량(110)이 정지하면, 도로 주변을 묘화한 점군 화상(310)의 스크롤도 정지한다. 그리고, 지연 시간이 경과할 때까지의 사이에, 점군이 전방에 추가된다. (2)의 점군 화상(310)은, 계측 차량(110)이 정지한 후, 폭 W만큼 점군이 전방에 추가된 화상이다.
<실시예 3>
2차원 투영부(230)는, 계측 위치와 추정 위치 중 어느 하나를 계측 차량(110)의 속도에 따라 선택하고, 선택한 위치를 기점으로 하여 시점 위치를 결정한다. 다시 말해, 도 4에 나타낸 자차 위치(401)는 계측 위치 또는 추정 위치이다.
구체적으로, 2차원 투영부(230)는 시점 위치를 이하와 같이 결정한다.
2차원 투영부(230)는, 3차원 점군 데이터(203)가 입력될 때마다, 계측 차량(110)의 속도를 계측 차량(110)으로부터 취득한다.
다음으로, 2차원 투영부(230)는, 계측 차량(110)의 속도를 속도 임계치와 비교한다. 그리고, 계측 차량(110)의 속도가 속도 임계치 이상인 경우, 2차원 투영부(230)는 계측 위치를 기점으로서 선택한다. 또한, 계측 차량(110)의 속도가 속도 임계치보다 작은 경우, 2차원 투영부(230)는 추정 위치를 기점으로서 선택한다. 다시 말해, 2차원 투영부(230)는, 계측 차량(110)이 충분히 빠른 속도로 주행하고 있는 동안은 계측 위치를 기점으로서 선택하고, 계측 차량(110)이 정지할 것 같아지면 기점을 추정 위치로 전환한다.
다음으로, 2차원 투영부(230)는, 기점의 좌표치에 기준의 오프셋량을 더하여, 기준 시점 위치(411)의 좌표치를 산출한다.
그리고, 2차원 투영부(230)는, 기준 시점 위치(411)의 좌표치에 조작 데이터(204)가 나타내는 오프셋량을 더하여, 시점 위치의 좌표치를 산출한다.
계측 차량(110)이 정지할 때에는 추정 위치를 기점으로 하여 시점 위치가 결정되기 때문에, 계측 차량(110)이 정지한 후의 점군 화상(310)은, 도 25와 같이 변화한다.
***실시의 형태의 효과***
<실시예 1>의 경우, 계측 차량(110)이 정지하더라도 지연 시간이 경과할 때까지의 사이에, 점군 화상(310)이 전방으로 스크롤된다. 그 때문에, 계측 차량(110)에 승차하면서 점군 화상(310)을 확인하는 작업자에게 위화감을 줄 가능성이 있다.
한편, <실시예 2> 또는 <실시예 3>의 경우, 계측 차량(110)이 정지하면 점군 화상(310)의 스크롤도 정지하기 때문에, 작업자에게 위화감을 주는 일은 없다.
실시의 형태 5.
점군 화상(310)의 시점 위치 및 시선 방향을 변경하기 위한 유저 인터페이스의 다른 예에 대하여 설명한다. 단, 실시의 형태 1과 중복되는 설명은 생략한다.
표시 장치(300)는, 이용자에 의해 조작되는 터치 패널을 유저 인터페이스로서 구비한다.
점군 화상(310)의 시점 위치 및 시선 방향은 터치 패널에 대한 조작에 의해 변경된다.
이용자는, 터치 패널에 대한 조작 또는 인터페이스 화상(320)에 대한 조작에 의해, 점군 화상(310)의 시점 위치 및 시선 방향을 변경시킬 수 있다.
시선 방향은, 터치 패널에 대한 조작의 일종인 플릭(flick) 또는 탭에 의해 이하와 같이 변경된다.
터치 패널에 대하여 아래에서 위로의 플릭이 행해진 경우, 조작부(400)는, 전방 버튼(321F)이 눌렸을 때와 동일하게, 시선 방향을 계측 차량(110)의 진행 방향으로 변경한다.
터치 패널에 대하여 위에서 아래로의 플릭이 행해진 경우, 조작부(400)는, 후방 버튼(321B)이 눌렸을 때와 동일하게, 시선 방향을 계측 차량(110)의 진행 방향에 대하여 역방향으로 변경한다.
터치 패널에 대하여 우측에서 좌측으로의 플릭이 행해진 경우, 조작부(400)는, 좌측 버튼(321L)이 눌렸을 때와 동일하게, 시선 방향을 계측 차량(110)의 진행 방향에 대하여 좌측 방향으로 변경한다.
터치 패널에 대하여 좌측에서 우측으로의 플릭이 행해진 경우, 조작부(400)는, 우측 버튼(321R)이 눌렸을 때와 동일하게, 시선 방향을 계측 차량(110)의 진행 방향에 대하여 우측 방향으로 변경한다.
터치 패널이 탭 된 경우, 조작부(400)는, 하방 버튼(321D)이 눌렸을 때와 동일하게, 시선 방향을 하방 방향으로 변경한다.
도 26의 (A)에 있어서, 시점 조작 모드 전환 버튼(314)은, 시선 방향 조정 모드와 시점 위치 조정 모드를 전환하기 위해, 점군 화상(310)이 표시되는 화면에 오버레이 표시되는 버튼이다.
시선 방향 조정 모드는, 터치 패널에 대한 조작으로, 시선 방향의 조정이 가능하게 되는 모드이다.
시점 위치 조정 모드는, 터치 패널에 대한 조작으로, 시점 위치의 조정이 가능하게 되는 모드이다.
도 26의 (B)에 있어서, 시선 방향 조정 모드에서는, 시점 조작 모드 전환 버튼(314)의 표면에 「Direction」이라고 표시된다. 그리고, 시선 방향은, 점군 화상(310)이 표시된 화면 상에서의 드래그에 의해, 이하와 같이 변경된다. 드래그는 터치 패널에 대한 조작의 일종이다.
상방 방향으로의 드래그 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 앙각 위젯(323P)의 수치가 증가한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 상방 방향으로, 시선 방향을 회전시킨다. 회전시키는 양은 드래그 된 양에 비례한다.
하방 방향으로의 드래그 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 앙각 위젯(323P)의 수치가 감소한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 하방 방향으로, 시선 방향을 회전시킨다. 회전시키는 양은 드래그 된 양에 비례한다.
우측 방향으로의 드래그 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 방위각 위젯(323Y)의 수치가 증가한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 우측 방향으로, 시선 방향을 회전시킨다. 회전시키는 양은 드래그 된 양에 비례한다.
좌측 방향으로의 드래그 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 방위각 위젯(323Y)의 수치가 감소한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 좌측 방향으로, 시선 방향을 회전시킨다. 회전시키는 양은 드래그 된 양에 비례한다.
도 26의 (B)에 있어서, 시점 위치 조정 모드에서는, 시점 조작 모드 전환 버튼(314)의 표면에 「Position」이라고 표시된다. 그리고, 시점 위치는, 점군 화상(310)이 표시된 화면 상에서의 드래그에 의해, 이하와 같이 변경된다.
상방 방향으로의 드래그 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 상하 위젯(322Z)의 수치가 증가한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 상방 방향으로, 시점 위치를 이동시킨다. 이동시키는 양은 드래그 된 양에 비례한다.
하방 방향으로의 드래그 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 상하 위젯(322Z)의 수치가 감소한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 하방 방향으로, 시점 위치를 이동시킨다. 이동시키는 양은 드래그 된 양에 비례한다.
우측 방향으로의 드래그 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 좌우 위젯(322X)의 수치가 증가한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 우측 방향으로, 시점 위치를 이동시킨다. 이동시키는 양은 드래그 된 양에 비례한다.
좌측 방향으로의 드래그 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 좌우 위젯(322X)의 수치가 감소한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 좌측 방향으로, 시점 위치를 이동시킨다. 이동시키는 양은 드래그 된 양에 비례한다.
또한, 시점 위치 조정 모드에서는, 시점 위치는, 점군 화상(310)이 표시된 화면 상에서의 핀치 인(pinch in) 또는 핀치 아웃(pinch out)에 의해, 이하와 같이 변경된다. 핀치 인 및 핀치 아웃은 터치 패널에 대한 조작의 일종이다. 핀치 인과 핀치 아웃을 총칭하여 핀치라고 한다.
핀치 인 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 전후 위젯(322Y)의 수치가 증가한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 전방으로, 시점 위치를 이동시킨다. 이동시키는 양은 핀치 인 된 양에 비례한다.
핀치 아웃 조작이 행해진 경우, 조작부(400)는, 인터페이스 화상(320)의 전후 위젯(322Y)의 수치가 감소한 경우와 동일하게, 계측 차량(110)의 진행 방향에 대하여 후방으로, 시점 위치를 이동시킨다. 이동시키는 양은 핀치 아웃 된 양에 비례한다.
도 27에 있어서, 종 슬라이드(315) 및 횡 슬라이드(316)는, 시선 방향을 변경하기 위해, 점군 화상(310)이 표시되는 화면에 오버레이 표시되는 슬라이드이다. 종 슬라이드(315)의 인디케이터(315I) 및 횡 슬라이드(316)의 인디케이터(316I)는, 서로 독립하여 움직일 수 있다.
시선 방향은, 터치 패널에 대한 조작의 일종인 슬라이드에 의해 이하와 같이 변경된다.
종 슬라이드(315)의 인디케이터(315I)가 상하로 움직여진 경우, 또는, 횡 슬라이드(316)의 인디케이터(316I)가 좌우로 움직여진 경우, 조작부(400)는, 인디케이터(315I, 316I)가 움직여진 방향으로 시선 방향을 회전시킨다. 회전시키는 양은, 인디케이터가 슬라이드 된 양에 비례한다.
도 28에 있어서, 시점 위치 마크(317)는, 시점 위치를 변경하기 위해, 점군 화상(310)이 표시되는 화면에 오버레이 표시되는 마크이다. 시점 위치 마크(317)의 둥근 부분은 시점 위치를 나타내고, 둥근 부분과는 반대쪽의 선단의 부분은 시점 중심을 나타내고 있다.
시점 위치는, 터치 패널에 대한 조작의 일종인 드래그에 의해 이하와 같이 변경된다.
시점 위치 마크(317)가 드래그 된 경우, 조작부(400)는, 시점 위치 마크(317)가 드래그 된 방향으로, 시점 위치를 이동시킨다. 이동시키는 양은, 시점 위치 마크(317)가 드래그 된 양에 비례한다.
또, 시점 위치 마크(317)는, 드래그 되면 드롭 목적지로 이동한다. 그리고, 드롭 목적지가 새로운 시점 위치가 되고, 점군 화상(310)의 표시가 전환된다.
도 26, 도 27 및 도 28에 근거하여 설명한 시선 방향 또는 시점 위치를 변경하는 복수의 방법은, 독립하여 실시되더라도 좋고, 병용하여 실시되더라도 좋다.
구체적으로는, 시선 방향을 변경하기 위해, 도 26의 방법과 도 27의 방법 중 어느 하나가 실장되더라도 좋고, 양쪽의 방법이 실장되더라도 좋다.
또한, 시점 위치를 변경하기 위해, 도 26의 방법과 도 28의 방법 중 어느 하나가 실장되더라도 좋고, 양쪽의 방법이 실장되더라도 좋다.
또한, 시선 방향과 시점 위치를 변경하기 위해, 도 27의 방법과 도 28의 방법이 실장되더라도 좋고, 추가로, 도 26의 방법이 실장되더라도 좋다.
복수의 방법이 실장되는 경우, 시점 조작 모드 전환 버튼(314)과 슬라이드(315, 316)와 시점 위치 마크(317) 중 복수가, 점군 화상(310)에 중첩 표시된다. 단, 시점 조작 모드 전환 버튼(314) 또는 별도의 변환 버튼이 눌리는 것에 의해, 도 26의 방법과 도 27의 방법과 도 28의 방법이 전환되더라도 좋다.
***실시의 형태의 보충***
실시의 형태는, 바람직한 형태의 예시이고, 본 발명의 기술적 범위를 제한하는 것을 의도하는 것이 아니다. 실시의 형태는, 부분적으로 실시하더라도 좋고, 다른 형태와 조합하여 실시하더라도 좋다.
플로차트 등을 이용하여 설명한 처리 순서는, 점군 화상 생성 장치, 점군 화상 생성 방법 및 점군 화상 생성 프로그램의 처리 순서, 또는, 표시 시스템, 표시 방법 및 표시 프로그램의 처리 순서의 일례이다.
100 : 점군 화상 생성 장치
101 : 측위 보강 데이터
102 : 측위 데이터
103 : 관성 계측 데이터
104 : 주행 거리 데이터
105 : 방위 거리 데이터
110 : 계측 차량
111 : 측위 보강 신호 수신기
112 : 측위 신호 수신기
113 : 관성 계측 장치
114 : 오도미터
115 : 레이저 스캐너
119 : 천판
121 : 위치 연산부
122 : 자세 연산부
123 : 3차원 점군 생성부
200 : 계측 데이터 처리부
201 : 계측 위치 데이터
202 : 계측 자세 데이터
203 : 3차원 점군 데이터
204 : 조작 데이터
220 : 위치 추정부
229 : 추정 위치 데이터
230 : 2차원 투영부
235 : 투영 점군 데이터
236 : 투영 마크 데이터
300 : 표시 장치
310 : 점군 화상
311 : 3차원 점군
312 : 계측 위치 마크
313 : 추정 위치 마크
314 : 시점 조작 모드 전환 버튼
315 : 종 슬라이드
315I : 인디케이터
316 : 횡 슬라이드
316I : 인디케이터
317 : 시점 위치 마크
320 : 인터페이스 화상
321B : 후방 버튼
321D : 하방 버튼
321F : 전방 버튼
321L : 좌측 버튼
321R : 우측 버튼
322X : 좌우 위젯
322Y : 전후 위젯
322Z : 상하 위젯
323P : 앙각 위젯
323Y : 방위각 위젯
329 : 취소 버튼
400 : 조작부
401 : 자차 위치
411 : 기준 시점 위치
901 : 프로세서
902 : 보조 기억 장치
903 : 메모리
904 : 통신 장치
9041 : 리시버
9042 : 트랜스미터
905 : 입력 인터페이스
906 : 출력 인터페이스
907 : 입력 장치
908 : 출력 장치
910 : 신호선
911 : 케이블
912 : 케이블
1001 : 측위 보강 데이터
1002 : 측위 데이터
1003 : 각속도 데이터
1004 : 주행 거리 데이터
1005 : 거리 방향 데이터
1006 : 가속도 데이터
1007 : 자기 위치 데이터
1008 : 자세 데이터
1009 : 추정 자기 위치 데이터
1010 : 3차원 좌표 점군 데이터
1011 : 색을 갖는 3차원 좌표 점군 데이터
1012 : 시점 정보
1013 : 점군 화상 데이터
1014 : 마크 데이터
1015 : 기준 3차원 점군 데이터
1016 : 차분 3차원 점군 좌표 데이터
1100 : 계측부
1101 : 측위 보강 신호 수신부
1102 : GNSS 수신기
1103 : IMU
1104 : 오도메트리 장치
1105 : 레이저 스캐너
1110 : 계측 차량
1200 : 계측 데이터 처리부
1201 : 자기 위치 연산부
1202 : 자세 연산부
1203 : 레이저 점군 3차원화 처리부
1204 : 2차원 투영 변환 처리부
1205 : 자기 위치 설정부
1206 : 위치 자세 계측부
1210 : 표시 시스템
1250 : 점군 인식 처리부
1300 : 표시 장치
1400 : 조작부
1501 : 3차원 좌표 점군
1502 : 지물
1503 : 노면
1504 : 자기 위치 마크
1505 : 추정 자기 위치 마크
1506 : 궤적 마크
1509 : 등고선 그래프
1510 : 차분 처리부
1520 : 기준 데이터 생성부
1530 : 인식부
1601 : 전방 보기 선택 버튼
1602 : 후방 보기 선택 버튼
1603 : 우측 보기 선택 버튼
1604 : 좌측 보기 선택 버튼
1605 : 하방 보기 선택 버튼
1606 : 오프셋값
1607 : 오프셋값
1608 : 클리어 버튼
1609 : 자기 위치
1610 : 추정 자기 위치

Claims (32)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 계측 차량에 설치된 레이저 스캐너로부터 레이저를 주변 물체에 조사하는 것에 의해 복수의 조사점까지의 방위와 거리를 계측하여 얻어진 각 조사점에 있어서의 계측치에 근거하여, 상기 각 조사점의 3차원 좌표치를 나타내는 데이터인 3차원 점군 데이터를 생성하는 3차원 점군 생성부와,
    시점 위치 및 시선 방향에 근거하여, 상기 3차원 점군 데이터에 대하여 2차원 투영 처리를 행하여, 점군 화상을 생성하는 2차원 투영부와,
    상기 시점 위치 및 상기 시선 방향의 각각을 독립적으로 변경하기 위한 터치 패널의 유저 인터페이스
    를 구비하고 있고,
    상기 시점 위치는, 화면에 표시되는 시점 위치 마크가 드래그 된 방향으로 이동하는
    것을 특징으로 하는 점군 화상 생성 장치.
  15. 계측 차량에 설치된 레이저 스캐너로부터 레이저를 주변 물체에 조사하는 것에 의해 복수의 조사점까지의 방위와 거리를 계측하여 얻어진 각 조사점에 있어서의 계측치에 근거하여, 상기 각 조사점의 3차원 좌표치를 나타내는 데이터인 3차원 점군 데이터를 생성하는 3차원 점군 생성부와,
    시점 위치 및 시선 방향에 근거하여, 상기 3차원 점군 데이터에 대하여 2차원 투영 처리를 행하여, 점군 화상을 생성하는 2차원 투영부
    를 구비하고,
    상기 점군 화상은, 계측시의 상기 계측 차량의 위치를 나타내는 계측 위치 마크를 포함하는
    것을 특징으로 하는 점군 화상 생성 장치.
  16. 제 15 항에 있어서,
    상기 시선 방향은, 유저 인터페이스에 의해 변경되고,
    상기 2차원 투영부는, 상기 시선 방향으로부터 본 경우의 방식으로 상기 계측 위치 마크에 대하여 상기 2차원 투영 처리를 행하는
    것을 특징으로 하는 점군 화상 생성 장치.
  17. 제 15 항에 있어서,
    상기 점군 화상 생성 장치는, 계측시의 상기 계측 차량의 3차원 좌표치를 나타내는 계측 위치 데이터를 이용하여, 상기 점군 화상이 표시될 때의 상기 계측 차량의 위치인 추정 위치의 3차원 좌표치를 추정하고, 추정한 3차원 좌표치를 나타내는 추정 위치 데이터를 생성하는 위치 추정부를 구비하고,
    상기 2차원 투영부는, 생성된 추정 위치 데이터를 이용하여, 상기 추정 위치를 나타내는 추정 위치 마크에 대하여 상기 2차원 투영 처리를 행하고, 3차원 점군과 상기 계측 위치 마크와 상기 추정 위치 마크를 포함한 화상을 상기 점군 화상으로서 생성하는
    것을 특징으로 하는 점군 화상 생성 장치.
  18. 계측 차량에 설치된 레이저 스캐너로부터 레이저를 주변 물체에 조사하는 것에 의해 복수의 조사점까지의 방위와 거리를 계측하여 얻어진 각 조사점에 있어서의 계측치에 근거하여, 상기 각 조사점의 3차원 좌표치를 나타내는 데이터인 3차원 점군 데이터를 생성하는 3차원 점군 생성부와,
    시점 위치 및 시선 방향에 근거하여, 상기 3차원 점군 데이터에 대하여 2차원 투영 처리를 행하여, 점군 화상을 생성하는 2차원 투영부와,
    상기 점군 화상이 표시될 때의 상기 계측 차량의 위치인 추정 위치의 3차원 좌표치를, 계측시의 상기 계측 차량의 3차원 좌표치를 나타내는 계측 위치 데이터를 이용하여 추정하고, 추정한 3차원 좌표치를 나타내는 추정 위치 데이터를 생성하는 위치 추정부
    를 구비하고,
    상기 2차원 투영부는, 생성된 추정 위치 데이터를 이용하여, 상기 추정 위치를 나타내는 추정 위치 마크에 대하여 상기 2차원 투영 처리를 행하고, 3차원 점군과 상기 추정 위치 마크를 포함한 화상을 상기 점군 화상으로서 생성하는
    것을 특징으로 하는 점군 화상 생성 장치.
  19. 제 18 항에 있어서,
    상기 시선 방향은, 유저 인터페이스에 의해 변경되고,
    상기 2차원 투영부는, 상기 시선 방향으로부터 본 경우의 방식으로 상기 추정 위치 마크에 대하여 상기 2차원 투영 처리를 행하는
    것을 특징으로 하는 점군 화상 생성 장치.
  20. 제 14 항에 있어서,
    상기 점군 화상에 포함되는 3차원 점군을 구성하는 3차원 점의 형상이, 3차원 공간 상에 있어서 시선 방향에 대하여 정면으로 마주하는 평면 상에 배치한 삼각형인 것을 특징으로 하는 점군 화상 생성 장치.
  21. 제 14 항 내지 제 20 항 중 어느 한 항에 있어서,
    상기 2차원 투영부는, 상기 레이저 스캐너가 계측을 행했을 때의 상기 계측 차량의 위치인 계측 위치를 기점으로 하여 상기 시점 위치를 결정하는 점군 화상 생성 장치.
  22. 제 14 항 내지 제 20 항 중 어느 한 항에 있어서,
    상기 2차원 투영부는, 상기 점군 화상이 표시될 때의 상기 계측 차량의 위치인 추정 위치를 기점으로 하여 상기 시점 위치를 결정하는 점군 화상 생성 장치.
  23. 제 14 항 내지 제 20 항 중 어느 한 항에 있어서,
    상기 2차원 투영부는, 상기 레이저 스캐너가 계측을 행했을 때의 상기 계측 차량의 위치인 계측 위치와, 상기 점군 화상이 표시될 때의 상기 계측 차량의 위치인 추정 위치 중 어느 하나를, 상기 계측 차량의 속도에 따라 선택하고, 선택한 위치를 기점으로 하여 상기 시점 위치를 결정하는 점군 화상 생성 장치.
  24. 노면을 포함하는 주위 물체로의 이동체로부터의 레이저 주사에 의해 얻어지는 레이저 계측점까지의 거리 및 방향 정보와, 상기 이동체의 위치 및 자세의 계측치에 근거하여, 상기 레이저 계측점의 3차원 위치 좌표를 순차적으로 계측하고, 3차원 좌표 점군 데이터로서 출력하는 레이저 점군 3차원화 처리부와,
    상기 이동체의 이동 중에, 상기 레이저 점군 3차원화 처리부로부터 순차적으로 출력되는 3차원 좌표 점군 데이터에, 높이의 구역마다 상이한 색 정보를 부여하는 점군 인식 처리부와,
    시점 정보가 입력되는 조작부와,
    상기 이동체의 이동 중에, 상기 조작부에서 입력된 시점 정보와, 상기 이동체의 위치 및 자세의 계측치에 근거하여, 상기 점군 인식 처리부에 의해 색 정보가 부여된 3차원 좌표 점군 데이터에 있어서의 3차원 위치 좌표점을 투영하여, 점군 화상 데이터를 생성하는 2차원 투영 변환 처리부
    를 구비한 표시 시스템.
  25. 이동체의 이동 중에, 상기 이동체의 위치 및 자세를 계측하는 위치 자세 계측부와,
    상기 이동체의 이동 중에, 상기 이동체가 갖는 레이저 스캐너의 노면을 포함하는 주위 물체로의 레이저 주사에 의해 순차적으로 얻어지는, 레이저 조사점에 대응한 계측점의 거리 및 방향 정보와, 상기 위치 자세 계측부에 의해 순차적으로 얻어지는 이동체의 위치 및 자세에 근거하여, 상기 계측점의 3차원 위치 좌표를 순차적으로 계측하고, 계측한 3차원 위치 좌표점을 3차원 좌표 점군 데이터로서 출력하는 레이저 점군 3차원화 처리부와,
    상기 이동체의 이동 중에, 상기 레이저 점군 3차원화 처리부로부터 순차적으로 출력되는 3차원 좌표 점군 데이터에 있어서의, 색 구분 범위 내의 높이를 가진 3차원 위치 좌표점에, 상기 높이에 따른 색 정보를 순차적으로 부여하는 점군 인식 처리부와,
    시점 정보가 입력되는 조작부와,
    상기 이동체의 이동 중에, 상기 조작부에서 입력된 시점 정보와, 상기 이동체의 위치 및 자세에 근거하여, 상기 점군 인식 처리부에 의해 색 정보가 부여된 3차원 좌표 점군 데이터에 있어서의 3차원 위치 좌표점을 2차원 화면 내의 대응점에 투영 변환하여 점군 화상 데이터를 생성하는 2차원 투영 변환 처리부와,
    상기 이동체의 이동 중에, 상기 2차원 투영 변환 처리부가 생성한 점군 화상 데이터를 화면 표시하는 표시 장치
    를 구비한 표시 시스템.
  26. 제 24 항에 있어서,
    조작부는, 전방 보기 선택 버튼, 후방 보기 선택 버튼, 우측 보기 선택 버튼, 좌측 보기 선택 버튼, 하방 보기 선택 버튼을 갖고, 어느 하나의 버튼 선택에 근거하여, 시점 및 시선 방향을 변경하는 것을 특징으로 하는 표시 시스템.
  27. 제 24 항에 있어서,
    2차원 투영 변환 처리부는, 자기 위치, 추정 자기 위치, 및 자기 위치의 궤적의 3차원 위치 좌표점을, 2차원 화면 내의 대응점에 투영 변환하여 점군 화상 데이터를 생성하는 것을 특징으로 하는 표시 시스템.
  28. 제 24 항 내지 제 27 항 중 어느 한 항에 있어서,
    점군 인식 처리부는, 상기 3차원 좌표 점군 데이터와, 미리 설정된 노면 형상을 나타내는 기준 3차원 점군 데이터의 높이의 차이에 따른 색 정보를, 상기 3차원 좌표 점군 데이터에 부여하는 것을 특징으로 하는 표시 시스템.
  29. 제 28 항에 있어서,
    상기 점군 인식 처리부는, 기준 그리드의 격자점마다, 상기 3차원 좌표 점군 데이터와 상기 기준 3차원 점군 데이터의 각각으로부터 복수의 3차원 좌표점을 선택하고, 상기 3차원 좌표 점군 데이터로부터 선택한 복수의 3차원 좌표점을 이용하여 상기 3차원 좌표 점군 데이터의 상기 격자점의 높이를 결정하고, 상기 기준 3차원 점군 데이터로부터 선택한 복수의 3차원 좌표점을 이용하여 상기 기준 3차원 점군 데이터의 상기 격자점의 높이를 결정하고, 상기 3차원 좌표 점군 데이터의 상기 격자점의 높이와 상기 기준 3차원 점군 데이터의 상기 격자점의 높이의 차이에 따른 색 정보를, 상기 3차원 좌표 점군 데이터의 상기 격자점으로 대표되는 3차원 좌표점에 부여하는 것을 특징으로 하는 표시 시스템.
  30. 제 29 항에 있어서,
    상기 점군 인식 처리부는, 선택한 복수의 3차원 좌표점으로부터 상기 격자점까지의 거리가 모두 거리 임계치 이하이고, 또한, 선택한 복수의 3차원 좌표점의 높이의 차이가 모두 높이 임계치 이하인 경우, 선택한 복수의 3차원 좌표점의 각각의 높이에 상기 3차원 좌표점으로부터 상기 격자점까지의 거리에 따른 가중치 부여를 행하고, 가중치 부여한 복수의 높이를 이용하여 상기 격자점의 높이를 산출하는 것을 특징으로 하는 표시 시스템.
  31. 제 29 항에 있어서,
    상기 점군 인식 처리부는, 선택한 복수의 3차원 좌표점으로부터 상기 격자점까지의 거리의 적어도 어느 하나가 거리 임계치 이하이고, 또한, 선택한 복수의 3차원 좌표점으로부터 상기 격자점까지의 거리의 적어도 어느 하나가 거리 임계치를 넘는 경우, 선택한 복수의 3차원 좌표점으로부터 상기 격자점에 가장 가까운 3차원 좌표점을 선택하고, 선택한 3차원 좌표점의 높이를 상기 격자점의 높이로 하는 것을 특징으로 하는 표시 시스템.
  32. 제 29 항에 있어서,
    상기 점군 인식 처리부는, 선택한 복수의 3차원 좌표점으로부터 상기 격자점까지의 거리가 모두 거리 임계치 이하이고, 또한, 선택한 복수의 3차원 좌표점의 높이의 차이의 적어도 어느 하나가 높이 임계치를 넘는 경우, 선택한 복수의 3차원 좌표점으로부터 상기 격자점에 가장 가까운 3차원 좌표점을 선택하고, 선택한 3차원 좌표점의 높이를 상기 격자점의 높이로 하는 것을 특징으로 하는 표시 시스템.
KR1020177034186A 2015-05-20 2015-12-25 점군 화상 생성 장치 및 표시 시스템 KR101928689B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JPJP-P-2015-103240 2015-05-20
JP2015103240 2015-05-20
JPJP-P-2015-103152 2015-05-20
JP2015103152 2015-05-20
PCT/JP2015/086323 WO2016185637A1 (ja) 2015-05-20 2015-12-25 点群画像生成装置および表示システム

Publications (2)

Publication Number Publication Date
KR20170140353A KR20170140353A (ko) 2017-12-20
KR101928689B1 true KR101928689B1 (ko) 2018-12-12

Family

ID=57319589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177034186A KR101928689B1 (ko) 2015-05-20 2015-12-25 점군 화상 생성 장치 및 표시 시스템

Country Status (7)

Country Link
EP (1) EP3299763B1 (ko)
JP (1) JP6335389B2 (ko)
KR (1) KR101928689B1 (ko)
AU (1) AU2015395741B2 (ko)
HK (1) HK1252900A1 (ko)
PH (1) PH12017502098A1 (ko)
WO (1) WO2016185637A1 (ko)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151872A (ja) * 2017-03-13 2018-09-27 富士通株式会社 描画プログラム、描画方法および描画装置
JP6727161B2 (ja) * 2017-03-24 2020-07-22 三菱電機株式会社 地中表示装置及び地中表示プログラム
CN109285188B (zh) * 2017-07-21 2020-04-21 百度在线网络技术(北京)有限公司 用于生成目标物体的位置信息的方法和装置
US20200278215A1 (en) 2017-11-22 2020-09-03 Mitsubishi Electric Corporation Map collection system, map server device, in-vehicle device and map collection method
EP3719781A4 (en) * 2017-11-27 2021-01-27 Mitsubishi Electric Corporation CARD UPDATE SYSTEM AND CARD UPDATE PROCESS
JP2019117053A (ja) * 2017-12-26 2019-07-18 パイオニア株式会社 表示制御装置
JP7333445B2 (ja) * 2017-12-26 2023-08-24 パイオニア株式会社 画像生成装置
US11112504B2 (en) 2018-02-20 2021-09-07 Mitsubishi Electric Corporation Measurement monitoring device and computer readable medium
US20200116484A1 (en) * 2018-10-12 2020-04-16 Id Technologies Inc. Mobile Surface Scanner And Associated Method
CN111174788B (zh) * 2018-11-13 2023-05-02 北京京东乾石科技有限公司 一种室内二维建图方法和装置
CN111238494B (zh) * 2018-11-29 2022-07-19 财团法人工业技术研究院 载具、载具定位系统及载具定位方法
JP7004636B2 (ja) * 2018-12-04 2022-01-21 三菱電機株式会社 表示データ生成装置、表示データ生成方法、および表示データ生成プログラム
CN111308448B (zh) * 2018-12-10 2022-12-06 杭州海康威视数字技术股份有限公司 图像采集设备与雷达的外参确定方法及装置
US10353073B1 (en) * 2019-01-11 2019-07-16 Nurulize, Inc. Point cloud colorization system with real-time 3D visualization
JP2020165729A (ja) * 2019-03-28 2020-10-08 東北電力株式会社 距離測定装置、距離測定方法及び距離測定プログラム
DE102019208384A1 (de) * 2019-06-07 2020-12-10 Robert Bosch Gmbh Verfahren zum Erstellen einer universell einsetzbaren Merkmalskarte
CN110619663A (zh) * 2019-08-28 2019-12-27 山东科技大学 一种基于三维激光点云的视频影像目标定位方法
CN110789533B (zh) * 2019-09-25 2021-08-13 华为技术有限公司 一种数据呈现的方法及终端设备
US11262759B2 (en) 2019-10-16 2022-03-01 Huawei Technologies Co., Ltd. Method and system for localization of an autonomous vehicle in real time
WO2021081125A1 (en) 2019-10-21 2021-04-29 Piper Networks, Inc. Transit location systems and methods using lidar
WO2021077315A1 (en) * 2019-10-23 2021-04-29 Beijing Voyager Technology Co., Ltd. Systems and methods for autonomous driving
CN110929612A (zh) * 2019-11-13 2020-03-27 北京云聚智慧科技有限公司 一种目标对象标注方法、装置及设备
CN110927765B (zh) * 2019-11-19 2022-02-08 博康智能信息技术有限公司 激光雷达与卫星导航融合的目标在线定位方法
CN110926341A (zh) * 2019-11-26 2020-03-27 湖南农业大学 一种利用三维扫描点云测度谷粒长宽厚形态参数的新方法
CN112950785B (zh) * 2019-12-11 2023-05-30 杭州海康威视数字技术股份有限公司 点云标注方法、装置及系统
CN111273704B (zh) * 2020-01-21 2023-09-15 上海万物新生环保科技集团有限公司 一种自动插入外接设备孔的方法及装置
CN111427451B (zh) * 2020-03-25 2022-11-01 中国人民解放军海军特色医学中心 采用扫描仪与眼动仪确定注视点在三维场景中位置的方法
JP7461817B2 (ja) 2020-07-08 2024-04-04 三菱重工業株式会社 表示情報作成装置、表示システム、及び表示情報作成方法
JP7339588B2 (ja) * 2020-07-29 2023-09-06 日本電信電話株式会社 データ補正方法及びデータ補正装置
CN112102496B (zh) * 2020-09-27 2024-03-26 安徽省农业科学院畜牧兽医研究所 牛体格测量方法、模型训练方法和系统
CN112669364A (zh) * 2020-12-07 2021-04-16 盎锐(上海)信息科技有限公司 用于实测实量的显示方法及测量系统
CN112802097B (zh) * 2020-12-30 2024-07-12 深圳市慧鲤科技有限公司 一种定位方法、装置、电子设备及存储介质
CN112991149A (zh) * 2021-02-02 2021-06-18 武汉光庭信息技术股份有限公司 一种激光点云二维视图浏览渲染方法
CN113033564B (zh) * 2021-02-20 2022-10-14 意欧斯物流科技(上海)有限公司 一种高精度和鲁棒性的2d激光点云匹配的方法
CN112819805B (zh) * 2021-02-23 2024-05-10 北京布科思科技有限公司 一种基于一字激光的物体位置识别方法及装置
CN115412721B (zh) * 2021-05-26 2024-05-28 荣耀终端有限公司 一种点云二维规则化平面投影方法及装置
CN115412717B (zh) * 2021-05-26 2024-05-17 荣耀终端有限公司 一种点云方位角信息的预测编解码方法及装置
CN114485592B (zh) * 2022-02-28 2023-05-05 中国电建集团西北勘测设计研究院有限公司 一种确保排水箱涵三维点云坐标转换精度的方法
CN114894167B (zh) * 2022-04-06 2024-01-30 西北工业大学 一种基于多传感器技术的洞穴自动测绘系统及方法
CN114863695B (zh) * 2022-05-30 2023-04-18 中邮建技术有限公司 一种基于车载激光和摄像机的超标车辆检测系统和方法
CN114827711B (zh) * 2022-06-24 2022-09-20 如你所视(北京)科技有限公司 图像信息显示方法和装置
CN115097976B (zh) * 2022-07-13 2024-03-29 北京有竹居网络技术有限公司 用于图像处理的方法、装置、设备和存储介质
CN115097977A (zh) * 2022-07-13 2022-09-23 北京有竹居网络技术有限公司 用于点云处理的方法、装置、设备和存储介质
CN115631329B (zh) * 2022-12-08 2023-04-28 杭州明度智能科技有限公司 一种用于开放式车厢的装载控制方法、系统和存储介质
CN116008991A (zh) * 2022-12-12 2023-04-25 北京斯年智驾科技有限公司 一种岸桥下车辆定位方法、装置、电子设备及存储介质
CN117053729B (zh) * 2023-10-10 2024-01-16 武汉奋进智能机器有限公司 酒甑的布料方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076181A (ja) 1999-09-08 2001-03-23 Mixed Reality Systems Laboratory Inc 視点位置設定方法、コンピュータ、三次元画像編集装置、およびプログラム記憶媒体
JP2010249709A (ja) 2009-04-17 2010-11-04 Mitsubishi Electric Corp 断面計測装置、断面計測方法および断面計測プログラム
JP2012177809A (ja) 2011-02-25 2012-09-13 Geo Technical Laboratory Co Ltd 3次元地図表示システム
WO2015053040A1 (ja) 2013-10-11 2015-04-16 富士通テン株式会社 画像表示装置、画像表示システム、画像表示方法、及び、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153248A (ja) * 2001-11-16 2003-05-23 Canon Inc インターネット公開カメラにおいてカメラ制御情報による集計及び集計情報公開装置
JP2005321370A (ja) * 2004-04-05 2005-11-17 Sony Corp ナビゲーション装置、およびデータ処理方法、並びにコンピュータ・プログラム
JP2008070705A (ja) * 2006-09-15 2008-03-27 Cad Center:Kk 画像提供システムおよび画像提供サーバ装置
JP5347988B2 (ja) * 2009-03-30 2013-11-20 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
WO2012037157A2 (en) * 2010-09-13 2012-03-22 Alt Software (Us) Llc System and method for displaying data having spatial coordinates
JP6198190B2 (ja) * 2013-08-01 2017-09-20 国際航業株式会社 路面性状計測システム、及び路面性状計測方法
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076181A (ja) 1999-09-08 2001-03-23 Mixed Reality Systems Laboratory Inc 視点位置設定方法、コンピュータ、三次元画像編集装置、およびプログラム記憶媒体
JP2010249709A (ja) 2009-04-17 2010-11-04 Mitsubishi Electric Corp 断面計測装置、断面計測方法および断面計測プログラム
JP2012177809A (ja) 2011-02-25 2012-09-13 Geo Technical Laboratory Co Ltd 3次元地図表示システム
WO2015053040A1 (ja) 2013-10-11 2015-04-16 富士通テン株式会社 画像表示装置、画像表示システム、画像表示方法、及び、プログラム

Also Published As

Publication number Publication date
PH12017502098A1 (en) 2018-05-07
JPWO2016185637A1 (ja) 2017-08-31
AU2015395741A1 (en) 2017-11-09
WO2016185637A1 (ja) 2016-11-24
KR20170140353A (ko) 2017-12-20
HK1252900A1 (zh) 2019-06-06
AU2015395741B2 (en) 2019-06-27
EP3299763A1 (en) 2018-03-28
EP3299763B1 (en) 2020-08-26
EP3299763A4 (en) 2019-01-16
JP6335389B2 (ja) 2018-05-30

Similar Documents

Publication Publication Date Title
KR101928689B1 (ko) 점군 화상 생성 장치 및 표시 시스템
US7609200B1 (en) Radar derived perspective display system
EP2769363B1 (en) Depth cursor and depth measurement in images
US10338228B2 (en) Portable GNSS survey system
US8264379B2 (en) Methods and systems for correlating data sources for vehicle displays
US9378558B2 (en) Self-position and self-orientation based on externally received position information, sensor data, and markers
US20110012773A1 (en) Marine bump map display
US10789744B2 (en) Method and apparatus for augmented reality display on vehicle windscreen
JP5501101B2 (ja) 位置標定装置、位置標定方法および位置標定プログラム
JP2008134224A (ja) 三次元レーダー像のレンダリングのための装置及び方法
CN103376442A (zh) 信息显示装置以及信息显示方法
US10872466B1 (en) Creating improved 3D models from 2D data
JP5473383B2 (ja) 断面計測装置、断面計測方法および断面計測プログラム
US20220390619A1 (en) Perception data based gnss multipath identification and correction
US20170293032A1 (en) Up sampling reference station data
US10353389B2 (en) Augmented reality cross-cueing systems and methods
US9423506B2 (en) Tactical differential GPS
JP6529420B2 (ja) 道路監視装置および道路監視プログラム
JP2012242318A (ja) 位置補正データ生成装置、位置標定装置、ユーザインタフェース装置、位置補正データ生成装置の位置補正データ生成方法、位置標定装置の位置標定方法、ユーザインタフェース装置の情報処理方法、位置補正データ生成プログラム、位置標定プログラムおよびユーザインタフェースプログラム
IL267309B2 (en) Terrestrial observation device with positioning functionality
US20180328733A1 (en) Position determining unit and a method for determining a position of a land or sea based object
JP2014071655A (ja) 遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法
JP6768051B2 (ja) 道路監視装置および道路監視プログラム
US20230136186A1 (en) Position measurement apparatus, positioning method and program
JP7349909B2 (ja) 位置同定装置、移動体位置同定システム、及び位置同定方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant