KR101606444B1 - 타겟 지점을 선택하기 위한 타겟 지점 후보들을 제공하기 위한 방법 - Google Patents

타겟 지점을 선택하기 위한 타겟 지점 후보들을 제공하기 위한 방법 Download PDF

Info

Publication number
KR101606444B1
KR101606444B1 KR1020137030750A KR20137030750A KR101606444B1 KR 101606444 B1 KR101606444 B1 KR 101606444B1 KR 1020137030750 A KR1020137030750 A KR 1020137030750A KR 20137030750 A KR20137030750 A KR 20137030750A KR 101606444 B1 KR101606444 B1 KR 101606444B1
Authority
KR
South Korea
Prior art keywords
target point
target
candidates
target object
image
Prior art date
Application number
KR1020137030750A
Other languages
English (en)
Other versions
KR20130140899A (ko
Inventor
베른하르트 메츨러
토야 슈테판 마르틴 벤자민 가흐터
Original Assignee
헥사곤 테크놀로지 센터 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 헥사곤 테크놀로지 센터 게엠베하 filed Critical 헥사곤 테크놀로지 센터 게엠베하
Publication of KR20130140899A publication Critical patent/KR20130140899A/ko
Application granted granted Critical
Publication of KR101606444B1 publication Critical patent/KR101606444B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • G01C1/02Theodolites
    • G01C1/04Theodolites combined with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 측지 측정 장치에 의해 후보 세트로부터 타겟 지점을 선택하기 위해 후보 세트를 형성하는 타겟 지점 후보들(22, 23, 26)을 제공하기 위한 방법에 관한 것으로서, 여기서 측정 장치는 조준 방향을 규정하는 조준 유닛 및 실질적으로 조준 방향으로 배향되는 카메라를 가진다. 측정 장치는 타겟 지점을 향해 거칠게 배향되고, 이미지는 조준 방향으로 기록된다. 또한, 기록된 이미지에서 특정 타겟 물체 후보들에 대한 검색 프로세스는 이미지 처리에 의해 수행되고, 검색 프로세스는 미리 규정된 모델들에 기초하여 수행되고 타겟 물체 후보를 나타내는 적어도 하나의 각각의 지점은 타겟 지점 후보(22, 23, 26)로서의 타겟 물체 후보들 각각과 관련 지워진다. 게다가, 타겟 지점 후보들(22, 23, 26)은 후보 세트와 관련 지워지고, 각각의 가중치들, 특히 확률들은 타겟 지점 후보들(22, 23, 26)의 미리 결정된 타겟 지점 특성의 적어도 하나의 값에 따라 도출되고 타겟 지점 후보들(22, 23, 26)과 관련 지워진다. 또한, 후보 세트로부터의 타겟 지점 후보들(22, 23, 26)은 각각 타겟 지점 후보와 관련된 가중치를 나타내는 각각의 정보와 함께 제공된다.

Description

타겟 지점을 선택하기 위한 타겟 지점 후보들을 제공하기 위한 방법{Method for providing target point candidates for selecting a target point}
본 발명은 청구항 1의 전제부에 청구된 측정 장치에 의해 후보 세트로부터 타겟 지점을 선택하기 위한 타겟 지점 후보들을 제공하기 위한 방법 및 청구항 12에 청구된 방법을 수행하기 위한 본 발명에 따른 측정 장치에 관한 것이다.
타겟 지점을 측정하기 위해, 수많은 측지 측정 장치들이 고대로부터 알려져 왔다. 이 경우에 있어서, 방향 또는 각도 및 보통 또한 측정 장치로부터 측정될 타겟 지점까지의 거리가 기록되고, 특히 가능하게는 존재하는 참조 지점들과 함께 측정 장치의 절대 위치가 공간 표준 데이터로서 검출된다.
이와 같은 측지 측정 장치들의 일반적으로 알려진 예들은 전자 타키미터 또는 컴퓨터 타키미터로서도 불리는 세오돌라이트, 타키미터(tachymeter) 및 토탈 스테이션을 구비한다. 종래 기술로부터의 하나의 측지 측정 장치는 예를 들어 공개 문헌 EP 1 686 350에 기재되어 있다. 이와 같은 장치들은 방향 및 거리가 선택된 타겟에 대해 결정되는 것을 허용하는 전기-센서-기반 각도 및, 적절하다면, 거리 측정 기능들을 가진다. 이 경우에 있어서, 각도 및 거리 변수들이 장치의 내부 참조 시스템에서 결정되고, 적절하다면, 또한 절대 위치 결정을 위해 외부 참조 시스템과 결합되어야 한다.
많은 측지 응용들에 있어서, 지점들은 거기에 위치되는 특별히 구성되는 타겟 물체들에 의해 측정된다. 후자는 보통 측정 경로 또는 측정 지점을 규정하기 위한 반사기(예컨대 완전-원형 프리즘)를 갖는 플럼 스태프(plumb staff)로 구성된다. 이와 같은 측정 태스크들의 경우에, 측정 프로세스를 제어하고 측정 파라미터들을 규정하거나 또는 등록하기 위해, 다수의 데이터, 명령들, 음성(speech) 및 추가 정보가 타겟 물체 - 특히 타겟 물체에서의 핸드헬드 데이터 획득 장치 - 및 중앙 측정 장치 사이에서 전송된다. 이와 같은 데이터의 예들은 타겟 물체(사용되는 프리즘의 유형)의 식별, 플럼 스태프의 경사, 지면 위로의 반사기의 높이, 반사기 상수들 또는 온도 또는 공기압과 같은 측정값들을 포함한다. 이들 정보 아이템들 또는 상황-지배 파라미터들(situation-governed parameters)은 프리즘을 갖는 플럼 로드에 의해 규정되는 측정 지점의 측정 및 고정밀 타겟팅을 가능하게 하기 위해 필요하다.
현대의 토탈 스테이션들은 디지털 추가 처리 및 검출된 측정 데이터의 저장을 위한 마이크로프로세서들을 가진다. 장치들은 일반적으로 컴팩트 및 통합 디자인을 가지며, 여기서 동축 거리 측정 요소들 및 또한 계산, 제어 및 저장 유닛들은 보통 장치에 존재한다. 토탈 스테이션의 확장 스테이지에 의존하여, 타겟팅 또는 조준 장치의 동력화(motorization) 및 - 역반사기들(예컨대 완전-원형 프리즘)을 사용하는 경우에 - 자동 타겟 탐색 및 추적 수단이 추가로 통합될 수 있다. 인간-기계 인터페이스로서, 토탈 스테이션은 디스플레이 및 입력 수단, 예컨대 키보드를갖는 전자 디스플레이 제어 유닛 - 전자 데이터 저장 수단을 갖는 일반적으로 마이크로프로세서 계산 유닛 - 을 가질 수 있다. 타겟 지점의 위치가 결정되고, 디스플레이 제어 유닛에 의해 광학적으로 디스플레이되고 저장되도록, 전기-센서-기반 방식에서 검출된 측정 데이터는 디스플레이 제어 유닛에 공급된다. 종래 기술로부터 알려진 토탈 스테이션들은 또한 특히 데이터 로거(data logger) 또는 필드 컴퓨터로서 설계될 수 있는, 예컨대 핸드헬드 데이터 획득 장치와 같은 외부 주변 구성요소들에 무선 링크를 설정하기 위한 무선 데이터 인터페이스를 가질 수 있다.
측정될 타겟 지점을 조준 또는 타겟팅하기 위해, 일반적인 유형의 측지 측정 장치들은 조준 장치로서 예컨대 광학 망원경과 같은 망원 조준기를 가진다. 망원 조준기가 피봇팅 및 틸팅에 의해 측정될 지점과 정렬될 수 있도록, 망원 조준기는 일반적으로 수직축 및 측정 장치의 베이스에 대한 수평 경사축을 중심으로 회전 가능하다. 현대의 장치들은 광학 관측 채널 외에, 이미지를 검출하기 위한 카메라를 가질 수 있고, 상기 카메라는 망원 조준기에 통합되고 예를 들어 동축으로 또는 평행한 방식으로 정렬되고, 여기서 검출된 이미지는 특히 라이브 이미지로서 디스플레이 제어 유닛의 디스플레이 및/또는 원격 제어장치에 사용되는, 예컨대 데이터 로거와 같은 주변 장치의 디스플레이 위에 표현될 수 있다. 이 경우에 있어서, 조준 장치의 광학 시스템은 수동 초점 - 예를 들어 집속 광학 시스템의 위치를 변경하기 위한 조정 나사 - 또는 자동초점을 가질 수 있고, 여기서 초점 위치는 예컨대 서보모터들(servomotors)에 의해 변경된다. 예로서, 측지 측정 장치의 이와 같은 조준 장치는 EP 2 219 011에 기재되어 있다. 측지 장치들의 망원 조준기들을 위한 자동 포커싱 장치들은 에컨대 DE 197 107 22, DE 199 267 06 또는 DE 199 495 80으로부터 알려져 있다.
광학 시스템 또는 조준 장치의 광학 관측 채널은 망선을 생성하기 위한 레티클 및 아이피스를 보통 포함하고, 이들은 예컨대 물체측으로부터 이러한 순서로 배열된다. 포커싱 렌즈군의 위치는 예리한 물체 이미지가 집속면(focusing plane)에 배열되는 레티클 상에서 일어나는 방식으로 물체 거리에 의존하여 설정된다. 상기 이미지는 이후 아이피스를 통해 관측되거나 또는 예컨대 동축으로 배열된 카메라의 도움을 받아 검출된다.
예로서, 측지 장치들의 일반적인 망원 조준기들의 구성은 공개 문헌들 EP 1 081 459 또는 EP 1 662 278에 개시되어 있다.
관측 채널로서 및 측정들을 위해 함께 통상 이용될 비임 경로를 고려하여, 이와 같은 장치들은 높은 경비(high outlay)로 제조되는 특수, 고정밀 광학 시스템들을 갖는 망원경의 구성 방식으로 상기 비임 경로의 기술적 디자인을 요구한다. 또한, 추가의 별개의 전송 및 수신 채널 및 또한 거리 측정 장치의 파장을 위한 추가의 이미지 평면이 동축 전자 거리 측정을 위해 제공된다.
타겟 물체들(예컨대 타겟 마크를 갖는 플럼 로드들(plumb rods), 예컨대 통상 측지 목적들을 위해 사용되는 완전-원형 프리즘)은 종종 제공되는 (즉 측지 정밀도 요건들과 일치하지 않는) 30배의 광학 배율에도 불구하고 조준 장치에 기초하여 육안으로 충분히 정밀하게 겨냥될 수 있으므로, 통상 측정 장치들은 한편에서는 표준으로서, 타겟 반사기(ATR: "Automatic Target Recognition")로서 작용하는 프리즘들을 위한 자동 타겟 추적 기능을 가진다. 이를 위해, 다른 별개의 ATR 광원 - 예컨대 850 nm의 범위의 파장을 가지는 광학 방사선을 방출하는 다중모드 파이버 출력 - 및 상기 파장에 민감한 특정 ATR 검출기(예컨대 CCD 에어리어 센서)가 통상적으로 추가로 망원경에 통합된다.
ATR 미세 타겟팅 기능의 맥락에서, 이러한 경우에 ATR 측정 비임은 조준 장치의 광학 타겟팅 축의 방향으로 방출되고 프리즘에서 역반사되고 반사된 비임은 ATR 센서에 의해 검출된다. 프리즘으로부터 광학 타겟팅 축의 정렬의 편차에 의존하여, 이러한 경우에 ATR 센서 상의 반사된 방사선의 충돌 위치는 또한 중앙 센서 영역 위치결정 레이트로부터 벗어난다(즉, ATR 에어리어 센서 상의 프리즘에서 역반사된 ATR 측정 비임의 반사 스팟은 ATR 에어리어 센서의 중심에 놓이지 않으므로, 예컨대 광학 타겟팅 축에 대응하는 위치로서 교정에 기초하여 규정된 원하는 위치 위에서 충돌하지 않는다).
만약 이것이 그 경우이면, 프리즘에서 역반사된 ATR 측정 비임은 ATR 에어리어 센서 위의 센서 영역의 중심에서 높은 정밀도로 충돌하는 방식으로 조준 장치의 정렬이 동력화된 방식으로 약간 재조정된다(즉 조준 장치의 수평 및 수직각들이 따라서 반복적으로 변경되고 반사 스팟의 중심이 ATR 에어리어 센서 위의 원하는 위치와 일치할 때까지 적응된다). 대안으로, 에어리어 센서 상의 역반사된 ATR 측정 비임의 충돌 지점과 센서 영역의 중심 간의 잔차 편차(residual deviation)가 또한 계산적으로(computationally) 고려되고, 타겟팅 축선이 지향하는 각도 센서들 - 여기에서 타겟팅 축선이 가리키는 - 의 도움을 받아 검출되는 각도 - 이것은 상응하여 입체각에 부가되고 - 로 변환될 수 있다. 환언하면, 타겟 지점에 대한 입체각은 이 경우에 또한 타겟팅 축선 및 센서 중심으로부터(즉 타겟팅 축선이 이미징되는 ATR 센서 상의 중심 지점으로부터) 검출된 ATR 측정 비임 반사의 오프셋의, 각도 센서들의 도움을 받아 검출되는 입체각으로부터 도출될 수 있다.
그 결과, 프리즘과의 광학 타겟팅 축선의 정렬에서 달성 가능한 정밀도가 레티클에 의해 그리고 육안에 의한 측정에 기초하여 수동으로 수행되는 타겟팅에 비해 크게 증가될 수 있다. ATR 에어리어 센서 상의 프리즘에서 역반사된 ATR 측정 비임의 반사 스팟의 위치의 평가에 기초하여 자동 타겟팅의 기능을 보장하기 위해, 기능이 기동하기 전에, 역반사된 ATR 측정 비임이 또한 ATR 에어리어 센서 위에 충돌하는 방식으로 조준 장치를 타겟 반사기와 적어도 대략 정렬할 필요가 있다. 이러한 목적을 위해, 예컨대 눈에 의한 측정에 기초하여 타겟 반사기의 수동 타겟팅을 미리 실행하거나 자동의 거친 타겟팅 기능을 수행하는 것이 가능하다.
한편, 타겟 물체의 수동의 거친 조준은 측정 장치 위로 바로 디스플레이 제어 유닛의 사용자 디스플레이 또는 별도의 주변 장치(예컨대 원격 제어장치로서의 데이터 로거(data logger)의 디스플레이 상의 타겟 물체를 관측 및 타겟팅하여, 사용자에 의해 실행될 수 있다. 그러나, 종종, 이것은 망원 조준기(즉 조준 장치의)의 아이피스를 통해 타겟을 관측하여 여전히 실행되는데, 그 이유는 디스플레이 제어 유닛 또는 데이터 로거 상의 디스플레이된 디스플레이 이미지가 실제 사용 중 - 예컨대 일사(insolation)의 경우에 불충분하게 인식 가능할 수 있기 때문이다.
ATR 미세 타겟팅 기능 외에, 자동 타겟 추적 기능은 또한 유사한 방식으로 그리고 동일한 ATR 구성요소들(예컨대 ATR 광원 및 ATR 검출기)이 제공될 수 있다. ATR 미세 타겟팅이 실행된 후(즉 일단 조준 장치에 ATR 측정 방사 반사 스팟의 중심이 ATR 에어리어 센서 위에서 - 타겟팅 축에 대응하는 - 원하는 위치와 일치하는 방식으로 타겟과 정렬되면), 조준 장치는 또한 ATR 측정 방사 반사 스팟의 중심이 또한 가능한 한 정밀하게 그리고 항상 ATR 에어리어 센서 위의 원하는 위치에 남는 방식으로 타겟의 이동들이 "라이브(live)"로 그리고 적절히 신속하게 추적될 수 있다. 타겟은 "자동 추적(locked on)"이라고 종종 말하여 진다. 문제들은 여기서 만약 타겟이 급격하고 신속하게 이동하면 그것이 ATR 검출기의 시야에서 사라지는 일이 일어날 수 있다(즉 타겟에서 반사된 ATR 측정 방사는 더 이상 ATR 에어리어 센서 위에 충돌하지 않는다).
예로서, EP 2 141 450은 역반사 타겟의 자동 타겟팅을 위한 기능을 가지며 자동 타겟 추적 기능을 가지는 측정 장치를 기재하고 있다. 이 경우에 있어서, 심지어 고속 및 요동치는 운동들(jerky movement)의 경우에조차, 타겟을 "자동 추적(locked on)" 상태로 유지하고 그것을 미세 타겟팅 검출기의 시야로부터 벗어나지 않도록 하기 위해, 카메라(가시 파장 범위에서 민감한)에 의해 동시에 타겟의 이미지들을 기록하고, 이미지 처리의 도움을 받아, 타겟의 이동들(타겟과 함께 부수적으로 이동하는 물체들의 이동들)을 추적하고, 그럼으로써 역반사기가 다시 발견되고 다시 "자동 추적(locked on)" 상태로부터 벗어나는 타겟의 경우에 다시 자동 추적되기 쉽게하는 것이 제안된다.
또한, 종래 기술은 측정 장치와 타겟 물체 사이의 입체각들이 이미지 및 이미지 처리의 도움을 받아(특히 기록된 이미지에서 결정된 타겟 물체의 위치에 기초하여 그리고 알려지거나 검출된 이미지 기록 방향에 의존하여) 결정되는 방법들을 개시한다. 이와 같은 방법들은 예컨대 WO 2005/026767 또는 WO 2006/053837에 기재되어 있다.
더욱이, 유럽 특허 출원 제 10168771.3 호는 (역반사기가 없는) 타겟 마크의 타겟 지점을 갖는 측정 장치의 타겟팅 장치의 동력화 및 자동 정렬을 기술한다. 이 경우에 있어서, 타겟 마크(또는 상이한 타겟 마크들의 세트)는 사전에 알려져 있고 타겟 마크 위에 타겟 지점을 표시하는데 적합한 구조/형상(패턴, 형상 등)을 가진다. 평가 유닛에 의해, 검출된 이미지에서, 타겟 마크는 패턴에 기초하여 식별되고 이미지에서의 이미징된 타겟 마크의 위치는 높은 정밀도로 결정된다. 타겟 마크 또는 이미지에서의 타겟 마크와 상관된 패턴의 결정된 위치에 의존하여, 타겟팅 장치 는 정밀하게 정렬될 수 있다.
한편, 종래 기술에 따른 측정 장치들의 하나의 문제점은 타겟 지점을 갖는 타겟팅 장치의 수동 미세 정렬의 주어진 요건이다. 이것은 입체각들의 측정 중 정밀도에 제한적인 영향을 줄 수 있는 데, 그 이유는 이러한 프로세스가 사용자의 능력 및 조심성에 의존하기 때문이다. 또한, 타겟 지점의 수동의 정밀한 타겟팅은 사용자의 생산성에 악영향을 갖는 어떤 시간 소비와 관련이 있다.
한편, 종래 기술에 따른 측정 장치들에서의 자동 미세 타겟팅은 규정된 타겟들로 제한된다. 이에 대해, 기재된 ATR 미세 타겟팅 기능은 자연 타겟 지점들에 대해서가 아닌, 예컨대 프리즘들과 같은 협력적 타겟들에 대해서만 기능한다. 자동 미세 타겟팅의 다른 방법들은 물체 형상이 어떤 가변성을 가지는 물체들이 아닌, 예컨대 교회탑들에 대해 그리고, 규정된 패턴들에 대해서만, 예컨대 형상들이 시스템에 알려져 있는 타겟 마크들에 대해서만 기능한다.
그러므로, 본 발명의 목적은 원하는 타겟 지점의 선택이 고도의 자동화로, 낮은 복잡도로, 더 신속하고 더 신뢰성 있게 행해질 수 있는 방법을 제공하는 것이다. 본 발명의 다른 목적은 선택에 있어서 특히 가능한 타겟 물체 유형들의 형상에 관해 가능한 타겟 물체 유형들의 가변성을 고려하는 것을 가능하게 하는 것이다. 본 발명의 특정 목적은 원하는 타겟 지점의 선택에 있어서, 특히 선택을 지원하기 위해, 타겟 지점에 주어진 특성들을 고려하는 것을 가능하게 하는 것이다. 다른 목적은 이와 같은 방법을 위한 측지 측정 장치를 제공하는 것이다.
이들 목적들은 독립 청구항들의 특징적인 특징들의 실현에 의해 달성된다. 대안으로 또는 유리한 방식으로 본 발명을 발전시키는 특징들은 종속 특허 청구항들로부터 수집될 수 있다.
본 발명은 후보들의 웨이팅 또는 타겟 지점 확률을 위한 각각의 인디케이터와 함께 타겟 지점 후보들을 제공하기 위한 방법을 제공한다.
이 경우에 있어서, 타게팅 유닛, 특히 망원경, 통합 카메라를 갖는 측정 장치의 거친 정렬 후, 가능한 타겟 물체들 또는 타겟 물체 후보들에 관한 디지털 이미지 처리의 방법들에 기초하여 분석되는 이미지가 기록된다. 타겟 지점들 또는 타겟 지점 후보들은 타겟 물체들 또는 타겟 물체 후보들로부터 도출된다. 결정된 타겟 지점 후보들은 예컨대 디스플레이 상에, 사용자가 원하는 타겟 지점으로서 적절한 관련 확률과 함께 제공될 수 있다. 제공된 후보들의 세트로부터, 시스템은 원하는 타겟 지점으로서 한 지점을 자동으로 선택할 수 있고, 또는 애매한 경우에, 미리 규정된 수의 후보들을, 특히 최고 확률을 가지는 것들을 그것의 수동 선택을 위해 사용자에게 제공한다. 이미지 정보에 기초하여 자동 또는 수동 선택 후, 방향으로부터 선택된 타겟 지점으로의 타겟팅 유닛의 편차가 계산될 수 있고 측정 장치는 피봇팅을 위해 제공되는 드라이브들에 의해 타겟 지점과 정렬될 수 있다.
후보 세트로부터 타겟 지점을 선택하기 위한 후보 세트를 형성하는 타겟 지점 후보들을 제공하기 위한 본 발명에 따른 방법은 측지 측정 장치에 의해 실행되고, 여기서 측정 장치는 타겟팅 방향을 규정하는 타겟팅 유닛 및 실질적으로 타겟팅 방향으로 정렬되는 카메라를 가진다. 이 경우에 있어서, 측정 장치는 타겟 지점과 거칠게 정렬되고 타겟팅 방향에서의 이미지가 검출된다.
이 경우에 있어서, 측정 장치의 카메라는 제2 비임 경로를 규정할 수 있고, 따라서, 예를 들어 타겟팅 유닛의 비임 경로에 대해 동축 또는 절대로 평행하지 않은 검출 방향을 규정할 수 있다. 예로서, 카메라 및 그것의 광학 시스템은 예컨대 배향 목적들을 위한 오버뷰 이미지를 기록할 수 있도록 하기 위해, 타겟팅 유닛의 것보다 낮은 확대율 인자(magnification factor)를 가지므로, 타겟팅 광학 시스템에 대해, 특히 아래로 오프셋되는 방식으로 배열된다. 그러므로, 카메라의 정렬은 타겟팅 유닛의 정렬에 대응하지 않아야 하지만, 카메라는 실질적으로 타겟팅 방향으로, 즉 예를 들어 타겟팅 유닛에 의해 겨냥될 수 있는 타겟 지점이 카메라의 검출 영역에 있는 방식으로 정렬될 수 있다.
또한, 검출된 이미지에서 특정 타겟 물체 후보들을 검색하는 프로세스는 이미지 처리, 특히 분류 방법에 의해 실행되고, 여기서 검색 프로세스는 미리 규정된 모델들에 기초하여 실행되고 타겟 물체 후보들은 타겟 지점 후보들로서 각각의 타겟 물체 후보를 나타내는 적어도 하나의 지점으로 각각 할당된다. 더욱이, 타겟 지점 후보들은 후보 세트에 할당되고, 각각의 가중치, 특히 확률은 타겟 지점 후보의 미리 결정된 타겟 지점 특성의 적어도 하나의 구현에 의존하여, 타겟 지점 후보들로 도출되어 할당된다. 또한, 후보 세트의 타겟 지점 후보들은 각각의 타겟 지점 후보에 할당된 가중치를 나타내는 정보 아이템과 함께 각각 제공된다.
특히, 적어도 하나의 타겟 물체 후보가 제공될 수 있고, 그것에 의해 특히 이러한 지점을 타겟팅하기 위해 물체에 할당된 타겟 지점은 또한 절대적으로(implicitly) 제공된다. 이에 대해, 예컨대 사용자 또는 시스템은 타겟 지점으로서 적절한 어떤 확률을 갖는 각각의 경우에 타겟 지점들 및/또는 타겟 물체들이 식별된 정보를 제공받을 수 있고, 대응하는 선택은 또한 물체-기반(object-based) 및/또는 지점-기반 방식으로 행해질 수 있다. 따라서, 본 발명의 의미 내에서, 타겟 물체들을 제공하는 것은 타겟 물체에 할당된 타겟 지점을 동시에 제공하는 것에 대응하고 이에 대해서는 마찬가지로 타겟 지점들을 제공하는 것으로서 이해될 수 있다. 이에 대해, 타겟 지점 또는 타겟 지점 후보들을 제공하는 것은 개개의 지점들에 의해 그리고 규정된 구조들, 예를 들어 물체들 모두에 의해 실현될 수 있다.
그러므로, 검출된 이미지에서 타겟 물체 후보들을 검색하기 위한 프로세스가 실행되고, 여기서 이미지는 미리 규정된 타겟 물체 클래스들의 대표들(representatives)의 발생에 관해 검사된다. 만약 하나 또는 복수의 타겟 물체 후보들이 이미지에서 발견되면, 이들에 대해 대응하는 타겟 지점들이 결정되거나 또는 할당되고 후자는 확률에 관한 규정된 가중 팩터들 또는 개개의 후보들이 사용자가 원하는 하나의 타겟 지점을 포함하는 범위에 관한 가중치에 기초하여 레이팅된다. 선택이 행해진 후, 선택된 타겟 지점 후보에 따라, 현재의 타겟 방향으로부터의 각도 오프셋이 결정되고 예컨대 토탈 스테이션의 망원경의 정렬이 오프셋에 따라 동력화(motorization)에 의해 보정될 수 있다.
가중치는 여기서 타겟 지점 후보가 원하는 타겟 지점으로서 적절한 범위를 표시하는 가변인 것으로 이해된다. 상기 가중치는 또한 확률로서 해석될 수 있고, 여기서 그것은 타겟 지점 후보가 타겟 지점으로 적절한 어떤 확률로 표시하는 것이 가능하다.
환언하면, 가중치는 관련성의 척도(measure), 예를 들어 각각의 타겟 지점 후보에 관해 원하는 타겟 지점으로서 적절한 정보 아이템에 의해 표현되는 관련 값(relevance value)이다. 특히, 이 경우에, 관련 특성값(relevance characteristic value)은 또한 가중치로서 이해될 수 있고, 여기서 관련 특성값은 확장 가능 특성 변수(characteristic variable)를 나타낸다.
환언하면, 가중치는 타겟 지점 후보에 할당된 값이 타겟 지점 중요성을 반영하고, 즉 타겟 지점 후보가 원하는 타겟 지점을 나타내는 사실에 관한 중요성을 표시하는 범위를 표현하기 위해 취해질 수 있다.
타겟 물체들에 기초한 타겟 지점들의 결정 또는 할당은 이 경우에 규칙-기반 방식으로 실행될 수 있고, 즉 만약 타겟 물체 클래스의 대표가 이미지에서 발견되면, 타겟 지점들은 선들의 교차 지점들로서 또는 원들 또는 타원들의 중간 지점들로서 규정될 수 있다. 이에 대해, 예컨대 타겟 물체 클래스 "교회탑(church tower)"의 대표의 경우에, 하나의 타겟 지점은 십자가의 (검출된 이미지에서 선들로서 식별되는) 바들(bars)의 교차점으로서 도출될 수 있고 추가의 타겟 지점은 (검출된 이미지에서 원으로서 식별되는) 둥근 지점의 중간 지점으로서 도출될 수 있다. 타겟 지점들을 도출하기 위한 이들 규칙들은 각각의 타겟 물체 클래스에 할당될 수 있고 측정 장치 위에 저장될 수 있다.
이와 같은 방법은 사용자가 측정 환경에서 제공된 타겟 지점 후보들의 세트로부터 원하는 타겟 지점을 선택할 수 있게 한다. 그것에 대한 대안으로서, 타겟 지점은 상기 방법의 맥락에서 자동으로 선택될 수 있다. 그 결과, 측정 시스템의 거친 정렬 후, 타겟 지점은 자동으로 선택될 수 있고 시스템은 자동으로 정렬될 수 있다. 만약 자동 타겟 지점 선택이 모호성들을 고려하여 성공적이지 않으면, 사용자는 예컨대 수동 선택을 위해 가장 개연성 있는 타겟 지점 후보들을 제공받을 수 있다. 그러므로, 수동의 거친 타겟팅 후 복잡한 미세 타겟팅이 자동으로 실행될 수 있고 측정 프로세스의 생산성이 증가될 수 있다.
타겟 지점 후보들을 제공하기 위해, 측정 환경의 이미지가 검출되고, 여기서 이미지의 검출 중 카메라를 갖는 이미지 측정 장치, 예컨대 토탈 스테이션 또는 세오돌라이트는 원하는 타겟 지점이 거칠게 겨냥되고 따라서 카메라의 검출 방향이 실질적으로 이러한 지점과 정렬되고 그러므로 후자가 카메라의 이미지 필드 내에 위치되는 방식으로 정렬된다. 검출된 이미지는 타겟 물체 후보들의 발생에 관해 검사되고, 수많은 방법들, 특히 분류 방법들이 이미지 처리로부터 이러한 목적을 위해 알려져 있다. 먼저, 특징들(features)이 이미지 발췌로부터 추출될 수 있고, 특징 벡터(예컨대 하 웨이블렛(Haar wavelet) 또는 HOG 특징들)로 결합될 수 있다. 상기 특징 벡터는 특징 공간으로 매핑되고 이러한 공간에서의 위치에 의존하여 타겟 물체 클래스에 할당될 수 있다. 이 경우에 있어서, 이미지 발췌는 슬라이드되는 규정된 크기의 윈도에 의해 선택되거나 또는 전체 이미지(슬라이딩 윈도)에 걸쳐 예컨대 한 라인 한 라인씩 계속해서 스캔될 수 있다.
또한, 이미지 발췌들을 규정하기 위해, 이미지는 예컨대 포에스트너 오퍼레이터(Foestner operator), 해리스-라플라스 검출기(Harris-Laplace detector) 및/또는 해리스 코너 및 에지 검출기(Harris corner and edge detector)에 의해, 영구 구조들, 소위 "관심 지점들(interest points)"의 발생에 관해 분석될 수 있다. 따라서, 이미지에서 눈에 띄는(prominent) 구조들을 로컬라이즈하는 것이 가능하다. 상기 구조들의 주변들(surroundings)은 또한 특징 벡터가 계산되는 특정 이미지 발췌를 규정할 수 있다.
이와 같은 "관심 지점들(interest points)"은 예를 들어 또한 서브시스템, 예컨대 ATR 유닛(automatic target recognition)에 의해 이용 가능하게 될 수 있고 여기서, 추가 방사원에 의해, 예컨대 반사 타겟들의 위치들이 검출될 수 있고 후자가 겨냥될 수 있다. 따라서, "ATR 관심 지점(ATR interest point)"의 환경의 후속 이미지 분석에 의해, ATR 타겟들과 비-ATR(non-ATR) 타겟들 간의 차별(differentiation)에 관한 ATR 기능의 강인성(robustness)을 향상시키는 것이 가능하다. 이 경우에 있어서, 예컨대 이미지 환경은 역반사기를 나타낼 수 있는 구조들에 대해 검사될 수 있다.
특징 벡터들이 계산될 수 있는 이미지 발췌들을 규정하는 다른 변형예로서, 알려진 타겟 지점들, 예컨대 공식 측정(official measurement)으로부터 고정 지점들의 좌표들에 기초하여, 카메라의 위치 및 정렬에 따라, 이미지에서 그것의 위치를 계산하는 것이 가능하다. 이 경우에 있어서, 이미지 발췌는 이러한 위치 주위에서 미리 규정된 환경에 의해 규정될 수 있다.
이에 대해, 예로서, 각각의 특징 벡터는 이 경우에 분류기에 공급될 수 있다. 분류기에 의해, 미리 규정된 클래스와 각각의 특징 벡터의 관련성을 결정하고 할당 확률 또는 상기 특징 벡터의 특징 확률 또는 상기 특징 벡터의 특징 확률 즉 클래스먼트의 품질을 결정하는 것이 가능하다.
기록된 이미지에서 타겟 물체들을 검출하기 위한 다른 방법에 따라서, 후자는 또한 "관심 지점들(interest points)"이 검색될 수 있다. 이들 "관심 지점들(interest points)"은 특징 벡터들(예컨대 SIFT 또는 SURF)이 발생되는 이미지 발췌들의 위치를 규정한다. 분류의 맥락에서, 계산된 특징 벡터들과 조합한 "관심 지점들(interest points)"의 위치들은 이 시스템에 저장되어 있고 타겟 물체 클래스들에 대응하는 객체 모델들(object models)과 비교되고 이들의 관련성이 레이팅된다.
또한, 이미지는 또한, 예컨대 허프 변환에 의해, 예컨대 원들, 타원들 또는 선들과 같은 기하학적 원형들이 검색될 수 있다. 검출된 원형들의 인접 관계들에 기초하여, 이미지의 지형 그라프를 확립하는 것이 가능하고, 상기 그라프는 개개의 타겟 물체 클래스들에 대응하는 상이한 저장된 참조 그라프 구조들에 대한 분류의 맥락에서 검색된다.
후보 세트와의 이들 관련성, 즉 타겟 물체 클래스에의 할당과 함께, 이미지에서 검출된 물체가 가능한 타겟 물체인지의 여부에 관한 타겟 물체 후보들의 분류로부터, 각각의 클래스먼트의 품질을 기술하는 할당 확률이 또한 발생할 수 있다.
그러므로, 이와 같은 분류에 의해, 식별된 가능한 타겟 물체, 즉 타겟 지점 또는 비 타겟 지점(not target point)을 고려하여 판단하는 것 뿐만 아니라, 상이한 클래스들, 예컨대 원형 프리즘 또는 하우스 에지(house edge)로의 가능한 타겟 물체들(및 관련 타겟 지점들)의 더욱 상세한 세분(further detailed subdivision)을 행하는 것도 가능하다. 이러한 클래스 분할 및 할당 확률은 또한 가중치 또는 각각의 타겟 지점 후보가 사용자가 원하는 타겟 지점을 나타내는 확률의 결정을 위해 고려될 수 있거나, 또는 상기 확률의 계산 또는 웨이팅에 영향을 줄 수 있다.
분류기는 상기 방법의 맥락에서 트레이닝(training)될 수 있거나 또는 트레이닝 이미지들에 기초하여 생성될 수 있고 및/또는 이미 저장된 형식으로 존재할 수 있다. 이러한 목적을 위해, 분류기는 트레이닝 이미지들의 세트 또는 타겟 지점들의 상이한 클래스들을 적당히 나타내는 이미지 발췌들에 기초하여 생성될 수 있다. 특히, 트레이닝 이미지들은 진짜 타겟 지점들 및 알려져 있는 타겟 지점 클래스를 나타내는 이미지 발췌들의 제1 세트, 및 유사하지만 원치 않는 타겟 지점들 및 잔여 클래스 또는 비타겟 지점 클래스에 할당된 타겟 지점들의 배경의 이미지들의 제2 세트로 구성될 수 있다. 이들 트레이닝 이미지들은 가능한 한 강인한 레이팅 방법을 만들기 위해 상이한 시각들(different times of the day) 동안, 상이한 특정 및 기상 조건 하에서 기록될 수 있다.
분류기를 트레이닝하기 위해, 상기 방법에 의존하여, 특징 벡터 또는 지형 그라프가 미리 규정된 이미지 영역에 있는 각각의 트레이닝 이미지로부터 추출될 수 있다. 특징 벡터는 상이한 기하학 및 크기 관계들 및 배향과 무관하게 그리고 명확하게 이미지 컨텐트를 서술하는 통계적 서술자들(statistical descriptors)의 조합으로 구성될 수 있다. 모든 트레이닝 이미지들의 특징 벡터들은 특징 공간으로 변환될 수 있고 타겟 물체 클래스를 대표하는 특징들에 따라 거기에 특정 위치를 상정한다. 각각의 클래스가 프로세스에서 다른 클래스와 중첩하지 않고, 최대 가능한 공간을 취하는 방식으로 특징 공간은 이후 예를 들어 최대 거리 방법(서포트 벡터 기계)과 같은 더 상세하게는 기계-기반 학습 방법의 도움을 받아, 영역들로 세분될 수 있다. 특징 공간은 학습을 단순화하기 위해 더 높은 차원의 공간으로 또한 변환될 수 있다. 더욱이, 관련없는 정보를 통계적으로 억제하고 더 효율적으로 분류기를 트레이닝하기 위해 특징 공간의 치수는 예를 들어 주성분 분석(최대 거리 방법)에 의해 감소될 수 있다. 게다가, 주어진 특징 벡터와 그것의 할당 확률 사이의 관계를 생성하는 함수는 각각의 클래스에 대해 학습될 수 있다. 이들 함수들은 예를 들어 로지스틱 회귀분석(logistic regression)에 의해 학습될 수 있다.
특히, 학습 중, 규정된 이미지 발췌들에서 기하학적 원형들을 검출하고 이들로부터 지형 그라프를 확립하는 것이 가능하다. 이에 대해, 각각의 타겟 물체에 대해 참조 그라프 구조들에 대응하는 클라스가 발생되고 분류를 위해, 특히 "그라프 매칭(graph matching)"을 위해 저장된다.
본 발명에 따르면, 검색 프로세스는, 특히 분류에 의해, 각각의 타겟 물체 후보의 타겟 물체 특징의 레이팅, 특히 물체의 유형 및/또는 환경 및/또는 그레이-스케일값, 그레이-스케일값 그레이디언트 및/또는 타겟 지점 환경의 히스토그램 및/또는 기하학적 원형들 및/또는 그것의 인접 관계들에 의존하여 레이팅될 수 있다. 또한, 타겟 물체 특징의 레이팅은 이미지들, 특히 타겟 물체 후보들을 나타내고 및/또는 타겟 물체와 유사한 이미지 발췌들에 의존하여 실행될 수 있다. 또한, 타겟 물체 특징의 특징 구현 및 구현 계수가 결정될 수 있고, 특히 여기서 특징 구현 및 구현 계수는 특히 할당 확률이 결정되는, 특징 공간에서의 각각의 특징 벡터의 위치에 의존하여 결정된다.
만약 가능한 타겟 물체들, 즉 하나의 또는 복수의 타겟 물체 클래스들의 대표들이 예컨대 위에서 언급한 방법에 의해 이미지에서 발견될 수 있다면, 각각의 타겟 지점 후보들이 이들로부터 도출될 수 있다. 각각의 가능한 타겟 지점은 가중치 또는 확률이 할당될 수 있고, 상기 확률은 각각의 타겟 지점 후보가 특히 사용자가 원하는 타겟 지점을 나타내는 범위의 척도(measure)를 나타낸다. 이와 같은 레이팅은 미리 규정된 가중 팩터들에 기초할 수 있다.
가중 팩터들은 예컨대 할당 확률, 즉 분류의 품질에 의존할 수 있고, 및/또는 특정 환경에서 상기 타겟 물체 클래스의 발생 반도에 따라, 타겟 지점 후보가 기초하는 타겟 물체 클래스에 의존하여 도출될 수 있다. 또한, 가중 팩터는 타겟 지점 후보와 이미지 중심 사이의 거리에 의존할 수 있다. 더욱이, 가중 팩터는 사용자의 선택 행위 또는 실행하는 측정 프로그램에 따라 결정될 수 있다.
타겟 지점 후보들은 이때 가중 팩터들에 기초하여, 이들의 각각의 결정된 확률을 나타내는 정보 아이템과 함께 제공될 수 있다. 그러므로, 레이팅 후, 가장 개연성 있는 후보, 즉 가장 높은 웨이팅에 의해 레이팅된 후보가 시스템에 의해 자동으로 선택될 수 있거나 또는 - 만약 복수의 후보들이 적절하다면 - 가장 개연성 있는 후보들이 수동 선택을 위해 사용자에게 제공될 수 있다. 본 발명에 따르면, 특정 수의 타겟 지점 후보들이 이 경우에, 특히 각각의 가중치에 의존하여 제공될 수 있다.
이 경우에, 타겟 지점 후보들은 타겟 지점 후보들이, 특히 가중치들에 관한 정보와 함께, 예컨대 디스플레이, 특히 접촉-감응형 디스플레이(touch-sensitive display) 상에 제공되는 방식으로 제공될 수 있다. 따라서, 사용자는 가능한 타겟 지점들의 제공된 세트로부터 원하는 타겟 지점을 선택할 가능성을 제공받을 수 있고, 여기서 확률 또는 웨이팅에 관한 지표(indication)는 타겟 지점의 선택을 위한 지원 방식으로 고려될 수 있다. 더욱이, 타겟 지점 후보들은 확률 또는 가중치에 관한 정보와 함께, 후보 세트로부터의 타겟 지점의 자동 선택이 상기 방법의 맥락에서 실행될 수 있는 방식으로 제공될 수 있다. 이 경우에 있어서, 예컨대 추가의 타겟 지점 후보들과 관련하여 높은, 특히 상당히 높은 가중치가 할당된 타겟 지점 후보가 자동으로 선택될 수 있다.
그러므로, 본 발명에 따르면, 상기 방법의 맥락에서, 타겟 지점은 제공된 타겟 지점 후보들 및 사용자에 의해 또는 자동으로 각각의 타겟 지점 후보에 할당된 가중치를 나타내는 정보 아이템으로부터 결정될 수 있다. 특히, 더 큰 가중치 또는 추가의 타겟 지점 후보들에 관해 더 높은 확률이 할당된 타겟 지점 후보가 타겟 지점으로서 자동으로 결정될 수 있다. 또한, 타겟 지점, 타겟 지점 후보들 및/또는 각각의 타겟 지점 후보들에 할당된 가중치를 나타내는 정보 아이템을 제공하는 것은 디스플레이 상에서 일어날 수 있다.
또한, 본 발명에 따른 방법에 의해, 타겟 지점 후보들의 확률 또는 가중치를 계산하기 위한 기초를 형성하는 타겟 지점 특성들은 검출된 이미지에서 결정될 수 있는 지점 특성들에 의존할 수 있다. 이 경우에 있어서, 타겟 지점 특성들은 이들 특성들 또는 특징들을 포함할 수 있고 또는 이들은 관련 타겟 물체들에 할당되는 타겟 지점 후보들에 할당될 수 있다. 사용자는 가능한 한 정밀하게 (이미 중심에서) 원하는 타겟 지점의 겨냥을 시도할 수 있으므로, 이미지에서의 가능한 타겟 물체의 위치는 예를 들어 이 경우에 웨이팅에 영향을 줄 수 있다. 또한, 특정 타겟 물체 클래스에 대한 할당은 웨이팅에 영향을 줄 수 있다. 예로서, 역반사기의 디자인 또는 측정 환경(예컨대 산정상의 십자가 또는 교회탑)에서 눈에 띄는 물체들에 대응하는 형상들의 경우에, 더 높은 타겟 지점 확률을 위한 웨이팅이 실행될 수 있다.
그러므로, 본 발명에 따르면, 타겟 지점 특성은 각각의 타겟 물체 클래스, 이미지에서의 타겟 지점 후보의 위치 및/또는 각각의 타겟 물체 후보의 반사율에 의존할 수 있다.
더욱이, 본 발명에 따른 방법은, 예를 들어 사용자가 단지 원하는 타겟 지점을 겨냥하도록 측정 장치가 거칠게 정렬된 후 자동으로 수행될 수 있고, 타겟팅의 결과로서, 특히 원하는 타겟 지점에 대응하는 이미 선택된 타겟 지점이 제공된다. 게다가, 이러한 타겟 지점의 미세 타겟팅은 원하는 타겟 지점에 대한 측정 장치의 현재의 정렬의 오프셋을 결정하고 타겟 지점과 측정 장치를 재정렬시켜 수동으로 또는 마찬가지로 자동으로 실행될 수 있다.
그러므로, 본 발명에 따르면, 타겟 지점에 대한 타겟팅 방향에 의해 규정된 타겟팅 지점의 오프셋은 이미지에서 결정될 수 있고 타겟팅 방향은 타겟 지점이 겨냥되는 방식으로 오프셋에 의존하여 정렬된다.
본 발명의 다른 양상은, 타겟팅 유닛, 특히 망원 조준기를 포함하는, 타겟 지점을 선택하기 위한 타겟 지점 후보들을 제공하기 위한 측지 측정 장치, 특히 토탈 스테이션 또는 세오돌라이트이다. 타겟팅 유닛은 2개의 축선들로 그것의 정렬을 변경하기 위해 측정 장치의 베이스에 대해 피봇 가능하고, 여기서 타겟팅 유닛은 타겟팅 방향을 규정하고 실질적으로 타겟팅 방향에서 이미지를 검출하기 위한 적어도 하나의 카메라를 가진다. 또한, 타겟팅 방향의 정렬을 높은 정밀도로 검출하기 위한 각도 측정 기능 및 정보를 제공하기 위한 출력 수단이 제공된다. 게다가, 측정 장치는 제어 및 처리 수단을 포함한다. 이미지 처리에 의한 타겟 물체 인식을 위한 모델들 및 타겟 지점 후보들의 타겟 지점 특성들의 레이팅을 위한 계수들이 데이터베이스에 저장되어 있다. 또한, 측정 장치는 이미지에서 제어 및 처리 수단에 의해 검색 기능의 수행 중 이미지의 검출 후 모델들과의 상응도에 의존하여, 특히 분류 방법에 의해 타겟 물체 후보들에 대한 검색이 이루어지는 검색 기능을 가지며, 여기서 타겟 물체 후보들은 타겟 지점 후보로서 타겟 물체 후보를 나타내는 적어도 하나의 지점이 각각 할당된다. 또한, 검색 기능의 맥락에서, 타겟 지점 후보들은 후보 세트를 할당받고, 각각의 가중치들의 계수들에 의존하여, 각각의 타겟 지점 후보들에 대해 도출되고 타겟 지점 후보들에 할당된다. 게다가 타겟 지점 후보들은 특히 출력 수단 위에, 각각의 타겟 지점 후보에 할당되는 가중치를 나타내는 정보 아이템과 함께 각각 제공된다. 본 발명에 따른 이와 같은 측정 장치는 또한 본 발명에 따른 기술된 방법이 행해질 수 있도록 설계될 수 있고, 즉 측정 장치는 검색 기능이 실시될 때 본 발명에 따른 위에 기재한 방법이 행해지는 방식으로 검색 기능을 제공할 수 있다.
본 발명은 또한 특히 프로그램이 본 발명에 따른 측지 측정 장치의 처리 수단으로서 설계된 전자 데이터 처리 수단 상에서 실행될 때, 타겟 지점 후보들로부터 타겟 지점을 선택하기 위해 타겟 지점 후보들을 제공하기 위한 본 발명에 따른 방법을 실행하기 위해, 기계-판독 캐리어 위에 저장되어 있는 프로그램 코드를 포함하는 컴퓨터 프로그램 제품에 관한 것이다.
본 발명에 따른 방법 및 본 발명에 따른 측정 시스템은 본 발명의 다른 이점들이 또한 설명될 도면들에 개략적으로 도시된 구체적인 전형적인 실시예들에 기초하여 단지 예로서 이하에 더 상세히 기재된다.
도 1a-b는 종래 기술에 따른 원하는 타겟 지점과의 측정 장치의 타겟팅 방향의 정렬을 나타내고;
도 2는 본 발명에 따른 방법의 개략 시퀀스를 나타내고;
도 3a-c는 지형 그라프에 의해 검출된 이미지에서 타겟 지점 후보들의 본 발명에 따른 검출을 나타내고;
도 4a-c는 특징 벡터들 및 특징 공간에서의 그것의 위치에 의해 이미지에서 식별되는 타겟 지점 후보들의 분류의 본 발명에 따른 형태를 나타내고;
도 5는 각각의 타겟 지점들을 갖는 상이한 타겟 물체 후보들과 함께 본 발명에 따른 측정 장치에 의해 검출되는 이미지들을 나타내고;
도 6은 각각의 분류된 정보 아이템들을 갖는 타겟 지점 후보들의 본 발명에 따른 제공(provision)을 나타내고;
도 7은 측정 장치의 현재의 정렬로부터 원하는 타겟 지점의 오프셋의 결정을 나타낸다.
도 1a 및 도 1b는 종래 기술에 따른 측정 장치에 대한 정렬 프로세스를 나타낸다. 교회의 철탑으로서 본원에 도시된, 물체(20)의 원하는 지점(21)의 타겟팅 동안, 측정 장치, 예컨대 세오돌라이트 또는 토탈 스테이션의 타겟팅 유닛의 정렬은 타겟팅 방향의 정렬을 나타낸 레티클(11)의 중심(12)이 타겟 지점(21)(도 1b)과 일치하는 방식으로 변경된다. 이 경우에 있어서, 사용자는 조준기에 의해 타겟 지점(21)을 조준할 수 있고, 회전에 의해 망원경을 물체(20)와 거칠게 정렬시킬 수 있다. 제2 단계에서, 사용자는 망원경을 통해 볼 수 있고 이 경우에 측정 장치의 정밀 드라이브들 상에서의 회전에 의해 타겟 지점(21)과의 정밀한 정렬을 달성할 수 있다.
이러한 프로세스는 실제로 매우 시간 소모적인 것으로 드러날 수 있고, 여기서 타겟팅 정밀도는 또한 사용자의 능력들에 의존한다.
정렬은 또한 타겟 물체의 형상에 의존하여, 예를 들어 반사기를 갖는 망원경의 정밀 자동 정렬을 가능하게 하는 자동 타겟팅 기능(automatic target recognition, ATR)에 의해 실행될 수 있다. 여기서 불리할 것으로 드러나는 것은 타겟팅은 단지 반사기들에 대해 작용하고 자연 타겟 지점들(21)에 대해서는 작용하지 않는다는 것이다.
또한, "탭(tap) 및 턴(turn)" 기능을 갖는 토탈 스테이션들을 오늘날 얻을 수 있다. 이 경우에 있어서, 통합 카메라에 의해, 타겟팅 방향에서의 라이브 이미지가 디스플레이, 측정 장치 또는 제어기에 기록되고 표현될 수 있다. 사용자는 망원경이 이때 자동으로 정렬되는 원하는 지점(21)을 선택하기 위해 펜을 사용할 수 있다. 이 경우에 있어서, 타겟팅 정밀도는 디스플레이 상의 정확한 위치에서 펜으로 타겟 지점(21)을 히트(hit)하는 사용자의 능력에 의해 한번 더 제한된다. 이러한 프로세스는 특히 멀리 제거된 타겟들에 대한 측정들의 경우에 그리고 디스플레이의 해상도 한계들을 고려하여 더 곤란하게 될 수 있다.
더욱이, 측정 도구가 무반사 타겟에 의해 자동으로 그리고 높은 정밀도로 정렬될 수 있는 방법들이 알려져 있다. 그러나, 이것은 타겟 물체(20)의 외형이 예컨대 측정을 위해 타겟 지점(21)에 고정되고 측정 도구 위에 대응하는 타겟 마크 패턴 형태로 저장되어 있는 규정된 타겟 테이블들을 이용하여 알려져 있다고 상정한다.
도 2는 본 발명에 따른 방법의 개략 시퀀스를 나타낸다. 본 발명은 원하는 타겟 지점(21)의 타겟팅 및 이미지 처리 방법들을 이용하여 가능한 타겟 지점들의 세트로부터 이러한 지점(21)의 매우 정밀한 타겟팅을 달성하는 동안 사용자를 지지하는 개념에 기초한다.
이 경우에 있어서, 제1 단계 51에서, 측정 장치의 망원경은 사용자에 의해 타겟 지점(21)과 거칠게 정렬될 수 있다. 이것은 망원경의 수동 회전에 의해 또는 "탭(tap) 및 턴(turn)" 기능에 의해 행해질 수 있다. 다음에, 측정 장치에 통합된 카메라에 의해, 실질적으로 타겟팅 방향(52)에서 이미지를 기록하는 것이 가능하고, 이미지는 디지털 이미지 처리의 방법들에 의해 가능한 타겟 물체들에 관해 분석된다. 이 경우에 있어서, 이미지에서 검출된 구조들은 측정 장치에 저장되어 있는 모델들과 비교될 수 있고 따라서 물체들은 가능한 타겟 물체들(53)로서 인식되고 식별될 수 있다.
각각의 타겟 물체에 대해, 적어도 하나의 가능한 타겟 지점이 도출된다(54).
이들 가능한 타겟 지점들은 이후 세트로 조합되고, 여기서 이러한 세트의 각각의 요소는 대응하는 지점이 사용자가 원하고 만약 적절하다면 시스템에 의해 자동으로 타겟팅되도록 의도되는 타겟 지점(21)일 확률에 관해 레이팅되거나 가중된다(55).
다음 단계 56에서, 가능한 타겟 지점들의 세트는 이때 예컨대 사용자에 대한 데이터의 면에서 정보 아이템과 함께, 특히 결정된 웨이팅(weighting) 또는 확률과 함께, 디스플레이 위 및 측정 장치에 제공될 수 있다. 이 경우에 있어서, 유사한 크기의 웨이팅들 또는 확률들과 함께, 사용자에게는 특히 특정 수의 후보들, 수동 선택을 위해, 예컨대 가장 높은 확률들 또는 웨이팅들을 가지는 것들이 제공될 수 있다.
확률 분포 또는 가능한 타겟 지점들에 대해 각각 결정된 웨이팅들에 의존하여, 사용자는 수동으로 또는 시스템은 자동으로 검출되어 제공되는 지점들의 세트로부터 한 지점, 특히 중요한 확률 또는 웨이팅을 가지는 지점을 선택할 수 있다(57).
선택 후, 다른 단계 58에서, 디지털 이미지 처리의 방법들에 의해 한번 더, 이미지에서 현재의 타겟팅 방향으로부터 선택된 타겟 지점(21)의 편차를 측정하고, 그것에 기초하여 타겟팅 방향의 재정렬을 위한 보정각들을 결정하는 것이 가능하다. 이들은 망원경을 정렬시키기 위한 모터에 의해 구동되는 드라이브들(motor-driven drives)에 전달될 수 있고 따라서 타겟 지점(21)과 망원경을 정밀하게 정렬(59)시키는 역할을 할 수 있다.
도 3a는 검출된 이미지(10)에서의 가능한 타겟 물체 후보들(20, 25)의 본 발명에 따른 검출을 나타내고, 여기서 가능한 타겟 물체 후보들(20, 25)의 본 발명에 따른 분류는 도 3b 및 도 3c를 함께 고려하여 이하에 기재된다. 이 경우에, 도 3b 및 도 3c는 지형 그라프에 기초한 타겟 물체 후보들(20, 25)의 분류의 본 발명에 따른 형태를 나타낸다.
기록된 이미지(10)는 가능한 타겟 물체들(20, 25)에 관해 검사될 수 있고, 즉 자동 타게팅을 위한 후보들로서 적절한 이미지 내의 모든 물체들은 자동으로 결정되도록 의도된다. 도시된 경우에 있어서, 교회의 철탑(20) 및 산정상의 십자가(summit cross; 25)의 타겟 지점들이 결정된다.
이러한 이미지 분석은 분류 방법들에 기초하여 실행될 수 있다. 제1 변형예에 있어서, 이미지는 예컨대 선들, 원들, 타원들과 같은 기하학적 원형들이 검색될 수 있다. 검출된 원형들의 인접 관계들에 기초하여, 전체 이미지의 지형 그라프(100)(도 3b), 유형, 위치 및 고려되는 이웃하는 기하학적 원형들과의 조합을 확립하는 것이 가능하다. 원형들의 조합을 통해, 예컨대 십자가들(22), 원들(23) 또는 정점들(24)을 검출하는 것이 가능하고, 여기서 이들 물체들의 공동 고찰(joint consideration)은 교회의 철탑(20)을 규정할 수 있다.
도 3a에 나타낸 교회의 철탑(20) 및 산정상의 십자가(25)로부터 도출되는 지형 그라프(100)는 노드들 "교회탑(church tower)"(111) 및 "산정상의 십자가(summit cross)"(112)로 구성된다. 다른 세분(further subdivision)에서의 노드 "교회탑(church tower)"은 노드들 "십자가(cross)"(121), "둥근 지붕(cupola)"(122) 및 "정점(vertex)"(123)으로 구성되고, 이들은 또한 개개의 기하학적 원형들로 구성된다. 예컨대 허프 변환(Hough transformation)과 같은 디지털 이미지 처리의 방법들이 이미지에서 이들 원형들을 발견하기 위해 사용될 수 있다.
이 시스템에서, 개개의 타겟 물체 클래스들에 대응하는 참조 그라프 구조들(111, 112)은 이미지(10)로부터 발생되는 지형 그라프(100)에서 찾아지는 참조 모델들로서 저장될 수 있다. 도 3c는 타겟 물체 클래스 "교회탑(church tower)"에 대응하는 참조 구조(111) 및 타겟 물체 클래스 "산정상의 십자가(summit cross)"에 대응하는 참조 구조(112)를 나타낸다.
따라서, 분류의 맥락에서, 이미지에서 발생된 그라프에서 저장된 그라프 구조들을 찾는 것이 가능하다. 특히 "그라프 매칭(graph matching)"의 방법은 그라프에서 특정 위상학적 구조들을 발견하기 위해 알려져 있다.
가능한 타겟 지점들(22, 23, 24, 26, 27)은 이미지(10)에서 검출되는 가능한 타겟 물체들(20, 25)로부터 도출된다. 상기 타겟 지점들 중에서, 사용자가 겨냥하기를 원하는 것을 식별할 필요가 있다. 이러한 목적을 위해, 다수의 타겟 지점 후보들(22, 23, 24, 26, 27)이 주어지면, 후자는 이미지에서 검출되는 각각의 개별 타겟 지점(22, 23, 24, 26, 27)이 사용자가 원하는 타겟 지점(21)이 상기 확률의 레이팅을 받을 수 있다.
개개의 타겟 지점 후보들의 이러한 웨이팅은 미리 규정된 가중 팩터들에 기초하여 실행될 수 있고, 이들 개개의 가중 팩터들의 곱은 타겟 지점 후보에 대한 총 가중치를 생성한다. 사용자가 거친 타겟팅으로 원하는 타겟 지점(21)을 히트하려고 이미 시도할 수 있으므로, 하나의 가중 팩터는 측정 장치의 현재의 정렬(레티클(11))에 대한 후보(22, 23, 24, 26, 27)의 거리일 수 있다. 즉 이미지 중심에 있는 상기 가능한 타겟 지점들은 검출된 이미지(10)의 에지에 위치된 지점들보다 높은 레이팅을 획득할 수 있다.
다른 가중 팩터는 타겟 지점(22, 23, 24, 26, 27) 또는 측정 중 실제로 특정 타겟 물체 클래스와 연관된 타겟 지점(21)의 발생 빈도에 기초할 수 있다. 따라서, 도 5에 나타낸 것과 같이, 예로서, 원형 프리즘들(44)은 매우 자주 원하는 타겟 지점들(21)을 표현하고, 따라서 만약 후자가 원형 프리즘들(44)로서 식별되면, 증가된 가중치를 야기하고 및/또는 대응하는 더 강하게 가중부여된 계수(corresponding more strongly weighted coefficient)가 제공된다. 산정상의 십자가들(41), 교회의 철탑들(42) 및/또는 특정 타겟 지점 마킹들 또는 타겟 테이블들(43)은 또한 먼저 검출된 이미지에 대해 식별될 수 있고 둘째 각각의 경우에 적어도 하나의 타겟 물체 후보를 표현할 수 있고, 여기서 2개의 타겟 지점들(21)은 예컨대 교회의 철탑의 특정 구체물(embodiment)에 의해 동시에 규정될 수 있다.
또한, 수동 선택 중 사용자의 개개의 행동은 또한 가중치의 결정 또는 타겟 지점 후보가 원하는 타겟 지점을 표현하는 범위(extent)에 대한 관련성(behavior)에 영향을 줄 수 있다. 만약 예컨대 사용자가 매우 자주 클래스 "교회탑(church tower)"의 전형(representative) 및 후자에서 둥근 지붕의 중심을 선택하면, 이것은 시스템에 의해 검출될 수 있고, 미래의 레이팅들에서 특히 자동으로 고려될 수 있다.
더욱이, 웨이팅의 다른 기준은 측정 도구의 세팅들 또는 실행 측정 프로그램으로부터 도출될 수 있다. 만약 예컨대 거리 측정 모드가 "반사기 없음(reflectorless)"으로 설정되면, 클래스 "원형 프리즘(round prism)"과 관련된 가능한 타겟 지점(22, 23, 24, 26, 27)이 낮은 가중치에 의해 레이팅될 수 있다. 마찬가지로, 측정 프로그램의 맥락에서, 사용자는 예컨대 반사기가 위치되는 다각형 지점을 측정할 것을 요청받을 수 있다. 이 경우에 있어서, 클래스 "원형 프리즘(round prism)"과 관련된 가능한 타겟 지점은 부응하여 높은 확률에 의해 레이팅될 수 있다.
가중치를 도출하기 위해, 또한 복수의 가중 팩터들(예컨대 레티클로부터 이미지(10)에서의 거리 및/또는 이러한 클래스에 관한 할당 확률과 관련되어 특정 타겟 물체 클래스를 갖는 타겟 지점 후보(22, 23, 24, 26, 27)의 관련성)에 기초하여, 타겟 지점 후보(22, 23, 24, 26, 27)에 할당될 수 있는 전체 가중치를 결정하는 함수 또는 알고리즘을 규정하는 것이 가능하다.
도 4a 및 도 4b는 측정 환경의 이미지(10a, 10b)를 각각 나타내고, 도 4a에서 이미지(10a)는 ATR 유닛에 의해 검출되었고 도 4b에서 이미지(10b)는 카메라에 의해 검출되었다. 더욱이, 도 4c는 이미지(10b)로부터 발생되는 특징 벡터들(86a, 86b, 86c)을 갖는 특징 공간(32)을 나타낸다. ATR에 의해, 이미지(10a)는 기록되고 ATR에 의해 방출되는 레이저 비임(84a, 84b, 84c)의 반사들은 상기 이미지에서 검출된다. 반사들(84a, 84b, 84c)에 기초하여, ATR 이미지 단독으로, 반사된 레이저가 360°프리즘(81), 원형 프리즘(82), 또는 몇몇 다른 물체, 예컨대 차량의 후방 미러(83)로부터 반사되었는지의 여부를 평가하는 것은 단지 어려움을 가지고 가능하다.
이 경우에 있어서, 본 발명의 맥락에서, 레이저 스팟들(84a, 84b 및 84c)의 위치들은 "관심 지점들(interest points)"로서 기능할 수 있고, 따라서, 기록된 이미지(10b)에 이미지 발췌들(85a, 85b, 85c)의 위치를 규정할 수 있다. 특징 벡터들(86a, 86b, 86c)(도 4c)은 또한 상기 이미지 발췌들로부터 발생될 수 있고, 상기 특징 벡터들은 특징 공간(32)으로 매칭된다.
개개의 타겟 물체 클래스들에 대응하는 영역들(87a, 87b)은 상기 특징 공간(32)에 규정된다. 분류는 특징 공간(32)에서의 특징 벡터(86a, 86b, 86c)의 "위치결정(positioning)"에 기초하여, 평가하는 것을 포함하고, 타겟 물체 클래스에 대해 대응하는 이미지 발췌(85a, 85b, 85c)는 분류되어야 한다. 이에 대해, 여기서 예컨대 특징 벡터들(86a 및 86b)은 예컨대 타겟 물체 클래스들 "360°프리즘" 및 "원형 프리즘(round prism)"에 대응할 수 있는 영역들(87a 및 87b)에 위치되게 된다. 특징 벡터(86c)이 규정된 영역들 외부에 놓이므로, 그것은 타겟 물체 클래스로 분류될 수 없다.
타겟 물체 클래스들에의 개개의 이미지 발췌들(85a, 85b, 85c)의 할당과 함께, 분류는 또한 결과로서 클래스먼트의 품질을 기술하는 할당 확률을 생성한다. 후자는 예컨대 영역(87a, 87b) 내의 특징 벡터(86a, 86b, 86c)의 위치로부터 도출될 수 있다. 만약 벡터(86a)는 거의 영역의 중심에 놓이면, 그것의 할당 확률은 높을 수 있고, 예컨대 90%일 수 있고; 만약 벡터(86b)가 상당히 영역의 에지에 또는 다른 영역에 더 근접하여 놓이면, 할당 확률은 낮게 레이팅될 것이다.
또한, 사용자에게는, 시스템이 관련 분류기(classifier)를 발생시키거나 그에 부응하여 기존의 분류기를 적응시키는 타겟 물체 클래스들을 규정하기 위해 사용자에 대한 확률이 제공될 수 있다.
더욱이, 분류는 프로세스에 영향을 주는 추가의 정보에 의해 향상될 수 있다. 예컨대 원형 프리즘의 크기가 알려져 있으므로, 이미지(10b)에서의 프리즘의 크기는 거리로부터 광학 이미징 파라미터들의 지식이 주어진 물체까지 도출될 수 있다. 다른 물체들, 예컨대 산정상의 십자가들 또는 교회탑들 위의 둥근 지붕들의 크기들은 또한 일반적으로 특정 한계들 내에서 변한다. 물체까지의 거리는 측정 도구의 거리 측정 기능에 의해 결정될 수 있고 또는 타겟팅 장치의 포커싱 렌즈의 위치로부터 도출될 수 있다.
도 6은 타겟 지점 후보들(22, 23, 26)의 본 발명에 따른 준비(provision)를 나타낸다. 이러한 목적을 위해, 검출된 이미지는 가능한 타겟 물체 후보들을 부응하여 검색하였고, 타겟 지점 후보들(22, 23, 26)은 그로부터 도출되었고 이들의 확률에 관해 가능한 타겟들로서 가중부여되었고, 특히 타겟 지점으로서 가능한 타겟들 중 하나를 선택하기 위해, 조작 패널 상의 대응하는 키의 작동에 의해 또는 제공된 펜을 이용하여 라벨(51, 52, 53)을 태핑(tapping)하여 선택을 가능하게 하는 라벨들(51, 52, 53)이 제공되었다. 만약 가능한 타겟 지점의 가중치 또는 확률이 모든 다른 것들보다 상당히 크면, 이것은 사용자 부분에 대한 추가의 상호작용 없이 시스템에 의해 선택될 수 있다. 가중치 또는 확률들 하나가 다른 가중치들 또는 확률들보다 상당히 큰지에 대한 결정을 위해, 상기 임계치가 초과될 때 자동 선택이 실행될 수 있는 경우에 미리 규정된 임계치를 사용하는 것이 가능하다.
만약 유사한 가중치들을 가지는 복수의 후보들이 존재하면, 선택은 사용자에 의해 수동으로 실행될 수 있다. 이러한 목적을 위해, 예로서, 미리 규정된 수의 가능한 타겟 지점들 - 정밀한 예컨대 최고 가중치 또는 최고 관련성을 가지는 것들 - 이 이미지에 마킹될 수 있고, 예컨대 마커 또는 라벨(51, 52, 53)로 제공될 수 있다. 따라서, 사용자는 예를 들어 펜을 이용하여 디스플레이(60)에 있는 마커를 태핑하거나, 또는 측정 도구의 조작 패널 상의 마커 또는 라벨에 대응하는 키를 눌러서 타겟 지점을 선택할 수 있다.
또한, 자동 타겟팅 기능의 종료(54)를 위한 다른 선택이 디스플레이(60)에 존재할 수 있다. 만약 이러한 선택이 사용자에 의해 만들어지면, 타겟 지점 후보들(22, 23, 26)에 관한 정보는 마스킹될 수 있고, 사용자가 알려진 방식으로 타겟 지점을 수동으로 겨냥할 수 있도록 타겟팅 유닛의 레티클이 삽입될 수 있다.
더욱이, 원하는 타겟 지점이 한번 더 사용자에 의해 수동으로 겨냥될 수 있는 새로운 타겟 지점들을 학습하기 위한 선택(55)이 있을 수 있다. 이러한 기능을 선택함으로써, 겨냥 후, 사용자는 겨냥된 타겟 지점을 앞서 존재하는 타겟 물체 클래스에 할당하거나 또는 새로운 사용자-규정 타겟 물체 클래스를 발생시키는 확률을 제공받을 수 있다. 시스템은 레티클 주위에서 규정된 크기의 이미지 발췌로부터 특징 벡터를 발생시키고 상기 특징 벡터를 기존의 클래스 한계들의 변화에 의해, 분류기가 이러한 새로운 타겟 지점을 고려하여 적응될 수 있는 관련 특징 공간에 매핑하고, 따라서 미래에 이러한 유형의 타겟 지점들을 가능한 타겟 지점 후보들(22, 23, 26)로서 식별한다.
도 7은 측정 장치의 현재의 정렬로부터 타겟 물체(20)의 원하는 타겟 지점(21)의 위치 오프셋의 결정을 나타낸다. 이 경우에 있어서, 오프셋은 레티클(11)의 중심(12) 사이 또는 이러한 이미지에서의 타겟팅 유닛의 정렬에 의해 규정되는 타겟팅 지점과 원하는 또는 선택된 타겟 지점(21) 간의 차이로서 이해될 수 있다. 지점들 간의 오프셋은 2개의 방향들(71, 72)에서 이미지 처리에 의해 결정될 수 있고, 여기서 각각의 방향 오프셋(71, 72)은 각각의 경우에 원하는 타겟 지점(21)과 레티클의 중심(12) 사이의 거리를 나타낼 수 있다.
타겟팅 유닛의, 특히 망원경의 파라미터(예컨대 초점 거리) 및 통합 카메라의 파라미터(예컨대 화소 크기)에 의존하여, 오프셋은 또한 타겟팅 유닛 또는 측정 장치의 재정렬을 위한 보정각들로 변환될 수 있다. 이들 보정들은 타겟팅 유닛의 동력화된 피봇팅 드라이브들(motorized pivoting drives)에 통신될 수 있어 원하는 타겟 지점(21)과의 타겟팅 유닛을 정밀하게 재정렬하는 역할을 할 수 있고, 여기서 이러한 정렬은 자동 제어 방식으로 행해질 수 있다.
더욱이, 특정 오프셋(71, 72)은 디스플레이(60) 상에 표시될 수 있다. 그러므로, 사용자 - 자동 정렬에 대한 대안으로서 - 는 위치의 차가 영이 되는 방식으로 타겟팅 유닛의 정밀 드라이브들을 조정하여 타겟팅 유닛의 재정렬을 수행할 수 있다. 이 경우에 있어서, 디스플레이(60) 상의 방향 오프셋들(71, 72)은 끊임없이, 연속해서 업데이트될 수 있고, 따라서 디스플레이 정렬이 사용자에게 넘어간다.
이들 도시된 도면은 가능한 전형적인 실시예들을 단지 개략적으로 도시한 것임은 말할 필요도 없다. 본 발명에 따라 다양한 접근방법들이 마찬가지로 서로 그리고 타겟 지점들을 타겟팅하기 위한 방법들 및 장치들과, 종래 기술로부터의 측정 장치들과 조합될 수 있다.

Claims (24)

  1. 측지 측정 장치에 의해 후보 세트로부터 타겟 지점(21)을 선택하기 위해 후보 세트를 형성하는 타겟 지점 후보들(22, 23, 24, 26, 27)을 제공하기 위한 방법으로서, 상기 측정 장치는 타겟팅 방향을 규정하는 타겟팅 유닛 및 실질적으로 상기 타겟팅 방향으로 정렬되는 카메라를 가지며,
    · 상기 측정 장치를 상기 타겟 지점(21)과 거칠게(coarsely) 정렬하는 단계 및
    · 상기 타겟팅 방향에서 이미지(10, 10b)를 검출하는 단계를 포함하는, 타겟 지점 후보들(22, 23, 24, 26, 27)을 제공하기 위한 방법에 있어서,
    · 검출된 상기 이미지(10, 10b)에서 특정 타겟 물체 후보들(20, 25)을 검색하는 프로세스는 이미지 처리에 의해 실행되고,
    □ 상기 검색 프로세스는 미리 규정된 모델들에 기초하여 실행되고
    □ 상기 타겟 물체 후보들(20, 25)은 타겟 지점 후보(22, 23, 24, 26, 27)로서 상기 각각의 타겟 물체 후보(20, 25)를 나타내는 적어도 하나의 지점에 각각 할당되고,
    · 상기 타겟 지점 후보들(22, 23, 24, 26, 27)은 상기 후보 세트에 할당되고,
    · 각각의 가중치가 도출되어 상기 타겟 지점 후보들(22, 23, 24, 26, 27)에 할당되고,
    · 상기 후보 세트의 상기 타겟 지점 후보들(22, 23, 24, 26, 27)은 상기 각각의 타겟 지점 후보(22, 23, 24, 26, 27)에 할당된 상기 가중치를 나타내는 정보 아이템과 함께 각각 제공되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  2. 제1항에 있어서,
    상기 검색 프로세스는 상기 각각의 타겟 물체 후보(20, 25)의 타겟 물체 특징의 레이팅(rating)에 의존하여 실행되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  3. 제2항에 있어서,
    상기 타겟 물체 특징의 상기 레이팅은 상기 타겟 물체 후보들(20, 25)을 나타내고 및/또는 상기 타겟 물체와 유사한 이미지들(10, 10b)에 의존하여 실행되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  4. 제2항 또는 제3항에 있어서,
    상기 타겟 물체 특징의 특징 구현(feature embodiment) 및 구현 계수(embodiment coefficient)가 특징 공간(32)에서 각각의 특징 벡터(86a, 86b, 86c)의 위치에 의존하여 결정되고, 할당 확률이 결정되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    타겟 지점 후보들(22, 23, 24, 26, 27)의 특정 수는 상기 각각의 가중치에 의존하여 제공되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 타겟 지점(21)은 상기 제공된 타겟 지점 후보들(22, 23, 24, 26, 27) 및 상기 각각의 타겟 지점 후보(22, 23, 24, 26, 27)에 할당된 상기 가중치를 나타내는 상기 정보 아이템으로부터, 사용자에 의해 또는 자동으로 결정되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  7. 제1항 내지 제3항 중 어느 한 항에 있어서,
    추가의 타겟 지점 후보들(22, 23, 24, 26, 27)에 관해 더 큰 가중치가 할당된 타겟 지점 후보(22, 23, 24, 26, 27)는 상기 타겟 지점(21)으로서 자동으로 결정되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  8. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 타겟 지점(21), 상기 타겟 지점 후보들(22, 23, 24, 26, 27) 및/또는 상기 각각의 타겟 지점 후보(22, 23, 24, 26, 27)에 할당된 상기 가중치를 나타내는 상기 정보 아이템을 제공하는 것은 디스플레이 상에서 일어나는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  9. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 타겟 지점 특성은 각각의 타겟 물체 클래스, 상기 이미지에서의 상기 타겟 지점 후보(22, 23, 24, 26, 27)의 위치 및/또는 상기 각각의 타겟 물체 후보(20, 25)의 반사율에 의존하는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  10. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 타겟 지점(21)에 대해 상기 타겟팅 방향에 의해 규정된 타겟팅 지점의 오프셋(71, 72)은 상기 이미지(10, 10b)에서 결정되고 상기 타겟팅 방향은 상기 타겟 지점(21)이 겨냥되는 방식으로 상기 오프셋(71, 72)에 의존하여 할당되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  11. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 타겟 지점 후보들을 제공하기 위한 방법은 상기 측정 장치가 거칠게 정렬된 후 자동으로 수행되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  12. 타겟 지점(21)을 선택하기 위해 타겟 지점 후보들(22, 23, 24, 26, 27)을 제공하는 측지 측정 장치에 있어서,
    · 타겟팅 유닛을 포함하며, 상기 타겟팅 유닛은
    □ 2축으로 측정 장치의 정렬을 변경하기 위한 상기 측정 장치의 베이스에 대해 피봇 가능하고,
    □ 타겟팅 방향을 규정하고
    □ 실질적으로 상기 타겟팅 방향에서 이미지(10, 10b)를 검출하기 위한 적어도 하나의 카메라를 가지며,
    · 상기 타겟팅 방향의 상기 정렬을 높은 정밀도로 검출하기 위한 각도 측정 기능,
    · 정보를 제공하기 위한 출력 수단 및
    · 제어 및 처리 수단을 포함하는, 상기 측지 측정 장치에 있어서,
    · 이미지 처리에 의한 타겟 물체 인식을 위한 모델들 및 상기 타겟 지점 후보들(22, 23, 24, 26, 27)의 타겟 지점 특성들의 레이팅을 위한 계수들은 데이터베이스에 저장되어 있고,
    ·상기 측정 장치는 검색 기능을 가지며, 검색 기능의 맥락에서 상기 제어 및 처리 수단에 의한 상기 검색 기능의 수행 중 이미지(10, 10b)의 검출 후
    □ 상기 이미지(10, 10b)에서 상기 모델들과의 대응도(degree of correspondence)에 의존하여 타겟 물체 후보들(20, 25)이 검색되고 상기 타겟 물체 후보들(20, 25)은 타겟 지점 후보(22, 23, 24, 26, 27)로서 상기 타겟 물체 후보(20, 25)를 나타내는 적어도 하나의 지점에 각각 할당되고
    □ 상기 타겟 지점 후보들(22, 23, 24, 26, 27)은 후보 세트에 할당되고,
    □ 상기 계수들에 의존하여 각각의 가중치들이 상기 각각의 타겟 지점 후보들(22, 23, 24, 26, 27)에 대해 도출되어 상기 타겟 지점 후보들(22, 23, 24, 26, 27)에 할당되고,
    □ 상기 타겟 지점 후보들(22, 23, 24, 26, 27)은 상기 각각의 타겟 지점 후보(22, 23, 24, 26, 27)에 할당된 상기 가중치를 나타내는 정보 아이템(51, 52, 53)과 함께 각각 제공되는 것을 특징으로 하는, 측지 측정 장치.
  13. 제12항에 있어서,
    상기 측정 장치는 타겟 지점 후보들을 제공하기 위한 방법이 상기 검색 기능의 상기 수행 중 실행되는 방식으로 상기 검색 기능을 제공하는 것을 특징으로 하는, 측지 측정 장치.
  14. 제12항 및 제13항 중 어느 한 항에 청구된 상기 측지 측정 장치의 처리 수단으로서 설계된 전자 데이터 처리 수단이 실행될 때, 상기 타겟 지점(21)을 선택하기 위해 상기 타겟 지점 후보들(22, 23, 24, 26, 27)을 제공하기 위한 방법을 실행하기 위한 프로그램 코드가 저장된, 기계-판독 캐리어.
  15. 제1항에 있어서,
    상기 검출된 이미지(10, 10b)에서 상기 특정 타겟 물체 후보들(20, 25)의 상기 검색은 분류방법에 의해 이루어지는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  16. 제1항에 있어서,
    상기 각각의 가중치는 상기 타겟 지점 후보(22, 23, 24, 26, 27)의 미리 결정된 타겟 지점 특성의 적어도 하나의 구현(embodiment)에 의존하는 확률을 포함하는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  17. 제2항에 있어서,
    상기 검색 프로세스는 분류에 의해 실행되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  18. 제2항에 있어서,
    상기 타겟 물체 특징은,
    상기 물체의 유형, 상기 물체의 환경, 타겟 지점 환경의 그레이-스케일값, 타겟 지점 환경의 그레이-스케일값 그레이디언트, 타겟 지점 환경의 히스토그램, 기하하적 원형들 그리고 기하학적 원형들의 인접 관계들(neighborhood relationships) 중 적어도 하나를 포함하는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  19. 제3항에 있어서,
    상기 타겟 물체 특징의 상기 레이팅은,
    상기 타겟 물체 후보들(20, 25)을 나타내는 이미지 발췌들(image experts) 및/또는 상기 타겟 물체와 유사한 이미지 발췌들(image experts)에 의존하여 실행되는 것을 특징으로 하는, 타겟 지점 후보들을 제공하기 위한 방법.
  20. 제12항에 있어서,
    상기 측지 측정 장치는 토탈 스테이션(total station) 또는 세오돌라이트(theodolite)인 것을 특징으로 하는, 측지 측정 장치.
  21. 제12항에 있어서,
    상기 타겟팅 유닛은 망원 조준기(telescopic sight)를 포함하는 것을 특징으로 하는, 측지 측정 장치.
  22. 제12항에 있어서,
    상기 이미지(10, 10b)에서 분류 방법에 의한 상기 모델과의 대응도(degree of correspondence)에 의존하여, 상기 타겟 물체 후보들(20, 25)이 검색되는 것을 특징으로 하는, 측지 측정 장치.
  23. 제12항에 있어서,
    상기 가중치들은 확률을 포함하는 것을 특징으로 하는, 측지 측정 장치.
  24. 제12항에 있어서,
    상기 타겟 지점 후보들(22, 23, 24, 26, 27)은 상기 각각의 타겟 지점 후보(22, 23, 24, 26, 27)에 할당된 상기 가중치를 나타내는 정보 아이템(51, 52, 53)과 함께, 상기 출력 수단 위에 각각 제공되는 것을 특징으로 하는, 측지 측정 장치.
KR1020137030750A 2011-07-05 2012-07-03 타겟 지점을 선택하기 위한 타겟 지점 후보들을 제공하기 위한 방법 KR101606444B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11172756.6 2011-07-05
EP11172756A EP2543960A1 (de) 2011-07-05 2011-07-05 Verfahren zum Bereitstellen von Zielpunktkandidaten zur Auswahl eines Zielpunkts
PCT/EP2012/062936 WO2013004700A1 (de) 2011-07-05 2012-07-03 Verfahren zum bereitstellen von zielpunktkandidaten zur auswahl eines zielpunkts

Publications (2)

Publication Number Publication Date
KR20130140899A KR20130140899A (ko) 2013-12-24
KR101606444B1 true KR101606444B1 (ko) 2016-04-01

Family

ID=46397310

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137030750A KR101606444B1 (ko) 2011-07-05 2012-07-03 타겟 지점을 선택하기 위한 타겟 지점 후보들을 제공하기 위한 방법

Country Status (6)

Country Link
US (1) US9047536B2 (ko)
EP (2) EP2543960A1 (ko)
KR (1) KR101606444B1 (ko)
CN (1) CN103649681B (ko)
BR (1) BR112013031979A2 (ko)
WO (1) WO2013004700A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2791903B8 (de) * 2011-12-16 2016-03-02 gestigon GmbH Verfahren und vorrichtung zur schätzung einer pose
GB201322873D0 (en) * 2013-12-23 2014-02-12 Tobii Technology Ab Eye gaze determination
FR3036473B1 (fr) 2015-05-20 2018-11-16 Airbus Operations (S.A.S.) Procede de mesure de la position d'une structure mobile
US9927917B2 (en) * 2015-10-29 2018-03-27 Microsoft Technology Licensing, Llc Model-based touch event location adjustment
EP3333538B1 (en) * 2016-12-07 2020-09-09 Hexagon Technology Center GmbH Scanner vis
EP3460394B1 (en) * 2017-09-26 2020-06-03 Hexagon Technology Center GmbH Surveying instrument, augmented reality (ar)-system and method for referencing an ar-device relative to a reference system
CN109146932B (zh) * 2018-07-17 2021-08-24 北京旷视科技有限公司 确定图像中目标点的世界坐标的方法、装置和系统
EP3614173A1 (en) * 2018-08-20 2020-02-26 Leica Geosystems AG Surveying device with automatic training of locked object or person for camera based target tracking
EP3677871B1 (en) * 2019-01-03 2023-08-16 Leica Geosystems AG Measuring system
US10832096B2 (en) * 2019-01-07 2020-11-10 International Business Machines Corporation Representative-based metric learning for classification and few-shot object detection
CN111027540B (zh) * 2019-11-08 2024-06-04 深兰机器人(上海)有限公司 一种寻找目标对象的方法和设备
CN111062893B (zh) * 2019-12-30 2022-02-08 合肥联宝信息技术有限公司 一种图像处理方法及电子设备
JP2022053397A (ja) * 2020-09-24 2022-04-05 株式会社トプコン 測量装置および測量プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19922341A1 (de) 1999-05-14 2000-11-30 Zeiss Carl Jena Gmbh Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes
US20060192946A1 (en) 2003-03-21 2006-08-31 Leica Geosystems Ag Method and device for image processing in a geodesical measuring appliance

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100201739B1 (ko) * 1995-05-18 1999-06-15 타테이시 요시오 물체 관측 방법 및 그 방법을 이용한 물체 관측장치와,이 장치를 이용한 교통흐름 계측장치 및 주차장 관측장치
DE19710722C2 (de) 1996-03-15 2003-06-05 Pentax Corp Automatische Fokussiereinrichtung für ein Fernrohr
JP3174551B2 (ja) 1998-06-11 2001-06-11 旭光学工業株式会社 焦点調節レンズ位置検出装置
JP3500077B2 (ja) 1998-10-14 2004-02-23 ペンタックス株式会社 視準望遠鏡の自動焦点調節機構
DE19859947C2 (de) 1998-12-28 2001-02-01 Anatoli Stobbe System zur räumlichen Zuordnung wenigstens eines Transponders zu Zellen eines Detektionsgebietes, Basisstation sowie Transponder
DE59901809D1 (de) 1999-08-31 2002-07-25 Leica Geosystems Ag Tachymeter-Fernrohr
EP1515152A1 (de) 2003-09-12 2005-03-16 Leica Geosystems AG Verfahren zur Richtungsbestimmung zu einem zu vermessenden Objekt
EP1645846A1 (de) * 2004-10-11 2006-04-12 Leica Geosystems AG Geodätisches positionsbestimmungssystem
EP1659417A1 (de) 2004-11-19 2006-05-24 Leica Geosystems AG Verfahren zur Bestimmung der Ausrichtung eines Ausrichtungsindikators
EP1662278A1 (de) 2004-11-27 2006-05-31 Leica Geosystems AG Plankonvex- oder Plankonkavlinse mit damit verbundenem Umlenkmittel
EP1686350A1 (de) 2005-01-26 2006-08-02 Leica Geosystems AG Modular erweiterbare geodätische Totalstation
US7813561B2 (en) * 2006-08-14 2010-10-12 Microsoft Corporation Automatic classification of objects within images
JP5469894B2 (ja) 2008-07-05 2014-04-16 株式会社トプコン 測量装置及び自動追尾方法
EP2194399A1 (de) * 2008-12-03 2010-06-09 Leica Geosystems AG Positionsbestimmungsverfahren und geodätisches Vermessungssystem
EP2219011A1 (de) 2009-02-11 2010-08-18 Leica Geosystems AG Geodätisches Vermessungsgerät
EP2405236B1 (de) 2010-07-07 2012-10-31 Leica Geosystems AG Geodätisches Vermessungsgerät mit automatischer hochpräziser Zielpunkt-Anzielfunktionalität

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19922341A1 (de) 1999-05-14 2000-11-30 Zeiss Carl Jena Gmbh Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes
US20060192946A1 (en) 2003-03-21 2006-08-31 Leica Geosystems Ag Method and device for image processing in a geodesical measuring appliance

Also Published As

Publication number Publication date
EP2729764B1 (de) 2015-03-11
US20140105457A1 (en) 2014-04-17
WO2013004700A1 (de) 2013-01-10
BR112013031979A2 (pt) 2016-12-20
US9047536B2 (en) 2015-06-02
CN103649681B (zh) 2016-05-04
EP2543960A1 (de) 2013-01-09
CN103649681A (zh) 2014-03-19
KR20130140899A (ko) 2013-12-24
EP2729764A1 (de) 2014-05-14

Similar Documents

Publication Publication Date Title
KR101606444B1 (ko) 타겟 지점을 선택하기 위한 타겟 지점 후보들을 제공하기 위한 방법
CN106778823B (zh) 一种指针式仪表读数自动识别方法
DK169045B1 (da) Fremgangsmåde til tredimensional overvågning af genstandsrum
KR101638028B1 (ko) 좌표계에서 알려진 타겟 포인트를 마킹하기 위한 측정 시스템 및 방법
EP2805180B1 (de) Lasertracker mit funktionalität zur graphischen zielbereitstellung
US9594167B2 (en) Geodetic referencing of point clouds
US9720087B2 (en) Method and device for determining an orientation of an object
KR101498149B1 (ko) 자동 고정밀 타겟 포인트 조준 기능을 가진 측지 측량 장치
US9007573B2 (en) Robotic surveying instrument and method for an automated collimation telescope and surveying instrument with and objective goal
CN105358937A (zh) 用于测绘仪器的定位方法和所述测绘仪器
CN109341668B (zh) 基于折射投影模型和光束追踪法的多相机测量方法
CN111397586B (zh) 测量系统及利用其来验证预配置目标属性的方法
CA2801668A1 (en) Target point recognition method and surveying instrument
CN104990501A (zh) 一种三维激光扫描装置的系统参数校准方法
CN111044990A (zh) 机载激光雷达光束指向标定方法、系统及激光光斑探测器
CN114008482A (zh) 测量系统及测量方法
Schwieger et al. Image-based target detection and tracking using image-assisted robotic total stations
Li et al. Deep learning-based interference fringes detection using convolutional neural network
CN116299504A (zh) 计量系统
CN107131889A (zh) 一种全角度成像基准尺
Liu et al. A novel depth measurement method for urban flooding based on surveillance video images and a floating ruler
EP4332621A1 (en) Laser scanner with stereo camera vision for improved selective feature scanning
Nogin et al. Optoelectronic autocollimator as a tool for monitoring load-carrying structure
EP1896897A1 (en) Method, device, and program product for visually indicating a selected object, using a device equipped with camera
JP5223049B2 (ja) 個別認識装置及び個別認識システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant