KR101901483B1 - 추적 시스템 정확성 측정을 위한 시스템 및 방법 - Google Patents

추적 시스템 정확성 측정을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR101901483B1
KR101901483B1 KR1020147022863A KR20147022863A KR101901483B1 KR 101901483 B1 KR101901483 B1 KR 101901483B1 KR 1020147022863 A KR1020147022863 A KR 1020147022863A KR 20147022863 A KR20147022863 A KR 20147022863A KR 101901483 B1 KR101901483 B1 KR 101901483B1
Authority
KR
South Korea
Prior art keywords
camera
spatial relationship
tracking
accuracy
delete delete
Prior art date
Application number
KR1020147022863A
Other languages
English (en)
Other versions
KR20140127254A (ko
Inventor
무스타파 야그씨오글루
얼칸 야부즈
오즈거 일마즈
Original Assignee
아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 filed Critical 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티
Publication of KR20140127254A publication Critical patent/KR20140127254A/ko
Application granted granted Critical
Publication of KR101901483B1 publication Critical patent/KR101901483B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras

Abstract

본 발명은 추적 시스템의 정확성에 기반하여 카메라를 측정하는 간단하고 효과적인 시스템 및 방법과 관련되고, 특히 헬멧-장착된 추적 시스템과 관련된다. 방법은 추적된 객체 및 캘리브레이션 패턴 간의 공간적인 관계를 계산하는 단계; 참조 카메라 및 추적 카메라 간의 관계를 계산하는 단계; 참조 카메라 및 캘리브레이션 패턴 간의 관계를 계산하는 단계; 추적 카메라 및 추적된 객체 간의 지상 검증 자료 관계를 계산하는 단계; 실제의 추적 시스템 결과들을 획득하는 단계; 이러한 결과들을 지상 검증 자료 관계들과 비교하고 추적 시스템(S)의 정확성을 발견하는 단계; 정확성 결과들을 기록하는 단계; 새로운 계산이 요구되는지?를 포함한다. 시스템은 추적된 객체의 픽셀 이미지를 획득하는 참조 카메라; 참조 카메라에 의해 가시적인 캘리브레이션 패턴; 객체 및 카메라 간의 관계를 계산하는 카메라 공간적 관계 계산 유닛; 2개의 아이덴티티들 간의 관계를 계산하는 상대적인 공간적 관계 계산 유닛 - 참조 프레임에 대한 모든 아이덴티티들의 공간적인 관계가 주어짐 -; 정확성을 저장하는 메모리 유닛; 추적 시스템 결과들을 지상 검증 자료와 비교하는 공간적 관계 비교 유닛을 포함한다.

Description

추적 시스템 정확성 측정을 위한 시스템 및 방법{SYSTEM AND METHOD FOR MEASURING TRACKER SYSTEM ACCURACY}
본 발명은 객체들을 광학적으로 추적하는 시스템들의 정확성을 결정하기 위한 측정, 시험 및 방법론들과 관련되고, 특히 헬멧-장착된(helmet-mounted) 추적 시스템들과 관련된다.
환경 내의 3 차원의 객체를 추적하고 소정의 좌표계에 대해 객체의 위치 및 방위를 계산하는 방법들 및 모델들이 존재함이 알려져 있다. 이러한 추정 시스템들의 종류들은 예컨대, 항공기 내에서 파일럿의 머리의 방위를 결정하기 위해 사용된다. 나타내는 디스플레이 디바이스들(say the display devices)의 좌표계에 대해 방위가 획득되면, 그 다음으로 따라서 이들 상에 그래픽을 생성하는 것이 가능하다. 자기적인, 기계적인 또는 광학적인 수단들을 사용하여 씬(scene) 내의 객체를 추적하는 상이한 방법들이 존재한다. 현재는, 객체들의 공간적인 관계들은 자기적인 센서들 또는 레이저 빔들을 사용하여 또한 결정될 수 있지만 본 발명은 특히 카메라-기반의(데이-티브이(day-tv), 열(thermal), 적외선(IR), 비행시간(Time of Flight; ToF) 등) 추적기들과 관련된다.
광학적인 카메라-기반의 시스템들 중 하나에서, 파일럿은 마크들 또는 패턴들을 갖는 헬멧을 착용하고 적어도 하나의 추적 카메라는 이러한 패턴들에 기반하여 좌표 변환 계산들을 사용하여 헬멧의 위치 및 방위를 결정한다. 추적 패턴을 갖는 객체 및 카메라 간의 공간적인 관계를 계산하는 것은 따라서, 당해 기술적 수준에서 잘 알려져 있다. 본 문서의 전반에서, 공간적인 관계가 언급될 때마다, 다른 개체의 참조 시스템에 대한 개체의 소정의 참조 시스템 간의 관계로 의미됨이 이해되어야 한다. 이러한 참조 시스템은 일반적으로 고려 중인(under consideration) 객체의 각각의 패턴에 기반한다. 다른 시스템들에 대한 추적 카메라의 위치는 알려져 있기 때문에(또는 계산 또는 측정될 수 있음), 추적 카메라의 센서 및 그 다음에 다른 시스템들과 헬멧의 공간적인 관계를 계산하는 것이 또한 가능하다. 상이한 아이덴티티들 간의 공간적인 관계를 계산하는 것, 알려진 참조 프레임에 대한 주어진 이들의 공간적 관계는 또한 관련된 벡터 이동(vector translation)들 및 행렬 계산들로 가능하다. 동일한 방식으로, 유사한 개념들이 또한 로보틱 제품의 다양한 암(arm)들의 공간적인 관계를 결정하기 위한 로보틱 시스템들에 적용될 수 있다. 하지만, 추적 카메라를 사용하는 추적 시스템은 객체(상기 추적된 객체(say tracked object))를 추적하고 알려진 참조 프레임에 대한 객체의 위치 및 방위를 계산한다. 그 다음으로, 이러한 추적된 객체의 상대적인 관계는 많은 상이한 목적들을 위해 사용된다. 이러한 맥락에서, "추적된 객체"는 추적 패턴을 갖고 추적 시스템에 의해 추적되는 객체를 의미한다. "추적된 객체"는 헬멧-장착된 추적 시스템과 같은 헬멧 또는 여하한 다른 객체일 수 있다.
카메라-기반의 추적 시스템들 내에 사용되는 패턴들은 가시광선 카메라들에 의해 추적되는 그래픽(일반적으로 흑백) 패턴들(수동적인 마커(passive marker)) 또는 적외선 카메라들에 의해 추적되는 적외선의 LED들(능동적인 마커(active marker))이다. 다른 배치들이 또한 가능하지만, 이러한 시스템들은 부적절한 조명 조건들 하에서 동작할 수 있으므로 이들 중 가장 편리한 것은 적외선 LED들을 갖는 것이다. 캘리브레이션 또는 정확성 결정과 같은 이러한 추적 시스템들과 관련된 몇몇의 문제들이 또한 존재한다. 캘리브레이션 및 이러한 시스템의 시험은 일반적으로 성가시고(cumbersome), 어렵고, 복잡한 장비를 요구한다. 또한, 때때로 추적 시스템을 교정(calibrate)하는 대신, 시스템의 현재의 상태의 정확성을 결정하는 것이 필수적이다.
현재 사용되는 캘리브레이션 방법에서는, 레이저 추적기가 씬 내의 참조점에 관한 상이한 객체들의 방위를 결정하기 위해 사용되고 고려 중인 시스템은 시스템이 일관되도록(consistent) 배치된다. 이러한 방법은 정확한 캘리브레이션을 결과로 낳지만, 이러한 방법은 고려 중인 시스템의 현재의 정확성을 결정하기 위한 때에만 요구되는 비싼 솔루션인 레이저 추적기를 사용한다.
머리 추적 시스템을 교정하기 위해 현재 사용되는 또 다른 방법은 씬 상의 마커들의 위치들을 변경하기 위해 특히 개작된(adapted) 매커니즘을 사용하고 그 다음으로 이러한 데이터를 사용하여 추적 시스템을 구성하고, 좌표 시스템을 생성한다. 또한 이러한 방법은 실용적이지 않고 프로세스를 복잡하게 만드는 특별한 장비를 사용한다. 시스템의 현재의 정확성을 결정하기 위해 필요한 때에만, 현재의 시스템의 에러가 추정(deduce)될 것이다.
현재의 방법들은 객체를 추적하는 동안 추적 시스템의 정확성만을 측정하는 간단하고 효율적인 방식을 제공하지 않는다. 이러한 문제의 솔루션을 제공하기 위해, 더 간단한 도구(tool)들 및 단계들을 사용하는 새로운 방법론이 소개되어야 한다.
중국 특허 문헌 CN101524842, 당해 기술적 수준의 출원은, 로봇을 교정하고, 최초 시험점을 참조로서 취하고, 시험 좌표계를 레이저 추적기로 정하고(establishing), 레이저 추적기로 커브 아크(curve arc)를 추적하고, 시계 방향 및 반-시계 방향으로부터 측정된 위치 좌표들을 기록하는 방법을 개시한다.
일본 특허 문헌 JP2009085806, 당해 기술적 수준의 출원은, 카메라 좌표 시스템을 정확하게 설정하고 스테이지 메커니즘(stage mechanism)으로 광학적인 마커를 이동시키고 측정함(take measurement)으로써 머리 추적 시스템을 교정하기 위한 방법을 개시한다.
본 발명의 목적은 추적 시스템의 정확성에 기반하여 카메라를 측정하는 간단하고 효과적인 방법론을 제공하는 것이다.
본 발명의 목적을 달성하기 위해 실현되는 시스템 및 방법은 하기의 부수하는 도면들 내에서 도시된다.
도 1은 바람직한 실시예 시스템의 스키매틱 뷰(schematic view)이다.
도 2는 본 발명의 바람직한 방법의 흐름도이다.
도면들 내에 도시된 구성 요소들은 하기에서 참조하는 번호들 및 문자들로 개별적으로 참조된다.
1. 추적 정확성을 측정하기 위한 시스템
2. 참조 카메라
3. 캘리브레이션 패턴
4. 카메라 공간적 관계 계산 유닛
5. 상대적인 공간적 관계 계산 유닛
6. 공간적 관계 비교 유닛
7. 메모리 유닛
O. 추적된 객체
S. 추적 시스템
T. 추적 카메라
100. 추적 시스템 정확성을 측정하기 위한 방법
추적 시스템 정확성을 측정하기 위한 시스템(1)은 근본적으로,
- 추적 패턴을 갖고 추적 카메라(T)에 의해 추적되는 적어도 하나의 추적된 객체(O)의 전자적인 픽셀 이미지를 획득하도록 구성되는 적어도 하나의 참조 카메라(2),
- 참조 카메라(2)에 의해 가시적인(visible) 적어도 하나의 캘리브레이션 패턴(3),
- 적어도 하나의 카메라에 연결되고 추적 패턴을 갖는 객체 및 이러한 카메라들에 의해 획득된 객체의 전자적인 픽셀 이미지를 사용하는 카메라 간의 공간적인 관계를 계산(compute)하도록 구성되는 적어도 하나의 카메라 공간적 관계 계산 유닛(4),
- 카메라 공간적 관계 계산 유닛(4)에 연결되고 적어도 2개의 아이덴티티(identity)들 간의 공간적인 관계를 계산하도록 구성되는 적어도 하나의 상대적 공간적 관계 계산 유닛(5)을 포함하고, 참조 프레임에 대한 모든 이러한 아이덴티티들의 공간적인 관계가 주어지고,
- 적어도 하나의 정확성 값을 저장하도록 구성되는 적어도 하나의 메모리 유닛(7),
- 카메라 상대적 공간적 관계 계산 유닛(5), 추적 시스템(S), 및 메모리 유닛(7)과 연결되고, 추적 시스템(S)의 추적 카메라(T) - 추적된 객체(O) 관계 결과들을 주어진 지상 검증 자료(ground truth)와 비교하도록 구성되고, 정확성 값을 발견하는, 적어도 하나의 공간적 관계 비교 유닛(6)을 포함한다.
본 발명의 바람직한 실시예에서, 참조 카메라(2)는 추적 시스템(S)의 추적 카메라(T)와 동일한 타입의 카메라이다. 예컨대 추적 카메라(T)가 LED 패턴을 추적하는 적외선 비젼 카메라이면, 참조 카메라(2)는 또한 적외선 비전 카메라이다.
본 발명의 바람직한 실시예에서, 캘리브레이션 패턴(3)은 또한 여하한 외부의 도구를 사용하지 않고, 추적 카메라(T)에 대한 참조 카메라(2)의 공간적인 관계를 결정할 수 있도록 추적 카메라(T)에 의해 가시적이다. 이는 카메라 공간적 관계 계산 유닛(4)을 사용하여 캘리브레이션 패턴(3)에 대한 참조 카메라(2)의 공간적인 관계를 계산하고 캘리브레이션 패턴에 대한 추적 카메라(T)의 공간적인 관계를 계산함으로써 실현된다. 그 다음으로 상대적인 공간적 관계 계산 유닛(5)을 사용하여, 추적 카메라(T)에 대한 참조 카메라(2)의 공간적 관계가 요구된 변환 계산들로 정해진다. 따라서, 이러한 실시예에서, 정확성 측정이 수행될, 추적 시스템(S)의 참조 카메라(2) 및 추적 카메라(T)는 카메라 공간적 관계 계산 유닛(4)에 연결된다. 이는 카메라 공간적 관계 계산 유닛(4)이 고려 중인 추적 카메라(T)와 호환 가능(compatible) 및 연결 가능해야 하고 캘리브레이션 패턴(3)에 대한 추적 카메라(T) 및 참조 카메라(2)의 공간적인 관계를 결정하도록 구성됨을 의미한다. 상대적인 공간적 관계 계산 유닛(5)은 반면에, 캘리브레이션 패턴(3)과 함께 추적 카메라(T) 및 상기 참조 카메라(2)(their)의 관계 정보를 사용하여 추적 카메라(T)에 대한 참조 카메라(2)의 관계를 결정하도록 구성된다.
바람직하게는, 코너(corner)들 또는 물방울 모양(blob)들은 캡처된 이미지 내에 매우 정확하게 위치될 수 있기 때문에, 캘리브레이션 패턴(3)은 체크 패턴 또는 타원들로 구성된 패턴이고, 패턴은 매끄러운 평면의 표면(planer surface) 상에 있음을 알게 된다. 또한, 캘리브레이션 패턴(3)은 좌표 측정 머신(coordinate measuring machine, CMM), 레이저 스캐닝 시스템들 또는 여하한 다른 정확한 방법에 의해 이전에 측정된 객체(O)와의 알려진 공간적인 관계로 추적된 객체(O) 상에 장착 가능하다. 캘리브레이션 패턴(3)이 객체(O) 상에 장착되기 때문에 이러한 실시예는 쉽게 알려진 추적된 객체(O) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 만든다. 또 다른 실시예에서, 유사하게, 참조 카메라(2)는 추적 카메라(T)와의 알려진 관계로 장소 상에 장착되고 참조 카메라(2) 및 추적 카메라(T) 간의 관계는 여하한 계산들 없이 명백하게 된다.
추적된 객체(O) 및 캘리브레이션 패턴(3); 참조 카메라(2) 및 추적 카메라(T); 및 참조 카메라(2) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 알 때, 상대적인 공간적 관계 계산 유닛(5)을 사용하여, 참조 카메라(2) 시점으로부터 추적 카메라(T)와의 추적된 객체(O)의 관계를 결정하는 것이 가능하다. 이러한 관계 데이터는 실제로 추적 카메라(T) 와의 객체(O)의 관계에 대한 지상 검증 자료를 제공하고 추적 시스템(S) 정확성을 결정하기 위해 안전하게 사용될 수 있다.
또 다른 바람직한 실시예에서, 공간적 관계 비교 유닛(6)은 추적 시스템(S)의 공간적인 관계 결과들을 상대적인 공간적 관계 계산 유닛(5)에 의해 계산된 지상 검증 자료와 비교하고 정확성 결과를 메모리 유닛(7) 내에 기록하도록 구성된다.
본 발명의 또 다른 추가적인 바람직한 실시예에서, 캘리브레이션 패턴(3) 및 추적된 객체(O)는 추적 카메라(T)에 의해 가시적이고 참조 카메라(2)는 필요하지 않다. 참조 카메라(2)는 추적된 객체(O)의 상이한 포즈에 대한 정확성을 계산하는 다른 실시예 내에서만 포함된다. 추적 카메라(T)는 캘리브레이션 패턴(3) 및 추적된 객체(O)의 모든 위치에 대해 추적된 객체(O)를 볼 수 있고, 시스템은 참조 카메라로서 추적 카메라(T)를 사용함으로써 동작할 수 있다. 이러한 상황에서, 참조 카메라(2) 및 추적 카메라(T) 간의 관계를 계산할 필요가 없고 여전히 동일한 계산들이 가능하다. 이러한 경우, 상대적인 공간적 관계 계산 유닛(5)은 추적된 객체(O) 및 캘리브레이션 패턴(3); 추적 카메라(T) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 사용하여, 추적 카메라(T) 시점으로부터 추적 카메라(T)와의 추적된 객체(O)의 지상 검증 자료 관계를 결정하도록 구성된다.
추적 시스템 정확성을 측정하기 위한 방법(100)은 근본적으로 하기의,
- 추적된 객체(O) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 계산하는 단계(101),
- 참조 카메라(2) 및 추적 카메라(T) 간의 공간적인 관계를 계산하는 단계(102),
카메라 공간적 관계 계산 유닛(4)을 사용하여 참조 카메라(2) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 계산하는 단계(103),
- 이전의 단계들로부터의 데이터로 상대적인 공간적 관계 계산 유닛(5)을 사용하여 추적 카메라(T) 및 추적된 객체(O) 간의 simple and effective 공간적 관계를 계산하는 단계(104),
- 추적 카메라(T) 및 추적된 객체(O) 간의 공간적인 관계를 제공하는(giving) 추적 시스템(S) 결과들을 획득하는 단계(105),
- 추적 시스템(S) 결과들을 계산된 지상 검증 자료 관계들과 비교하고 공간적 관계 비교 유닛(6)을 사용하여 추적 시스템(S)의 정확성을 계산하는 단계(106),
- 추적된 객체(O)의 현재의 포즈에 대한 정확성 결과들을 메모리 유닛(7)에 기록하는 단계(107), 및
- 새로운 계산이 요구되는지?(108)를 포함한다.
먼저, 추적된 객체(O) 및 캘리브레이션 패턴(3) 간의 공간적인 관계는 여하한 알려진 계산의 수단들에 의해 계산된다. 예컨대 CMM, 레이저 시스템에 의해. 바람직한 구성에서, 이러한 계산들은 CMM 측정들을 사용하여 수행된다. 참조 카메라(2) 및 추적 카메라(T) 간의 공간적인 관계(102)는 또한 여하한 알려진 계산의 수단들에 의해 계산된다. 카메라 공간적 관계 계산 유닛(4) 및 상대적인 공간적 관계 계산 유닛(5)이 바람직한 구성 내에서 사용된다.
그 다음으로 참조 카메라(2) 및 캘리브레이션 패턴(3) 간의 공간적인 관계는 카메라 공간적 관계 계산 유닛(4)을 사용하여 계산된다(103). 다음의 단계에서, 추적된 객체(O) 및 캘리브레이션 패턴(3); 참조 카메라(2) 및 추적 카메라(T); 및 참조 카메라(2) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 사용하여 상대적인 공간적 관계 계산 유닛(5)을 사용하여 참조 카메라(2) 시점으로부터 추적 카메라(T)와의 추적된 객체(O)의 관계가 결정된다. 모든 이러한 관계들은 단계들(101, 102 및 103) 내에서 발견되었다. 참조 카메라(2) 시점으로부터의 추적된 객체(O) 및 추적 카메라(T) 간의 관계는 실제로 지상 검증 자료를 제공하고 추적 시스템(S) 정확성을 결정하기 위해 안전하게 사용될 수 있다.
단계(104) 이후, 추적 카메라(T) 및 추적 객체(O) 간의 공간적인 관계를 제공하는, 추적 시스템(S) 결과들은, 단계(105)와 같이 추적 시스템(S)로부터 직접적으로 수신된다. 이러한 데이터는 정확성을 측정하기 위한 원본 데이터일 것이고 이들은 이전의 단계들 내에서 발견된 지상 검증 자료 관계들과 비교되고 추적 시스템(S)의 정확성은 공간적인 관계 비교 유닛(6)을 사용하여 계산된다(106). 최종적으로, 추적된 객체(O)의 현재의 포즈에 대한 정확성 결과들은 메모리 유닛(7)에 기록된다(107).
추적된 객체(O)의 상이한 포즈들에 대한 정확성 측정들을 기록하기 위해, 새로운 계산이 요구되는지?(108)의 체크가 단계(107) 후에 수행되고 모든 계산들은 완료되고 단계(101)로부터 시작하는 객체(O)의 새로운 포즈에 대해 기록된다. 이는 추적 시스템(S)의 정확성이 객체(O)의 상이한 포즈들에 대해 상이할 수 있고 상이한 포즈들에 대해 상이한 정확성 값들이 요구될 수 있기 때문에 요구될 수 있다. 새로운 계산이 요구되지 않으면, 그 다음으로 방법은 종료된다. 추가적으로, 캘리브레이션 패턴(3)이 추적된 객체(O) 상에 장착된 경우처럼 추적된 객체(O) 및 캘리브레이션 패턴(3) 간의 공간적인 관계가 이전에 알려지고 CMM 측정이 참조 카메라(2) 위치에 대해 실시될 때 단계(101)는 불필요하게 된다. 단계(102)는 또한 참조 카메라(2) 및 추적 카메라(T) 간의 공간적인 관계가 이전에 알려지고 참조 카메라(2) 및 추적 카메라(T)가 정지된 때 불필요하게 된다. 따라서, 단계들(101 및102)는 각각의 관계가 이전에 알려지지 않은 때에만 실시된다. 예컨대 특정한 추적 시스템(S)에 대해, 추적된 객체(O) 상에 장착된 캘리브레이션 패턴(3) 및 고정된 참조 카메라(2)를 설정하는 것, 단계(101 및 102)는 한번만 수행될 것이다.
시스템(1)과 함께 방법(100)은 추적된 객체(O) 및 추적 카메라(T) 간의 지상 검증 자료 관계를 계산함으로써 카메라 기반의 추적 시스템의 정확성을 간편하게 하고 카메라 기반의 추적 시스템의 정확성을 효율적으로 측정할 수 있다.
이러한 기본적인 개념들의 범위 내에서, 본 발명의 "추적 시스템 정확성을 측정하기 위한 시스템 및 방법(1), (100)"의 넓은 다양한 실시예들을 개발하는 것이 가능하다. 본 발명은 여기에서 설명된 예시들에 제한될 수 없으며, 본질적으로 청구 범위에 따른다.

Claims (27)

  1. 추적 시스템 정확성을 측정하기 위한 시스템(1)에 있어서,
    추적된 객체들을 갖는 캘리브레이션 패턴들(calibration patterns with tracked objects)의 상대적인 포즈를 계산함에 있어서 좌표 측정 머신(coordinate measuring machine, CMM)을 이용하고,
    - 적어도 하나의 카메라에 연결되고 추적 패턴을 갖는 객체 및 이러한 카메라들에 의해 획득된 상기 객체의 전자적인 픽셀 이미지를 사용하는 카메라 간의 공간적인 관계를 계산(compute)하도록 구성되는 적어도 하나의 카메라 공간적 관계 계산 유닛(4),
    - 카메라 공간적 관계 계산 유닛(4)을 사용하여 사전-정의된 좌표 시스템에 대한 상기 추적된 객체(O)의 상기 포즈를 계산하는 적어도 하나의 공간적 관계 계산 유닛(5),
    - 적어도 하나의 추적된 객체(O) 상에 장착되는 캘리브레이션 패턴(3)의 적어도 하나의 전자적인 픽셀 이미지를 획득하도록 구성되는 적어도 하나의 참조 카메라(2) 및
    - 추적 카메라(T)에 의해 추적되는, 하나의 추적된 객체,
    - 참조 카메라(2)에 의해 가시적인 적어도 하나의 캘리브레이션 패턴(3) - 추적된 객체에 대한 상기 공간적인 관계는 CMM으로 측정됨 -,
    - 상기 캘리브레이션 패턴 및 상기 CMM 측정들을 통해 계산되는 적어도 하나의 지상 검증 자료 포즈 값,
    - 적어도 하나의 지상 검증 자료 포즈 값 및 정확성 값을 저장하도록 구성되는 적어도 하나의 메모리 유닛(7),
    - 상기 추적 시스템의 결과들을 주어진 지상 검증 자료와 비교하도록 구성되고, 정확성 값을 발견하는, 적어도 하나의 공간적 관계 비교 유닛(6)
    을 포함하고,
    상기 추적 시스템 정확성을 측정하기 위한 시스템(1)은 상기 추적 카메라(T)에 의해 가시적이고 및 CMM이 상기 추적된 객체(O)에 대한 포즈를 측정하기 위해 활용되는 캘리브레이션 패턴(3)에 의해 특징지어지는, 추적 시스템 정확성을 측정하기 위한 시스템(1).
  2. 삭제
  3. 제1항에 있어서,
    상기 추적 시스템 정확성을 측정하기 위한 시스템(1)은, 추적된 객체(O) 및 캘리브레이션 패턴(3); 참조 카메라(2) 및 추적 카메라(T); 및 참조 카메라(2) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 사용하여, 상기 참조 카메라(2) 시점으로부터 상기 추적 카메라(T)와의 추적된 객체(O)의 지상 검증 자료 관계를 결정하도록 구성되는 상대적인 공간적 관계 계산 유닛(5)에 의해 특징지어지는, 추적 시스템 정확성을 측정하기 위한 시스템(1).
  4. 제3항에 있어서,
    상기 추적 시스템 정확성을 측정하기 위한 시스템(1)은 상기 추적 시스템(S)의 공간적인 관계 결과들을 상대적인 공간적 관계 계산 유닛(5)에 의해 계산된 상기 지상 검증 자료와 비교하도록 구성되는 공간적 관계 비교 유닛(6)에 의해 특징지어지는, 추적 시스템 정확성을 측정하기 위한 시스템(1).
  5. 제1항에 있어서,
    상기 추적 시스템 정확성을 측정하기 위한 시스템(1)은 타원들로 구성된 패턴인 캘리브레이션 패턴(3)에 의해 특징지어지는, 추적 시스템 정확성을 측정하기 위한 시스템(1).
  6. 제1항에 있어서,
    상기 추적 시스템 정확성을 측정하기 위한 시스템(1)은, CMM에 의해 측정되고, 상기 추적된 객체(O)와의 알려진 이전의 측정된 공간적인 관계를 갖고 상기 추적된 객체(O) 상에 장착(mount)되는 캘리브레이션 패턴(3)에 의해 특징지어지는, 추적 시스템 정확성을 측정하기 위한 시스템(1).
  7. 추적 시스템 정확성을 측정하기 위한 방법(100)에 있어서,
    - CMM을 사용하여, 추적된 객체(O) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 계산하는 단계(101),
    - 참조 카메라(2) 및 추적 카메라(T) 간의 공간적인 관계를 계산하는 단계(102)
    - 카메라 공간적 관계 계산 유닛(4)을 사용하여 참조 카메라(2) 및 캘리브레이션 패턴(3) 간의 공간적인 관계를 계산하는 단계(103),
    - 이전의 단계들로부터의 데이터로 상대적인 공간적 관계 계산 유닛(5)을 사용하여 상기 추적 카메라(T) 및 상기 추적된 객체(O) 간의 지상 검증 자료 공간적 관계를 계산하는 단계(104),
    - 상기 추적 카메라(T) 및 상기 추적된 객체(O) 간의 공간적인 관계를 제공하는(giving) 추적 시스템(S) 결과들을 획득하는 단계(105),
    - 추적 시스템(S) 결과들을 상기 계산된 지상 검증 자료 관계들과 비교하고 공간적 관계 비교 유닛(6)을 사용하여 상기 추적 시스템(S)의 정확성을 계산하는 단계(106), 및
    - 상기 추적된 객체(O)의 현재의 포즈에 대한 정확성 결과들을 메모리 유닛(7)에 기록하는 단계(108)
    를 포함하는, 추적 시스템 정확성을 측정하기 위한 방법(100).
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
KR1020147022863A 2012-01-17 2012-01-17 추적 시스템 정확성 측정을 위한 시스템 및 방법 KR101901483B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2012/050216 WO2013108075A1 (en) 2012-01-17 2012-01-17 System and method for measuring tracker system accuracy

Publications (2)

Publication Number Publication Date
KR20140127254A KR20140127254A (ko) 2014-11-03
KR101901483B1 true KR101901483B1 (ko) 2018-09-21

Family

ID=45771847

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147022863A KR101901483B1 (ko) 2012-01-17 2012-01-17 추적 시스템 정확성 측정을 위한 시스템 및 방법

Country Status (3)

Country Link
US (1) US9804252B2 (ko)
KR (1) KR101901483B1 (ko)
WO (1) WO2013108075A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9430700B2 (en) * 2012-02-22 2016-08-30 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi System and method for optimizing tracker system
US9630319B2 (en) 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
ZA201505409B (en) * 2015-07-27 2016-12-21 Csir A method of calibrating a helmet anda system therefor
US11729281B2 (en) * 2016-03-28 2023-08-15 Hewlett-Packard Development Company, L.P. Calibration data transmissions

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007315775A (ja) 2006-05-23 2007-12-06 Shimadzu Corp ヘッドモーショントラッカ装置及びその使用方法
JP2008065416A (ja) * 2006-09-05 2008-03-21 Shimadzu Corp ヘッドモーショントラッカ装置
JP2009085806A (ja) 2007-10-01 2009-04-23 Shimadzu Corp ヘッドモーショントラッカシステム及びそれに用いられるキャリブレーション装置
JP2009109319A (ja) 2007-10-30 2009-05-21 Shimadzu Corp ヘッドモーショントラッカ装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2806604B2 (ja) * 1990-06-29 1998-09-30 ファナック株式会社 カメラの位置ずれ検出方法
DE10051415C2 (de) * 2000-10-17 2003-10-09 Advanced Realtime Tracking Gmb Optisches Trackingsystem und -verfahren
KR100480780B1 (ko) * 2002-03-07 2005-04-06 삼성전자주식회사 영상신호로부터 대상물체를 추적하는 방법 및 그 장치
FR2870599B1 (fr) * 2004-05-24 2006-08-25 Sagem Procede et systeme d'harmonisation de detecteurs de posture
JP4914038B2 (ja) 2004-11-04 2012-04-11 キヤノン株式会社 情報処理方法および装置
CN101524842A (zh) 2009-01-09 2009-09-09 成都广泰实业有限公司 工业机器人校准方法
US9008279B2 (en) * 2010-06-22 2015-04-14 Queen's University At Kingston C-arm rotation encoding methods and apparatus
US8411147B2 (en) * 2010-10-11 2013-04-02 Chiung-Hung Chiang Method for eliminating chromatic aberration caused by an imaging environment and for testing stability of the imaging environment, and chromatic aberration calibration device for use with the same
US20130249907A1 (en) * 2011-09-12 2013-09-26 Medical Modeling Inc., a Colorado Corporaiton Fiducial system to facilitate co-registration and image pixel calibration of multimodal data
EP2776216B1 (en) * 2011-11-11 2022-08-31 iRobot Corporation Robot apparautus and control method for resuming operation following a pause.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007315775A (ja) 2006-05-23 2007-12-06 Shimadzu Corp ヘッドモーショントラッカ装置及びその使用方法
JP2008065416A (ja) * 2006-09-05 2008-03-21 Shimadzu Corp ヘッドモーショントラッカ装置
JP2009085806A (ja) 2007-10-01 2009-04-23 Shimadzu Corp ヘッドモーショントラッカシステム及びそれに用いられるキャリブレーション装置
JP2009109319A (ja) 2007-10-30 2009-05-21 Shimadzu Corp ヘッドモーショントラッカ装置

Also Published As

Publication number Publication date
WO2013108075A1 (en) 2013-07-25
KR20140127254A (ko) 2014-11-03
US9804252B2 (en) 2017-10-31
US20140368664A1 (en) 2014-12-18

Similar Documents

Publication Publication Date Title
US10323927B2 (en) Calibration of a triangulation sensor
US9448758B2 (en) Projecting airplane location specific maintenance history using optical reference points
US10290154B1 (en) Stereo-based calibration apparatus
CN108227929B (zh) 基于bim技术的增强现实放样系统及实现方法
CN109084681B (zh) 相对接触探针校准视觉系统的系统及方法
US10070117B2 (en) Three-dimensional measuring apparatus
WO2011013301A1 (en) Position and orientation calibration method and apparatus
KR102314092B1 (ko) 로봇의 캘리브레이션 장치 및 그 방법
JP2016167229A (ja) 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム
CN109579766A (zh) 一种产品外形自动检测方法及系统
JP2010528318A (ja) 2次元画像による3次元組立て検査
KR101901483B1 (ko) 추적 시스템 정확성 측정을 위한 시스템 및 방법
US10499038B2 (en) Method and system for recalibrating sensing devices without familiar targets
US11237057B2 (en) Temperature processing apparatus and temperature processing method
CN112631431B (zh) Ar眼镜的位姿确定方法、装置及设备、存储介质
US20160232654A1 (en) Information processing apparatus, control method thereof, and computer readable storage medium
CN109906471B (zh) 实时三维相机校准
US11259000B2 (en) Spatiotemporal calibration of RGB-D and displacement sensors
Borrmann et al. Spatial projection of thermal data for visual inspection
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
Ye et al. A calibration trilogy of monocular-vision-based aircraft boresight system
Kahn et al. Fusing real-time depth imaging with high precision pose estimation by a measurement arm
Karan Accuracy improvements of consumer-grade 3D sensors for robotic applications
Mosnier et al. A New Method for Projector Calibration Based on Visual Servoing.

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant