KR20030072880A - 영상신호로부터 대상물체를 추적하는 방법 및 그 장치 - Google Patents

영상신호로부터 대상물체를 추적하는 방법 및 그 장치 Download PDF

Info

Publication number
KR20030072880A
KR20030072880A KR1020020012155A KR20020012155A KR20030072880A KR 20030072880 A KR20030072880 A KR 20030072880A KR 1020020012155 A KR1020020012155 A KR 1020020012155A KR 20020012155 A KR20020012155 A KR 20020012155A KR 20030072880 A KR20030072880 A KR 20030072880A
Authority
KR
South Korea
Prior art keywords
feature point
camera
image
unit
feature
Prior art date
Application number
KR1020020012155A
Other languages
English (en)
Other versions
KR100480780B1 (ko
Inventor
이성희
이종하
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR10-2002-0012155A priority Critical patent/KR100480780B1/ko
Priority to US10/382,619 priority patent/US7263207B2/en
Priority to EP03251412A priority patent/EP1343067B1/en
Priority to JP2003061009A priority patent/JP4663966B2/ja
Priority to DE60301987T priority patent/DE60301987T2/de
Publication of KR20030072880A publication Critical patent/KR20030072880A/ko
Application granted granted Critical
Publication of KR100480780B1 publication Critical patent/KR100480780B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 카메라로 촬영된 영상신호를 분석하여 소정의 대상물체의 위치, 자세 및 방향정보를 추정하는 방법 및 장치에 관한 것이다. 본 발명에 따른 카메라 영상을 통한 대상물체의 움직임 추적장치는 상기 카메라의 내부 파라미터를 구하는 카메라 켈리브레이션부, 상기 카메라로부터 특징점들이 표시된 대상물의 영상신호를 입력받고, 상기 영상신호의 왜곡을 제거하는 카메라 왜곡보상부, 상기 왜곡이 제거된 영상신호를 입력받아 상기 대상물에 표시된 특징점의 2차원좌표를 추출하는 특징점 좌표추출부 및 상기2차원좌표 값, 상기 내부 파라미터 값 및 상기 대상물에 표시되어 있는 특징점의 3차원좌표 값에 기초하여 상기 대상물의 위치, 자세 및 방향을 추정하여 외부로 출력하는 대상물의 위치, 자세 및 방향 추정부를 포함하는 것을 특징으로 한다.
본 발명에 따르면 본 발명에 따르면 소정의 대상물에 특징점을 표시하고 이를 촬영한 영상신호를 처리하여 상기 대상물의 위치, 자세 및 방향 정보를 추정할 수 있게 된다.

Description

영상신호로부터 대상물체를 추적하는 방법 및 그 장치{Method and apparatus for tracking an object from video data }
본 발명은 카메라로 촬영된 영상신호를 분석하여 소정의 대상물체의 위치, 자세 및 방향정보를 추정하는 방법 및 장치에 관한 것으로, 특히 본 발명은 헤드 마운트 디스플레이(HMD, Head Mounted Display) 장치의 위치, 자세 및 방향을 추적하여 사용자가 바라보는 방향에 대응되는 영상을 출력하는 장치에 관한 것이다.
HMD(Head Mounted Display)는 사용자의 머리에 장착되어 사용자의 눈 가까이에서 영상을 디스플레이하는 장치이다. HMD가 가상 현실과 같이 사용자의 움직임과의 상호작용(interaction)이 필요한 분야에 사용되기 위해서는 사용자의 머리의 위치, 자세 및 방향에 대한 정보를 감지하는 장치가 필요하게 된다.
사용자에 대한 정보를 감지하는 수준은 그 목적에 따라서 다양한데 (예를 들어 마우스나 조이스틱과 같이 사용자의 버튼 조작을 입력으로 받는 수준에서부터 사용자의 전신의 관절각을 감지하여 이를 이용하는 수준까지) HMD와 관련한 최저수준의 사용자 감지 장치는 사용자의 머리의 위치 및 자세를 감지하여 HMD에 디스플레이하는 영상을 결정하는데 이용하는 장치이다.
현재 일반적으로 사용되고 있는 사용자 머리 추적 장치는 자이로스코프를 이용한 장치이다 ( 자이로스코프를 HMD에 이용한 특허 - US 6162191). 이는 자이로스코프를 HMD에 부착하여 사용자의 머리를 추적하는 장치이나 자이로스코프의 특성상 사용자의 자세를 감지할 뿐 위치를 감지할 수는 없는 한계를 가지며, 또한 HMD에 장착해야 하기 때문에 HMD가 무거워지고, 사용자의 움직임을 감응하는 속도가 느린 단점이 있다.
두 번째로 이용되는 사용자 머리 추적 장치는 자기 센서를 이용한 장치이다 ( 자기 센서 추적 장치 특허 - US 3983474 ). 자기 센서는 사용자 머리의 움직임을 정밀하게 측정하는 것이 가능하나, 자이로스코프의 경우와 마찬가지로 자기 센서를 HMD에 장착하기 때문에 HMD가 무거워지고 주변에 금속성의 물체가 존재할 때 이로 인한 측정의 왜곡이 생긴다.
세 번째로 사용자의 머리 추적 장치로서 컴퓨터 비전 기술을 이용한 방법이 제시되고 있다. US 5742263, US 5856844는 HMD에 카메라를 장착하고 카메라가 비추는 벽에 마커를 부착하여 이를 인식함으로써 사용자의 위치 및 자세를 감지할 수 있다. 그러나 이 방법은 전술한 방법과 마찬가지로 HMD의 무게를 증가시키며, 실내에 마커(marker)를 부착해야 하기 때문에 특별히 꾸며진 공간이외의 장소에서는 기능을 수행 할 수 없고 일반 가정에서 사용할 수 없는 문제점이 있다.
본 발명이 이루고자 하는 기술적 과제는 특징점이 표시된 HMD 등의 대상물체를 촬영한 영상신호를 통하여 상기 대상물체의 움직임을 추적하는 장치 및 방법을 제공하는데 있다.
또한 본 발명이 이루고자 하는 기술적 과제는 본 발명에 따른 영상신호를 통한 대상물체의 움직임 추적장치를 이용한 화면출력장치를 제공하는데 있다.
도 1은 본 발명에 따른 카메라 영상신호를 통한 대상물체의 위치, 자세 및 방향을 추적하는 장치의 바람직한 실시예의 기능적 블럭도이다.
도 2는 도 1의 특징점 결정부의 세부적인 기능적 블록도이다.
도 3은 본 발명에 따른 카메라 영상신호를 통한 대상물체의 위치, 자세 및 방향을 추적하는 장치를 적용한 개인용 디스플레이 장치의 바람직한 실시예의 기능적 블록도이다.
도 4는 본 발명에 따른 카메라 영상신호를 통한 대상물체의 위치, 자세 및 방향을 추적하는 방법의 바람직한 실시예를 순서도로 보이고 있다.
도 5는 도 4의 403단계의 세부적인 방법을 순서도로 보이고 있다.
도 6은 본 발명을 적용하여 HMD(Head Mounted Display)의 방향을 추정한 바람직한 실시예를 보이고 있다.
도 7은 카메라의 켈리브레이션의 원리를 보이고 있다.
도 8은 형태학적 영상처리기법으로 특징점 영역에서 노이즈를 제거한 바람직한 실시예를 보이고 있다.
도 9a는 왜곡을 제거하기 전의 카메라로부터 입력받은 영상을 보이고 있으며, 도 9b는 위 영상에서 왜곡이 제거된 영상을 보이고 있다.
도 10은 카메라의 내부 파라미터를 구하기 위한 테스트 영상의 바람직한 예를 보이고 있다.
도 11은 카메라의 내부 파라미터를 구한 바람직한 예를 보이고 있다.
도 12는 도 10의 테스트 영상에서 체크 무늬 판넬의 위치 및 자세를 추정한 결과를 보이고 있다.
상기 문제점을 해결하기 위한 본 발명에 따른 카메라 영상을 통한 대상물체의 움직임 추적장치는 카메라의 특성을 나타내는 내부 파라미터를 구하는 카메라 켈리브레이션부, 상기 카메라로부터 적어도 하나 이상의 특징점이 표시된 소정의 대상물이 촬영된 영상신호를 입력받고, 상기 입력받은 영상신호의 왜곡을 상기 카메라의 내부 파라미터 값을 이용하여 제거하는 카메라 왜곡보상부, 상기 카메라 왜곡보상부로부터 왜곡이 제거된 상기 영상신호를 입력받아 상기 대상물의 특징점의 상기 영상에서의 2차원좌표를 추출하는 특징점 좌표추출부 및 상기 특징점 좌표추출부로부터 입력받은 상기 2차원좌표 값, 상기 카메라 켈리브레이션부로부터 입력받은 상기 카메라의 내부 파라미터 값 및 상기 대상물에 표시되어 있는 특징점의 3차원좌표 값에 기초하여 상기 대상물의 위치, 자세 및 방향을 추정하여 외부로 출력하는 대상물의 위치, 자세 및 방향 추정부를 포함하는 것을 특징으로 한다.
또한 상기 카메라 영상을 통한 대상물체의 움직임 추적장치의 상기 특징점 좌표추출부는 상기 카메라 왜곡보상부로부터 왜곡이 제거된 상기 영상신호를 입력받아 특징점에 해당하는 화소들의 각 색상 값에 기초하여 각각의 색에 다른 라벨을할당하여 주요특징점과 부가 특징점을 구분하는 특징점 라벨링부, 상기 특징점 라벨링부로부터 상기 주요특징점 및 부가 특징점 정보를 제공받아, 상기 특징점 영역들에 존재하는 노이즈를 제거하는 노이즈 제거부 및 상기 노이즈 제거부로부터 노이즈가 제거된 주요특징점 및 부가 특징점 정보를 제공받고, 상기 영상에서의 상기 특징점들의 2차원좌표 값을 구하는 특징점 결정부를 포함하는 것을 특징으로 할 수 있다.
또한 상기 카메라 영상을 통한 대상물체의 움직임 추적장치의 상기 특징점 좌표추출부는 상기 특징점 결정부로부터 상기 영상신호의 특징점의 2차원좌표정보를 제공받아, 상기 특징점의 움직임을 예측하는 움직임 예측부를 더 포함하는 것을 특징으로 할 수 있으며, 상기 특징점 결정부는 상기 노이즈 제거부로부터 노이즈가 제거된 라벨링된 영상신호를 입력받고, 상기 영상에 존재하는 각 특징점의 영역에 해당하는 픽셀들의 연결정보를 기초로 특징점 영역을 상기 영상에서 구분하는 연결정보 해석부, 상기 연결정보 해석부로부터 상기 특징점 영역 정보를 입력받고, 상기 대상물에 표시된 특징점들의 크기 정보 또는 각 특징점들간의 관계정보에 기초하여 특상기 특징점 영역 중에서 실제로 특징점이 아닌 영역을 제거하여 특징점 영역을 추출하는 특징점 추출부 및 상기 추출된 특징점 영역 정보를 제공받고, 상기 특징점 픽셀들의 좌표 값의 평균을 구하여 상기 특징점의 좌표값을 구하는 1차 모멘트 계산부를 포함하는 것을 특징으로 한다.
또한 상기 카메라 영상을 통한 대상물체의 움직임 추적장치의 상기 대상물의 위치, 자세 및 방향 추정부는 상기 카메라의 켈리브레이션부로부터 제공받은 상기카메라의 내부 파라미터 값, 상기 특징점 결정부로부터 제공받은 상기 특징점들의 좌표값, 상기 대상물에 표시된 특징점들의 3차원좌표값에 기초하여 상기 대상물의 위치, 자세 정보를 추정하는 자세 및 위치추정부 및 상기 특징점 결정부로부터 제공받은 상기 특징점들의 좌표값 중에서 주요특징점의 좌표값에 기초하여 상기 대상물이 촬영된 방향정보를 추정하는 방향 추정부를 포함하는 것을 특징으로 할 수 있다.
상기 문제점을 해결하기 위한 본 발명에 따른 화면출력장치는 하나 이상의 특징점이 표시되어 있는 소정의 대상물을 촬영하여 제1 영상신호를 발생시키는 영상 입력부, 상기 제1 영상신호를 처리하여 상기 대상물의 위치, 자세 및 방향정보를 추출하는 위치, 자세 및 방향 추적부, 상기 대상물의 위치, 자세 및 방향 정보를 입력받아, 상기 대상물의 위치, 자세 및 방향정보에 대응되는 제2 영상을 사용자에게 제공하도록 하는 제어신호를 발생시키는 화면출력 제어부 및 상기 제어신호에 따라서 상기 제2 영상신호를 사용자에게 제공하는 화면출력부를 포함하는 것을 특징으로 한다.
또한 상기 화면출력장치의 상기 위치, 자세 및 방향 추적부는 카메라의 특성을 나타내는 내부 파라미터를 구하는 카메라 켈리브레이션부, 상기 카메라로부터 적어도 하나 이상의 특징점이 표시된 소정의 대상물이 촬영된 영상신호를 입력받고, 상기 입력받은 영상신호의 왜곡을 상기 카메라의 내부 파라미터 값을 이용하여 제거하는 카메라 왜곡보상부, 상기 카메라 왜곡보상부로부터 왜곡이 제거된 상기 영상신호를 입력받아 상기 대상물의 특징점의 상기 영상에서의 2차원좌표를 추출하는 특징점 좌표추출부 및 상기 특징점 좌표추출부로부터 입력받은 상기 2차원좌표 값, 상기 카메라 켈리브레이션부로부터 입력받은 상기 카메라의 내부 파라미터 값 및 상기 대상물에 표신되어 있는 특징점의 3차원좌표 값에 기초하여 상기 대상물의 위치, 자세 및 방향을 추정하여 외부로 출력하는 대상물의 위치, 자세 및 방향 추정부를 포함하는 것을 특징으로 한다.
상기 문제점을 해결하기 위한 본 발명에 따른 카메라 영상을 통한 대상물체의 움직임 추적방법은 (a) 카메라의 내부 파라미터 값을 구하는 단계, (b) 상기 카메라로부터 영상신호를 입력받는 단계, (c) 상기 입력받은 영상에서의 특징점들의 2차원 좌표값을 계산하는 단계 및 (d) 상기 내부 파라미터 값, 상기 특징점들의 좌표값에 기초하여 상기 대상물의 방향, 위치 및 자세 정보를 추정하여 출력하는 단계를 포함하는 것을 특징으로 한다.
또한 상기 카메라 영상을 통한 대상물체의 움직임 추적방법의 상기 (c) 단계는 (c1) 상기 영상신호에 포함되어 있는 대상물에 표시된 특징점의 영역을 추출하는 단계, (c2) 상기 특징점 영역의 노이즈를 제거하는 단계 및 (c3) 상기 입력받은 영상에서의 특징점들의 2차원 좌표값을 계산하는 단계를 포함하는 것을 특징으로 한다.
또한 상기 카메라 영상을 통한 대상물체의 움직임 추적방법의 상기 (c3) 단계는 상기 특징점들의 움직임을 예측하여 구하는 것을 특징으로 한다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 위 실시예에서는 움직임이 추적되는 대상물체로써 HMD의 움직임을 추적하는 예이다.
본 발명에 따라 움직임이 추적되는 대상물체인 HMD는 특징점이 표시되어 있다. 상기 HMD의 특징점은 HMD의 전영역에 부착되어 있으며 따라서 어느 한 방향에서 상기 HMD를 촬영하는 경우 상기 특징점들 중에서 가려져 촬영되지 않는 특징점들이 있게 된다. 따라서 촬영된 영상이 대략적으로 어떤 자세를 취하고 있는지 알기 위해서는 촬영된 특징점이 상기 HMD의 어느 부위에 표시된 특징점인지를 판별할 수 있어야 한다. 이하에서 설명되는 실시예의 HMD에서는 이를 위해 일정 간격으로 다른 색이나 모양의 특징점(중요특징점)을 부착하였으며, 정확한 자세와 위치를 추정하기 위해 부가적인 특징점(부가특징점)들을 부착하였다. 중요특징점은 상기 HMD를 어느 방향에서 촬영하든 적어도 1개 이상이 촬영되도록 표시되어야 하며, 그 각각은 특징점들의 상호관계나 색상, 모양 등에 의해 구분 가능해야 한다. 부가특징점은 중요특징점들로부터 추정된 HMD의 방향 정보를 기반으로 중요특징점들과 함께 HMD의 정확한 자세와 위치를 계산하기 위해 부착이 된다.
도 1은 본 발명에 따른 영상신호를 통한 대상물체의 움직임 추적장치의 바람직한 실시예의 기능적 블록도이다. 본 발명에 따른 영상신호를 통한 대상물체의 움직임 추적장치는 카메라 켈리브레이션부(101), 카메라 왜곡 보상부(102), 특징점 좌표 추출부(103), 대상물의 위치, 자세 및 방향 추정부(104)를 포함하며, 상기 특징점 좌표 추출부(103)는 특징점 라벨링부(1031), 노이즈 제거부(1032), 특징점 결정부(1033)를 포함하며, 여기에 움직임 예측부(1034)를 더 포함할 수 있다. 또한 상기 대상물의 위치, 자세 및 방향 추정부(104)는 자세 및 위치 예측부(1041), 방향 추정부(1042)를 포함한다.
상기 카메라 켈리브레이션부(101)는 외부로붙 테스트 영상신호를 입력받아 움직임을 추정할 대상물을 촬영하는 카메라의 내부 파라미터를 켈리브레이션을 통하여 구한다. 도 10은 카메라의 내부 파라미터를 구하기 위한 테스트 영상의 바람직한 예를 보이고 있으며, 도 7은 카메라의 켈리브레이션의 원리를 보이고 있다. 이하에서는 도 7을 참조하여 켈리브레이션을 통하여 카메라의 파라미터를 구하는 방법을 설명한다.
먼저 카메라의 내부 파라미터 A는 수학식 1을 통하여 구할 수 있다.
, 여기서 ({c}_{x}, {c}_{y})는 도 7의 principle point의 좌표를 의미하며, ({f}_{x}, {f}_{y})는 focal lengths를 의미한다.
그리고 카메라의 외부 파라미터는 [Rt]는 다음의 수학식 2를 통하여 구할 수 있다.
[Rt] == R·t
여기서 R은 로테이션 매트릭스로의 값을 가지며, t는 translation vector로의 값을 갖는다.
또한 카메라에 촬영된 대상물체에 표시된 소정의 점의 3차원좌표 값 과 상기 카메라로 상기 대상물체를 촬영한 영상에 나타난 상기 점의 2차원좌표 값과의 관계식은 다음의 수학식 3에 의해서 나타내 진다.
m== A·[R·t]·M
여기서 M은 실제 대상물에 표시된 소정의 점(위치)의 3차원 좌표 값을 의미하며, m은 투영된 2차원 좌표 값을 의미한다.
카메라는 카메라의 특성을 나타내는 내부 파라미터(intrinsic parameter)와 위치와 자세를 나타내는 외부 파라미터(extrinsic parameter)를 사용하여 모델링이 가능하며 그 파라미터 형태는 위에서 기술한 바와 같으며, 도 11은 카메라의 내부 파라미터를 구한 바람직한 예를 보이고 있다.
상기 카메라 왜곡 보상부(102)는 외부로부터 움직임을 추적할 대상물체를 촬영한 2차원 디지털 영상신호를 입력받고, 상기 카메라 켈리브레이션부(101)로부터 상기 카메라의 내부 파라미터 값을 입력받는다. 그리고 상기 내부 파라미터 값에 기초하여 상기 입력받는 영상신호에 존재하는 왜곡을 제거한다. 위 왜곡은 주로 카메라는 특히 렌즈에서 발생하며 이것은 4개의 왜곡 계수를 구해서 보정이 가능한데, 일반적인 랜즈의 왜곡은 랜즈의 곡면에 의한 radial distortion이며 이는 2개의 왜곡 계수()만으로 보정이 가능하다.
왜곡계수 K == {[{k}_{1}, {k}_{2}]}^{T}는 다음 수학식 4 및 수학식 5를 만족한다.
여기서,
(x, y)는 ideal normalized image coordinates이고,
는 real normalized image coordinates이다.
여기서,
(u,v)는 ideal(distortion-free) pixel image coordinates이고,
는 real(distorted) observed image coordinates이고,
(x, y)는 ideal normalized image coordinates이고,
는 real normalized image coordinates이고,
,이고,
{u}_{0}, {v}_{0}, α, β는 카메라의 내부 파라미터이다.
카메라의 내부 파라미터 값을 아는 경우에는 수학식 5로부터 수학식 6을 얻을 수 있다.
⇔ DK==d이고,
그러면 K=={({D}^{T}D)}^{-1}{D}^{T}d이다.
위 식을 이용하여 {k}_{1}, {k}_{2}를 구하면 왜곡이 보정된 영상을 구할 수 있으며, 도 9A는 왜곡을 제거하기 전의 카메라로부터 입력받은 영상을 보이고 있으며, 도 9B는 위 영상에서 왜곡이 제거된 영상을 보이고 있다.
상기 특징점 라벨링부(1031)는 상기 카메라 왜곡 보상부(102)로부터 왜곡이 보상된 특징점이 표시된 HMD를 촬영한 영상신호를 입력받는다. 그리고 위 HMD 영상으로부터 각 색상에 대한 이진화를 통해서 특징점에 해당하는 화소들을 얻는다. 이때 각각의 색에 대해 다른 라벨을 할당하여 중요특징점들 각각과 부가특징점들을 구분할 수 있으며, 이렇게 얻어진 영상을 라벨링 영상이라 한다.
이러한 라벨링 과정은 다음의 수학식 7을 통하여 수행된다.
여기서, l(x,y)는 포인트(x,y)의 라벨(label)을 의미하고 {p}_{c}(x,y)는 칼라채널(color channel) c와 포인트(x,y)의 세기값(intensity value)을 의미하고 L은 라벨 번호를 의미하고, {T }`_{n,c } ^{upper } 과 {T}`_{n,c}^{lower}는 채널 c와 라벨n의 위와 아래의 문턱 값을 의미하고,는 조건을 만족하는 집합을 의미한다.
위의 수학식 7을 통하여 세기 값(intensity value)가 0에서 L까지인 그레이(gray) 영상 즉 라벨링(labeling) 영상을 얻는다.
상기 노이즈 제거부(1032)는 상기 특징점 라벨링부(1031)로부터 라벨링된 영상신호를 입력받아 노이즈를 제거하는 기능을 수행한다. 상기 라벨링 영상은 거의 대부분 배경이나 노이즈에 의해 영향을 받게되는데, 이러한 노이즈들은 오프닝 기법(opening)과 같은 형태학적 영상처리 방법을 통하여 제거되며, 도 8은 형태학적 영상처리기법으로 특징점 영역에서 노이즈를 제거한 바람직한 실시예를 보이고 있다.
상기 특징점 결정부(1033)는 상기 노이즈가 제거된 영상으로부터 특징점들의 2차원좌표를 구하거나, 움직임 예측부(1034)로부터 예측된 특징점들의 2차원좌표 값을 대상물의 위치, 자세 및 방향 추정부(104)에 제공한다. 이 단계에서 상기 노이즈가 제거된 영상으로부터 구해진 특징점들의 2차원좌표과 상기 움직임 예측부(1034)로부터 제공받은 특징점들의 2차원좌표 중 어느 좌표값을 출력할 것인지는 사용자의 선택에 의해 결정할 수 있다. 상기 노이즈가 제거된 영상으로부터 구해진 특징점들의 2차원좌표 값은 정확도가 높으나, 상기 움직임 예측부(1034)로부터 제공받은 특징점들의 2차원좌표 값을 이용하면 특징점의 위치추적을 빠른 속도로 할 수 있는 장점이 있게된다.
도 2는 도 1의 특징점 결정부의 세부적인 기능적 블록도를 보이고 있다. 먼저 연결정보 해석부(201)는 노이즈가 제거된 라벨링 영상신호를 입력받는다. 이러한 라벨링 영상은 각각의 라벨 값을 밝기 강도라고 가정하면 일종의 그레이 영상과 유사하며, 이러한 영상에 대해 동일한 색의 특징점 영역을 구분 짓기 위해서 각 특징점 영역에 대한 픽셀들의 연결정보를 얻어서 모든 특징점 영역을 구분하게 된다.
특징점 추출부(202)는 상기 연결정보 해석부(201)로부터 연결정보를 통해서 얻어진 특징점 영역에 관한 정보를 제공받고, 상기 특징점 영역으로 판별된 영역 중에서 일부 매우 작은 영역이나 특징점들 간의 관계에 대한 정의를 통해서 특징점이 아닌 영역을 제거한다. 이러한 과정을 통하여 최종적으로 라벨링된 각각의 영역은 2차원 영상에서 특징점에 해당하는 영역이 된다.
1차 모멘트 계산부(203)는 상기 특징점 추출부(202)로부터 특징점 영역에 라벨링된 2차원 영상을 입력받고 상기 특징점 영역의 중심점 좌표를 구한다. 상기 좌표를 구하는 방법은 1차 모멘트 즉, 각 특징점 영역의 중심에 대한 평균을 구함으로써 얻을 수 있다.
상기 움직임 예측부(1034)는 상기 특징점 결정부(1033)로부터 특징점의 2차원 좌표 값을 제공받는다, 그리고 칼라 히스토그램(color histogram)과 칼만 필터(Kalman filter)를 사용한 칼라 대상 추적방법(color object tracking)을 통하여 상기 영상의 다음 프레임에서 상기 특징점의 움직임을 예측하여 그 위치를 추적하는 기능을 수행한다. 이하에서는 특징점의 움직임을 예측하여 그 위치를 추적하는 방법을 설명한다.
N 번째 프레임에서 i 번째의 특징점 ( { f}`_{i } ^{N } , i=1,2,...,I) 영역의 칼라 히스토그램(color histogram) ({h}_{j}, j=1,2,...,J) 을 구한다. 그리고 N+1 번째 프레임에서 { f}`_{i } ^{N }을 중심으로 하는 검색영역에 대해 칼라 히스토그램({H}_{j})을 구한다. 여기서 I와 J는 검출된 특징점의 수와 히스토그램의 빈(bin)수를 각각 의미한다. 그 후에 검색영역에서 히스토그램 확률을 구한다.
검색 영역에서 각 픽셀에서의 해당 특징점일 확률은 픽셀의 bin 숫자에 해당하는 histogram 확률이 되며 이것을 histogram 확률맵이라고 한다. 위에서 구한 히스토그램(histogram) 확률맵과 여기에 weighting을 줄 수 있는 커넬(kernel)인 칼만 필터(Kalman filter) 을 곱한다. 이 결과에 대해 좌표값에 대한 평균을 구하면 이것이 N+1 번째 프레임에서의 i 번째 특징점 {f}`_{i} ^{N+1} 의 좌표값이 된다. 이에 대한 반복을 통해 특징점을 추적하게 된다.
상기 자세 및 위치 예측부(1041)는 상기 카메라 켈리브레이션부(101)로부터 카메라의 내부 파라미터 값을 입력받고, 상기 특징점 결정부로부터 특징점들의 2차원 좌표값을 입력받는다. 그리고고, 상기 카메라의 내부 파라미터 값, 특징점들의 2차원 좌표값 및 상기 HMD에 표시된 특징점들의 3차원좌표값에 기초하여 상기 수학식 2를 이용하여 상기 HMD의 자세 및 위치 정보를 포함하는 카메라의 외부 파라미터 [Rt]의 값을 구하여 외부로 출력하는 기능을 수행한다. 카메라의 외부파라미터를 이용하여 위치 및 자세를 추정한 예인 도 12는 도 10의 테스트 영상에서 체크무늬 판넬의 위치 및 자세를 추정한 결과를 보이고 있다.
상기 방향 추적부(1042)는 상기 특징점 결정부91033)으로부터 HMD를 촬영한 영상에 나타난 특징점들의 2차원 좌표 값을 입력받아, 상기 특징점들중에서 중요특징점이 상기 HMD의 어는 부위에 표시된 것인가를 판단하여 카메라의 HMD에 대한 대략적인 시점을 판정하여 외부로 출력하는 기능을 수행한다. 도 6은 본 발명을 적용하여 HMD(Head Mounted Display)의 방향을 추정한 바람직한 실시예를 보이고 있다.
도 3은 본 발명에 따른 카메라 영상신호를 통한 대상물체의 위치, 자세 및 방향을 추적하는 장치를 적용한 개인용 디스플레이 장치(HMD)의 바람직한 실시예의 기능적 블록도이다. 먼저 영상입력부(301)는 사용자의 머리에 부착되어 있는 HMD를 외부 카메라에 촬영한 영상을 입력받아 위치, 자세 및 방향 추정부(302)에 제공하는 기능을 수행한다.
상기 위치, 자세 및 방향 추정부(302)는 상기 HMD를 촬영한 영상신호로부터 상기 HMD의 위치 및 자세 정보와 HMD를 촬영한 시점 정보 즉 HMD의 방향정보를 추출하여 상기 위치, 자세 및 방향정보를 화면출력 제어부(303)으로 출력한다.
상기 화면 출력제어부(303)은 상기 위치, 자세 및 방향정보을 입력받아 화면 출력부를 제어하는 제어신호를 발생시킨다.
화면출력부(304)는 화면 출력 제어부로부터 제어신호를 입력받고, 상기 제어신호에 따라서 HMD의 위치, 자세 및 방향정보에 대응하는 영상신호를 화면에 출력하는 기능을 수행한다.
도 4는 본 발명에 따른 카메라 영상신호를 통한 대상물체의 위치, 자세 및방향을 추적하는 방법의 바람직한 실시예를 순서도로 보이고 있다. 먼저 카메라의 내부 파라미터를 구하고(401), 그 후에 위 카메라로부터 위치, 자세 및 방향 정보를 추정할 대상물이 촬영된 영상신호를 입력받는다(402). 그 후에 위 입력받은 영상신호에서 위 대상물에 표시된 특징점들의 2차원 좌표값을 계산(403)한다. 그리고 상기 내부 파라미터 값, 위 특징점들의 2차원 좌표값 및 위 대상물에 표시된 특징점들의 3차원 좌표값에 기초하여 위 대상물의 위치, 자세 및 방향 정보를 추출하여 외부로 출력(404)한다.
도 5는 도 4의 403단계의 세부적인 방법을 순서도로 보이고 있다. 먼저 위 영상신호에 포함된 대상물의 영상에서 특징점 영역을 추출(501)하고, 위 특징점 영역의 노이즈를 제거(502)한 후에 위 특징점들의 2차원 좌표값을 계산(503)한다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 씨디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
본 발명에 따르면 소정의 대상물에 특징점을 표시하고 이를 촬영한 영상신호를 처리하여 상기 대상물의 위치, 자세 및 방향 정보를 추정할 수 있게 됨에 따라, 상기 대상물(예를 들면 HMD)에 카메라 혹은 센서(자기 센서 혹은 자이로스코프 등)를 부착하지 않아도 된다. 따라서 상기 대상물의 무게를 줄일 수 있게되어 사용자가 상기 대상물을 신체에 착용하기 쉬운 효과가 있다.
또한 자기센서를 이용한 경우와 같이 주변에 금속성 물체에 의한 왜곡이 없으며, 또한 자이로스크프를 이용한 경우와 같은 종래기술의 대상물의 위치를 측정할 수 없는 단점을 극복하는 효과가 있으며, 대상물을 추적하는 센서로 카메라를 이용함으로써 운반성이 좋은 효과가 있다.

Claims (11)

  1. 카메라의 특성을 나타내는 내부 파라미터를 구하는 카메라 켈리브레이션부;
    상기 카메라로부터 적어도 하나 이상의 특징점이 표시된 소정의 대상물이 촬영된 영상신호를 입력받고, 상기 입력받은 영상신호의 왜곡을 상기 카메라의 내부 파라미터 값을 이용하여 제거하는 카메라 왜곡보상부;
    상기 카메라 왜곡보상부로부터 왜곡이 제거된 상기 영상신호를 입력받아 상기 대상물의 특징점의 상기 영상에서의 2차원좌표를 추출하는 특징점 좌표추출부; 및
    상기 특징점 좌표추출부로부터 입력받은 상기 2차원좌표 값, 상기 카메라 켈리브레이션부로부터 입력받은 상기 카메라의 내부 파라미터 값 및 상기 대상물에 표시되어 있는 특징점의 3차원좌표 값에 기초하여 상기 대상물의 위치, 자세 및 방향을 추정하여 외부로 출력하는 대상물의 위치, 자세 및 방향 추정부를 포함하는 것을 특징으로 하는 카메라 영상을 통한 대상물체의 움직임 추적장치.
  2. 제1항에 있어서, 상기 특징점 좌표추출부는
    상기 카메라 왜곡보상부로부터 왜곡이 제거된 상기 영상신호를 입력받아 특징점에 해당하는 화소들의 각 색상 값에 기초하여 각각의 색에 다른 라벨을 할당하여 주요특징점과 부가 특징점을 구분하는 특징점 라벨링부;
    상기 특징점 라벨링부로부터 상기 주요특징점 및 부가 특징점 정보를 제공받아, 상기 특징점 영역들에 존재하는 노이즈를 제거하는 노이즈 제거부; 및
    상기 노이즈 제거부로부터 노이즈가 제거된 주요특징점 및 부가 특징점 정보를 제공받고, 상기 영상에서의 상기 특징점들의 2차원좌표 값을 구하는 특징점 결정부를 포함하는 것을 특징으로 하는 카메라 영상을 통한 대상물체의 움직임 추적장치.
  3. 제2항에 있어서, 상기 특징점 좌표추출부는
    상기 특징점 결정부로부터 상기 영상신호의 특징점의 2차원좌표정보를 제공받아, 상기 특징점의 움직임을 예측하는 움직임 예측부를 더 포함하는 것을 특징으로 하는 카메라 영상을 통한 대상물체의 움직임 추적장치.
  4. 제2항에 있어서, 상기 특징점 결정부는
    상기 노이즈 제거부로부터 노이즈가 제거된 라벨링된 영상신호를 입력받고, 상기 영상에 존재하는 각 특징점의 영역에 해당하는 픽셀들의 연결정보를 기초로 특징점 영역을 상기 영상에서 구분하는 연결정보 해석부;
    상기 연결정보 해석부로부터 상기 특징점 영역 정보를 입력받고, 상기 대상물에 표시된 특징점들의 크기 정보 또는 각 특징점들간의 관계정보에 기초하여 특상기 특징점 영역 중에서 실제로 특징점이 아닌 영역을 제거하여 특징점 영역을 추출하는 특징점 추출부; 및
    상기 추출된 특징점 영역 정보를 제공받고, 상기 특징점 픽셀들의 좌표 값의 평균을 구하여 상기 특징점의 좌표값을 구하는 1차 모멘트 계산부를 포함하는 것을 특징으로 하는 카메라 영상을 통한 대상물체의 움직임 추적장치.
  5. 제1항에 있어서, 상기 대상물의 위치, 자세 및 방향 추정부는
    상기 카메라의 켈리브레이션부로부터 제공받은 상기 카메라의 내부 파라미터 값, 상기 특징점 결정부로부터 제공받은 상기 특징점들의 좌표값, 상기 대상물에표시된 특징점들의 3차원좌표값에 기초하여 상기 대상물의 위치, 자세 정보를 추정하는 자세 및 위치추정부; 및
    상기 특징점 결정부로부터 제공받은 상기 특징점들의 좌표값 중에서 주요특징점의 좌표값에 기초하여 상기 대상물이 촬영된 방향정보를 추정하는 방향 추정부를 포함하는 것을 특징으로 하는 카메라 영상을 통한 대상물체의 움직임 추적장치.
  6. 하나 이상의 특징점이 표시되어 있는 소정의 대상물을 촬영하여 제1 영상신호를 발생시키는 영상 입력부;
    상기 제1 영상신호를 처리하여 상기 대상물의 위치, 자세 및 방향정보를 추출하는 위치, 자세 및 방향 추적부;
    상기 대상물의 위치, 자세 및 방향 정보를 입력받아, 상기 대상물의 위치, 자세 및 방향정보에 대응되는 제2 영상을 사용자에게 제공하도록 하는 제어신호를 발생시키는 화면출력 제어부; 및
    상기 제어신호에 따라서 상기 제2 영상신호를 사용자에게 제공하는 화면출력부를 포함하는 것을 특징으로 하는 화면출력장치.
  7. 제6항에 있어서, 상기 위치, 자세 및 방향 추적부는
    카메라의 특성을 나타내는 내부 파라미터를 구하는 카메라 켈리브레이션부;
    상기 카메라로부터 적어도 하나 이상의 특징점이 표시된 소정의 대상물이 촬영된 영상신호를 입력받고, 상기 입력받은 영상신호의 왜곡을 상기 카메라의 내부파라미터 값을 이용하여 제거하는 카메라 왜곡보상부;
    상기 카메라 왜곡보상부로부터 왜곡이 제거된 상기 영상신호를 입력받아 상기 대상물의 특징점의 상기 영상에서의 2차원좌표를 추출하는 특징점 좌표추출부; 및
    상기 특징점 좌표추출부로부터 입력받은 상기 2차원좌표 값, 상기 카메라 켈리브레이션부로부터 입력받은 상기 카메라의 내부 파라미터 값 및 상기 대상물에 표신되어 있는 특징점의 3차원좌표 값에 기초하여 상기 대상물의 위치, 자세 및 방향을 추정하여 외부로 출력하는 대상물의 위치, 자세 및 방향 추정부를 포함하는 것을 특징으로 하는 화면출력장치.
  8. (a) 카메라의 내부 파라미터 값을 구하는 단계;
    (b) 상기 카메라로부터 영상신호를 입력받는 단계;
    (c) 상기 입력받은 영상에서의 특징점들의 2차원 좌표값을 계산하는 단계; 및
    (d) 상기 내부 파라미터 값, 상기 특징점들의 좌표값에 기초하여 상기 대상물의 방향, 위치 및 자세 정보를 추정하여 출력하는 단계를 포함하는 것을 특징으로 하는 카메라 영상을 통한 대상물체의 움직임 추적방법.
  9. 제8항에 있어서, 상기 (c) 단계는
    (c1) 상기 영상신호에 포함되어 있는 대상물에 표시된 특징점의 영역을 추출하는 단계;
    (c2) 상기 특징점 영역의 노이즈를 제거하는 단계; 및
    (c3) 상기 입력받은 영상에서의 특징점들의 2차원 좌표값을 계산하는 단계를 포함하는 것을 특징으로 하는 카메라 영상을 통한 대상물체의 움직임 추적방법.
  10. 제8항에 있어서, 상기 (c3) 단계는
    상기 특징점들의 움직임을 예측하여 구하는 것을 특징으로 하는 카메라 영상을 통한 움직임 추적방법.
  11. 제8항 내지 제10항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR10-2002-0012155A 2002-03-07 2002-03-07 영상신호로부터 대상물체를 추적하는 방법 및 그 장치 KR100480780B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR10-2002-0012155A KR100480780B1 (ko) 2002-03-07 2002-03-07 영상신호로부터 대상물체를 추적하는 방법 및 그 장치
US10/382,619 US7263207B2 (en) 2002-03-07 2003-03-07 Method and apparatus for video object tracking
EP03251412A EP1343067B1 (en) 2002-03-07 2003-03-07 Method and apparatus for head mounted display video tracking
JP2003061009A JP4663966B2 (ja) 2002-03-07 2003-03-07 映像信号から対象物を追跡する方法及びその装置
DE60301987T DE60301987T2 (de) 2002-03-07 2003-03-07 Verfahren und Vorrichtung zur Videoverfolgung einer am Kopf montierten Bildanzeigevorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0012155A KR100480780B1 (ko) 2002-03-07 2002-03-07 영상신호로부터 대상물체를 추적하는 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20030072880A true KR20030072880A (ko) 2003-09-19
KR100480780B1 KR100480780B1 (ko) 2005-04-06

Family

ID=36686709

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0012155A KR100480780B1 (ko) 2002-03-07 2002-03-07 영상신호로부터 대상물체를 추적하는 방법 및 그 장치

Country Status (5)

Country Link
US (1) US7263207B2 (ko)
EP (1) EP1343067B1 (ko)
JP (1) JP4663966B2 (ko)
KR (1) KR100480780B1 (ko)
DE (1) DE60301987T2 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100544677B1 (ko) * 2003-12-26 2006-01-23 한국전자통신연구원 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법
KR100647321B1 (ko) * 2005-02-07 2006-11-23 삼성전자주식회사 사용자 위치 추적 방법 및 장치
KR100915525B1 (ko) * 2007-12-18 2009-09-04 한국전자통신연구원 칼만 필터를 이용한 실시간 카메라 움직임 추정시스템에서의 움직임 추정 방법 및 장치
KR100956747B1 (ko) * 2008-02-11 2010-05-12 한국과학기술원 신경망회로와 병렬처리 프로세서를 결합한 컴퓨터구조 및그를 이용한 처리방법
KR101013751B1 (ko) * 2009-07-09 2011-02-14 주식회사 인스프리트 가상화 처리서버 및 dcd 컨텐츠를 이용한 증강현실 제공 시스템
KR20200078843A (ko) * 2018-12-24 2020-07-02 전자부품연구원 객체 추적 장치를 위한 영상 필터
KR20210009019A (ko) * 2019-07-16 2021-01-26 남서울대학교 산학협력단 벡터내적과 3차원 좌표변환을 이용한 카메라의 위치 및 자세를 결정하는 시스템

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7447331B2 (en) * 2004-02-24 2008-11-04 International Business Machines Corporation System and method for generating a viewable video index for low bandwidth applications
US8913074B2 (en) * 2004-05-05 2014-12-16 Yissum Research Development Company Of The Hebrew University Of Jerusalem Colorization method and apparatus
JP4644022B2 (ja) * 2005-04-04 2011-03-02 日本放送協会 映像解析装置および映像解析プログラム
US20070146484A1 (en) * 2005-11-16 2007-06-28 Joshua Horton Automated video system for context-appropriate object tracking
FR2897680B1 (fr) * 2006-02-17 2008-12-05 Commissariat Energie Atomique Dispositif de capture de mouvement et procede associe
GB2455313B (en) * 2007-12-04 2012-06-13 Sony Corp Apparatus and method for estimating orientation
JP5116605B2 (ja) * 2008-08-07 2013-01-09 国立大学法人 千葉大学 自動追尾装置
KR101221449B1 (ko) 2009-03-27 2013-01-11 한국전자통신연구원 카메라간 영상 보정 장치 및 방법
MY151478A (en) * 2009-08-10 2014-05-30 Mimos Berhad Object tracking system and method
EP2465095A1 (en) * 2009-08-12 2012-06-20 Thomson Licensing System and method for region-of-interest-based artifact reduction in image sequences
JP5643549B2 (ja) * 2010-06-11 2014-12-17 任天堂株式会社 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
US8193909B1 (en) * 2010-11-15 2012-06-05 Intergraph Technologies Company System and method for camera control in a surveillance system
AU2010257454B2 (en) * 2010-12-24 2014-03-06 Canon Kabushiki Kaisha Summary view of video objects sharing common attributes
WO2012138828A2 (en) * 2011-04-08 2012-10-11 The Trustees Of Columbia University In The City Of New York Kalman filter approach to augment object tracking
US9288468B2 (en) 2011-06-29 2016-03-15 Microsoft Technology Licensing, Llc Viewing windows for video streams
US8948447B2 (en) * 2011-07-12 2015-02-03 Lucasfilm Entertainment Companyy, Ltd. Scale independent tracking pattern
US9804252B2 (en) 2012-01-17 2017-10-31 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi System and method for measuring tracker system accuracy
KR101330567B1 (ko) 2012-02-08 2013-11-18 (주)제이브이엠 약품 적재함 내의 알약 영상 검출방법.
US9710057B2 (en) 2014-03-14 2017-07-18 Sony Interactive Entertainment Inc. Methods and systems including tracking a head mounted display (HMD) and calibrations for HMD headband adjustments
CN103458181B (zh) * 2013-06-29 2016-12-28 华为技术有限公司 镜头畸变参数调节方法、装置及摄像设备
US10064687B2 (en) 2014-01-13 2018-09-04 Brainlab Ag Estimation and compensation of tracking inaccuracies
DE102014106718B4 (de) 2014-05-13 2022-04-07 Immersight Gmbh System, welches eine Blickfelddarstellung in einer gegenständlichen Lage in einem veränderbaren Raumwinkelbereich darbietet
DE202014011540U1 (de) 2014-05-13 2022-02-28 Immersight Gmbh System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille
US20150348322A1 (en) * 2014-06-02 2015-12-03 Dell Products L.P. Dynamically Composited Information Handling System Augmented Reality at a Primary Display
US20160225191A1 (en) * 2015-02-02 2016-08-04 Daqri, Llc Head mounted display calibration
US11301685B2 (en) 2015-04-02 2022-04-12 Sportsmedia Technology Corporation Automatic determination and monitoring of vehicles on a racetrack with corresponding imagery data for broadcast
CN105139393B (zh) * 2015-08-19 2018-03-02 中国航空工业集团公司北京长城航空测控技术研究所 线阵相机内参数的标定方法
US9697867B2 (en) * 2015-09-25 2017-07-04 Intel Corporation Interactive adaptive narrative presentation
US11004213B2 (en) 2016-01-25 2021-05-11 KoreoGRFX, Inc. Methods and systems for determining motion of a device
CN109981928A (zh) * 2017-12-27 2019-07-05 杭州百航信息技术有限公司 一种智能风控录音录像系统及其工作原理
CN108845669B (zh) * 2018-06-17 2021-10-15 刘玲 一种ar/mr交互方法和装置
GB201818357D0 (en) * 2018-11-12 2018-12-26 Forsberg Services Ltd Locating system
JP7115376B2 (ja) * 2019-03-18 2022-08-09 日本電信電話株式会社 回転状態推定装置、方法及びプログラム
KR102063845B1 (ko) 2019-06-21 2020-01-08 국방과학연구소 영상 기반 계측 장치 및 그 방법
EP3760150A1 (en) * 2019-07-04 2021-01-06 Scopis GmbH Tracker for a head-mounted display
CN113628281B (zh) * 2021-08-06 2022-07-26 南京航空航天大学 一种基于二维指向角的星对星观测像点定位误差补偿方法
US11750943B2 (en) * 2021-10-20 2023-09-05 Aac Optics Solutions Pte. Ltd. Method and device for correcting varying lateral chromatic aberration, storage medium, and computer equipment

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3983474A (en) 1975-02-21 1976-09-28 Polhemus Navigation Sciences, Inc. Tracking and determining orientation of object using coordinate transformation means, system and process
US5585813A (en) * 1992-10-05 1996-12-17 Rockwell International Corporation All aspect head aiming display
US5615132A (en) * 1994-01-21 1997-03-25 Crossbow Technology, Inc. Method and apparatus for determining position and orientation of a moveable object using accelerometers
US5645077A (en) 1994-06-16 1997-07-08 Massachusetts Institute Of Technology Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body
US5856844A (en) 1995-09-21 1999-01-05 Omniplanar, Inc. Method and apparatus for determining position and orientation
US5742263A (en) 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
US5889505A (en) 1996-04-04 1999-03-30 Yale University Vision-based six-degree-of-freedom computer input device
SE507680C2 (sv) * 1997-01-13 1998-07-06 Qualisys Ab Metod och anordning för att bestämma positionen av ett objekt
JP3724157B2 (ja) * 1997-10-30 2005-12-07 コニカミノルタホールディングス株式会社 映像観察装置
US6061644A (en) * 1997-12-05 2000-05-09 Northern Digital Incorporated System for determining the spatial position and orientation of a body
JPH11313250A (ja) 1998-04-28 1999-11-09 Yasufumi Yamagata 交換レンズ対応カメラ
US6801637B2 (en) * 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
JP2000152067A (ja) 1998-11-06 2000-05-30 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
JP4794708B2 (ja) * 1999-02-04 2011-10-19 オリンパス株式会社 3次元位置姿勢センシング装置
WO2001073689A2 (en) * 2000-03-27 2001-10-04 Massachusetts General Hospital Method and system for viewing kinematic and kinetic information
JP2002024807A (ja) * 2000-07-07 2002-01-25 National Institute Of Advanced Industrial & Technology 物体運動追跡手法及び記録媒体
KR100374346B1 (ko) * 2000-12-06 2003-03-04 한국과학기술원 영상을 이용한 머리의 위치 및 방향을 추적하는 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100544677B1 (ko) * 2003-12-26 2006-01-23 한국전자통신연구원 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법
KR100647321B1 (ko) * 2005-02-07 2006-11-23 삼성전자주식회사 사용자 위치 추적 방법 및 장치
KR100915525B1 (ko) * 2007-12-18 2009-09-04 한국전자통신연구원 칼만 필터를 이용한 실시간 카메라 움직임 추정시스템에서의 움직임 추정 방법 및 장치
KR100956747B1 (ko) * 2008-02-11 2010-05-12 한국과학기술원 신경망회로와 병렬처리 프로세서를 결합한 컴퓨터구조 및그를 이용한 처리방법
KR101013751B1 (ko) * 2009-07-09 2011-02-14 주식회사 인스프리트 가상화 처리서버 및 dcd 컨텐츠를 이용한 증강현실 제공 시스템
KR20200078843A (ko) * 2018-12-24 2020-07-02 전자부품연구원 객체 추적 장치를 위한 영상 필터
KR20210009019A (ko) * 2019-07-16 2021-01-26 남서울대학교 산학협력단 벡터내적과 3차원 좌표변환을 이용한 카메라의 위치 및 자세를 결정하는 시스템

Also Published As

Publication number Publication date
DE60301987T2 (de) 2006-08-03
EP1343067A2 (en) 2003-09-10
DE60301987D1 (de) 2005-12-01
EP1343067B1 (en) 2005-10-26
US20030185434A1 (en) 2003-10-02
JP4663966B2 (ja) 2011-04-06
US7263207B2 (en) 2007-08-28
EP1343067A3 (en) 2003-12-03
KR100480780B1 (ko) 2005-04-06
JP2004005462A (ja) 2004-01-08

Similar Documents

Publication Publication Date Title
KR100480780B1 (ko) 영상신호로부터 대상물체를 추적하는 방법 및 그 장치
US7343278B2 (en) Tracking a surface in a 3-dimensional scene using natural visual features of the surface
EP2862146B1 (en) Adaptive switching between a vision aided intertial camera pose estimation and a vision based only camera pose estimation.
US6044165A (en) Apparatus and method for tracking handwriting from visual input
JP4002919B2 (ja) 移動体高さ判別装置
TWI536318B (zh) 深度測量之品質提升
JP4631096B2 (ja) 車両周辺監視装置
US10636165B2 (en) Information processing apparatus, method and non-transitory computer-readable storage medium
US9177229B2 (en) Kalman filter approach to augment object tracking
JP6744747B2 (ja) 情報処理装置およびその制御方法
CN111487320B (zh) 基于三维光学成像传感器的三维超声成像方法和系统
US20070206862A1 (en) Information processing apparatus, method of computer control, computer readable medium, and computer data signal
JP5262705B2 (ja) 運動推定装置及びプログラム
KR20160020172A (ko) 도로에서의 차선 검출 방법 및 장치
JP2011513876A (ja) 物体の動作を特徴づけるための方法およびシステム
JP2006090957A (ja) 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
KR101723536B1 (ko) 도로에서의 차선 검출 방법 및 장치
JP2002366958A (ja) 画像認識方法および画像認識装置
CN111553342B (zh) 一种视觉定位方法、装置、计算机设备和存储介质
JP2008269218A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统
CN110473229B (zh) 一种基于独立运动特征聚类的运动目标检测方法
JPWO2020175085A1 (ja) 画像処理装置、及び画像処理方法
KR20100041170A (ko) 영상 추적 장치의 이동표적 움직임 추적 방법
JP2008040724A (ja) 画像処理装置、及び画像処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130221

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140221

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee