KR20130031280A - 배향 센서 캘리브레이션 - Google Patents

배향 센서 캘리브레이션 Download PDF

Info

Publication number
KR20130031280A
KR20130031280A KR1020127032179A KR20127032179A KR20130031280A KR 20130031280 A KR20130031280 A KR 20130031280A KR 1020127032179 A KR1020127032179 A KR 1020127032179A KR 20127032179 A KR20127032179 A KR 20127032179A KR 20130031280 A KR20130031280 A KR 20130031280A
Authority
KR
South Korea
Prior art keywords
mobile device
orientation
processor
image
location
Prior art date
Application number
KR1020127032179A
Other languages
English (en)
Inventor
빅터 컬릭
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20130031280A publication Critical patent/KR20130031280A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C17/00Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
    • G01C17/38Testing, calibrating, or compensating of compasses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C17/00Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
    • G01C17/34Sun- or astro-compasses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/02Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/23Testing, monitoring, correcting or calibrating of receiver elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Astronomy & Astrophysics (AREA)
  • Manufacturing & Machinery (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Gyroscopes (AREA)
  • Telephone Function (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스는, 이미지 캡처 디바이스; 모바일 디바이스의 제 1 배향을 측정하도록 구성된 적어도 하나의 센서; 및 이미지 캡처 디바이스와 적어도 하나의 센서에 통신가능하게 커플링된 프로세서를 포함하며, 프로세서는, 이미지 캡처 디바이스에 의해 캡처된 이미지에서 오브젝트를 식별하고; 모바일 디바이스의 포지션을 이용하여 모바일 디바이스에 대한 오브젝트의 실제 로케이션을 결정하며; 그리고 모바일 디바이스에 대한 오브젝트의 실제 로케이션 및 이미지를 이용하여 센서에 대한 정정값을 결정하도록 구성된다.

Description

배향 센서 캘리브레이션{ORIENTATION SENSOR CALIBRATION}
콤파스들, 가속도계들 및 자이로스코프들과 같은 저렴하고 소형의 배형 센서들이 널리 사용가능함에 따라, 이들은 셀 폰들, GPS 수신기들 등과 같은 다수의 현대 모바일 디바이스들로 통합되고 있다. 센서들은 가로/세로 디스플레이 스위칭, 제스처 인식, 북향 맵 정렬, "포인트 앤 클릭 (point and clik)" 오브젝트 인식, 페다메트리 (pedometry), 네비게이션 등을 위한 디바이스 배향 (orientation) 을 결정하는데 이용된다.
양호한 배향 정확성은 대부분의 애플리케이션들에 있어 중요하며, 저비용의 센서들로 고 정확성을 달성하는 것은 도전과제이다. 센서 캘리브레이션은 종종 이와 같은 상황을 보조한다. 캘리브레이션 프로세스는 오프셋 및 스케일 인자와 같은 센서 파라미터들을 측정 및 저장하는 것을 포함한다. 그 후에 캘리브레이션 파라미터들은 정규 동작에서 "원시" 센서 판독값들을 모바일 디바이스 배향으로 정확히 변환하는데 이용된다.
일부 모바일 디바이스들은 공장에서, 특수 설비에서, 다른 장소에서 사용자가 디바이스를 특정 배향들로 배치함으로써 캘리브레이션되고 있지만, 다른 디바이스들은 정규 동작 동안 지속적인 또는 간헐적인 자동 "온 더 플라이 (on the fly)" 캘리브레이션을 경험한다. 디바이스가 공장에서 캘리브레이션되더라도, 사용자에 의한 또는 자동의 추가 캘리브레이션이 유용하며, 때때로 불가피하다. 예를 들어, 자기 콤파스를 특징으로 하는 디바이스가 차량에 배치될 경우, 철금속 부품들에 의해 유도되는 자기장들은 콤파스 정확도를 개선하기 위해 캘리브레이션되어야 한다.
무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스의 일 예는, 이미지 캡처 디바이스; 모바일 디바이스의 제 1 배향을 측정하도록 구성된 적어도 하나의 센서; 및 이미지 캡처 디바이스와 적어도 하나의 센서에 통신가능하게 커플링된 프로세서를 포함하며, 프로세서는, 이미지 캡처 디바이스에 의해 캡처된 이미지에서 오브젝트를 식별하고, 모바일 디바이스의 포지션을 이용하여 모바일 디바이스에 대한 오브젝트의 실제 로케이션을 결정하며, 그리고 상기 모바일 디바이스에 대한 오브젝트의 실제 로케이션 및 이미지를 이용하여 센서에 대한 정정값을 결정하도록 구성된다.
이러한 모바일 디바이스의 구현들은 하기의 특징들 중 하나 이상을 포함할 수도 있다. 오브젝트는 천체 오브젝트이고, 프로세서는 모바일 디바이스의 포지션 및 현재시각을 이용하여 모바일 디바이스에 대한 천체 오브젝트의 실제 로케이션을 결정하도록 구성된다. 정정값을 결정하기 위해, 프로세서는, (1) 이미지 및 모바일 디바이스의 제 1 배향을 이용한 모바일 디바이스에 대한 오브젝트의 추정된 로케이션, 또는 (2) 이미지 및 오브젝트의 실제 로케이션을 이용한 모바일 디바이스의 제 2 배향 중 적어도 하나를 결정하도록 구성된다. 정정값을 결정하기 위해, 프로세서는, 오브젝트의 추정된 로케이션을 결정하고, 로케이션 차이를 결정하기 위해 실제 로케이션과 추정된 로케이션을 비교하고, 그리고 로케이션 차이가 감소되도록 정정값을 결정하도록 구성된다. 정정값을 결정하기 위해, 프로세서는, 모바일 디바이스의 제 2 배향을 결정하고, 그리고 제 1 배향과 제 2 배향 간의 차이가 감소되도록 정정값을 결정하도록 구성된다. 프로세서는, 제 1 배향을 결정하고, 이미지 캡처 디바이스에 의해 캡처된 복수의 이미지들 각각에 대한 정정값을 결정하도록 구성된다. 프로세서는, 이미지 캡처 디바이스에 의해 캡처되는 복수의 이미지들 각각에 대하여 제 1 배향을 결정하고, 복수의 이미지들에 대한 제 1 배향에 기초하여 모바일 디바이스의 회전율을 결정하여 모바일 디바이스에 대한 가상 자이로스코프를 제공하도록 구성된다. 이미지 캡처 디바이스는, 사용자 입력 없이 이미지들을 자동으로 캡처하도록 구성된다. 프로세서는, 제 1 배향, 정정값, 이미지, 및 오브젝트의 실제 로케이션을 이용하여 모바일 디바이스에 대한 가상 콤파스를 제공하도록 구성된다.
모바일 디바이스에서 모바일 디바이스를 캘리브레이션하는 방법의 일 예는, 모바일 디바이스의 이미지 캡처 디바이스로 오브젝트의 이미지를 캡처하는 단계; 모바일 디바이스의 센서를 이용하여 모바일 디바이스의 제 1 배향을 결정하는 단계; 모바일 디바이스의 포지션 및 현재시각을 이용하여 모바일 디바이스에 대한 오브젝트의 실제 로케이션을 결정하는 단계; 및 센서에 대한 정정값을 결정하는 단계를 포함하며, 정정값은 모바일 디바이스에 대한 오브젝트의 실제 로케이션, 이미지 및 제 1 배향을 이용하여 결정된다.
이러한 방법의 구현들은 하기의 특징들 중 하나 이상을 포함할 수도 있다. 오브젝트는 천체 오브젝트이고, 모바일 디바이스에 대한 천체 오브젝트의 실제 로케이션을 결정하는 단계는 모바일 디바이스의 포지션 및 현재시각을 이용하는 단계를 포함한다. 정정값을 결정하는 단계는, (1) 이미지 및 모바일 디바이스의 제 1 배향을 이용한 모바일 디바이스에 대한 오브젝트의 추정된 로케이션, 또는 (2) 이미지 및 오브젝트의 실제 로케이션을 이용한 모바일 디바이스의 제 2 배향 중 적어도 하나를 결정하는 단계를 포함한다. 그 방법은 캡처하는 단계, 제 1 배향을 결정하는 단계, 및 정정값을 결정하는 단계를 반복하는 단계를 더 포함한다. 캡처하는 단계를 반복하는 단계는 (1) 상이한 오브젝트들, 또는 (2) 상이한 디바이스 배향들 중 적어도 하나에 대하여 실행된다. 캡처하는 단계는 사용자 입력 없이 자동으로 발생한다.
모바일 원격통신 디바이스의, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품의 일 예는, 프로세서로 하여금, 모바일 디바이스의 센서를 이용하여 모바일 디바이스의 제 1 배향을 결정하게 하고, 모바일 디바이스의 포지션 및 현재시각을 이용하여 모바일 디바이스에 대한 천체의 실제 로케이션을 결정하게 하며, 그리고 모바일 디바이스에 대한 천체의 실제 로케이션 및 모바일 디바이스에 의해 취득된 천체의 이미지를 이용하여 센서의 정정값을 결정하게 하도록 구성되는 프로세서 판독가능 명령들을 포함한다.
이러한 컴퓨터 프로그램 제품의 구현들은 하기의 특징들 중 하나 이상을 포함할 수도 있다. 오브젝트는 천체 오브젝트이고, 프로세서로 하여금 모바일 디바이스에 대한 천체 오브젝트의 실제 로케이션을 결정하게 하도록 구성된 명령들은, 프로세서로 하여금 모바일 디바이스의 포지션 및 현재시각을 이용하게 하도록 구성된다. 프로세서로 하여금 정정값을 결정하게 하도록 구성된 명령들은, 프로세서로 하여금, (1) 이미지 및 모바일 디바이스의 제 1 배향을 이용한 모바일 디바이스에 대한 오브젝트의 추정된 로케이션, 또는 (2) 이미지 및 오브젝트의 실제 로케이션을 이용한 모바일 디바이스의 제 2 배향 중 적어도 하나를 결정하게 하도록 구성된다. 프로세서로 하여금 정정값을 결정하게 하도록 구성된 명령들은, 프로세서로 하여금, 상기 오브젝트의 추정된 로케이션을 결정하게 하고, 로케이션 차이를 결정하기 위해 실제 로케이션과 추정된 로케이션을 비교하게 하고, 그리고 로케이션 차이가 감소되도록 정정값을 결정하게 하도록 구성된다. 프로세서로 하여금 정정값을 결정하게 하도록 구성된 명령들은, 프로세서로 하여금, 모바일 디바이스의 제 2 배향을 결정하게 하고, 그리고 제 1 배향과 제 2 배향 간의 차이가 감소되도록 정정값을 결정하게 하도록 구성된다. 프로세서로 하여금 정정값을 결정하게 하도록 구성된 명령들은, 프로세서로 하여금 이미지 캡처 디바이스에 의해 캡처된 복수의 이미지들 각각에 대한 정정값을 결정하게 하도록 구성된다. 프로세서로 하여금 제 1 배향을 결정하게 하도록 구성된 명령들은, 프로세서로 하여금 이미지 캡처 디바이스에 의해 캡처되는 복수의 이미지들 각각에 대하여 제 1 배향을 결정하게 하도록 구성되고, 명령들은 또한, 프로세서로 하여금 복수의 이미지들에 대한 제 1 배향에 기초하여 모바일 디바이스의 회전율을 결정하여 모바일 디바이스에 대한 가상 자이로스코프를 제공하게 하도록 구성된 명령을 포함한다.
무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스의 다른 예는, 이미지 캡처 디바이스; 모바일 디바이스의 제 1 배향을 측정하는 제 1 배향 수단; 및 이미지 캡처 디바이스와 제 1 배향 수단에 통신가능하게 커플링된 정정 수단을 포함하며, 정정 수단은, 이미지 캡처 디바이스에 의해 캡처된 이미지에서 천체를 식별하고, 모바일 디바이스의 포지션 및 현재시각을 이용하여 모바일 디바이스에 대한 천체의 실제 로케이션을 결정하며, 그리고 모바일 디바이스에 대한 천체의 실제 로케이션 및 이미지를 이용하여 센서에 대한 정정값을 결정한다.
이러한 모바일 디바이스의 구현들은 하기의 특징들 중 하나 이상을 포함할 수도 있다. 정정 수단은 모바일 디바이스의 포지션 및 현재시각을 이용하여 모바일 디바이스에 대한 천체의 실제 로케이션을 결정하도록 구성된다. 정정 수단은, 천체의 추정된 로케이션을 결정하고, 로케이션 차이를 결정하기 위해 실제 로케이션과 추정된 로케이션을 비교하고, 그리고 로케이션 차이가 감소되도록 정정값을 결정하도록 구성된다. 정정 수단은, 모바일 디바이스의 제 2 배향을 결정하고, 제 1 배향과 제 2 배향 간의 차이가 감소되도록 정정값을 결정하도록 구성된다. 정정 수단은, 제 1 배향을 결정하고, 이미지 캡처 디바이스에 의해 캡처된 복수의 이미지들 각각에 대한 정정값을 결정하도록 구성된다. 정정 수단은, 이미지 캡처 디바이스에 의해 캡처되는 복수의 이미지들 각각에 대하여 제 1 배향을 결정하고, 복수의 이미지들에 대한 제 1 배향에 기초하여 모바일 디바이스의 회전율을 결정하여 모바일 디바이스에 대한 가상 자이로스코프를 제공하도록 구성된다. 이미지 캡처 디바이스는, 사용자 입력 없이 이미지들을 자동으로 캡처하도록 구성된다. 정정 수단은, 제 1 배향, 정정값, 이미지, 및 천체의 실제 로케이션을 이용하여 모바일 디바이스에 대한 가상 콤파스를 제공하도록 구성된다.
본 명세서에 기술된 아이템들 및/또는 기술들은 하기의 능력들 중 하나 이상을 제공할 수도 있다. 디바이스들의 배향 측정치들 및 표시들이 개선될 수도 있다. 강한 자기장들의 존재시 및/또는 철 물질들의 존재시 정확한 콤파스 판독값들이 제공될 수 있다. 아이템/기술-효과 쌍들이 설명되지만, 언급된 효가가 언급된 수단들 이외의 수단들에 의해 달성되는 것이 가능할 수도 있고, 언급된 아이템/기술은 언급된 효과를 반드시 산출해야하는 것은 아닐 수도 있다.
도면에서, 유사한 엘리먼트들은 유사한 도면부호들을 갖는다.
도 1 은 천체 오브젝트들을 포함하는 상대적으로 고정된 오브젝트들에 노출된 환경에서 모바일 디바이스의 간략화된 도면이다.
도 2 는 모바일 디바이스의 간략화된 기능 블록도이다.
도 3 은 천체 오브젝트들에 기초한 센서 캘리브레이터의 간략화된 기능 블록도이다.
도 4 는 모바일 디바이스에서 센서들을 켈리브레이션하는 방법의 간략화된 흐름도이다.
도 5 는 모바일 디바이스에서 콤파스 에뮬레이션 (emulation) 을 제공하는 방법의 간략화된 흐름도이다.
모바일 디바이스에서 하나 이상의 배향 센서들은 모바일 디바이스에 사용가능하거나 액세스가능한 정보를 이용하여 다시 캘리브레이션되거나 정정될 수도 있다. 예를 들면, 오브젝트들의 포지션은 하나 이상의 배향 센서들을 캘리브레이션하는데 이용될 수 있다. 오브젝트들은 바람직하게는 상대적으로 고정되고, 알려진 로케이션을 갖는다. 그러나, 오브젝트들은 예컨대 모바일 전화기와 같은 모바일 디바이스의 모션을 결정하는데 이용되고 있는 것과 같이, 그들의 실제 로케이션들이 알려지지 않더라도 이용될 수도 있다. 알려진 로케이션의 상대적으로 고정된 오브젝트의 일 예는 태양 또는 달과 같은 천체 오브젝트이다. 하기의 설명은 천체 오브젝트들의 이용에 집중하지만, 빌딩들, 빌딩들의 일부 (예컨대, 창문, 문), 랜드마크들 (예컨대, 산), 등등과 같은 다른 오브젝트들이 이용될 수도 있다.
네비게이터들은 하나 이상의 천체 오브젝트들에 조준하고, 맵들, 알마낙들, 또는 다른 표들을 참조하여 방향 코스를 결정할 수 있다. 포지션 인식 모바일 디바이스는 천체 오브젝트들의 포지션을 결정하기 위해 참조 맵들, 알마낙들, 또는 표들과 함께 그 포지션에 대한 지식을 이용할 수 있다. 모바일 디바이스의 배향 센서들은 상기 정보에 기초하여 캘리브레이션되거나, 그렇지 않으면 정정될 수 있다.
천체 오브젝트는 알마낙이 생성될 수도 있는 임의의 오브젝트일 수도 있다. 용어 "천체 오브젝트" 는 통상적으로 태양, 달, 또는 별과 같은 자연의 오브젝트들을 지칭하지만, 인공의 오브젝트 또한, 그 포지션의 알마낙이 결정될 수도 있는 경우에는 천체 오브젝트로 간주될 수도 있다.
카메라와 같은 이미지 캡처 디바이스는 모바일 디바이스 배향 센서들의 천체 오브젝트 캘리브레이션 및 콤파스 에뮬레이션을 위해 이용될 수 있다. 방향을 결정하고 배향 센서들을 캘리브레이션하는 방법은 천체, 예컨대, 하늘에 위치된 태양, 달, 행성들, 또는 별들과 같은 상대적으로 고정된 오브젝트의 각 측정치들을 결정하는데 기초할 수 있다.
모바일 디바이스는 식별된 천체 오브젝트로 포인팅될 수 있고, 배향 센서 판독값들, 예컨대 방위각 및 고도는 모바일 디바이스가 천체 오브젝트에 포인팅되는 동안 결정될 수도 있다. 예를 들면, 천체 오브젝트의 이미지는 모바일 디바이스에 의해 캡처될 수 있고, 배향 센서들의 값들은 이미지 캡처 시기에 결정될 수 있다. 디바이스 로케이션 및 시간이 또한 알려진 경우에, 모바일 디바이스에 대한 천체 오브젝트의 "진정한" 또는 실제의 방위각 및 고도가 천체 오브젝트의 알마낙에 기초하여 계산될 수 있다. 천체 오브젝트의 알마낙은 현재시각이 주어질 경우에, 모바일 디바이스에 대한 진정한 또는 실제의 방위각 및 고도가 모바일 디바이스의 로케이션에 기초하여 유도될 수 있는, 예컨대 지구에 대한 오브젝트의 진정한 또는 실제의 로케이션을 제공한다. 디바이스 로케이션 및 시간 불확실성들은 바람직하게, 측정된 방위각 및 고도에서의 에러가 캡처된 이미지에서 천체 오브젝트의 로케이션에 대한 이미지 캡처 디바이스의 하나 미만의 픽셀로 변환하기에 충분히 작다. "진정한" 파라미터와 측정된 파라미터들 간의 차이들이 결정되고, 저장된다. 차이들 또는 하나 이상의 차이들에 기초한 정정은 배향 센서 측정치들에 정정값들로서 적용될 수 있다.
천체 오브젝트 기반 켈리브레이션의 상이한 실시형태들은 선박들과 항공기 상의 콤파스 캘리브레이션부터 탄도 미사일 및 우주선 발사 로켓 상의 관성 네비게이션 시스템 캘리브레이션과 같은 다양한 애플리케이션들에서 구현될 수 있다. 실제 구현은 캘리브레이션의 요구되는 정확도 레벨뿐만 아니라 측정 센서들로부터 획득가능한 정확도 레벨에 의존할 수 있다.
하위 애플리케이션들에서, 디바이스의 광학축 (또는 다른 기준축) 은 캘리브레이션 이전에 천체 오브젝트로 수동으로 포인팅될 수도 있다. 상위 시스템들은 실질적으로 천체 오브젝트를 발견 및 추적하고 각 측정들을 수행하는 특수 광학-기계 센서들로 전체 캘리브레이션 프로세스를 자동으로 수행하도록 구성될 수 있다.
캘리브레이션되면, 배향 센서들은 다양한 애플리케이션들을 위한 이미지 캡처 디바이스와 결합하여 이용될 수 있다. 예를 들면, 이미지 캡처 디바이스는 가속도계 및 이미지 안정화 자이로스코프들과 결합하여 콤파스를 에뮬레이팅하는데 이용될 수 있다. 추가로, 모바일 디바이스의 포지션이 알려지지 않은 상황에서, 이미지 캡처 디바이스는 모바일 디바이스의 로케이션을 추정하기 위해 천체 오브젝트 알마낙과 결합하여 이용될 수 있다. 천체 오브젝트로부터 획득된 포지션 추정치는 직접 이용될 수도 있거나, 다른 포지션 로케이션 기술들과 결합하여 이용될 수도 있다. 예를 들면, 이미지 캡처 및 천체 오브젝트 알마낙으로부터 결정된 포지션 로케이션은 반복적인 포지션 로케이션 기술의 초기 포지션 추정치로서 이용될 수도 있다. 대안적으로, 초기 포지션 추정치는 GNSS 포지셔닝을 위한 획득 보조 정보를 결정하는데 이용될 수 있다.
본 명세서에 개시된 실시형태들은 모바일 디바이스 센서들의 캘리브레이션을 위해 포토 카메라와 같은 이미지 캡처 디바이스를 이용하는 것과 관련된다. 모바일 디바이스는 이미 포토 카메라를 포함할 수도 있고, 픽처들을 캡처하기 위해 포토 카메라를 이용하는데 부가하여, 디바이스는 모바일 디바이스에서 가속도계, 콤파스 및 자이로 센서들을 캘리브레이션하기 위해 포토 센서를 이용한다.
본 명세서에서 이용된 것과 같이, 모바일 디바이스는, 셀룰러 또는 다른 무선 통신 디바이스, 개인 통신 시스템 (PCS) 디바이스, 개인 네비게이션 디바이스 (PND), 개인 정보 관리자 (PIM), 개인 휴대정보 단말기 (PDA), 랩톱 또는 무선 통신 및/또는 네비게이션 신호들을 수신할 수 있는 다른 적절한 모바일 디바이스와 같은, 디바이스를 지칭한다. 용어 "모바일 디바이스" 는 또한 단거리 무선의, 적외선의, 유선 접속 또는 위성 신호 수신, 보조 데이터 수신 및/또는 포지션-관련 프로세싱이 디바이스에서 발생하는지 또는 개인 네비게이션 디바이스 (PND) 에서 발생하는지 여부와 상관없는 다른 접속에 의해서와 같이 개인 네비게이션 디바이스 (PND) 와 통신하는 디바이스들을 포함하도록 의도된다. 또한, "모바일 디바이스" 는 예컨대, 인터넷, 와이파이, 또는 다른 네트워크를 통해 서버와 통신할 수 있는 무선 통신 디바이스들, 컴퓨터들, 랩톱들, 등등을 포함하고, 위성 신호 수신, 보조 데이터 수신 및/또는 포지션-관련 프로세싱이 디바이스에서 발생하는지, 서버에서 발생하는지, 또는 네트워크와 연관된 다른 디바이스에서 발생하는지 여부와 상관없는 모든 디바이스들을 포함하도록 의도된다.
도 1 을 참조하면, 모바일 디바이스 (110) 는 오브젝트들 (120, 122) 에 노출된다. 모바일 디바이스 (110) 는 포토 카메라와 같은 이미지 캡처 디바이스를 갖는 모바일 전화기일 수 있다. 모바일 디바이스 (110) 는 케이스 (112) 에 의해 도킹되거나 (docked), 포함되거나, 받침대에 놓이거나 (cradled), 그렇지 않으면 지지될 수 있다. 케이스 (112) 는 모바일 디바이스 (110) 에 의한 이미지 캡처를 허용하면서 케이스 (1112) 에 위치된 개구부 또는 광학적 투명 윈도우를 가질 수 있다. 오브젝트들 (120, 122) 은 천체 (120), 여기서는 태양 및 빌딩 (122) 이지만, 산, 도로, 랜드마크 등과 같은 다른 오브젝트들이 본 명세서에서 논의되는 것과 같이 존재하고 이용될 수도 있다.
모바일 디바이스 (110) 는 하나 이상의 포지션 로케이션 시스템들의 하나 이상의 커버리지 영역들에 위치될 수 있다. 예를 들어, 모바일 디바이스 (110) 는 셀룰러 전화 시스템과 같은 무선 통신 시스템의 커버리지 영역에 있을 수 있다. 모바일 디바이스 (110) 는 예를 들어, 무선 통신 시스템이 하나 이상의 기지국들 (150) 의 커버리지 영역에 있을 수 있다. 추가로, 또는 대안적으로, 모바일 디바이스 (110) 는 하나 이상의 무선 로컬 영역 네트워크들의 하나 이상의 액세스 포인트들 (140) 의 커버리지 영역에 있을 수도 있다. 유사하게, 모바일 디바이스 (10) 는 글로벌 네비게이션 위성 시스템 (GNSS) 의 하나 이상의 위성들 (130-1 및 130-2) 의 커버리지 영역에 있을 수도 있다.
무선 통신 시스템은 통상적으로 하나 이상의 기지국 (150) 을 포함하지만, 명확함과 간결함을 위해 오직 하나의 기지국 (150) 만이 도시된다. 무선 통신 시스템은 코드 분할 다중 접속 (CDMA) 네트워크, 시간 분할 다중 접속 (TDMA) 네트워크, 주파수 분할 다중 접속 (FDMA) 네트워크, 직교 주파수 분할 다중 접속 (OFDMA) 네트워크, 단일 캐리어 주파수 분할 다중 접속 (SC-FDMA) 네트워크 등등일 수도 있다. CDMA 네트워크는 cdma2000, 광대역-CDMA (W-CDMA), 등과 같은 하나 이상의 무선 액세스 기술들 (RATs) 을 구현할 수도 있다. Cdma2000 은 IS-95, IS-2000 및 IS-856 표준들을 포함한다. TDMA 네트워크는 GSM (Global System for Mobile Communications), D-AMPS (Digital Advanced Mobile Phone System), 또는 일부 다른 RAT 를 구현할 수도 있다. GSM 및 W-CDMA 는 "제 3 세대 파트너쉽 프로젝트" (3GPP) 라는 명칭의 협회의 문서들에 기술된다. cdma2000 는 "제 3 세대 파트너쉽 프로젝트 2" (3GPP2) 라는 명칭의 협회의 문서들에 기술된다. 3GPP 및 3GPP2 문서들은 공개적으로 입수가능하다.
WLAN 은 예를 들면, IEEE 802.11x 기반의 네트워크, IEEE 802.15x 기반의 네트워크 또는 무선 개인 영역 네트워크 (WPAN) 일 수도 있다. WPAN 은 예컨대, 블루투스 네트워크 또는 일부 다른 타입의 네트워크일 수도 있다.
GNSS 는 미국 글로벌 포지셔닝 시스템 (GPS), 러시아 글로나스 (Glonass) 시스템, 유럽 갈릴레오 (Galileo) 시스템, 위성 시스템들의 조합으로부터 위성들을 이용하는 임의의 시스템 또는 향후에 개발되는 임의의 위성 시스템과 같은 하나 이상의 위성 포지셔닝 시스템들을 포함할 수 있다. 추가로, 개시된 방법 및 장치는 의사 위성들 또는 위성들 및 의사 위성들의 조합을 활용하는 포지셔닝 결정 시스템들과 함께 이용될 수도 있다. 의사 위성들은 예컨대, GPS 시간으로 동기화될 수도 있는 PN 코드 또는 (GPS 또는 CDMA 셀룰러 신호와 유사한) 다른 범위의 코드를 브로드캐스팅하는 지상-기반의 송신기들이다. 각각의 송신기에는 원격 수신기에 의한 식별을 허용하도록 고유한 PN 코드가 할당될 수도 있다. 의사 위성들은 터널, 광산, 빌딩, 도시형 협곡 또는 다른 밀폐된 구역과 같이, 궤도 위성으로부터의 GNSS 신호들이 사용될 수 없는 상황들에서 유용하다. 의사 위성들의 다른 구현은 무선 비컨들로 알려져 있다. 본 명세서에서 사용된 것과 같은 용어 "위성" 은 의사 위성들, 의사 위성들의 등가물들 및 기타 등등을 포함하도록 의도된다.
모바일 디바이스 (110) 는 무선 통신 시스템, GNSS, 또는 WLAN 중 하나 이상으로부터의 신호들에 기초하여 그 포지션 또는 포지션 추정치를 결정할 수도 있다. 예를 들면, 모바일 디바이스 (110) 는 강화된 순방향 링크 삼변측량 (AFLT), 셀 사이트 로케이션, 셀 섹터 로케이션, 도달 시간, 도달 시간 차이, 기타 등등 또는 이들의 일부 조합 중 임의의 하나에 기초하여 기지국 (150) 과 함께 그 포지션 또는 포지션 추정치를 결정할 수도 있다. 모바일 디바이스 (110) 는 또한 기지국 (150) 과 관련하여 수행된 것과 유사한 포지션 로케이션 기술 또는 액세스 포인트 (140) 커버리지 영역에 기초하여 그 포지션 또는 포지션 추정치를 결정할 수도 있다. 유사하게, 모바일 디바이스 (110) 는 하나 이상의 GNSS 에서 지원되는 로케이션 기술들에 기초하여 그 포지션 또는 포지션 추정치를 결정할 수도 있다.
모바일 디바이스 (110) 는 무선 통신 시스템 기지국 (150), WLAN 액세스 포인트 (1540) 및 GNSS 위성들 (130-1 및 130-2) 의 일부 조합으로부터의 신호들을 이용하는 하이브리드 포지셔닝 기술들에 기초하여 그 포지션 또는 포지션 추정치를 결정할 수도 있다. 모바일 디바이스 (110) 는 독립적으로 포지션 솔루션을 결정할 수도 있거나, 포지션 결정 엔티티 (PDE) 와 같은 하나 이상의 네트워크 엘리먼트들과 결합하여 포지션 솔루션을 결정할 수도 있다.
모바일 디바이스 (110) 는 통상적으로 임의의 타입의 클록 또는 시간 기준을 포함하거나, 클록에 액세스할 수 있거나, 하루 중 시간을 유도할 수 있다. 종종, 모바일 디바이스 (110) 는 포지션 로케이션 프로세스의 일부로서 클록을 활용한다. 모바일 디바이스 (110) 는 모바일 디바이스 (110) 내의 배향 센서들에 의해 수행된 측정들을 캘리브레이션, 정정 또는 수정하기 위해, 천체 오브젝트 (120) 의 이미지를 캡처하고 하루 중 시간과 함께 포지션 추정치를 이용할 수 있다.
모바일 디바이스 (110) 는 천체 오브젝트 (120) 의 이미지가 캡처될 경우 모바일 디바이스 (110) 의 방위각 (162) 및 고도각 (164) 을 결정하기 위해 관성 배향 센서들을 이용할 수 있다. 방위각 (162) 은 도 1 에서 시계 방향 방식으로 측정되는 것으로 도시되지만, 방위각 (162) 은 시계방향 또는 시계 반대방향으로 측정될 수도 있으며, 방위각 (162) 의 방향 및 기준 방향은 천체 오브젝트 (120) 의 포지션들의 검색 테이블 또는 알마낙과의 비교를 허용하는 방식으로 측정된다.
도 2 를 참조하면, 모바일 디바이스 (110) 는 포토 카메라일 수도 있는 이미지 캡처 디바이스 (230) 를 포함한다. 이미지 캡처 디바이스 (230) 는 가시광 스펙트럼, 비-가시광 스펙트럼, 또는 이들의 임의의 조합으로 신호들을 캡처하도록 구성될 수 있다. 이미지 캡처 디바이스 (230) 는 예를 들면, CCD (Charge Coupled Device), CMOS 카메라, 광학 검출기들, 등등 또는 이들의 일부 조합일 수 있다.
프로세서들 (220, 250) 은 바람직하게 지능형 디바이스들, 예컨대, Intel? Corporation 또는 AMD? 에 의해 제작된 것과 같은 중앙 처리 유닛들 (CPUs), 마이크로 제어기, 애플리케이션용 집적 회로 (ASIC), 등이다. 프로세서들 (220, 250) 은 서로 상이하거나 동일할 수도 있거나, 물리적으로 별개일 수도 있거나, 단일 디바이스의 일부들일 수도 있다. 메모리 (270) 는 랜덤 액세스 메모리 (RAM) 및/또는 판독 전용 메모리 (ROM) 를 포함할 수도 있다. 메모리 (270) 는 (그 설명이 소프트웨어 (270) 가 기능(들) 을 수행한다고 쓰여있지만) 하기에서 설명되는 기능들을 수행하기 위해 프로세서들 (220, 250) 을 제어하기 위한 명령들을 포함하는, 컴퓨터 판독가능하고 컴퓨터 실행가능한 (프로세서 판독가능하고 프로세서 실행가능한) 소프트웨어 코드 (278) 를 저장한다. 소프트웨어 (278) 는, 예컨대 네트워크 접속을 통해 다운로드 되거나, 디스크로부터 업로드 되거나, 기타 등등콘솔 모바일 디바이스 (110) 상에 로딩될 수 있다.
모바일 디바이스 (110) 의 케이스 (112) 는 케이스 (112) 내에 있으면서 이미지 캡처 디바이스 (ICD; 230) 의 동작을 허용하도록 포지셔닝된 광학적 투명 윈도우 (113) 를 갖는다. 윈도우 (113) 는 예컨대, 케이스 (112) 내의 홀 또는 광학적 투명 물질을 갖는 부분일 수도 있다. 윈도우 (113) 는 이미지 캡처 디바이스 (230) 에 의해 감지된 전체 스펙트럼에 걸쳐 완전히 투명해야할 필요는 없다. 그러나, 윈도우 (113) 의 스펙트럼 응답은 알려져야만 하거나, 그렇지 않으면 모바일 디바이스 (110) 에 제공되어야 하거나, 또는 모바일 디바이스 (110) 가 자동으로 또는 반자동으로 수행될 경우에 천체 오브젝트를 인식하고 로케이팅하는 것을 방해하지 않아야 한다. 예를 들어, 가방이나 옷은 모바일 디바이스 (110) 가 캡처된 이미지에서 관심 오브젝트, 예컨대 천체를 판별할 수 있는 경우, (예컨대, 사용자의 주머니에 위치된) 모바일 디바이스를 포함할 수 있다.
모바일 디바이스 (110) 는 또한 하나 이상의 배향 센서들 (240) 을 포함할 수 있다. 배향 센서들 (240) 은 예컨대, 하나 이상의 가속도계들 (242), 자이로스코프 (244) 및 콤파스 (246) 를 포함할 수 있다. 가속도계(들)(242) 은 예컨대, 모바일 디바이스 (110) 의 배향을 결정하도록 구성될 수 있다. 콤파스 (246) 는 모바일 디바이스 (110) 의 헤딩 또는 기준 방향을 결정하도록 구성될 수 있다.
모바일 디바이스 (110) 는 이미지 캡처 디바이스 (230) 를 이용하여 천체 오브젝트의 이미지를 캡처하도록 구성될 수 있다. 이미지 캡처 디바이스 (230) 는 캡처된 이미지를 배향 프로세서 (250) 로 통신하거나, 그렇지 않으면 커플링할 수 있다. 이미지 캡처와 동시에 수행된 배향 센서들 (240) 로부터의 측정들은 배향 프로세서 (250) 에 커플링될 수 있다. 클록 (280) 은 배향 센서 (250) 에 커플링되어 이미지 캡처를 위한 하루 중 시간을 제공한다. 배향 프로세서 (250) 는 배향 센서들 (240) 을 캘리브레이션하기 위해 모바일 디바이스 (110) 의 포지션과 결합하여 배향 측정치들, 하루 중 시간, 및 천체의 캡처된 이미지를 활용한다.
모바일 디바이스 (110) 는 포지션 로케이션을 가능하게 하는 하나 이상의 모바일 디바이스들을 포함한다. 도 2 의 모바일 디바이스 (110) 실시형태에서, 모바일 디바이스 (110) 는 GNSS 수신기 (212) 와 통신 트랜시버 (210) 에 커플링된 안테나 (202) 를 포함한다. GNSS 수신기 (212) 는 예컨대, 하나 이상의 GNSS 위성들까지의 의사 범위들을 결정하고, GNSS 위성들에 의해 송신될 수도 있는 네비게이션 메세지들을 수신함으로써 포지션 로케이션에 기여할 수 있다.
통신 트랜시버 (210) 는 예컨대, 셀룰러 전화기 트랜시버일 수 있다. 통신 트랜시버 (210) 는 예컨대, 몇몇 포지션 로케이션 기술들 중 임의의 하나를 지원하도록 구성될 수 있다. 예를 들면, 통신 트랜시버 (210) 는 셀룰러 기지국 송신된 신호들로부터의 도달 시간 또는 의사 범위를 결정하도록 구성될 수 있다.
GNSS 수신기 (212), 통신 트랜시버 (210), 또는 이들 양자인 포지션 로케이션 수신기들로부터의 신호들은 포지션 로케이션 프로세서 (220) 에 커플링된다. 포지션 로케이션 프로세서 (220) 는 모바일 디바이스 (110) 의 포지션 또는 포지션 추정치를 결정하도록 구성될 수 있다. 포지션 로케이션 프로세서 (220) 는 예컨대, 모바일-기반 포지션 로케이션 또는 모바일-보조 포지션 로케이션을 수행하도록 구성될 수 있다. 모바일-보조 포지션 로케이션에서, 포지션 로케이션 프로세서 (220) 는 무선 통신 네트워크의 일부인 포지션 결정 엔티티와 같은 하나 이상의 원격 디바이스들과 결합하여 포지션 또는 포지션 추정치를 결정한다.
모바일 디바이스 (110) 의 포지션 또는 포지션 추정치는 배향 프로세서 (250) 에 커플링되거나, 그렇지 않으면 배향 프로세서 (250) 에 사용가능하다. 배향 프로세서 (250) 는 천체의 예측된 로케이션을 결정하기 위해 천체의 알마낙 (275) 에 액세스할 수 있다. 알마낙 (275) 은 본 명세서에서 예컨대, 메모리 (270) 에 저장된다.
천체에 대한 알마낙 (275) 은 천체의 로케이션을 허용하는 하나 이상의 테이블들을 저장하도록 구성될 수 있다. 예를 들면, 메모리 (270) 에 저장된 알마낙 (275) 은 지구상의 복수의 기준 로케이션들 각각에 대하여 하루에 걸친 태양의 로케이션들을 저장할 수 있다. 지구상의 기준 로케이션들은 예컨대, 지구의 적도를 따른 상위한 로케이션들일 수 있다. 배향 프로세서 (250) 는 포지션 로케이션 프로세서 (220) 에 의해 결정된 모바이스의 로케이션을 보상하기 위해 알마낙 (275) 에 제시된 천체의 위치를 정정하거나 오프셋할 수 있다. 예컨대, 배향 프로세서 (250) 는 모바일 디바이스 (110) 의 포지션에 최인접한 알마낙 기준 로케이션을 로케이팅하고, 메모리 (270) 로부터 대응하는 알마낙 (275) 을 취출할 수 있다. 배향 프로세서 (250) 는 모바일 디바이스 (110) 의 로케이션에 대한 천체의 로케이션을 결정하도록 알마낙 데이터를 보상할 수 있다. 디바이스의 로케이션에 대한 알마낙에서 엔트리들을 보상하는 프로세스 또는 그 보완물은 천체 네비게이션의 문맥에서 잘 이해된다.
배향 프로세서 (250) 는 배향 센서들 (240) 에 대한 캘리브레이션 메모리 (260) 로부터 캘리브레이션 정보를 취출한다. 여기서, 캘리브레이션 메모리 (260) 는 메모리 (270) 와 별개이지만, 메모리 (260) 는 메모리 (270) 의 일부일 수 있다. 배향 프로세서 (250) 는 천체 오브잭트의 이미지 캡처 시기에 형성된 센서 측정치들, 특히 방위각 및 고도각 측정치들을 정정한다. 다른 실시형태들에서, 배향 프로세서 (250) 는 정정되지 않은 센서 측정값들에 동작할 수도 있다.
배향 프로세서 (250) 는 포지션 로케이션으로부터 유도된 천체의 위치, 하루 중 시간, 및 알마낙을 잔여 에러를 결정하기 위해 이미지 캡처 및 배향 센서 측정치들로부터 결정된 천체의 로케이션과 비교한다. 배향 프로세서 (250) 는 잔여 에러에 기초하여 캘리브레이션 메모리 (260) 내의 캘리브레이션 테이블들을 업데이트할 수 있다.
모바일 디바이스 (110) 내의 배향 센서들의 캘리브레이션은 포토 카메라 해상도 및 모바일 디바이스 (110) 클록 (시간) 및 로케이션 정확도를 요구하지 않는 것이 결정되었다.
이미지 캡처 디바이스 (230) 의 카메라 포토 센서는 1 도의 몇 분의 일 레벨의 해상도로 천체 이미지의 각 로케이션들을 측정할 수 있어야 한다. 이러한 정확도 레벨은 약 1 메가 픽셀 또는 그보다 높은 해상도를 갖는 카메라들에 의해 용이하게 달성될 수 있다. 상기 레벨의 해상도를 갖는 카메라들은 현대 모바일 디바이스들에서 드물지 않다.
0.5 내지 1 분 클록 에러만큼 큰 타이밍 에러들은 천체가 태양 또는 달인 경우에 허용될 수 있다. 이는 하늘에서 태양/달 계산 포지션 에러가 평균 360 도/24 시간, 또는 0.25 도/분으로 매우 느린 태양/달 방위각 및 고도 변경 레이트에 비례하기 때문이다.
유사하게, 수 킬로미터의 로케이션 에러가 하늘에서 천체 오브젝트 포지션의 정확한 계산에 충분할 것이다. 이는 평균적으로, 가시성의 태양/달 방위각 및 고도가 사용자 위도/경도가 1 도 변화할 때마다 1 각도만큼 변화하고, 이는 (적도 영역에서) 대략 110 킬로미터당 1 각도가 될 것이기 때문이다.
배향 센서들 (240) 의 캘리브레이션은 천체의 수동 이미지 캡처 또는 천체의 자동 또는 반자동 이미지 캡처에 기초할 수도 있다. 수동 캘리브레이션 모드의 일 실시형태에서, 사용자는 대략적으로 천체 오브젝트 (태양 또는 달) 의 방향으로 모바일 디바이스 (110) 를 포인팅하며, 따라서 천체 오브젝트 이미지는 이미지 캡처 디바이스 (230) 의 광학 센서에 의해 검출 및 캡처될 수 있다. 그 후에, 사용자는, 예컨대 음성 인식 능력을 갖는 모바일 디바이스에서 가청 명령들에 의해 또는 버튼을 누름으로써 캘리브레이션을 개시할 수 있다.
자동 캘리브레이션 모드의 일 실시형태에서, 모바일 디바이스 (110) 의 포토 센서는 태양 또는 달과 같은 천체의 명확한 이미지를 탐색할 때, 끊임없이 또는 주기적으로 개방되고 (다른 오브젝트들에 의해 완전히 차단되지 않음) 활성될 수도 있다. 자동 모드인지 또는 수동 모드인지 여부에 따라, 이미지 캡처 디바이스 (230) 로부터의 이미지들은 오브젝트가 이미지로부터 구별되어 오브젝트가 식별될 수 있고 이미지 내에서 그 로케이션이 결정될 수 있는 경우에 배향 파라미터들을 결정하거나 정정하는데 이용될 수 있다.
이미지가 수동 캘리브레이션 모드 또는 자동 캘리브레이션 모드에서 검출 및 캡처되면, 배향 프로세서 (250) 는 이미지가 천체 오브젝트로부터의 이미지인 것을 검증하고 신뢰성 있게 식별하기 위해 이미지 배향, 휘도, 사이즈, 스펙트럼 및 다른 파라미터들을 처리할 수 있다. 배향 센서 (250) 는 임의의 반사된 이미지 및/또는 인공 광원들로부터 캡처된 천체 오브젝트 이미지를 구별하기 위한 프로세싱을 수행할 수 있다. 이미지 캡처 디바이스 (230) 에 의해 캡처된 이미지의 스펙트럼 범위가 가시광 스펙트럼 외부에서 적외선 또는 자외선 쪽으로 연장한다면, 태양/달 스펙트럼 중 캡처된 비가시광 스펙트럼 부분들은 천체 이미지 식별을 위해 이용될 수 있다.
수동으로, 반자동으로, 또은 자동으로 개시되는지 여부에 따라, 이미지 검출 및 식별은 복수의 후속 프로세싱 이벤트들에 대한 트리거로서 이용될 수 있다. 모바일 디바이스 (110) 는 포토 센서와 결합하여 이미지 캡처 시기에 포토 센서 광학축들에 대한 태양/달 이미지 각도 포지션을 측정할 수 있다.
배향 프로세서 (250) 는 클록 (280) 으로부터 하루 중 시간을 결정할 수 있고, 메모리 (270) 로부터 천체 오브젝트 알마낙 정보를 취출할 수 있고, 포지션 로케이션 프로세서 (220) 로부터 현재 로케이션을 수신할 수 있다. 배향 프로세서 (250) 는 현재 디바이스 로케이션 및 시간에 기초하여 천체 오브젝트의 "진정한" 고도 및 방위각을 계산한다.
배향 프로세서 (250) 는 예컨대, 가속도계 (242) 및/또는 콤파스 (246) 로부터 배향 센서 (240) 데이터를 판독하고 처리하며, 수평선 및/또는 디바이스 방위각에 대한 모바일 디바이스 배향을 결정한다. 배향 프로세서 (250) 는 포토 센서 측정치, 배향 센서 측정치들 및 계산된 태양/달 방위각 및 고도를 이용하여 배향 센서들 (240) 을 캘리브레이션할 수 있다.
캘리브레이션은 다양한 방식들로 수행될 수 있다. 제 1 실시형태에서, 배향 센서로부터 계산된 디바이스 배향 (방위각 및/또는 틸트) 는 "측정된" 태양/달 방위각 및/또는 고도를 결정하는데 이용될 수 있다. "측정된" 태양/달 방위각 및/또는 고도는 시간, 로케이션 및 알마낙 정보에 기초하는 "계산된" 태양/달 방위각 및 고도로부터 감산될 것이다. 배향 프로세서 (250) 는 측정된 파라미터와 계산된 파라미터 간의 차이들을 결정할 수 있고, 그 차이들을 배향 센서 측정치들에 대한 정정 또는 캘리브레이션 인자들로서 저장할 수 있다. 배향 프로세서 (250) 는 캘리브레이션 테이블 (260) 에 정정 또는 캘리브레이션 인자들을 저장할 수 있다.
제 2 실시형태에서, 배향 프로세서 (250) 는 디바이스 배향 (예컨대, 방위각 및/또는 틸트) 을 계산하기 위해 시간 및 디바이스 로케이션으로부터 유도된 "계산된" 태양/달 방위각 및 고도와 함께 포토 센서 각 측정치들을 이용할 수 있다. 배향 프로세서 (250) 는 계산된 디바이스 배향을 디바이스 배향 센서들 (240) 에 의해 측정된 디바이스 배향 (예컨대, 방위각 및/또는 틸트) 과 비교할 수 있다. 배향 프로세서 (250) 는 캘리브레이션 테이블 (260) 에서 2 개의 파라미터들 간의 차이를 배향 센서 측정치들에 대한 정정 인자들로서 저장할 수 있다.
배향 프로세서 (250) 는 센서 판독값들을 다시 캘리브레이션하고, 천체 오브젝트의 각각의 이미지 캡처 또는 복수의 이미지 캡처들 다음에 캘리브레이션 테이블 (260) 을 업데이트하도록 구성될 수 있다. 배향 프로세서 (250) 는 천체 오브젝트의 단일 이미지 캡처 또는 천체 오브젝트의 복수의 이미지 캡처들에 기초하여 캘리브레이션 값들을 다시 캘리브레이션할 수 있다. 추가로, 복수의 이미지들은 통상적으로는 동일한 천체 오브젝트로 이루어지지만, 동일한 천체 오브젝트로 이루어지지 않아야 한다.
캘리브레이션 테이블 (260) 을 업데이트하기 위해 임의의 단일 캘리브레이션이 이용될 수 있지만, 태양/달의 이미지 검출에서 시작하여 새로운 측정치들을 취득하는 상기와 같은 재캘리브레이션 프로세스의 다수회의 반복들이 가능한 경우에 수행될 수도 있다. 동일한 파라미터들 (이미지 로케이션, 배향 센서 판독값들) 의 복수의 측정치들은 예컨대, 측정치 아웃라이어들을 제거하기 위해 캘리브레이션 정확도 및 신뢰도를 개선하도록 필터링될 수 있다.
천체 오브젝트의 이미지를 캡처하고 상이한 디바이스 배향들에서 배향 측정치들을 취득함으로써, 더 정확한 캘리브레이션이 획득될 수도 있다. 다수의 파라미터들은 보통 일정한 에러를 가지는 것은 아니며, 캘리브레이션 테이블 (260) 에 제공된 정정값은 배향에 의존할 수도 있다. 예를 들면, 콤파스 (246) 방위각 에러는 방향에 의존할 수도 있고, 디바이스 측정치들은 그 방향에 기초하여 에러를 고려하기 위해 복수의 방향들에서 캘리브레이션될 수도 있다.
센서 파라미터들은 통상적으로 예컨대, 온도 변화에 의해 시간에 걸쳐 드리프트한다. 따라서, 캘리브레이션 테이블 (260) 엔트리들은 특정 제약들에 대하여 유효할 수도 있다. 시간 제약은 이전의 임계 시간보다 더 오랫동안 캘리브레이션 결과들을 형성하는데 이용될 수도 있다.
복수의 측정들은 또한 센서가 모바일 디바이스 (110) 에 존재하는 경우에 각속도 자이로 (244) 의 캘리브레이션에 유리할 수도 있다. 각속도 자이로 (244) 의 캘리브레이션은 정적 측정들을 위해 이용된 센서의 캘리브레이션과 상이할 수도 있다. 예를 들어, 모바일 디바이스 (110) 는 천체 오브젝트의 복수의 이미지들을 캡처할 수도 있다. 배향 프로세서 (250) 가 몇몇 연속하는 천문학적 측정치들로부터 (예컨대, 태양 이미지가 포토 센서로 이동하지 않는 경우에) 모바일 디바이스 (110) 가 회전하지 않는다고 결정한다면, 배향 프로세서 (250) 는 자이로 (244) 출력이 자이로 오프셋이 되고, 이러한 오프셋 값은 캘리브레이션 테이블 (260) 에 오프셋 정정값으로 저장될 수 있다.
대안적으로, 배향 프로세서 (250) 가 몇몇 연속하는 천문학적 측정치들로부터 모바일 디바이스 (110) 가 특정 시간 간격에 걸쳐 터닝되거나, 그렇지 않으면 회전된다고 결정한다면, 배향 프로세서 (110) 는 턴 각도를 계산하고, 턴 각도 및 시간 간격은 자이로 스케일 인자를 캘리브레이션하는데 이용될 수 있다.
도 3 을 참조하면, 모바일 디바이스 (300) 는 센서 캘리브레이션을 위한 자동 또는 반자동 이미지 캡처 및 식별을 위해 구성된다. 모바일 디바이스 (300) 는 또한 천체 오브젝트의 수동 이미지 캡처를 위해 구성될 수도 있다. 추가로, 도 3 의 엘리먼트들은 상이한 도면부호들을 포함하지만, 상기 엘리먼트들의 일부는 도 2 의 실시형태에 도시된 유사한 명칭의 엘리먼트들과 동일할 수도 있다.
모바일 디바이스 (300) 는 천체 오브젝트의 이미지를 캡처하도록 구성된 이미지 캡처 디바이스 (330) 를 포함한다. 이미지 캡처 디바이스 (330) 는 예컨대 천체 오브젝트의 이미지를 계속해서 탐색하도록 제어될 수 있다. 대안적으로, 이미지 캡처 디바이스 (330) 는 이미지들을 선택적으로 캡처하도록 구성될 수 있고, 그 후에 천체 오브젝트의 이미지를 포함할 가능성에 대하여 처리된다.
이미지 캡처 디바이스 (330) 는 광학 필터 (332) 에 이미지를 제공한다. 광학 필터 (332) 는 옵션이지만, 포함될 경우에 캡처된 이미지의 스펙트럼을 선택적으로 필터링하도록 구성될 수도 있다. 일 실시형태에서, 광학 필터 (332) 는 캡처된 이미지의 일부분을 천체 오브젝트인 것으로 구별하는 것을 용이하게 하기 위해 캡처된 이미지를 필터링하여 스펙트럼의 부분들을 제거한다. 예를 들면, 광학 필터 (332) 는 가시광 스펙트럼의 부분들 또는 비-가시광 스펙트럼의 부분들을 제거하도록 구성될 수도 있다.
광학 필터 (332) 는 이미지 캡처 디바이스 (330) 에서 실제 광학 신호에 동작하지는 않지만, 대신에 캡처된 이미지의 스펙트럼에 대응하는 이미지 캡처 디바이스로부터의 전기 출력에 동작할 수도 있다.
광학 필터 (332) 로부터의 출력은 이미지 프로세서 (340) 에 커플링된다. 이미지 프로세서 (340) 는 캡처된 이미지 내의 천체 오브젝트들의 구별 및 식별이 가능하도록 하나 이상의 필터들에 커플링될 수 있다. 필터들은 휘도 필터 (342), 사이즈 필터 (344), 배향 필터 (346), 스펙트럼 필터 (348), 기타 등등 또는 캡처된 이미지를 필터링하는 임의의 다른 수단들을 포함할 수도 있다. 필터들 (342, 344, 346 및 348) 각각은 대안적으로 제약 또는 결정 기준으로 해석될 수 있다.
이미지 프로세서 (340) 는 캡처된 이미지를 처리하고, 이미지가 태양, 달 또는 특정 별과 같은 특정 천체 오브젝트의 이미지를 포함하는지 여부를 결정하기 위해 하나 이상의 필터들 (342, 344, 346 및 348) 을 이용할 수 있다. 하기에 설명된 실시예에서, 이미지 프로세서 (340) 는 캡처된 이미지가 태양의 이미지를 포함하는지 여부를 결정하기 위해 필터들 (342, 344, 346, 348) 을 이용한다.
이미지 프로세서 (340) 는 태양의 이미지를 캡처한 것으로 간주되기에 충분한 휘도를 가지지 않는 이미지들을 제거하기 위해 휘도 필터 (342) 를 이용할 수 있다. 이미지 프로세서 (340) 는 캡처된 이미지가 본 실시예에서 태양인 천체 오브젝트를 표시하기에 충분한 사이즈의 이미지를 포함하는지 결정하기 위해 사이즈 필터 (344) 를 이용할 수 있다.
이미지 프로세서 (340) 는 모바일 디바이스의 측정된 배향 또는 이미지 캡처가 계산된 천체 오브젝트 배향에 관한 일부 미리 결정된 윈도우 내에 있는지 결정하기 위해 배향 필터 (346) 를 이용할 수 있다. 즉, 배향 필터 (346) 는 태양 또는 다른 천체 오브젝트의 이미지를 캡처할 경우에 모바일 디바이스 (300) 의 배향이 예상된 배향과 매우 상이한, 캡처된 이미지들을 제거할 수 있다.
이미지 프로세서 (340) 는 캡처된 이미지가 천체 오브젝트로부터의 예상된 스펙트럼 응답과 유사한 스펙트럼 응답을 포함하는지 결정하기 위해 스펙트럼 필터 (348) 를 이용할 수 있다. 일 실시형태에서, 스펙트럼 필터 (348) 는 예상된 스펙트럼 응답의 마스크를 포함하고, 캡처된 이미지의 스펙트럼은 캡처된 이미지가 천체 오브젝트의 이미지를 포함하는지 결정하기 위해 마스크와 비교된다.
이미지 프로세서 (340) 는 자동의, 반자동의, 또는 수동의 이미지 캡처가 활용되는지 여부에 관계없이 캡처된 이미지에서 천체 오브젝트의 존재를 결정하기 위해 필터들 (342, 344, 346, 348) 을 이용할 수 있다.
이미지 프로세서 (340) 는 캡처된 이미지가 천체 오브젝트의 이미지를 포함하는지 여부를 결정할 수 있고, 탐색기/추적기 (350) 를 제어할 수 있다. 탐색기/추적기 (350) 는 예컨대, 자동 이미지 캡처가 구현될 경우에 천체 오브젝트의 트래킹을 유지하기 위해 이미지 캡처 디바이스 (330) 의 배향을 정렬시키거나, 그렇지 않으면 제어하도록 구성될 수 있다. 프로세서 (340) 는 이미지가 오브젝트를 포함하는지 여부를 결정하고, 만약 그렇다면 어떤 오브젝트를 포함하는지 결정하기 위해 디바이스 (110) 의 현재 추정된 배향 및 알려진 오브젝트들에 관한 정보를 이용할 수 있다. 메모리 (270) 는 오브젝트들의 외형들 및 로케이션들에 관한 정보를 저장할 수 있고, 메모리 (270) 에 현재 저장된 정보는 디바이스의 현재 로케이션 및/또는 배향에 의존할 수도 있다.
이미지 프로세서 (340) 는 입증된 캡처 이미지에 관한 정보를 센서 캘리브레이션 모듈 (390) 로 통신한다. 예를 들면, 이미지 프로세서 (340) 는 전체 캡처 이미지를 포워딩할 수 있다. 센서 캘리브레이션 모듈 (390) 은 하나 이상의 배향 센서들 (360) 에 액세스할 수 있고, 센서 측정치들에 기초하여 측정된 배향을 결정할 수 있다. 모듈 (390) 은 예컨대, 측정된 배향을 계산된 배향과 비교함으로써 캘리브레이션 파라미터들을 결정하기 위해 측정된 배향을 이용할 수 있다.
센서 캘리브레이션 모듈 (390) 은 또한 태양과 같은 천체 오브젝트에 대한 알마낙을 포함하는, 천체 검색 테이블 (392) 에 커플링된다. 추가로, 이미지 프로세서 (340) 는 모바일 단말기 (300) 의 포지션 추정치를 제공하는 포지션 추정기 (380) 에 커플링된다. 포지션 추정치는 모듈 (390) 에 의해 단말기 (300) 의 예상 배향을 계산하고, 액세스 및 이용할 알마낙 정보를 결정하는데 이용될 수 있다.
자력계 정보를 갖지 않는 콤파스
모바일 디바이스 (300) 는 측정 시기에 (순간 콤파스) 디바이스 방위각에 관한 정보를 제공하기 위해, 배향 센서들 (360) 중 하나로서 (틸트 보상을 위한) 가속도계와 결합하여 단일 천문학적 측정치를 이용할 수 있다.
카메라와 같은 이미지 캡처 모듈 (330) 이 더 이상 천체 오브젝트를 포인팅하지 않거나 카메라 대물렌즈가 차단되고, 자력계 정보가 사용될 수 없다면 (예컨대, 자력계가 존재하지 않거나, 파손되거나, 동작하지 않는다면), 자이로스코프 (각속도 센서) 가 이용될 수 있다. 자이로스코프는 예컨대, 이미지 안정화를 위해 디바이스들 내에 배치된 자이로스코프와 유사할 수 있다. 자이로가 절대 방향 보다는 회전각 (델타 방향) 을 제공하기 때문에, 센서 캘리브레이션 모듈 (390) 은 초기화 값 및 초기화 값에 대한 자이로스코프에 의해 제공된 방향 델타를 이용하여 절대 방향을 결정한다.
모바일 디바이스의 방향 초기화는 천문학적 측정치들을 이용하여 수행된다. 이를 위해, 모바일 디바이스 (300) 와 유사한 모바일 디바이스는 이미지를 캡처할 수 있고, 로케이션/시간을 인식하며, 자이로스코프 (244) 및 가속도계 (242) 를 포함하지만, 자력계를 반드시 포함하는 것은 아니다. 콤파스 에뮬레이션은 천문학적 가속도계 측정치들 및 알려진 디바이스 로케이션 및 시간으로부터 초기 디바이스 방위각을 결정하고 저장하는 센서 캘리브레이션 모듈 (390) 에 의해 수행된다. 초기값들을 이용하여, 모듈 (390) 은 초기화 모멘트에 대한 자이로스코프로부터의 델타 방위각 정보와 저장된 초기 방위각을 더한 값을 이용하여 현재 방위각을 계산할 수도 있다. 디바이스의 초기 방위각 값 Az0 가 초기화 시간 T0 에 측정된 후에, 임의의 향후 시간 T 에서 디바이스 방위각은, 시간 T0 부터 시간 T 까지 자이로로부터 결정된 방위각 (회전각) 변화값과 Az0 를 더한 값으로 제공된다.
자력계 또는 자이로스코프를 갖지 않는 콤파스
모바일 디바이스는 이미지들을 캡처할 수 있고 로케이션/시간을 인식하는 모바일 디바이스 (300) 와 유사하게 구성될 수도 있으며, 이미지 캡처 디바이스 (230), 가속도계 (242) 를 포함하지만 콤파스 (246) 또는 자이로스코프 (244) 는 포함하지 않는다. 이러한 모바일 디바이스는 고정된 물체의 이미지들이 카메라 회전율에 비례하는 속도로 카메라 시계를 횡단함에 따라 고정된 오브젝트들의 포토 센서 이미지들을 처리하는 프로세서에 의해 회전율이 결정되는, 포토 센서-기반의 가상의/에뮬레이트된 자이로스코프를 이용할 것이다. 전술된 설명과 유사하게, 천문학적 측정들과 가속도계 및 에뮬레이트된 자이로스코프의 조합은 콤파스를 에뮬레이팅하는데 이용된다. 포토 센서는 콤파스를 절대 방위각으로 초기화하기 위해 (고정된 오브젝트들을 계속해서 트래킹함으로써) 자이로스코프를 에뮬레이팅하고, 간헐적인 천문학적 측정들을 수행하는데 이용될 것이다. 천체 오브젝트 이미지들은 지상-기반의 고정된 오브젝트 이미지들과 동일한 방식으로 처리될 수 있다. 다시 말해서, 태양 또는 달 이미지를 트래킹하는 것은 자이로스코프 (각속도 센서) 에뮬레이션 및 콤파스 에뮬레이션 양자에 충분할 것이다. 다른 한편으로서, 태양/달 이미지가 포토 센서에 의해 계속해서 트래킹된다면, 자이로 에뮬레이션은, 순간적인 방위각이 디바이스 각속도에 대한 지식 없이 직접 천문학적 관측에 의해 임의의 시점에 계산될 수 있기 때문에, 콤파스하는데 불필요할 것이다. 에뮬레이트된 자이로는 거의 오프셋 (드리프트) 또는 스케일 인자 에러를 갖지 않는다. 소량의 에러가 하늘에서 천체 오브젝트의 모션에 의해 도입되며, 이는 보상될 수 있다.
오브젝트들은 카메라의 화각 및 해상도에 기초하여 자이로 에뮬레이션을 위해 트래킹될 수 있다. 카메라 조리개가 N 도이면, 카메라의 포토 센서 행렬은 P 픽셀 (컬럼) 폭이고, 하나의 픽셀의 (자동으로) 트래킹된 오브젝트 이미지 쉬프트는 N/P 도만큼의 카메라 회전에 대응할 것이다. 수직 이동에 대해서도 동일한 사항이 참이 될 것이다. 이러한 사항은 천체 오브젝트들 및 (예컨대, 빌딩, 풍경으로부터 멀리 떨어진) 원거리의 고정된 오브젝트들에 적용된다. 더 복잡한 프로세싱이 (예컨대, 이동하는 차량의 이미지들을 캡처하는) 오브젝트의 모션에 의해 또는 (예컨대, 이동하는 차량의 이미지들을 캡처하는) 인접한 오브젝트들에 대한 카메라의 선형 모션에 의해 유발된, 포토 센서에 대한 이미지 모션을 처리하는데 이용될 수 있다.
스토리지 백 및/또는 차량 크래들
도 1 을 다시 참조하면, 컨테이너, 예컨대 크래들 또는 백 (114) 이 모바일 디바이스 (110) 를 포함시키기 위해 제공된다. 컨테이너 (114) 는 디바이스 (110) 를 고정하고, 디바이스 (110) 의 편리한 운반을 제공하도록 구성된다. 예를 들면, 컨테이너 (114) 는 자동차 또눈 자전거와 같은 챠랑에 연결되거나, 사용자의 어깨 위에 착용되거나 사용자의 벨트에 부착되도록 구성되는 것과 같이 사용자에 의해 운반되도록 구성된 백일 수도 있다.
수동 캘리브레이션 모드에서, 디바이스 (110) 의 사용자는 모바일 디바이스 카메라를 태양/달 쪽으로 주기적으로 포인팅하고, 카메라 대물렌즈가 차단되지 않고 따라서 포토 센서가 이미지를 획득할 수 있는 것을 확인할 것이다. 그러나, 자동 모드는 디바이스 카메라 대물렌즈가 태양/달 쪽으로 포인팅하는 임의의 시점에 자동으로 발생하는 천문학적 측정들로 인해 훨씬 더 편리할 것이다. 자동 캘리브레이션은 특히 차량들 내부/상부의 디바이스들에 대하여 및 포토 측정들이 자동으로 계속해서 발생하는 경우에 중요할 것이다.
자동 천문학적 측정들을 돕기 위해, 컨테이너 (114) 는 투명한 물질로 만들어진다. 그 물질은 디바이스 (110) 에 의해 이용되는 스펙트럼의 임의의 부분, 예컨대 스펙트럼의 가시성 부분, 적외선 부분 및/또는 자외선 부분에 대하여 투명하다. 대안적으로, 그 물질은 덜 투명할 수도 있지만, 예컨대, 부분적으로 불투명하거나 차폐될 수도 있지만, 본 명세서에서 설명된 것과 같은 배향 및/또는 이동을 결정하기 위해 캘리브레이션들을 수행할 때 오브젝트들의 이미지들이 인식되고 이용되게 한다. 예를 들면, 컨테이너 (114) 는 빌딩, 랜드마크, 천체 오브젝트와 같은 오브젝트들의 외곽선들이 인식될 수도 있는 옷으로 만들어질 수도 있다.
센서 캘리브레이션
도 4 를 참조하고, 도 1 내지 도 3 을 추가로 참조하면, 모바일 디바이스에서 센서들을 캘리브레이션하는 프로세스 (400) 는 도시된 스테이지들을 포함한다. 그러나, 프로세스 (400) 는 오직 예시적이며, 한정하려는 것은 아니다. 프로세스 (400) 는 예컨대, 스테이지들이 추가되거나, 제거되거나, 재배열되게 함으로써 변경될 수 있다.
스테이지 (410) 에서, 이미지는 모바일 디바이스 (110) 에 의해 캡처된다. 이미지 캡처 디바이스 (230) 는 천체 (120) 의 이미지를 캡처하기 위해, 예컨대 사용자에 의해 자동으로 또는 수동으로 작동된다.
스테이지 (412) 에서, 천체 (120) 가 이미지 내에 존재하는지 여부를 결정하기 위해 이미지가 분석된다. 이미지는 존재한다면 광학 필터 (332) 를 이용하여 필터링된다. 이미지는 이미지 프로세서 (340) 에 의해 추가로 분석되며, 천체 (120) 가 이미지에 존재하는지 여부를 결정한다. 이미지 프로세서 (340) 는 추가로 휘도 필터 (342), 사이즈 필터 (344), 배향 필터 (346) 및/또는 스펙트럼 필터 (348) 를 이용하여 이미지의 특징들을 필터링하며, 이미지 프로세서 (340) 가 천체 (120) 가 이미지에 존재하는지 여부를 결정하는 것을 돕는다.
스테이지 (416) 에서, 천체 (120) 또는 다른 천체가 이미지에 존재하는지 여부에 대한 질의가 수행된다. 이미지 프로세서 (340) 는 필터링된 이미지를 분석하여, 이미지가 천체 (120) 또는 다른 천체의 이미지를 포함하는지 여부를 인식한다. 이미지 내에서 어떤 천체도 검출되지 않는다면, 프로세스 (400) 는 스테이지 (410) 로 리턴한다. 그렇지 않으면, 프로세스 (400) 는 스테이지 (420) 로 진행한다.
스테이지 (420) 에서, 모바일 디바이스 및 특히 이미지 캡처 디바이스 (230) 의 배향이 결정된다. 배향 프로세서 (250) 는 배향 센서들 (242, 244, 246) 과 통신하여 예컨대, 지구 표면과 평행하는 x 축과 y 축 및 지구 표면에 수직하는 z 축을 갖는 기준 좌표 시스템에 대한 모바일 디바이스 (110) 의 배향을 결정한다.
스테이지 (424) 에서, 천체 오브젝트 (120) 의 이미지 포지션이 정정된다. 배향 센서들 (242, 244, 246) 로부터의 정보를 이용하여, 상기 축들에 대한 배향이 정확히 결정될 수 있다.
스테이지 (430) 에서, 모바일 디바이스 (110) 에 대한 천체 오브젝트 (120) 의 고도 및 방위각이 결정된다. 이미지 프로세서 (340) 는 이미지를 분석하여 모바일 디바이스 (110) 에 대한 천체 오브젝트 (120) 의 고도각을 결정한다. 추가로, 배향 프로세서 (250) 가 결합된 이미지 프로세서 (340) 는 이미지를 분석하여 모바일 디바이스 (110) 에 방위각 (162) 을 결정한다.
스테이지 (440) 에서, 모바일 디바이스 (110) 의 포지션의 추정치가 결정된다. 포지션 로케이션 프로세서 (220) 는 GNSS 수신기 (212) 및 통신 트랜시버 (210) 와 적절히 통신하고, 모바일 디바이스 (110) 의 포지션 추정치를 결정한다.
스테이지 (450) 에서, 천체 (120) 에 대한 천체 로케이션 데이터는 이미지 및 알마낙 정보로부터 결정된다. 센서 캘리브레이션 모듈 (390) 은 포지션 추정기 (380) 로부터의 포지션 추정치를 이용하여 천체 알마낙 데이터를 결정하기 위해 액세스 및 이용할 알마낙 정보를 결정한다. 센서 캘리브레이션 모듈 (390) 은 추가로 배향 센서 (360) 및 클록 (370) 으로부터의 입력을 이용하여 알마낙 데이터에 기초한 고도각 (164) 및 방위각 (162) 과 같은 천체 오브젝트 (120) 의 알마낙 데이터를 결정한다.
스테이지 (460) 에서, 스테이지 (430) 로부터 결정된 방위각 (162) 및 고도각 (164) 과 스테이지 (450) 에서 결정된 천체 데이터 간의 차이들이 비교된다. 방위각 (162) 및 고도각 (164) 사이의 차이들은 모바일 디바이스 (110) 의 포지션 추정치를 이용하여 결정되고, 이미지 캡처 디바이스 (230) 에 의해 캡처된 이미지의 프로세싱은 알마낙 정보로부터 결정된 천체 데이터와 비교된다. 상기 2 가지 방법들에서 결정된 각도들 간의 차이들은 센서 캘리브레이션 모듈 (390) 에 의해 결정된다. 배향 센서들 (242, 244, 246) 을 정정하기 위한 정장 값들이 스테이지 (430) 로부터 측정된/결정된 각도들 (162, 164) 을 정정하기 위해 결정되며, 이는 스테이지 (450) 에서 제공되고 결정된 것과 같은 각도들 (162, 164) 을 달성한다. 알마낙 데이터는 진정한 데이터로 간주되고, 결정된 데이터는 진정한 알마낙 데이터를 달성하기 위해 정정된다.
스테이지 (470) 에서, 배향 센서들 (242, 244, 246) 에 대한 정정값들이 필터링된다. 측정 아웃라이어들은 캘리브레이션 정확도 및 신뢰도를 개선하기 위해 필터링되거나 제거된다.
스테이지 (480) 에서, 필터링된 정정 값들은 배향 센서들 (242, 244, 246) 에 적용된다. 이러한 정정 인자들은 모바일 디바이스 (110) 에 의한 배향 결정을 조정하며, 따라서 모바일 디바이스의 포지션이 제공될 경우에 배향 센서들은 천체 오브젝트 (120) 가 모바일 디바이스에 의해 캡처된 이미지에 나타나도록 측정 데이터를 제공하며, 이 경우에 천체 오브젝트 (120) 에 대한 알마낙 데이터는 천체 오브젝트 (120) 가 모바일 디바이스 (110) 와 관련될 수 있는 것을 나타낸다.
콤파스 에뮬레이션
도 5 를 참조하고, 도 1 내지 도 3 을 추가로 참조하면, 모바일 디바이스에서 콤파스 에뮬레이션을 제공하는 프로세스 (500) 는 도시된 스테이지들을 포함한다. 그러나, 프로세스 (500) 는 오직 예시적인 것이며, 한정하려는 것은 아니다. 프로세스 (500) 는 예컨대, 스테이지들이 추가되거나, 제거되거나, 재배열되는 것과 같이 변경될 수 있다.
스테이지 (510) 에서, 모바일 디바이스 (110) 의 포지션의 추정치가 결정된다. 추정치는 모바일 디바이스 (110) 가 현재 점유하는 셀-섹터 또는 셀의 중심일 수도 있다. 상기 추정치는 모바일 디바이스 (110) 가 통신하고 있는 기지국 (150) 을 식별함으로써 결정될 수도 있다.
스테이지 (520) 에서, 이미지는 모바일 디바이스 (110) 에 의해 캡처된다. 이미지 캡처 디바이스 (230) 는 천체 (120) 의 이미지를 캡처하기 위해 예컨대, 사용자에 의해 자동으로 또는 수동으로 작동된다.
스테이지 (530) 에서, 모바일 디바이스 및 특히 이미지 캡처 디바이스 (230) 의 배향이 결정된다. 배향 프로세서 (250) 는 배향 센서들 (242, 244, 246) 과 통신하여 예컨대, 지구 표면과 평행하는 x 축과 y 축 및 지구 표면에 수직하는 z 축을 갖는 기준 좌표 시스템에 대한 모바일 디바이스 (110) 의 배향을 결정한다.
스테이지 (540, 550) 에서, 모바일 디바이스 (110) 에 대한 천체 오브젝트 (120) 의 방위각이 결정되고, 저장된다. 스테이지 (540) 에서, 배향 프로세서 (250) 가 결합된 이미지 프로세서 (340) 는 이미지를 분석하여 모바일 디바이스 (110) 에 방위각 (162) 을 결정한다. 스테이지 (550) 에서, 결정된 방위각 (162) 은 메모리 (270) 에 기준값으로서 저장된다.
스테이지들 (560, 570) 에서, 방위각의 변화가 결정되고, 이는 모바일 디바이스 (110) 의 현재 방위각을 업데이트하기 위해 이용된다. 스테이지 (560) 에서, 배향 프로세서 (250) 는 고정된 물체들에 대한 이미지들 및 이미지들에서 고정된 오브젝트들이 나타나는 장소 (및 레이트 계산을 위한 이미지들의 타이밍) 에서의 변경들을 분석함으로써 모바일 디바이스 (110) 의 모션의 방향 및 양 및 가능하면 레이트를 결정하기 위해 이미지 캡처 디바이스 (230) 로부터의 이미지들을 분석한다. 스테이지 (570) 에서, 배향 센서는 최종 저장된 방위각 값 이래로 결정된 방위각 변화 방향 및 양을 이용하여 메모리 (270) 에서 현재 방위각 정보를 업데이트한다.
실시형태들에서 설명된 기능들은 하나 이상의 프로세서들, 펌웨어 또는 이들의 임의의 조합에 의해 실행되는 소프트웨어 및 하드웨어에서 구현될 수도 있다. 소프트웨어에서 구현되는 경우에, 그 기능들은 하나 이상의 명령들 또는 코드로서 저장될 수도 있거나, 그렇지 않으면 유형의, 비-일시적인 프로세서 판독가능 매체 상에 인코딩된다. 프로세서 판독가능 매체는 물리적인 컴퓨터 저장 매체를 포함한다.
저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 사용가능한 매체가 될 수도 있다. 제한이 아닌 예시의 방법으로, 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM, 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 명령들 또는 데이터 구조들의 형태로 원하는 프로그램 코드를 저장하는데 이용될 수도 있고 컴퓨터에 의해 액세스될 수도 있는 임의의 다른 매체; 본 명세서에서 사용되는 것과 같이, 컴팩트 디스크 (CD), 레이저 디스크, 광학 디스크, 디지털 휘발성 디스크 (DVD), 플로피 디스크 및 블루-레이 디스크를 포함하는 디스크 (disk) 및 디스크 (disc) 를 포함할 수도 있으며, 상기 디스크 (disk) 들은 통상적으로 데이터를 자기적으로 재생하고, 디스크 (disc) 들은 데이터를 레이저를 사용하여 광학적으로 재생한다. 전술된 매체들의 조합들은 또한 컴퓨터 판독가능 매체의 사상 내에 포함되어야 한다.

Claims (30)

  1. 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스로서,
    이미지 캡처 디바이스;
    상기 모바일 디바이스의 제 1 배향 (orientation) 을 측정하도록 구성된 적어도 하나의 센서; 및
    상기 이미지 캡처 디바이스와 상기 적어도 하나의 센서에 통신가능하게 커플링된 프로세서를 포함하며,
    상기 프로세서는,
    상기 이미지 캡처 디바이스에 의해 캡처된 이미지에서 오브젝트를 식별하고,
    상기 모바일 디바이스의 포지션을 이용하여 상기 모바일 디바이스에 대한 상기 오브젝트의 실제 로케이션을 결정하며, 그리고
    상기 모바일 디바이스에 대한 상기 오브젝트의 실제 로케이션 및 상기 이미지를 이용하여 상기 센서에 대한 정정값을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  2. 제 1 항에 있어서,
    상기 오브젝트는 천체 오브젝트이고,
    상기 프로세서는 상기 모바일 디바이스의 포지션 및 현재시각을 이용하여 상기 모바일 디바이스에 대한 상기 천체 오브젝트의 실제 로케이션을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  3. 제 1 항에 있어서,
    상기 정정값을 결정하기 위해, 상기 프로세서는, (1) 상기 이미지 및 상기 모바일 디바이스의 상기 제 1 배향을 이용한 상기 모바일 디바이스에 대한 상기 오브젝트의 추정된 로케이션, 또는 (2) 상기 이미지 및 상기 오브젝트의 실제 로케이션을 이용한 상기 모바일 디바이스의 제 2 배향 중 적어도 하나를 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  4. 제 3 항에 있어서,
    상기 정정값을 결정하기 위해, 상기 프로세서는,
    상기 오브젝트의 상기 추정된 로케이션을 결정하고,
    로케이션 차이를 결정하기 위해 상기 실제 로케이션과 상기 추정된 로케이션을 비교하고, 그리고
    상기 로케이션 차이가 감소되도록 상기 정정값을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  5. 제 3 항에 있어서,
    상기 정정값을 결정하기 위해, 상기 프로세서는,
    상기 모바일 디바이스의 상기 제 2 배향을 결정하고, 그리고
    상기 제 1 배향과 상기 제 2 배향 간의 차이가 감소되도록 상기 정정값을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  6. 제 1 항에 있어서,
    상기 프로세서는, 상기 제 1 배향을 결정하고, 상기 이미지 캡처 디바이스에 의해 캡처된 복수의 이미지들 각각에 대한 정정값을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  7. 제 1 항에 있어서,
    상기 프로세서는, 상기 이미지 캡처 디바이스에 의해 캡처되는 복수의 이미지들 각각에 대하여 상기 제 1 배향을 결정하고, 상기 복수의 이미지들에 대한 상기 제 1 배향에 기초하여 상기 모바일 디바이스의 회전율을 결정하여 상기 모바일 디바이스에 대한 가상 자이로스코프를 제공하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  8. 제 1 항에 있어서,
    상기 이미지 캡처 디바이스는, 사용자 입력 없이 이미지들을 자동으로 캡처하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  9. 제 1 항에 있어서,
    상기 프로세서는, 상기 제 1 배향, 상기 정정값, 상기 이미지, 및 상기 오브젝트의 실제 로케이션을 이용하여 상기 모바일 디바이스에 대한 가상 콤파스를 제공하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  10. 모바일 디바이스에서 상기 모바일 디바이스를 캘리브레이션하는 방법으로서,
    상기 모바일 디바이스의 이미지 캡처 디바이스로, 오브젝트의 이미지를 캡처하는 단계;
    상기 모바일 디바이스의 센서를 이용하여 상기 모바일 디바이스의 제 1 배향을 결정하는 단계;
    상기 모바일 디바이스의 포지션 및 현재시각을 이용하여 상기 모바일 디바이스에 대한 상기 오브젝트의 실제 로케이션을 결정하는 단계; 및
    상기 센서에 대한 정정값을 결정하는 단계를 포함하며,
    상기 정정값은 상기 모바일 디바이스에 대한 상기 오브젝트의 상기 실제 로케이션, 상기 이미지 및 상기 제 1 배향을 이용하여 결정되는, 모바일 디바이스를 캘리브레이션하는 방법.
  11. 제 10 항에 있어서,
    상기 오브젝트는 천체 오브젝트이고,
    상기 모바일 디바이스에 대한 상기 오브젝트의 실제 로케이션을 결정하는 단계는 상기 모바일 디바이스의 포지션 및 현재시각을 이용하는 단계를 포함하는, 모바일 디바이스를 캘리브레이션하는 방법.
  12. 제 10 항에 있어서,
    상기 정정값을 결정하는 단계는, (1) 상기 이미지 및 상기 모바일 디바이스의 상기 제 1 배향을 이용한 상기 모바일 디바이스에 대한 상기 오브젝트의 추정된 로케이션, 또는 (2) 상기 이미지 및 상기 오브젝트의 실제 로케이션을 이용한 상기 모바일 디바이스의 제 2 배향 중 적어도 하나를 결정하는 단계를 포함하는, 모바일 디바이스를 캘리브레이션하는 방법.
  13. 제 10 항에 있어서,
    상기 캡처하는 단계, 상기 제 1 배향을 결정하는 단계, 및 상기 정정값을 결정하는 단계를 반복하는 단계를 더 포함하는, 모바일 디바이스를 캘리브레이션하는 방법.
  14. 제 13 항에 있어서,
    상기 캡처하는 단계를 반복하는 단계는 (1) 상이한 오브젝트들, 또는 (2) 상이한 디바이스 배향들 중 적어도 하나에 대하여 실행되는, 모바일 디바이스를 캘리브레이션하는 방법.
  15. 제 10 항에 있어서,
    상기 캡처하는 단계는 사용자 입력 없이 자동으로 발생하는, 모바일 디바이스를 캘리브레이션하는 방법.
  16. 모바일 원격통신 디바이스의, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품으로서,
    상기 컴퓨터 프로그램 제품은, 프로세서로 하여금,
    모바일 디바이스의 센서를 이용하여 상기 모바일 디바이스의 제 1 배향을 결정하게 하고,
    상기 모바일 디바이스의 포지션 및 현재시각을 이용하여 상기 모바일 디바이스에 대한 천체의 실제 로케이션을 결정하게 하며, 그리고
    상기 모바일 디바이스에 대한 상기 천체의 실제 로케이션 및 상기 모바일 디바이스에 의해 취득된 천체의 이미지를 이용하여 상기 센서에 대한 정정값을 결정하게 하도록
    구성되는 프로세서 판독가능 명령들을 포함하는, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품.
  17. 제 16 항에 있어서,
    오브젝트가 천체 오브젝트이고,
    상기 프로세서로 하여금 상기 모바일 디바이스에 대한 상기 천체 오브젝트의 실제 로케이션을 결정하게 하도록 구성된 명령들은, 상기 프로세서로 하여금 상기 모바일 디바이스의 포지션 및 현재시각을 이용하게 하도록 구성되는, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품.
  18. 제 17 항에 있어서,
    상기 프로세서로 하여금 상기 정정값을 결정하게 하도록 구성된 명령들은, 상기 프로세서로 하여금, (1) 상기 이미지 및 상기 모바일 디바이스의 상기 제 1 배향을 이용한 상기 모바일 디바이스에 대한 상기 오브젝트의 추정된 로케이션, 또는 (2) 상기 이미지 및 상기 오브젝트의 실제 로케이션을 이용한 상기 모바일 디바이스의 제 2 배향 중 적어도 하나를 결정하게 하도록 구성되는, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품.
  19. 제 18 항에 있어서,
    상기 프로세서로 하여금 상기 정정값을 결정하게 하도록 구성된 명령들은, 상기 프로세서로 하여금,
    상기 오브젝트의 상기 추정된 로케이션을 결정하게 하고,
    로케이션 차이를 결정하기 위해 상기 실제 로케이션과 상기 추정된 로케이션을 비교하게 하고, 그리고
    상기 로케이션 차이가 감소되도록 상기 정정값을 결정하게 하도록 구성되는, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품.
  20. 제 18 항에 있어서,
    상기 프로세서로 하여금 상기 정정값을 결정하게 하도록 구성된 명령들은, 상기 프로세서로 하여금,
    상기 모바일 디바이스의 상기 제 2 배향을 결정하게 하고, 그리고
    상기 제 1 배향과 상기 제 2 배향 간의 차이가 감소되도록 상기 정정값을 결정하게 하도록 구성되는, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품.
  21. 제 18 항에 있어서,
    상기 프로세서로 하여금 상기 정정값을 결정하게 하도록 구성된 명령들은, 상기 프로세서로 하여금 이미지 캡처 디바이스에 의해 캡처된 복수의 이미지들 각각에 대한 정정값을 결정하게 하도록 구성되는, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품.
  22. 제 18 항에 있어서,
    상기 프로세서로 하여금 상기 제 1 배향을 결정하게 하도록 구성된 명령들은, 상기 프로세서로 하여금 이미지 캡처 디바이스에 의해 캡처되는 복수의 이미지들 각각에 대하여 상기 제 1 배향을 결정하게 하도록 구성되고,
    상기 명령들은, 상기 프로세서로 하여금 상기 복수의 이미지들에 대한 상기 제 1 배향에 기초하여 상기 모바일 디바이스의 회전율을 결정하여 상기 모바일 디바이스에 대한 가상 자이로스코프를 제공하게 하도록 구성된 명령들을 더 포함하는, 프로세서 판독가능 매체 상에 상주하는 컴퓨터 프로그램 제품.
  23. 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스로서,
    이미지 캡처 디바이스;
    상기 모바일 디바이스의 제 1 배향을 측정하는 제 1 배향 수단; 및
    상기 이미지 캡처 디바이스와 상기 제 1 배향 수단에 통신가능하게 커플링된 정정 수단을 포함하며,
    상기 정정 수단은,
    상기 이미지 캡처 디바이스에 의해 캡처된 이미지에서 천체를 식별하고,
    상기 모바일 디바이스의 포지션 및 현재시각을 이용하여 상기 모바일 디바이스에 대한 상기 천체의 실제 로케이션을 결정하며, 그리고
    상기 모바일 디바이스에 대한 상기 천체의 실제 로케이션 및 상기 이미지를 이용하여 센서에 대한 정정값을 결정하는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  24. 제 23 항에 있어서,
    상기 정정 수단은 상기 모바일 디바이스의 포지션 및 현재시각을 이용하여 상기 모바일 디바이스에 대한 상기 천체의 실제 로케이션을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  25. 제 24 항에 있어서,
    상기 정정 수단은,
    상기 천체의 추정된 로케이션을 결정하고,
    로케이션 차이를 결정하기 위해 상기 실제 로케이션과 상기 추정된 로케이션을 비교하고, 그리고
    상기 로케이션 차이가 감소되도록 상기 정정값을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  26. 제 24 항에 있어서,
    상기 정정 수단은,
    상기 모바일 디바이스의 제 2 배향을 결정하고, 그리고
    상기 제 1 배향과 상기 제 2 배향 간의 차이가 감소되도록 상기 정정값을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  27. 제 23 항에 있어서,
    상기 정정 수단은, 상기 제 1 배향을 결정하고, 상기 이미지 캡처 디바이스에 의해 캡처된 복수의 이미지들 각각에 대한 정정값을 결정하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  28. 제 23 항에 있어서,
    상기 정정 수단은, 상기 이미지 캡처 디바이스에 의해 캡처되는 복수의 이미지들 각각에 대하여 상기 제 1 배향을 결정하고, 상기 복수의 이미지들에 대한 상기 제 1 배향에 기초하여 상기 모바일 디바이스의 회전율을 결정하여 상기 모바일 디바이스에 대한 가상 자이로스코프를 제공하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  29. 제 23 항에 있어서,
    상기 이미지 캡처 디바이스는, 사용자 입력 없이 이미지들을 자동으로 캡처하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
  30. 제 23 항에 있어서,
    상기 정정 수단은, 상기 제 1 배향, 상기 정정값, 상기 이미지, 및 상기 천체의 실제 로케이션을 이용하여 상기 모바일 디바이스에 대한 가상 콤파스를 제공하도록 구성되는, 무선 통신 네트워크에서 이용되도록 구성된 모바일 디바이스.
KR1020127032179A 2010-05-07 2011-05-06 배향 센서 캘리브레이션 KR20130031280A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/775,935 2010-05-07
US12/775,935 US8694051B2 (en) 2010-05-07 2010-05-07 Orientation sensor calibration
PCT/US2011/035620 WO2011140501A1 (en) 2010-05-07 2011-05-06 Orientation sensor calibration

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020147033235A Division KR101600741B1 (ko) 2010-05-07 2011-05-06 배향 센서 캘리브레이션

Publications (1)

Publication Number Publication Date
KR20130031280A true KR20130031280A (ko) 2013-03-28

Family

ID=44121186

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020127032179A KR20130031280A (ko) 2010-05-07 2011-05-06 배향 센서 캘리브레이션
KR1020147033235A KR101600741B1 (ko) 2010-05-07 2011-05-06 배향 센서 캘리브레이션

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020147033235A KR101600741B1 (ko) 2010-05-07 2011-05-06 배향 센서 캘리브레이션

Country Status (6)

Country Link
US (1) US8694051B2 (ko)
EP (1) EP2567192B1 (ko)
JP (2) JP5806295B2 (ko)
KR (2) KR20130031280A (ko)
CN (1) CN102884398B (ko)
WO (1) WO2011140501A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023146092A1 (ko) * 2022-01-25 2023-08-03 삼성전자주식회사 영상 기반 관성 센서 보정 방법 및 이를 수행하는 전자 장치

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8890896B1 (en) * 2010-11-02 2014-11-18 Google Inc. Image recognition in an augmented reality application
US8620582B2 (en) * 2011-01-04 2013-12-31 Blackberry Limited Device position method and apparatus using celestial objects
EP2600109A3 (en) * 2011-11-30 2015-03-25 Sony Ericsson Mobile Communications AB Method for calibration of a sensor unit and accessory comprising the same
US8933993B1 (en) * 2012-01-16 2015-01-13 Google Inc. Hybrid local and cloud based method for pose determination of a mobile device
CN102721425B (zh) * 2012-05-23 2015-09-02 北京红旗胜利科技发展有限责任公司 一种导航系统中修正航向的方法及装置
US9562764B2 (en) * 2012-07-23 2017-02-07 Trimble Inc. Use of a sky polarization sensor for absolute orientation determination in position determining systems
US9784837B1 (en) * 2012-08-03 2017-10-10 SeeScan, Inc. Optical ground tracking apparatus, systems, and methods
US20170328729A1 (en) * 2012-08-14 2017-11-16 Google Inc. System To Optimize Sensor Parameters In An Autonomous Vehicle
US8752761B2 (en) 2012-09-21 2014-06-17 Symbol Technologies, Inc. Locationing using mobile device, camera, and a light source
US8818420B2 (en) * 2012-09-28 2014-08-26 Intel Corporation Rotation-tolerant devices and schemes for pedestrian-dead-reckoning (PDR) location determination
CN102901484B (zh) * 2012-10-18 2014-07-23 毕诗捷 天线测姿传感器以及天线测姿方法
US9484980B1 (en) * 2012-12-03 2016-11-01 Sprint Communications Company L.P. Precision timing source back-up for loss of GPS satellites
US10444845B2 (en) 2012-12-21 2019-10-15 Qualcomm Incorporated Display of separate computer vision based pose and inertial sensor based pose
KR102060723B1 (ko) * 2013-01-18 2019-12-31 삼성전자주식회사 사용자 행동 인식 장치, onmf 기반 기저 행렬 생성 방법 및 ossnmf 기반 기저 행렬 생성 방법
EP3005579A4 (en) * 2013-05-31 2017-02-08 Nokia Technologies OY Calibration data
RU2015156636A (ru) * 2013-06-11 2017-07-20 Филипс Лайтинг Холдинг Б.В. Способ калибровки датчика
US20150192440A1 (en) * 2014-01-07 2015-07-09 InvenSense, Incorporated Systems and Methods for Initiating Calibration of a Sensor
EP2930466B1 (de) 2014-04-09 2018-07-18 Safran Vectronix AG Handhaltbares Beobachtungsgerät mit einem digitalen Magnetkompass
US20150362579A1 (en) * 2014-06-12 2015-12-17 Google Inc. Methods and Systems for Calibrating Sensors Using Recognized Objects
US10175358B2 (en) * 2014-08-04 2019-01-08 Elbit Systems Of America, Llc Systems and methods for northfinding
EP3183712B1 (en) * 2014-08-18 2020-07-22 Google LLC Determining compass orientation of imagery
US9886040B1 (en) * 2014-09-24 2018-02-06 Rockwell Collins, Inc. System and method for platform alignment, navigation or targeting
CN104359453B (zh) * 2014-11-12 2018-08-10 毕诗捷 一种基于图像处理技术的电子日位传感器及其使用方法
US10178644B2 (en) * 2015-02-20 2019-01-08 Telefonaktiebolaget Lm Ericsson (Publ) Positioning methods for a communication device and a positioning server in a wireless communication environment
US20160349408A1 (en) * 2015-05-29 2016-12-01 International Business Machines Corporation Prediction verification using a self-calibrating camera
KR102462799B1 (ko) 2015-11-05 2022-11-03 삼성전자주식회사 자세 추정 방법 및 자세 추정 장치
US10325134B2 (en) 2015-11-13 2019-06-18 Fingerprint Cards Ab Method and system for calibration of an optical fingerprint sensing device
US20170140233A1 (en) 2015-11-13 2017-05-18 Fingerprint Cards Ab Method and system for calibration of a fingerprint sensing device
KR102546714B1 (ko) 2015-12-15 2023-06-23 삼성전자주식회사 전자장치 및 그 거치대
GB201604556D0 (en) 2016-03-17 2016-05-04 Qinetiq Ltd Celestial navigation system
GB201605082D0 (en) * 2016-03-24 2016-05-11 Eeag Ltd Solar tracking device
WO2018055619A1 (en) * 2016-09-25 2018-03-29 Israel Aerospace Industries Ltd. Celestial compass and method of calibrating
WO2018085689A1 (en) * 2016-11-03 2018-05-11 Laine Juha Pekka J Camera-based heading-hold navigation
US10818188B2 (en) * 2016-12-13 2020-10-27 Direct Current Capital LLC Method for dispatching a vehicle to a user's location
US10581160B2 (en) 2016-12-16 2020-03-03 Gopro, Inc. Rotational wireless communication system
WO2018129335A1 (en) * 2017-01-06 2018-07-12 Idhl Holdings, Inc. Methods, apparatus and systems for gyroscope scale calibration
US11493348B2 (en) 2017-06-23 2022-11-08 Direct Current Capital LLC Methods for executing autonomous rideshare requests
US10378899B2 (en) * 2017-09-11 2019-08-13 Goodrich Corporation Systems and methods for determining position of an object relative to a vehicle
US10605603B2 (en) * 2017-09-11 2020-03-31 Goodrich Corporation Navigation systems and methods
US11170531B2 (en) * 2017-09-13 2021-11-09 Xiaochun Nie Systems and methods for calibrating imaging and spatial orientation sensors
US11294019B2 (en) * 2017-12-27 2022-04-05 Southwest Research Institute Geolocation calibration for calibrating radio direction finding system by remote control
US10612901B2 (en) * 2018-03-23 2020-04-07 Simmonds Precision Products, Inc. Real-time compensation of inertial gyroscopes
KR102652232B1 (ko) * 2018-07-24 2024-03-28 삼성전자주식회사 위성 측위 회로를 이용하여 획득된 방위 정보에 기반하여, 센서를 통해 획득된 방위 정보 또는 센서를 보정하는 방법 및 이를 지원하는 전자 장치
CN109470275B (zh) * 2018-12-17 2022-06-28 中国科学院光电技术研究所 一种机动布站的光电经纬仪高精度自主定向方法
US20200348143A1 (en) * 2019-05-03 2020-11-05 Apple Inc. Adjusting heading sensor output based on image data
US11292618B2 (en) * 2019-07-03 2022-04-05 Mitsubishi Electric Research Laboratories, Inc. Nonlinear model predictive control of coupled celestial system
US11412350B2 (en) * 2019-09-19 2022-08-09 Apple Inc. Mobile device navigation system
US11935263B1 (en) * 2021-04-20 2024-03-19 Apple Inc. Global reference direction detection for orienting three-dimensional models
CN113566847B (zh) * 2021-07-22 2022-10-11 北京百度网讯科技有限公司 导航校准方法和装置、电子设备、计算机可读介质
CN114500719B (zh) * 2021-12-31 2024-06-25 四川九天惯通科技有限公司 一种带天体定位功能的手机及天体定位方法
JP7407213B2 (ja) * 2022-02-22 2023-12-28 本田技研工業株式会社 方角特定装置、及び方角特定方法
US11961254B2 (en) 2022-05-07 2024-04-16 Pano AI, Inc. Systems and methods for location triangulation based on time based panoramic frames
CN115655249A (zh) * 2022-10-21 2023-01-31 维沃移动通信有限公司 指南针校准方法及装置、电子设备和可读存储介质
CN116698086B (zh) * 2023-07-31 2023-10-20 中国人民解放军国防科技大学 仿生偏振视觉导航传感器的误差联合标定方法和装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672190B2 (ja) * 2001-04-26 2011-04-20 三菱電機株式会社 映像ナビゲーション装置
US7451059B2 (en) * 2003-03-02 2008-11-11 Tomer Malchi True azimuth and north finding method and system
JP2005308446A (ja) * 2004-04-19 2005-11-04 Mitsubishi Electric Corp 広域設備確認方法及び広域設備確認システムならびに設備情報サーバ装置
US20060103926A1 (en) * 2004-11-12 2006-05-18 Imaginova Corporation Telescope system and method of use
JP3900365B2 (ja) * 2005-03-03 2007-04-04 三菱電機株式会社 測位装置および測位方法
US20070117078A1 (en) 2005-11-23 2007-05-24 Trex Enterprises Corp Celestial compass
KR100761011B1 (ko) * 2006-05-30 2007-09-21 학교법인 인하학원 카메라형 태양센서를 이용한 관성항법시스템의자세보정장치 및 방법
JP2008064889A (ja) * 2006-09-05 2008-03-21 Toyota Motor Corp 天体観賞装置
JP4702802B2 (ja) * 2006-09-11 2011-06-15 アルパイン株式会社 車両方位補正システム
US8471906B2 (en) 2006-11-24 2013-06-25 Trex Enterprises Corp Miniature celestial direction detection system
JP2008203992A (ja) * 2007-02-16 2008-09-04 Omron Corp 検出装置および方法、並びに、プログラム
JP4897542B2 (ja) * 2007-03-30 2012-03-14 三菱電機株式会社 自己位置標定装置、自己位置標定方法および自己位置標定プログラム
US7698825B2 (en) 2007-08-17 2010-04-20 The Trustees Of Columbia University In The City Of New York Automatic solar compass
JP2009074861A (ja) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc 移動量計測装置及び位置計測装置
JP2009074859A (ja) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc 運動計測装置及び位置計測装置
CN101241010B (zh) 2007-10-25 2010-06-02 杭州米特科技有限公司 磁罗经自差自动校正方法及其装置
JP2009210875A (ja) * 2008-03-05 2009-09-17 Casio Comput Co Ltd 天体観測装置
NL1037021C2 (nl) 2009-06-05 2010-12-07 Weijers Holding B V W Werkwijze voor het bepalen van een relatieve richting van een of meer windstreken met behulp van een draagbaar apparaat, alsmede systeem voor het uitvoeren van een dergelijke werkwijze en een computerprogrammaproduct.
JP5649842B2 (ja) * 2010-03-30 2015-01-07 新日鉄住金ソリューションズ株式会社 情報提供装置、情報提供方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023146092A1 (ko) * 2022-01-25 2023-08-03 삼성전자주식회사 영상 기반 관성 센서 보정 방법 및 이를 수행하는 전자 장치

Also Published As

Publication number Publication date
JP5806295B2 (ja) 2015-11-10
JP2015165246A (ja) 2015-09-17
KR101600741B1 (ko) 2016-03-09
CN102884398B (zh) 2015-07-08
JP2013531223A (ja) 2013-08-01
CN102884398A (zh) 2013-01-16
US20110275408A1 (en) 2011-11-10
EP2567192B1 (en) 2018-04-11
EP2567192A1 (en) 2013-03-13
WO2011140501A1 (en) 2011-11-10
US8694051B2 (en) 2014-04-08
KR20140143464A (ko) 2014-12-16

Similar Documents

Publication Publication Date Title
KR101600741B1 (ko) 배향 센서 캘리브레이션
EP2663838B1 (en) Camera-based inertial sensor alignment for personal navigation device
US7728264B2 (en) Precision targeting
US9791278B2 (en) Navigating with star tracking sensors
US9478034B1 (en) Geoposition determination by starlight refraction measurement
JP2011220844A (ja) 位置算出方法及び位置算出装置
EP2875317A2 (en) Sky polarization sensor for absolute orientation determination
US10054442B2 (en) Method and apparatus for handling vertical orientations of devices for constraint free portable navigation
TW201027105A (en) Using magnetometer with a positioning system
CN113514865B (zh) 一种组合导航装置的初始化方法、组合导航装置及计算机可读介质
CN113295174B (zh) 一种车道级定位的方法、相关装置、设备以及存储介质
US11536857B2 (en) Surface tracking on a survey pole
US10222214B2 (en) Digital sight for hand-carried projectile-firing device and method of controlling the same
RU2007149048A (ru) Навигационное устройство с информацией, получаемой от камеры
US11175134B2 (en) Surface tracking with multiple cameras on a pole
KR20140142610A (ko) 위치 측정 장치 및 방법
US20190104492A1 (en) Cell Phone-Based Land Navigation Methods and Systems
US20240168176A1 (en) Precision positioning and pointing instrument
US10964047B2 (en) Device for locating a target by stellar correction, intended to be on board a mobile carrier
CN118067153A (zh) 一种组合导航装置测量误差的估计方法、装置及存储介质
Syed et al. Trusted portable navigator for environment and user independent positioning
WO2021127570A1 (en) Surface tracking with multiple cameras on a pole

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20141126

Effective date: 20150818