KR20220038737A - 광 마우스 센서 기술을 기반으로 하는 광류 주행 거리 측정기 - Google Patents

광 마우스 센서 기술을 기반으로 하는 광류 주행 거리 측정기 Download PDF

Info

Publication number
KR20220038737A
KR20220038737A KR1020227006121A KR20227006121A KR20220038737A KR 20220038737 A KR20220038737 A KR 20220038737A KR 1020227006121 A KR1020227006121 A KR 1020227006121A KR 20227006121 A KR20227006121 A KR 20227006121A KR 20220038737 A KR20220038737 A KR 20220038737A
Authority
KR
South Korea
Prior art keywords
digital image
image sensors
odometer
sensors
optical flow
Prior art date
Application number
KR1020227006121A
Other languages
English (en)
Inventor
풀비오 브레치아니
조르지오 파사노
Original Assignee
탈레스 알레니아 스페이스 이탈리아 에스.피.에이 콘 유니코 소시오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 탈레스 알레니아 스페이스 이탈리아 에스.피.에이 콘 유니코 소시오 filed Critical 탈레스 알레니아 스페이스 이탈리아 에스.피.에이 콘 유니코 소시오
Publication of KR20220038737A publication Critical patent/KR20220038737A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

표면에 대해 상대적으로 이동할 수 있는 물체(1)의 위치를 결정하기 위한 광류 주행 거리 측정기(2). 상기 광류 주행 거리 측정기(2)는:
- 각각의 기준 위치에서 이동 물체(1) 상에 배열되도록 의도된 디지털 이미지 센서들(3)의 클러스터; 및
- 상기 디지털 이미지 센서들(3)과 전기적으로 연결된 전자 처리 및 제어 유닛(4)을 포함하며, 상기 전자 처리 및 제어 유닛(4)은,
상기 디지털 이미지 센서들(3) 각각이 개별 디지털 이미지들을 동시에 캡처하기 위해 동작하는 일련의 다중 디지털 이미지 동작들을 수행하기 위해 상기 이동 물체(1)의 이동 동안 후속 시점들에서 상기 디지털 이미지 센서들(3)을 동작; 및
하나 이상의 상기 다중 이지털 이미지 캡처 동작들에서 상기 개별 디지털 이미지 센서들(3)의 위치들 또는 디지털 이미지 센서(3)의 클러스트의 위치를 계산하기 위해 상기 다중 디지털 이미지 캡처 동작들에서 캡처된 상기 디지털 이미지들(3)을 상기 디지털 이미지 센서들로부터 수신 및 처리; 및
하나 이상의 다중 디지털 이미지 캡처 동작들에서 계산된 하나 이상의 개별 디지털 이미지 센서들(3)의 위치들 또는 상기 디지털 이미지 센서(3)의 클러스터의 위치에 기반하여 하나 이상의 다중 디지털 이미지 캡처 동작들에서 상기 이동 물체(1)의 위치를 계산하도록 구성된다.

Description

광 마우스 센서 기술을 기반으로 하는 광류 주행 거리 측정기
이 특허 출원은 2019년 7월 24일에 출원된 이탈리아 특허 출원 번호 102019000012777에 대한 우선권을 주장하며, 그 전체 내용은 여기에 참조로 포함된다.
본 발명은 일반적으로 주행 거리 측정기에 관한 것으로, 특히 광 마우스 센서 기술에 기반한 광류 주행 거리 측정기에 관한 것이다.
본 발명은, 비록 배타적이지는 않지만, 공간 섹터, 즉 실내 및 실외에서 특히 바퀴 및 다리가 있는 로봇 탐색에 유리하게 적용된다. 특히, 본 발명은, 비록 배타적이지는 않지만, 이하의 설명에서 그 일반적인 특성을 잃지 않으면서 명시적으로 언급할 천체 탐사를 위해 의도된 로버(또는 천체 이동체)에 대해 유리하게 적용된다.
본 발명은 다양한 비공간 섹터, 예를 들어 실내 응용들, 도로 및 철도 차량들, 오래된 배관 등을 탐색하고 다시 매핑하는 등의 AGV(Automated/Automatic Guided Vehicles)에 대해서도 적용될 수 있다.
알려진 바와 같이, 거리 측정기(odometry)는 그리스어 odos(경로, path) e metron(측정, measure)으로 구성된 단어로 이동 센서로부터의 데이터를 사용하여 시간에 따른 위치 변화를 추정하는 것이다.
거리 측정기는 로봇 분야에서 시작 위치를 기준으로 다리가 있거나 바퀴가 있는 로봇의 위치를 결정하는 데 사용된다.
Dille, M.; Grocholsky, B.; Singh, S. "Outdoor Downward-facing Optical Flow Odometry with Commodity Sensors", Field and Service Robotics, July 2009, vol. 62, pp. 1-10, and in Ross, R.; Devlin, J.; Wang, S. "Toward refocused optical mouse sensors for outdoor optical flow odometry", Sensors Journal, IEEE, 12(6):1925-1932, June 2012에서는 광 마우스 센서들을 사용하여 2D 변위 광학 측정을 수행할 것을 제안한다.
알려진 바와 같이, 광 마우스 센서는 광학 및 전자 부품 세트를 전자 인쇄 회로 기판(PCB)에 집적한 작고 저렴한 비접촉식 센서이며, 일반적으로 LED(Light-Emitting Diodes) 형태의 광원, 광 다이오드 어레이 또는 보다 일반적으로 APS(능동 픽셀 센서)라고도 하는 CMOS(Complementary Metal-Oxide-Semiconductor) 센서와 같은 광 검출기, 적절한 광학 소자 및 일반적으로 광원을 동작시켜 디지털로 이미지화할 영역을 조명하고 캡처된 디지털 이미지를 획득 및 처리하여 2D 변위를 계산하도록 프로그래밍된 마이크로프로세서 형태의 DSP(디지털 신호 처리) 하드웨어를 포함한다.
특히, "Outdoor Downward-facing Optical Flow Odometry with Commodity Sensors"에서는 광 마우스 센서 기술을 기반으로 한 시각적 주행 거리 측정기와 관성 측정 기술을 결합하여 GPS-거부된 또는 매우 미끄러운 환경에서 로버와 같은 현장 로봇 차량의 속도를 측정하는 것을 제안한다.
이러한 결합된 광학-관성 주행 거리 측정 기술은 바퀴 달린 주행 거리 측정 기술로 달성할 수 있는 것보다 더 높은 정밀도로 2차원 변위 광학 측정을 제공한다고 선언되었으며 고급 GPS-INS 시스템(Global Positioning System-Inertial Navigation System)에 의해 제공된 것보다 눈에 띄게 더 높은 평가를 받고 있다.
"Toward refocused optical mouse sensors for outdoor optical flow odometry"에서는 광 마우스 센서를 기반으로 하는 수평 이동 광학 측정에 영향을 미치고 지면에 대한 측정 기기의 수직 높이 변화로 인해 발생하는 시스템 오류를 완화하기 위한 두 가지 접근 방식을 제안한다.
US 2004/221790 A1은 보안 영역에서 실내/실외 차량 추적, 산업용 및 가정용 로봇 탐색, 자율 농장 차량의 자동 조향 및 탐색, 쇼핑 카트 탐색 및 추적, 및 자동화된 잠금 방지 제동 시스템을 비롯한 다양한 응용들에 저렴하게 적용하게 하는 광학 주행 거리 측정 방법 및 장치를 개시한다. 바람직한 저비용 실시예에서, 텔레센트릭 렌즈가 광학 컴퓨터 마우스 칩 및 마이크로프로세서와 함께 사용된다. 2-센서 실시예에서, 회전 및 병진이동 모두가 정확하게 측정된다.
US 2006/209015 A1은 물체의 표면에 광학적으로 결합할 수 있는 이미지 센서, 데이터 저장 장치, 및 탑색 회로를 포함하는 광학 탐색 시스템을 개시한다. 이미지 센서는 제1방향으로 배치된 감광 소자들의 수가 제2방향으로 배치된 감광 소자들의 수보다 많은 다수의 감광 소자들을 포함한다. 제2방향은 제1방향에 수직이다. 이미지 센서는 제1방향에 평행한 축을 따라 위치한 영역들인 표면 영역들의 연속적인 이미지들을 캡처할 수 있다. 데이터 저장 장치는 캡처된 이미지들을 저장할 수 있다. 탐색 회로는 변위 이후에 캡처된 이미지를 변위 이전에 캡처된 이미지와 비교함으로써 획득된 축을 따라 이미지 센서와 물체 사이의 상대 변위에 대한 추정치를 결정하기 위한 제1디지털 회로를 포함한다.
WO 2017/174250 A1은 차량의 카메라 시스템의 다중 카메라의 장착 위치들 및/또는 배향들을 결정하기 위한 방법을 개시하고 있으며, 카메라는 차량에 배열되고 상이한 장착 위치들 및/또는 배향들을 갖는다. 이미지들은 카메라들에 의해 캡처되고 카메라들의 장착 위치들 및/또는 배향들은 캡처된 이미지들의 이미지 처리를 통해 결정된다.
출원인은 위에서 언급한 두 논문들에서 확인된 바와 같이, 마우스 센서를 기반으로 하는 주행 거리 측정 기술이 위치 추정치들을 제공하기 위해 시간 경과에 따른 속도 측정들의 통합으로 인한 오류에 특히 민감하다는 것을 경험했다. 대부분의 경우 주행 거리 측정기를 효과적으로 채택하기 위해서는, 데이터를 빠르고 정확하게 수집 및 처리하고 측정 장비를 교정해야 한다.
특히 논문 "Outdoor Downward-facing Optical Flow Odometry with Commodity Sensors"에서 알 수 있듯이 광 마우스 센서 기술을 기반으로 하는 주행 거리 측정 시스템을 사용하여 행성 탐사 로버의 궤적, 방향 및 속도를 계산하기 위해, 이러한 기술에 존재하는 문제는 현재 단독으로 사용할 수는 없지만 위에서 고려한 관성 기술과 같이 어떤 경우에는 비싸고 광 마우스 센서 기술에 속하는 단순성과 비용 효율성의 이점을 상실하게 하는 다른 주행 거리 측정 기술의 도움이 필요하다.
실제로, 광 마우스 센서 기술에 기반한 주행 거리 측정기의 동작 원리는 로버가 이동하는 동안 로버가 위치를 변경했기 때문에 유사하지만 서로 다른 후속 디지털 이미지들 사이의 상호-상관을 계산하는 것에 기반한다는 논문으로부터 파생된다. 이러한 계산은 로버 위치를 개별적으로 정의하고 함께 로버 궤적과 속도를 정의하는 최대 또는 피크 값들의 세트를 출력하며, 각각은 2개의 후속적으로 캡처된 디지털 이미지 사이의 시간 범위 내에서 로버의 변위에 비례하는 양만큼 이전 피크에 대해 변위된다.
그러나, 광 마우스 센서 기술에 기반한 주행 거리 측정기는 약 1000Hz의 주파수에서 동작한다. 즉, 초당 약 1000개의 디지털 이미지들의 상호-상관을 캡처하고 계산하므로 수십 센티미터에 불과한 로버의 짧은 여정에서도 디지털 이미지가 잘못 캡처 또는 저장되거나 로버가 이동하는 평면이 약간 변경될 수도 있으므로, 이러한 기술은 보정할 수 없는 잘못 캡처된 디지털 이미지를 기반으로 로버 위치를 잘못 계산할 수 있으며, 따라서 이러한 오류는 이전의 오류들에 더해질 수 있다.
컴퓨터 광 마우스들에서도 이러한 연산 오류가 발생하여 패드에 있는 광 마우스의 경로와 화면에 표시되는 대응되는 화살표의 경로가 완벽하게 일치하지 않을 수 있으나, 이러한 오류는 화살표를 목표 위치로 스크린 상에서 이동시킴으로써 사용자에 의해 완전히 무의식적으로 수정된다.
상기 논문은 상이한 동작 상황에서 합해진 오류들의 통계로 결론을 내리고, 이 기술이 다른 기술들과 달리 밀리미터 미만의 정밀도를 가지므로 어떠한 경우에도 유용하다고 언급하면서도 어떻게 이러한 오류를 보정할 수 있는지 제시하지 못하며, 파노라마 카메라들(PamCam) 기반의 주행 거리 측정 시스템으로 수시로 재보정해야만 하는 경우조차 정밀도가 떨어지고 매우 비싸며, 산, 분화부 등과 같은 지상의 절대적인 기준들 덕분에 매번 위치를 재계산할 수 있다.
본 발명은 광 마우스 센서 기술에 기반한 광류 주행 거리 측정기를 제공하는 것을 목적으로 하며, 특히 추가적인 주행 거리 측정 시스템의 도움을 필요 없이 전술한 선행 기술들의 단점을 극복함으로써 비용과 기술 및 적용 단순성 측면에서 광류 주행 거리 측정기의 경쟁력을 증가시킬 수 있다.
본 발명에 따르면, 첨부된 청구범위에 청구된 바와 같이 광류 주행 거리 측정기 및 그러한 광류 주행 거리 측정기가 제공된 차량이 제공된다.
도 1은 본 발명에 따라 제조된 하향식 광류 주행 거리 측정기가 장착된 탐사 로버를 나타낸다.
도 2는 본 발명의 실시예에 따른 광류 주행 거리 측정기의 블록도를 나타낸다.
도 3은 로버 위치를 계산하기 위해 도 2에 도시된 광류 주행 거리 측정기의 전자 처리 및 제어 유닛에 의해 구현되는 동작들의 흐름도를 나타낸다.
도 4는 다중 디지털 이미지 캡처 동작들을 수행하는 동안 디지털 이미지 센서들에 의해 캡처된 디지털 이미지들을 기반으로 계산된 디지털 이미지 센서들의 위치들을 나타낸다.
도 5는 다중 디지털 이미지 캡처 동작 동안 단일의 결함 디지털 이미지 캡처가 도 2에 도시된 실시예에서 디지털 이미지 센서들의 위치들의 계산에 미치는 영향을 나타낸다.
도 6은 본 발명의 다른 실시예에 따른 광류 주행 거리 측정기의 블록도를 나타낸다.
도 7은 다중 디지털 이미지 캡처 동작 동안 2개의 동시 결함 디지털 이미지 캡처들이 도 6에 도시된 실시예에서 디지털 이미지 센서들의 위치들의 계산에 미치는 영향을 나타낸다.
도 8은 본 발명의 또 다른 실시예에 따른 광류 주행 거리 측정기의 블록도를 나타낸다.
도 9는 로버 위치를 계산하기 위해 도 8에 도시된 광류 주행 거리 측정기의 전자 처리 및 제어 유닛에 의해 구현되는 동작들의 흐름도를 나타낸다.
도 10은 다중 디지털 이미지 캡처 동작 동안 2개의 동시 결함 디지털 이미지 캡처들이 도 8에 도시된 실시예에서 디지털 이미지 센서들의 클러스터의 위치 계산에 미치는 영향을 나타낸다.
본 발명은 이제 당업자가 그것을 제조하고 사용할 수 있도록 첨부된 도면을 참조하여 상세히 설명될 것이다. 설명된 실시예의 다양한 수정은 당업자에게 즉시 명백할 것이며 개시된 일반적인 원리들은 첨부된 도면들에 정의된 바와 같이 본 발명의 보호 범위를 벗어나지 않으면서 다른 실시예들 및 응용들에 적용될 수 있다. 따라서, 본 발명은 예시 및 설명된 실시예들에 제한되지 않으며, 개시 및 청구된 특징들에 따라 가장 넓은 보호 범위가 부여되어야 한다.
달리 정의되지 않는 한, 여기에서 사용되는 모든 기술 및 과학 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 일반적으로 사용하는 것과 동일한 의미를 갖는다. 상충되는 경우 제공된 정의들을 포함하여 본 발명이 구속력을 가질 것이다. 또한, 예들은 단지 예시적인 목적들로 제공되며 제한하는 것으로 간주되어서는 안된다.
특히, 첨부된 도면들에 포함되고 이후에 설명되는 블록도들은 구조적 특징들, 즉 구성 제한들을 나타내는 것으로 간주되어서는 안되며, 기능적 특징들, 즉 장치들의 내부 속성들을 나타내는 것으로 해석되어야 하며 획득된 효과들, 즉 그것의 기능성(기능 가능성)을 보호하기 위해 다양한 방식들로 구현될 수 있는 기능적 제한들에 의해 정의되어야 한다.
설명된 실시예들의 이해를 용이하게 하기 위해, 일부 특정 실시예들에 대한 참조가 이루어질 것이고 특정 언어를 사용하여 설명될 것이다. 본 명세서에서 사용된 용어는 단지 특정한 구현들을 설명하기 위한 것으로, 본 발명의 범위를 제한하려는 의도가 아니다.
언급한 바와 같이, 본 발명은 광 마우스 센서 기술을 기반으로 하는 광류 주행 거리 측정기를 개발하려고 하며, 앞서 언급한 두 개의 논문들 중 하나에 표시된 관성 시스템과 같은 추가 주행 거리 측정 시스템들의 도움이 필요하지 않으며, 이는 비용과 기술 및 적용 단순성 측면에서 광류 주행 거리 측정기의 경쟁력을 크게 증가시킬 것이다.
본 발명의 기초가 되는 아이디어는 앞서 언급한 논문들 중 하나에서 언급된 광 마우스 센서 기술에 영향을 미치는 오류들의 분석에서 비롯된다.
특히, 이러한 분석을 통해 광 마우스 기술에 영향을 미치는 오류들은 본질적인 구조적 또는 기능적 원리적 결함으로 인한 계통적 오류가 아니라 임의적 오류이며, 따라서 확률적 과정에 따라 분포됨을 알 수 있었다.
사실, 두 개의 광 마우스들이 평행한 궤적을 따라 움직이면 유사하고 동시적인 방향 오류들이 발생할 가능성은 거의 0이며 궁극적으로 결과는 항상 서로 다른 시간에 합산되는 오류로 서로 다른 궤적들이 될 것이다.
다른 주행 거리 측정 시스템들에 의존하지 않고 이러한 방향 편차 문제를 확실히 극복하려는 아이디어는 실제로 광 마우스에 의해 만들어진 오류의 앞서 언급한 우연적 확률론적 특성을 이용한다.
광 마우스 센서는 개별적으로 매우 저렴하기 때문에, 본 발명의 기초가 되는 아이디어는 단 하나의 광 마우스 센서보다는 다수의 광 마우스 센서들에 기반한 시각적 주행 거리 측정 시스템을 제공하는 것이다.
2개의 광 마우스 센서들이 동시에 불량 디지털 영상 캡처들을 할 가능성은 매우 낮고, 3개의 광 마우스 센서들이 동시에 불량 디지털 영상 캡처들을 할 가능성은 0에 가깝기 때문에, 사용되는 광 마우스 센서들의 수가 충분히 높다면, 2개의 광 마우스 센서들 동시에 결함이 있는 디지털 이미지 캡처들을 수행하더라도 대신 결함 없는 디지털 이미지 캡처들을 수행하는 나머지 광 마우스 센서들을 사용하면 어떠한 보조적 주행 거리 측정 시스템의 필요없이 시각적 주행 거리 측정 시스템의 위치를 오류 없이 적절하게 결정할 수 있다.
통계적 관점에서 문제에 접근하면 광 마우스 센서의 오류는 우연적 사건이므로 광 마우스 센서가 결함이 있는 디지털 이미지 캡처를 할 가능성을 p로 표시해 보겠다. 국부적 위치 오류가 발생하고 디지털 이미지들을 캡처하기 위해 동기화되어 작동되는 n개의 광 마우스 센서들의 클러스터에서 동시에 발생하는 결함 있는 디지털 이미지 캡처들의 수를 K로 표시하며, 여기서 1<K<n이다.
이는 오류 확률적 프로세스이고 조합 컴퓨팅의 순열 공식을 적용하기 때문에 동시점 t에서 K개의 광 마우스 센서들이 결함이 있는 디지털 이미지들을 캡처할 가능성 s는 다음과 같다.
Figure pct00001
광 마우스 센서는 디지털 이미지들을 캡처하고 일반적으로 125Hz의 주파수로 후속 디지털 이미지들 사이의 컨볼루션을 계산한다. 실험 테스트들은 광 마우스 센서가 디지털 이미지를 캡처할 때 실수를 할 가능성이 최악의 경우 0.04임을 나타낸다. 즉, 매우 다른 이유들로 100개 중 평균 4개의 디지털 이미지들이 잘못 캡처되고 컨볼루션이 명확한 최대 피크가 없는 "노이즈" 표면 곡선을 생성하며, 따라서 단 1초간의 탐색으로 하나의 광 하우스 센서로 광류 주행 거리 측정기에 의해 계산된 궤적이 평균 4개의 결함 있는 디지털 이미지 캡처들을 만들 수 있다.
위의 공식을 적용하면 두 개의 광 마우스 센서들이 동시에 결함이 있는 디지털 이미지 캡처들을 동시점 t에 수행할 가능성은 다음과 같다.
Figure pct00002
이는 매우 작은 값, 즉 188일마다 하나의 결함 있는 디지털 이미지 캡처가 존재하는 것으로 단일 광 마우스 센서의 경우보다 훨씬 낮다.
따라서, 이러한 이벤트가 발생하더라도, 즉 6개의 광 마우스 센서들의 클러스터에 있는 두 개의 광 마우스 센서들이 동시점 t에 결함이 있는 디지털 이미지 캡처들(수개월 동안 임무를 수행하는 시각적 주행 거리 측정 시스템)을 수행하더라도, 로버 궤적의 결과적인 오계산은 본 발명의 2개의 실시예들을 나타내는 이하에서 상세히 설명될 2개의 상이한 모드들에 따라 쉽게 보정될 수 있다.
도 1은 본 발명에 따른 광류 주행 거리 측정기(2)가 장착된 로버(1) 형태의 바퀴 달린 로봇 차량을 예시적으로 나타내며, 탐사 임무 동안 로버(1)의 위치 및 이를 기반으로 경로 및 속도를 계산한다.
광류 주행 거리 측정기(2)는 하향, 즉 표면을 향하도록 이동하는 로버(1) 상에 배열되며, 도 2에 도시된 바와 같이, 디지털 이미지 센서들(3)의 클러스터와 전자 처리 및 제어 유닛(4)을 포함하며, 유닛(4)은 편의적으로 마이크로프로세서의 형태이며 디지털 이미지 센서들(3)과 통신하여 도 3에 도시된 흐름도를 참조하여 이후에 설명될 동작들을 구현함으로써 로버 위치를 계산하기 위해 캡처된 디지털 이미지들을 그로부터 수신 및 처리한다.
디지털 이미지 센서들(3)의 클러스터와 전자 처리 및 제어 유닛(4)은 둘 모두 로버(1)에 탑재될 수 있으므로 적절한 배선을 통해 전기적으로 상호 연결될 수 있다. 또는 디지털 이미지 센서들(3)의 클러스터는 로버(1)에 탑재되는 반면 전자 처리 및 제어 유닛(4)은 로버(1)에 탑재되지 않고 적절한 통신 기술을 통해 디지털 이미지 센서들(3)과 통신할 수 있다.
디지털 이미지 센서들(3)은 상술한 광 마우스 센서 기술을 기반으로 하며 물리적으로 구별될 수 있다. 즉, 그들은 각각 다른 디지털 이미지 센서들(3)과 구별되는 전자 인쇄 회로 기판에 집적되는 자체 광원, 자체 광 검출기 및 자체 이미징 광학 소자를 가질 수 있다. 또는 그들은 하나 이상의 구성요소들을 공유하도록 구성될 수 있으며, 예를 들어 광 검출기가 모두 단일의 전자 인쇄 회로 기판에 장착되어 이미징 광학 소자 및/또는 광원을 공유할 수 있다.
도 2는 디지털 이미지 센서들(3)이 모두 특정 장착 또는 기준, 기하학적 또는 공간적, 배열 또는 패턴으로 로버(1)에 장착된 실시예를 나타내며, 이들은 이하에서 더 상세히 설명되는 바와 같이 두 개의 디지털 이미지 센서들이 동시에 결함 있는 디지털 이미지 캡처들을 만들더라도 결함이 없는 디지털 이미지 캡처들을 만드는 디지털 이미지 센서들을 명확하게 결정할 수 있는 수(number)로 존재한다.
특히, 도 2에 도시된 실시예에서, 디지털 이미지 센서들(3)은 편의적으로 5개의 수로 존재하며, 5개의 디지털 이미지 센서들(3) 중 4개가 십자의 암들(arms of the cross)의 단부들에 배열는 반면 다섯 번째 디지털 이미지 센서(3)는 십자의 두 암들의 교차점에 배열되어 4개의 주변 디지털 이미지 센서들(3)에 대해 중앙에 배열되는 기준 십자형 기하학적 구성으로 배열된다.
물론, 디지털 이미지 센서들(3)의 개수 및 기하학적 구성은 상술한 것과 다를 수 있다.
디지털 이미지 센서들(3)은 로버(1)에 대해 고정된 위치들을 취하도록 로버(1) 상에 장착되거나, 디지털 이미지 센서들(3)의 위치들이 광류 주행 거리 측정기(2)를 (재)교정/조정하는 단계 동안 조정될 수 있도록 동작 가능한 각각의 전자적으로-제어 가능한 위치 조정 장치들(미도시)을 통해 로버(1) 상에 장착될 수도 있다. 예를 들어, 디지털 이미지 센서들(3)의 상호 거리 및/또는 상호 기하학적 구성을 로버(1)가 움직이는 표면 또는 환경 유형에 적응시키거나 모든 디지털 이미지 센서들(3)에 공통적인 단일의 전자적으로 제어 가능한 위치 조정 장치(미도시)를 통해 디지털 이미지 센서들(3)의 조립 위치들을 (재)교정/조정될 수 있도록 하는 반면, 그들의 상호 기하학적 구조는 고정된 상태로 유지될 수 있다.
도 3에 도시된 흐름도를 참조하면, 전자 처리 및 제어 유닛(4)은 다음과 같이 프로그래밍된다:
- 디지털 이미지 센서들(3)의 기준 기하학적 구성을 나타내는 데이터 저장(블록 10);
- 도 2에 예시적으로 도시된 유형의 개별 (저해상도) 디지털 이미지들을 동시에 캡처하기 위해 디지털 이미지 센서들(3) 각각이 동작하는 동안, 일련의 다중의 디지털 이미지 캡처 동작들을 수행하기 위해 로버(1)의 이동 동안 후속 시점들에서 디지털 이미지 센서들(3)을 동작(블록 20);
- 광류 주행 거리 측정기(2), 따라서 로버(1)의 기준 시스템에서, 수신된 디지털 이미지들에 기초하여, 하나 이상의 다중 디지털 이미지 동작들이 수행되는 시점들에서 개별 디지털 이미지 센서들(3)의 위치들을 계산하기 위해 상이한 다중 디지털 이미지 캡처 동작들에서 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들을 수신 및 처리(블록 30); 및
- 광류 주행 거리 측정기(2), 따라서 로버(1)의 기준 시스템에서 항상, 하나 이상의 다중 디지털 이미지 캡처 동작들이 수행되는 시점들에서 동시점들에서 계산된 하나 이상의 개별 디지털 이미지 센서들(3)의 위치들을 기반으로 로버(1)의 위치를 계산(블록 40).
예시적으로, 도 4는 상이한 다중 디지털 이미지 캡처 동작들에서 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들을 기반으로 계산된 위치들을 나타내며, 이를 기반으로 공지된 방식(따라서, 본 명세서에서는 자세히 설명하지 않음)으로 로버(10의 경로 및 속도가 계산될 수 있다.
다중 디지털 이미지 캡처 동작이 수행되는 시점에서 디지털 이미지 센서(3)의 위치가 계산되도록 하기 위해, 전자 처리 및 제어 유닛(4)은 다중 디지털 이미지 캡처 동작에서 디지털 이미지 센서(3)에 의해 캡처된 디지털 이미지와 이전의 다중 디지털 이미지 캡처 동작들 중 하나, 필수적이진 않지만 편의적으로 직전의 다중 디지털 이미지 캡처 동작에서 동일한 디지털 이미지 센서(3)에 의해 캡처된 디지털 이미지의 컨볼루션 또는 상호-상관을 계산하도록 프로그래밍된다.
알려진 바와 같이, 실제로 두 개의 디지털 이미지들의 컨볼루션 또는 상호-상관은 z에 피크를 가지며 컨볼루션 또는 상호-상관이 최대인 x 및 y 값들에 배치되며 컨볼루션 또는 상호-상관이 계산되는 두 개의 디지털 이미지들을 캡처한 디지털 이미지 센서(3)의 x 및 y에서의 움직임을 나타내는 3D 가우스 벨-형태의 표면을 출력한다.
대조적으로, 다중 디지털 이미지 캡처 동작이 수행되는 시점에 로버(1)의 위치가 계산되도록 하기 위해, 전자 처리 및 제어 유닛(4)은:
- 기준 기하학적 구성에서 디지털 이미지 센서들의 개별 기준 위치들과 오프셋되고 일치하는 개별 디지털 이미지 센서들(3)의 계산된 위치들을 식별하기 위해, 다중 디지털 이미지 캡처 동작이 수행되는 시점에 계산된 개별 디지털 이미지 센서들(3)의 위치들에 의해 형성된 계산된 기하학적 구성을 저장된 기준 기하학적 구성과 비교; 및
- 기준 기하학적 구성에서 각각의 기준 위치들과 일치하는, 기준 기하학적 구성에서 개별 기준 위치들과 오프셋되는 디지털 이미지 센서들(3)의 계산된 위치들과 무관하게, 디지털 이미지 센서들(3)의 하나 이상의 계산된 위치들에 기반하여 로버(1)의 위치를 계산하도록 프로그래밍된다.
특히, 다중 디지털 이미지 캡처 동작이 수행되는 시점에 로버(1)의 위치가 계산되도록 하기 위해, 전자 처리 및 제어 유닛(4)은 기준 기하학적 구성, 예시적으로 도 2에 도시된 기준 기하학적 구성에서의 개별 기준 위치들에 일치하는 디지털 이미지 센서들(3)의 계산된 위치들 중 하나만을 고려하도록 프로그래밍될 수 있으며, 중심 디지털 이미지 센서(3)의 위치 또는 디지털 이미지 센서들(3)의 2개 이상의 계산된 위치들이 기준 기하학적 구성의 개별 기준 위치들과 일치한다.
다중 디지털 이미지 캡처 동작 중 단일 결함 디지털 이미지 캡처가 결함 디지털 이미지 캡처를 만드는 디지털 이미지 센서(3)의 위치 계산에 미치는 영향은 도 2와 도 5를 비교함으로써 알 수 있다.
실제로, 도 2는 로버(1) 상의 디지털 이미지 센서들(3)의 기준 기하학적 구성과 결함이 있는 디지털 이미지 캡처가 발생하지 않는 다중 디지털 이미지 캡처 동작 동안 캡처된 디지털 이미지들을 기반으로 계산된 디지털 이미지 센서들(3)의 위치들에 의해 형성된 계산된 기하학적 구성을 나타내며, 도 5는 하나의 결함 디지털 이미지가 발생하는 다중 디지털 이미지 캡처 동작 동안 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들에 기반한 계산된 디지털 이미지 센서들(3)의 위치들에 의해 형성된 계산된 기하학적 구성을 나타낸다.
도 2에서 알 수 있는 바와 같이, 디지털 이미지 캡처 동안 결함이 있는 디지털 이미지 캡처가 발생하지 않으면 두 가지 기하학적 구성들, 계산된 구성과 기준 구성이 비례 인자 k를 제외하고 모든 디지털 이미지 센서(3)에 대해 일치, 즉 계산된 기하학적 구성에서 모든 디지털 이미지 센서들(3)의 계산된 위치가 준 기하학적 구성에서 개별 기준 위치들과 일치한다.
대조적으로, 도 5에서 알 수 있듯이, 디지털 이미지 캡처 중에 하나의 결함이 있는 디지털 이미지 캡처가 발생하는 경우, 두 가지 기하학적 구성, 계산된 구성과 기준 구성은 5개가 아닌 4개의 디지털 이미지 센서들(3)에 대해서만 일치한다. 즉, 계산된 기하학적 구성에서 4개의 디지털 이미지 센서들(3)의 계산된 위치들이 기준 기하학적 구성에서 대응하는 기준 위치들과 일치하는 반면, 계산된 기하학적 구성에서 다섯 번째 디지털 이미지 센서(3)의 위치는 기준 기하학적 구성에서 해당 기준 위치에 일치하지 않고 오프셋된다.
따라서, 하나의 결함 있는 디지털 이미지 캡처가 발생하더라도 로버(1)의 위치는 기준 기하학적 구성에서 대응하는 기준 위치들과 일치하는 계산된 기하학적 구성에서 4개의 디지털 이미지 센서들(3)의 계산된 위치들을 기반으로 어떤 경우에도 적절하게 계산될 수 있다.
이러한 고려 사항들은 결함이 있는 두 개의 디지털 이미지 캡처들이 동시에 발생하는 경우에도 적용된다.
도 6은 사용된 디지털 이미지 센서들(3)의 수가 5개가 아닌 6개이고 기하학적 구성이 도 2에 도시된 것과 다른, 즉 십자형의 기하학적 구성으로 배열된 게 아니라 3개씩 2열로 배열되어 수평 및 수직 모두에서 나란히 배치된 광류 주행 거리 측정기(2)의 다른 실시예의 블록도를 나타낸다.
다중 디지털 이미지 캡처 동작 중에 두 개의 동시 결함 디지털 이미지 캡처가 발생하는 효과는 결함 디지털 이미지 캡처들을 만드는 두 개의 디지털 이미지 센서들(3)의 위치들의 계산에 있으며 도 6 및 도 7을 비교함으로써 이해할 수 있다.
사실, 도 6은 디지털 이미지 센서들(3)의 기준 기하학적 구성과 결함이 있는 디지털 이미지 캡처가 발생하지 않는 다중 디지털 이미지 캡처 동작 동안 캡처된 디지털 이미지들을 기반으로 계산된 디지털 이미지 센서들(3)의 위치들의 상응하는 계산된 기하학적 구성을 나타내며, 반면에 도 7은 2개의 동시 결함 디지털 이미지 캡처들, 예를 들어 우측 상단에서 디지털 이미지 센서(3)에 의해 발생한 하나 및 좌측 하단에서 디지털 이미지 센서(3)에 의해 발생한 하나가 발생하는 다중 디지털 이미지 캡처 동작 동안 캡처된 디지털 이미지를 기반으로 계산된 디지털 이미지 센서들(3)의 위치들에 의해 형성된 계산된 기하학적 구성을 나타낸다.
대신 도 7에서 알 수 있듯이, 두 개의 동시 결함 디지털 이미지 캡처들이 발생할 때 두 가지 기하학적 구성들, 계산된 구성 및 기준이 되는 구성이 6개의 디지털 이미지 센서들(3) 중 4개에 대해서만 일치하지만, 그럼에도 불구하고 로버(1)의 위치는 기준 기하학적 구성에서 대응하는 기준 위치들과 일치하는 계산된 기하학적 구성에서 디지털 이미지 센서들(3)의 계산된 위치들에 기반하여 어떠한 경우에도 적절하게 계산될 수 있다.
결국, 도 8은 광류 주행 거리 측정기(2)가 그 동작이 디지털 이미지 센서들(3)의 기준 기하학적 구성과 독립적이도록 설계되었다는 점에서 위에서 설명되고 도 2 및 도 6에 도시된 것과 상이한 다른 실시예를 나타낸다.
특히, 도 8에 도시된 실시예에서, 디지털 이미지 센서들(3)은 6개이고 3개씩 2열로 배열되어 수평 및 수직으로 나란히 배치된다.
이러한 실시예에서도 디지털 이미지 센서들(3)의 수와 그 기하학적 구성은 위에 표시된 것들과 다를 수 있다. 예를 들어, 디지털 이미지 센서들(3)의 수 및 기하학적 구성은 도 2에 도시된 실시예의 것일 수 있다.
도 9에 도시된 흐름도를 참조하면, 이러한 실시예에서 전자 처리 및 제어 유닛(4)은 다음과 같이 프로그래밍된다:
- 도 6에 예시적으로 도시된 유형의 개별 (저해상도) 디지털 이미지들을 동시에 캡처하기 위해 디지털 이미지 센서들(3) 각각이 동작하는 동안, 일련의 다중 디지털 이미지 캡처 동작들을 수행하기 위해 로버(1)의 이동 동안 후속 시점들에서 디지털 이미지 센서들(3)을 동작(블록 50);
- 광류 주행 거리 측정기(2), 따라서 로버(1)의 기준 시스템에서, 수신된 디지털 이미지들에 기반하여, 하나 이상의 다중 디지털 이미지 동작들이 수행되는 시점들에서 디지털 이미지 센서들(3)의 클러스터의 위치들을 계산하기 위해 상이한 다중 디지털 이미지 캡처 동작들에서 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들을 수신 및 처리(블록 60); 및
- 광류 주행 거리 측정기(2), 따라서 로버(1)의 기준 시스템에서 항상, 하나 이상의 다중 디지털 이미지 캡처 동작들이 수행되는 시점들에서 동시점들에서 디지털 이미지 센서들의 클러스터들의 위치들을 기반으로 로버(1)의 위치들을 계산(블록 70).
특히, 이전의 실시예들과 달리, 각각의 개별 디지털 이미지 센서(3)의 위치는 다른 디지털 이미지 센서들(3)에 의해 갭처된 디지털 이미지들과는 별개로 개별 디지털 이미지 센서(3)에 의해 캡처된 디지털 이미지들의 컨볼루션 또는 상호-상관을 기반으로 계산되며, 이러한 실시예에서 전자 처리 및 제어 유닛(4)은 다중 디지털 이미지 캡처 동작 동안 개별 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들로만을 기반으로 다중 디지털 이미지 캡처 동작 동안 로버(1)의 위치를 계산하도록 구성된다.
구체적으로, 다중 디지털 이미지 캡처 동작 동안 개별 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들은 캡처된 디지털 이미지들 중 하나 이상의 합으로써 획득된 단일의 전체 디지털 이미지를 형성하는 데에 공동으로 사용되며, 다중 디지털 이미지 캡처 동작 중 로버(1)의 위치는 이전의 다중 디지털 이미지 캡처 동작, 필수적이진 않지만 편의적으로 직전 다중 디지털 이미지 캡처 동작 중 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들을 기반으로 형성된 전체 디지털 이미지로 형성된 전체 디지털 이미지의 컨볼루션을 기반으로 계산된다.
이러한 두 번째 실시예는 구현하기에 매우 강력하고 가장 빠른 것으로 판명되었다. k개의 개별 디지털 이미지 센서(3)의 클러스터가 시간 동기화됨에 따라, 각각의 시점 t에서 단일의 전체 디지털 이미지가 k개의 개별 디지털 이미지 센서들(3)의 클러스터에 의해 캡처된 k개의 디지털 이미지들의 합으로 획득되며, 각각의 개별 이미지 센서(3)에 의해 캡처된 디지털 이미지가 (l x l) 픽셀들로 형성된 경우, 결과적으로 전체 디지털 이미지는 (k x l x k y l) 픽셀들이 되며, 여기서 k x k y 는 각각 클러스터의 열 및 행의 디지털 이미지 센서들(3)의 수이다.
시간 t=0 및 t=1에서 두 개의 후속 전체 디지털 이미지들 사이의 이산화된 컨볼루션은 전술한 내용으로부터 유도된다.
Figure pct00003
여기서 행렬 RC01의 포괄 요소(v,m)는 다음과 같다.
Figure pct00004
RC01의 최대에서의 좌표 Δx1 Δy1 은 시점 t=0에서 이전 좌표 x0 y0 에 대한 시점 t=1에서의 디지털 이미지 센서들(3)의 클러스터의 위치를 제공하며, RC12의 최대에서의 다음 좌표 Δx2 Δy2는 시점 t=1에서 이전 좌표 Δx1 Δy1 에 대한 시점 t=2에서의 디지털 이미지 센서들(3)의 클러스터의 위치를 제공한다.
Figure pct00005
결국, 초기 시점 t=0과 비교하면 일반 시점 t=n에서 디지털 이미지 센서(3) 클러스터의 좌표는 다음과 같다.
Figure pct00006
컨볼루션의 특성으로 인해, 두 개의 동일한 디지털 이미지들 사이의 컨볼루션은 표면 함수의 기하학적 무게 중심에서 최대값 1의 표면 함수를 출력하므로, 6개 중 2개의 디지털 이미지 센서들(3)이 결함 있는 디지털 이미지 캡처를 수행하더라도, 표면 함수의 최대값은 항상 기하학적 무게 중심에 위치하지만 1보다 작은 값을 가지므로 최대값의 상대 위치에 영향을 미치지 않고 진폭에만 영향을 미치므로 디지털 이미지 센서들(3)의 클러스터의 x, y 좌표들은 어떤 경우에도 적절하게 계산되어 로버(1)의 궤적에 부정적인 영향을 미치지 않다.
2개의 동시 결함 디지털 이미지 캡처들이 디지털 이미지 센서들(3)의 클러스터의 위치 계산에 미치는 영향은 도 8을 도 10과 비교함으로써 알 수 있다.
실제로, 도 8은 결함이 있는 디지털 이미지 캡처가 발생하지 않는 다중 디지털 이미지 캡처 동작 동안 캡처된 디지털 이미지들을 기반으로 계산된 표면 함수를 그래픽으로 나타내는 반면, 도 10은 2개의 동시 결합 디지털 이미지 캡처들이 발생하는 다중 디지털 이미지 캡처 동작 동안 캡처된 디지털 이미지들을 기반으로 계산된 표면 함수를 그래픽으로 나타내며, 예시적으로 우측 상단에서 디지털 이미지 센서(3)에 의해 만들어진 하나와 왼쪽 하단에서 디지털 이미지 센서(3)에 의해 만들어진 하나가 도시되어 있다.
도 10에서 알 수 있는 바와 같이, 도 8에 도시된 것과 표면 기능의 비교를 용이하게 하기 위해 후자는 점선으로 재현되며, 두 개의 동시 결함 디지털 이미지 캡처들의 경우 표면 함수의 최대값이 도 8에 표시된 표면 함수에 비해 감소하지만 그 위치는 변경되지 않은 상태로 유지되므로 로버 1의 위치를 적절하게 계산할 수 있다.
상술한 설명을 통해 본 발명의 이점들을 이해할 수 있다.
특히, 본 발명은 광 마우스 센서 기술을 기반으로 하고 보조 주행 거리 측정 시스템을 필요로 하지 않는 광류 주행거리 측정기를 제조할 수 있게 하여 비용 및 기술과 적용 단순성 측면에서 종래 기술의 측정기들에 비해 경쟁력을 갖는다.
작고 가벼우며 매우 정밀(밀리미터 미만의 정밀도)한 광 마우스 센서 및 테스트된 기술을 기반으로 하는 광류 주행 거리 측정기는 GNSS 지원이 불가능한 노후 배관의 탐사와 재매핑과 같은 다양한 비공간 기술 섹터들, 차동 GNSS 시스템의 도움 없이 더 높은 정밀도를 가질 수 있도록 한 GNSS 시스템의 보조 수단으로서의 자동차 분야, 접근 가능한 실내 청소의 최대 범위를 보장하기 위해 바닥을 매핑하는 가정용 청소 및 바닥-진공청소 로봇 분야, 지게차가 사전 정의된 경로로 자동으로 이동하는 창고 분야, 레이더와 무선 통신이 되지 않는 민감한 목표물 옆에 있는 지상으로 이동하기 위한 군용 차량 분야에 적용될 수 있다.
광 마우스 센서를 기반으로 한 광류 주행 거리 측정기는 변경되지 않고 다른 응용 분야에만 적용되는 광범위하게 테스트된 기술을 기반으로 하며 시간과 개발 및 생산 비용 측면에서 비용 효율적이다.
양산과 관련하여, 광류 주행 거리 측정기의 모든 구성 요소들은 대규모로 생산되는 기존 기술들에 맞게 제작되어 상업적으로 쉽게 이용할 수 있으며 저렴하다.
"광 모터"의 기술적 단순성과 강력한 기능은 대규모 광 마우스 생산에도 불구하고 공간 응용들에서 쉽게 사용할 수 있고 미래의 저비용 나노-로버에 조립될 수 있는 제품이 되는 광류 주행 거리 측정기를 야기한다.
공간 응용에 관한 한, 본 발명에 따른 광류 주행 거리 측정기는 현재 사용 중인 경쟁 기술들에 "파괴적인" 영향을 미칠 것으로 예상된다. 실제로, 본 발명에 따른 광류 주행 거리 측정기의 사용은 현재 공간 로버들에 사용되는 주행 거리 측정 기술들, 특히 매우 비싸고 복잡한 시각 기술들을 극복할 수 있게 하고 심지어 그 성능을 향상시킨다.
공간적 응용 이외의 응용들의 경우, 본 발명에 따른 광류 주행 거리 측정기는 예를 들어 GPS 내비게이션 장치의 정확도를 증가시키기 위한 자동차 응용 분야 또는 GNSS 시스템의 커버리지를 이용할 수 없고 이를 쉽게 대체할 수 있는 모든 기술 섹터들(지하 터널, 레이더나 통신이 필요 없는 군사 작전 등)에서 완전히 혁신적인 개선을 나타낸다.

Claims (10)

  1. 표면에 대해 상대적으로 이동할 수 있는 물체(1)의 위치를 결정하기 위한 광류 주행 거리 측정기(2)에 있어서,
    상기 광류 주행 거리 측정기(2)는:
    - 개별 기준 위치들에서 이동 물체(1) 상에 배열되도록 구성된 디지털 이미지 센서들(3)의 클러스터; 및
    - 상기 디지털 이미지 센서들(3)과 통신하는 전자 처리 및 제어 유닛(4)을 포함하며, 상기 전자 처리 및 제어 유닛(4)은,
    상기 디지털 이미지 센서들(3) 각각이 개별 디지털 이미지들을 동시에 캡처하기 위해 동작하는 일련의 다중 디지털 이미지 캡처 동작들을 수행하기 위해 상기 이동 물체(1)의 이동 동안 연속적인 시점들에서 상기 디지털 이미지 센서들(3)을 동작;
    하나 이상의 상기 다중 디지털 이미지 캡처 동작들에서 개별 디지털 이미지 센서들(3)의 위치들 또는 디지털 이미지 센서(3)의 클러스트의 위치를 계산하기 위해 상기 다중 디지털 이미지 캡처 동작들에서 캡처된 상기 디지털 이미지들(3)을 상기 디지털 이미지 센서들로부터 수신 및 처리; 및
    하나 이상의 다중 디지털 이미지 캡처 동작들에서 계산된 하나 이상의 개별 디지털 이미지 센서들(3)의 위치들 또는 상기 디지털 이미지 센서(3)의 클러스터의 위치에 기반하여 하나 이상의 다중 디지털 이미지 캡처 동작들에서 상기 이동 물체(1)의 위치를 계산하도록 구성된, 광류 주행 거리 측정기.
  2. 제1항에 있어서, 상기 디지털 이미지 센서들(3)은 기준 기하학적 구성에 따른 기준 위치들에서 상기 이동 물체(1) 상에 배열되도록 구성되고;
    상기 전자 처리 및 제어 유닛(4)은,
    - 상기 디지털 이미지 센서들(3)의 상기 기준 기하학적 구성을 나타내는 데이터를 저장; 및
    - 다중 디지털 이미지 캡처 동작에서 상기 이동 물체(1)의 위치를 계산하도록 구성되며, 상기 다중 디지털 이미지 캡처 동작은,
    상기 기준 기하학적 구성에서 상기 개별 기준 위치들과 오프셋되고 일치하는 상기 개별 디지털 이미지 센서들(3)의 계산된 위치들을 식별하기 위해, 상기 다중 디지털 이미지 캡처 동작에서 계산된 상기 개별 디지털 이미지 센서들(3)의 위치들에 의해 형성된 계산된 기하학적 구성을 상기 저장된 기준 기하학적 구성과 비교; 및
    상기 기준 기하학적 구성에서 상기 개별 기준 위치들과 일치하는 상기 디지털 이미지 센서들(3)의 하나 이상의 계산된 위치들에 기반하여 상기 이동 물체(1)의 위치를 계산함으로써 수행되는, 광류 주행 거리 측정기.
  3. 제1항에 있어서, 상기 전자 처리 및 제어 유닛(4)은 상기 다중 디지털 이미지 캡처 동작 중 상기 디지털 이미지 센서(3)에 의해 캡처된 디지털 이미지 및 이전의 다중 디지털 이미지 캡처 동작 중 상기 디지털 이미지 센서(3)에 의해 캡처된 디지털 이미지 사이의 컨볼루션 또는 상호-상관에 기반하여 디지털 이미지 센서(3)의 위치를 계산하도록 추가 구성된, 광류 주행 거리 측정기.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 디지털 이미지 센서들(3)은 5개이고, 상기 기준 기하학적 구성은 십자형 기하학적 구성이며, 상기 디지털 이미지 센서들(3) 중 4개는 십자의 암들의 단부들에 배열되고 다섯 번째 디지털 이미지 센서(3)는 상기 십자의 상기 암들의 교차점에 배열된, 광류 주행 거리 측정기.
  5. 제1항에 있어서, 상기 전자 처리 및 제어 유닛(4)은 상기 다중 디지털 이미지 캡처 동작 동안 상기 개별 디지털 이미지 센서들(3)에 의해 캡처된 하나 이상의 디지털 이미지들에 기반하여 다중 디지털 이미지 캡처 동작에서 상기 이동 물체(1)의 위치를 계산하도록 추가 구성된, 광류 주행 거리 측정기.
  6. 제5항에 있어서, 상기 전자 처리 및 제어 유닛(4)은 다중 이미지 캡처 동작에서 상기 이동 물체(1)의 위치를 계산하도록 추가 구성되며, 상기 다중 이미지 캡처 동작은,
    - 상기 다중 디지털 이미지 캡처 동작 동안 상기 개별 디지털 이미지 센서들(3)에 의해 캡처된 하나 이상의 디지털 이미지들을 기반으로 전체 디지털 이미지를 형성, 및
    - 상기 다중 이지털 이미지 캡처 동작 동안 상기 개별 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들에 기반하여 형성된 상기 전체 디지털 이미지와 이전의 다중 이미지 이미지 캡처 동작 동안 상기 개별 디지털 이미지 센서들(3)에 의해 캡처된 디지털 이미지들을 기반으로 형성된 상기 전체 디지털 이미지의 컨볼루션에 기반한 상기 다중 디지털 이미지 캡처 동작에서 상기 이동 물체(1)의 위치를 계산함으로써 수행되는, 광류 주행 거리 측정기.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 디지털 이미지 센서들(3)은 광 마우스 센서 기술에 기반한, 광류 주행 거리 측정기(2).
  8. 표면에 대해 이동 가능한 물체(1)로서, 제1항 내지 제7항 중 어느 한 항의 광류 주행 거리 측정기(2)를 포함하고 상기 표면에 대하여 상기 이동 물체(1)의 위치를 계산하기 위해 상기 표면에 대향하도록 배열된, 물체.
  9. 제1항, 제2항, 제3항, 제5항 및 제6항 중 어느 한 항에서 청구된 바와 같이 구성된 제1항 내지 제8항 중 어느 한 항의 광류 주행 거리 측정기(2)를 위한 전자 처리 및 제어 유닛(4).
  10. 제1항 내지 제7항 중 어느 한 항에 따른 광류 주행 거리 측정기(2)의 상기 전자 처리 및 제어 유닛(4)에 로드 가능하고, 실행 시 상기 전자 처리 및 제어 유닛(4)이 제1항, 제2항, 제3항, 제5항 및 제6항 중 어느 하나로서 구성되도록 설계된 소프트웨어.
KR1020227006121A 2019-07-24 2020-07-24 광 마우스 센서 기술을 기반으로 하는 광류 주행 거리 측정기 KR20220038737A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IT102019000012777A IT201900012777A1 (it) 2019-07-24 2019-07-24 Odometria a flusso ottico basata sulla tecnologia dei sensori dei mouse ottici
IT102019000012777 2019-07-24
PCT/IB2020/057021 WO2021014423A1 (en) 2019-07-24 2020-07-24 Optical flow odometry based on optical mouse sensor technology

Publications (1)

Publication Number Publication Date
KR20220038737A true KR20220038737A (ko) 2022-03-29

Family

ID=69105938

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227006121A KR20220038737A (ko) 2019-07-24 2020-07-24 광 마우스 센서 기술을 기반으로 하는 광류 주행 거리 측정기

Country Status (7)

Country Link
US (1) US20220254061A1 (ko)
EP (1) EP4004806A1 (ko)
KR (1) KR20220038737A (ko)
CA (1) CA3148403A1 (ko)
IT (1) IT201900012777A1 (ko)
MX (1) MX2022000869A (ko)
WO (1) WO2021014423A1 (ko)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040221790A1 (en) * 2003-05-02 2004-11-11 Sinclair Kenneth H. Method and apparatus for optical odometry
US20060209015A1 (en) * 2005-03-18 2006-09-21 Feldmeier David C Optical navigation system
GB2549259B (en) * 2016-04-05 2019-10-23 Continental Automotive Gmbh Determining mounting positions and/or orientations of multiple cameras of a camera system of a vehicle
KR102448287B1 (ko) * 2017-08-08 2022-09-28 삼성전자주식회사 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
CA3148403A1 (en) 2021-01-28
IT201900012777A1 (it) 2021-01-24
MX2022000869A (es) 2022-04-07
US20220254061A1 (en) 2022-08-11
EP4004806A1 (en) 2022-06-01
WO2021014423A1 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
CN111095355B (zh) 实时定位和定向跟踪器
Campbell et al. Sensor technology in autonomous vehicles: A review
US9134339B2 (en) Directed registration of three-dimensional scan measurements using a sensor unit
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
US9420275B2 (en) Visual positioning system that utilizes images of a working environment to determine position
US10495456B2 (en) Method for calibrating a detection device, and detection device
EP3521962B1 (en) Self-position estimation method and self-position estimation device
CN110243360A (zh) 机器人在运动区域的地图构建及定位方法
US8552362B2 (en) System and method for linear and angular measurements of a moving object
JP4646243B2 (ja) 測地機器の現在位置を決定する方法と装置
CN108759834B (zh) 一种基于全局视觉的定位方法
EP3884353A2 (en) Detecting a location of an autonomous device
CN108759815B (zh) 一种用于全局视觉定位方法中的信息融合组合导航方法
JP2007506076A5 (ko)
CN101802738A (zh) 用来检测环境的系统
Heißmeyer et al. Indoor positioning of vehicles using an active optical infrastructure
Mader et al. An integrated flexible self-calibration approach for 2D laser scanning range finders applied to the Hokuyo UTM-30LX-EW
JP5748174B2 (ja) 移動体の相対姿勢計測方法と装置
Chen et al. A single frame depth visual gyroscope and its integration for robot navigation and mapping in structured indoor environments
KR20220038737A (ko) 광 마우스 센서 기술을 기반으로 하는 광류 주행 거리 측정기
Hanel et al. Towards the influence of a car windshield on depth calculation with a stereo camera system
WO2019093316A1 (ja) 移動体の測位装置及びその較正方法
CN115790616A (zh) 车辆绝对初始位置的确定
EP3929613A1 (en) A method for navigating a movable device along an inclined surface
US11715229B2 (en) Moving body and system