KR20100118449A - 위치추정정보 획득장치 및 이를 이용한 위치추정정보 획득방법 - Google Patents

위치추정정보 획득장치 및 이를 이용한 위치추정정보 획득방법 Download PDF

Info

Publication number
KR20100118449A
KR20100118449A KR1020090037305A KR20090037305A KR20100118449A KR 20100118449 A KR20100118449 A KR 20100118449A KR 1020090037305 A KR1020090037305 A KR 1020090037305A KR 20090037305 A KR20090037305 A KR 20090037305A KR 20100118449 A KR20100118449 A KR 20100118449A
Authority
KR
South Korea
Prior art keywords
information
image
position estimation
image information
estimation information
Prior art date
Application number
KR1020090037305A
Other languages
English (en)
Other versions
KR101082329B1 (ko
Inventor
이성철
박원기
한경식
오승호
Original Assignee
전자부품연구원
칩스브레인글로벌주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원, 칩스브레인글로벌주식회사 filed Critical 전자부품연구원
Priority to KR1020090037305A priority Critical patent/KR101082329B1/ko
Publication of KR20100118449A publication Critical patent/KR20100118449A/ko
Application granted granted Critical
Publication of KR101082329B1 publication Critical patent/KR101082329B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • H04N1/648Transmitting or storing the primary (additive or subtractive) colour signals; Compression thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

스테레오 비젼 기반의 위치추정정보를 획득할 때 보정을 수행하여 정합결과의 신뢰성이 향상된 위치추정정보를 획득할 수 있는 위치추정정보 획득장치 및 이를 이용한 위치추정정보 획득방법이 제안된다. 제안된 위치추정정보 획득장치는 제1영상정보 및 제2영상정보를 획득하는 영상획득부와, 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보를 획득하는 정합처리부, 그리고, 제1위치추정정보를 제1영상정보 및 제2영상정보 중 어느 하나와 정합처리하여 제1위치추정정보를 보정하는 영상보정부와 함께 보정된 위치추정정보를 획득하는 위치추정정보 획득부를 포함한다.
스테레오 비젼, 정합처리, 오차보정

Description

위치추정정보 획득장치 및 이를 이용한 위치추정정보 획득방법{Apparatus for object position estimation and estimation method using the same}
본 발명은 위치추정정보 획득장치 및 이를 이용한 위치추정정보 획득방법에 관한 것으로서, 보다 상세하게는, 스테레오 비젼 기반의 위치추정정보를 획득할 때 보정을 수행하여 정합결과의 신뢰성이 향상된 위치추정정보를 획득할 수 있는 위치추정정보 획득장치 및 이를 이용한 위치추정정보 획득방법에 관한 것이다.
스테레오 비젼 시스템의 위치추정정보는 사람의 눈처럼 구성된 두 대의 카메라로부터 얻은 영상으로부터 시차를 계산하여 영상 내의 사물에 대한 경계선을 인식하고 이를 흑백 영상처리를 통해 깊이 정보로 계산하여 얻을 수 있다. 이러한 위치추정정보는 지능형 로봇시스템에 적용하여, 로봇에 2대의 카메라를 장착하여 로봇 자체의 위치정보를 추정하는데 이용된다.
이러한 영상처리를 통하여 획득된 깊이 정보는 오차를 포함한다. 오차를 개선하기 위해 종래에는 카메라 입력부에서 카메라 상하좌우/기울기 조절을 통해 영 상의 수평과 수직, 기울기를 보정하는 방법이나, 정합 결과 추출에 직접적인 영향을 미치는 밝기를 조절을 통해 정합 결과를 추출해 내는 방법, 그리고 영상의 경계선을 부분을 서로 맞추기 위해 선명도를 맞추는 방법, 마지막으로, 좌/우 카메라 위치에 따른 사물의 크기를 맞추기 위한 축소/확대 방법 등이 적용되어왔다. 이렇게 카메라 등에 대한 보정인 사전 보정을 통해 맞추어진 영상에 대해 정합처리를 하게 되며, 얻은 데이터를 기반으로 로봇 시스템 제어에 사용한다.
그러나, 이러한 보정방법은 단순히 물리적인 보정방법이 사용된다. 따라서, 산술연산처리가 이루어지는 스테레오 정합 처리완료 후 제어시스템에서 해당 결과를 이용하기 때문에, 이미지 영상의 산술 연산 처리에 따른 오차를 보정하기 어렵다. 따라서, 이러한 종래의 오차보정방법은 물체의 경계선 부분에 발생한 번짐 현상이나, 특히 색차가 큰 경우와, 흑백 영상, 낮과 밤에 따라 발생된 오차를 모두 보정하기에 부족하다.
따라서, 영상처리시의 부하를 높이지 않으면서 정합결과의 신뢰성을 향상시킬 수 있는 오차보정방법의 개발이 요청된다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 스테레오 비젼 기반의 위치추정정보를 획득할 때 보정을 수행하여 정합결과의 신뢰성이 향상된 위치추정정보를 획득할 수 있는 위치추정정보 획득장치 및 이를 이용한 위치추정정보 획득방법을 제공하는데 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 측면에 따른 위치추정정보 획득장치는 제1영상정보 및 제2영상정보를 획득하는 영상획득부; 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보를 획득하는 정합처리부; 제1위치추정정보를 제1영상정보 및 제2영상정보 중 어느 하나와 정합처리하여 제1위치추정정보를 보정하는 영상보정부; 및 보정된 위치추정정보를 획득하는 위치추정정보 획득부;를 포함한다.
영상획득부는 2개의 카메라를 포함하고 있고, 2개의 카메라는 서로 일정거리 이격되어 있어서 각각 좌/우로 치우친 영상정보인 제1영상정보 및 제2영상정보를 획득할 수 있다.
정합처리부는 제1영상정보 및 제2영상정보를 사각형태로 구분하여 비교하는 WMC 비교 방법을 이용하여 정합 처리를 수행할 수 있다.
영상보정부는 오차를 최소화하기 위하여 제1위치추정정보의 보정을 2회이상 수행할 수 있다. 또한, 영상보정부는 영상획득부로부터 제1영상정보 및 제2영상정보 중 적어도 하나를 입력받고, 정합처리부로부터 제1위치추정정보를 입력받는다.
이와 같은 본 발명에 따른 위치추정정보 획득장치는 보정된 위치추정정보를 압축하고 이를 외부 유무선 네트워크로 전송하는 압축전송부를 더 포함하는 것이 바람직하다.
본 발명의 다른 측면에 따르면, 두 개의 서로 다른 영상획득장치로부터 제1영상정보 및 제2영상정보를 획득하는 영상정보 획득단계; 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보 획득단계; 제1위치추정정보를 제1영상정보 및 제2영상정보 중 어느 하나와 정합처리하여 제1위치추정정보를 보정하는 영상보정단계; 및 보정된 위치추정정보를 획득하는 최종위치추정정보 획득단계;를 포함하는 위치추정정보 획득방법이 제공된다.
본 발명의 또다른 측면에 따르면, 위치추정정보 획득방법은 두 개의 서로 다른 영상획득장치로부터 제1영상정보 및 제2영상정보를 획득하는 영상정보 획득단계; 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보 획득단계; 제1위 치추정정보를, 제1영상정보 및 제2영상정보로부터 획득한 중심영상정보와 정합처리하여 제1위치추정정보를 보정하는 영상보정단계; 및 보정된 위치추정정보를 획득하는 최종위치추정정보 획득단계;를 포함하는 위치추정정보 획득방법이 제공된다.
본 발명에 따르면, 스테레오 비젼 기반의 위치추정정보를 획득할 때, 카메라로부터 획득한 영상정보를 이용하여 정합처리된 위치추정정보를 보정하여 정합결과의 신뢰성이 향상된 위치추정정보를 획득할 수 있는 효과가 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나, 본 발명의 실시형태는 여러가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로 한정되는 것은 아니다. 본 발명의 실시형태는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다.
도 1은 본 발명의 일실시예에 따른 위치추정정보 획득장치의 블럭도이다. 위치추정정보 획득장치(100)는 제1영상정보 및 제2영상정보를 획득하는 영상획득부(110); 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보를 획득하는 정합처리부(120); 제1위치추정정보를 제1영상정보 및 제2영상정보 중 어느 하나와 정합처리하여 제1위치추정정보를 보정하는 영상보정부(130); 및 보정된 위치추정정보를 획득하는 위치추정정보 획득부(140);를 포함한다.
영상획득부(110)는 제1영상정보 및 제2영상정보를 획득한다. 영상획득부(110)는 2개의 카메라를 포함하여 제1영상정보 및 제2영상정보를 얻을 수 있다. 2개의 카메라는 서로 일정거리 이격되어 있어서 각각 좌/우로 치우친 영상정보인 제1영상정보 및 제2영상정보를 획득할 수 있는 것이다.
영상획득부(110)의 두 대의 카메라는 동일 선상에서 전. 후, 상, 하, 좌, 우, 및 기울기가 모두 고정된 카메라를 사용할 수 있는데, 정면에 위치하는 피사체를 사람의 눈과 같이 일정거리를 사이에 두고 피사체와의 거리가 조정가능하도록 하여 제1영상정보 및 제2영상정보를 얻을 수 있다.
영상획득부(110)는 영상보정부(130)에 제1위치추정정보의 보정을 위하여 제1영상정보 및 제2영상정보 중 어느 하나의 영상정보를 전달할 수 있다. 제1영상정보 및 제2영상정보는 각각 좌측 또는 우측에서 바라본 피사체의 영상정보로서, 영상보정부(130)에서의 보정시에는 제1영상정보 및 제2영상정보 중 어느 영상이라도 사용될 수 있다. 이하 도 2a 내지 도 2e를 참조하여 더 설명하기로 한다.
정합처리부(120)는 제1영상정보 및 제2영상정보를 정합처리하여 1차적으로 영상처리된 제1위치추정정보를 획득한다. 본 명세서에서 제1위치추정정보는 보정이 완료되지 않은 상태의 정합처리된 위치추정정보를 의미한다.
정합처리부(120)는 제1영상정보 및 제2영상정보를 사각형태로 구분하여 비교하는 WMC(window matching count) 비교 방법을 이용하여 정합 처리를 수행할 수 있다. 즉, 정합처리부(120)는 제1영상정보 및 제2영상정보의 영상을 각각 일정크기의 사각형으로 구분하여 순차적으로 좌우의 사각형을 비교, 해당 윈도우의 깊이정보를 추출한다.
위치추정정보 획득장치(100)는 정합처리부(120)가 수행하는 정합처리를 수행하기 전에 제1영상정보 및 제2영상정보의 영상을 재조정하는 전처리부(미도시)를 더 포함할 수 있다. 전처리부(미도시)는 카메라로부터 입력된 영상의 재조정을 담당하는 기능부로써, 물리적으로 발생할 수 있는 오차를 최소화하도록 구경을 측정하고, 입력 이미지의 비율을 재조정한다.
정합처리된 제1위치추정정보는 영상보정부(130)에서 제1영상정보 및 제2영상정보 중 어느 하나와 다시 비교되어 오차가 보정된다. 영상보정부(130)는 두 대의 영상입력 장치로부터 계산된 위치추정정보의 신뢰성을 향상하기 위해, 두 대의 카메라 중 기준으로 정한 한 대의 카메라 영상에 대한 정보를 처리하지 않은 상태로 영상보정부(130)에 전달하여, 추정된 위치정보인 제1위치추정정보와 재비교한다. 이를 통해 처리된 영상에 존재하는 오차를 보정함으로써 추정된 위치정보의 신뢰성을 보다 높일 수 있다.
즉, 영상보정부(130)는 영상획득부(110)로부터 제1영상정보 및 제2영상정보 중 적어도 하나를 입력받고, 정합처리부(120)로부터 제1위치추정정보를 입력받아 이를 처리한다.
영상에 존재하는 보정은, 전술한 전처리부에서 처리될 때 발생하는 오차와는 별도로 정합처리부(120)에서의 수치처리과정에서 발생한 오차를 의미한다. 따라서, 이렇게 수치처리과정에서 발생한 오차를 영상보정부(130)에서 원래의 영상정보와 정합처리된 제1위치추정정보와 이미지 비교를 통한 재정합처리과정으로 보정하게 된다. 영상보정부(130)에서 수치처리과정에서 발생한 오차를 보정한 후 후술하는 압축전송부(150)를 통하여 전송하게 되므로 추후 별도의 오차보정과정이 필요없게 되어 최종 오차 개선을 위해 사용하게 되는 연산 부하를 최소화할 수 있고 정합처리 및 보정된 영상 전송을 위한 전송 대역폭 또한 크게 감소된다.
또한, 영상보정부(130)는 WMC 비교 방법을 통해 추가 보정이 필요한 부분과 보정을 필요로 하지 않는 부분을 구분할 수 있다. 따라서, 보정을 필요로 하지 않는 부분의 데이터는 별도로 저장하고, 보정을 필요로 하는 부분은 제1영상정보 및 제2영상정보 중 어느 하나의 정보를 이용하여 재정합처리한다. 따라서, 보정을 필 요로 하지 않는 부분의 데이터와 재정합처리된 부분의 데이터를 함께 압축하고 전송하면 재정합처리되는 데이터 및 전송되는 데이터를 최소화하여 전송할 수 있다.
여기서, 제1영상정보 및 제2영상정보 중 오차보정에 사용되는 영상정보를 제1영상정보라 하면, 영상보정부(130)에서 오차를 보정하는 방법은 예를 들어, 제1영상정보에서 색차변화에 따른 경계선을 검출하여 이를 제1위치추정정보와 재비교하고 경계선 부분의 추정정보에 대한 오차를 개선할 수 있다.
영상보정부(130)는 오차를 최소화하기 위하여 제1위치추정정보의 보정을 2회이상 수행할 수 있다. 예를 들어, 영상보정부(130)는 보정을 위한 기준 영상정보로서 먼저 제1영상정보를 이용하여 1차 보정한 후에, 다시 제2영상정보를 이용하여 2차 보정할 수 있다. 이 경우에 영상보정부(130)는 영상획득부(110)로부터 제1영상정보 및 제2영상정보를 모두 전달받을 수 있다. 이러한 보정은 2회이상 수행될 수 있어서, 보정이 진행될 수록 오차는 감소하여 위치추정정보의 신뢰성은 더욱 높아진다.
위치추정정보 획득부(140)에서는 최종적으로 보정된 위치추정정보를 획득한다. 이렇게 최종적으로 획득된 보정된 위치추정정보는 압축전송부(150)에서 압축되고 외부 유무선 네트워크로 전송된다. 압축전송부(150)에서 전송된 위치추정정보는 예를 들어 로봇시스템에서 위치정보로서 사용되어 로봇의 위치를 파악하고, 전후좌 우진행방향을 제어하도록 하는 자료데이터로 이용된다.
도 2a 및 2b는 본 발명의 일실시예에 따른 영상획득부에서 획득한 영상정보들이고, 도 2c는 정합처리부에서 획득한 제1위치추정정보이며, 도 2d는 영상보정부에서 제1위치추정정보를 보정하기 위하여 사용하는 영상획득부에서 획득한 영상정보이고, 도 2e는 보정된 위치추정정보이다. 이하 도 1 내지 도 2e를 참조하여 설명히기로 한다.
도 2a 내지 도 2e는 위치추정정보 획득장치(100)에서 처리되는 영상을 예를 들어 나타낸 도면들이다. 도 2a는 영상획득부(110)에서 획득한 우측영상정보이고, 도 2b는 좌측영상정보이다. 우측영상정보는 우측에 있는 카메라를 통하여 획득한 영상이고, 좌측영상정보는 좌측에 있는 카메라로부터 획득한 영상이다. 좌측영상정보 및 우측영상정보는 정합처리부(120)에 전달되어 도 2c에 나타나있는 영상과 같이 정합처리된다.
도 2d에 나타나 있는 영상은 영상보정부(130)에서 사용되는 보정을 위한 기준영상이다. 특히, 여기서 도 2d의 영상은 도 2b의 좌측영상정보와 같은 영상이다. 도 2c의 정합처리된 영상은 도 2d의 기준영상과 재정합처리되어 오차가 보정된다. 따라서, 위치추정정보 획득부(140)에서는 도 2e에서와 같이 오차가 개선된 영상, 즉 보정된 최종 위치추정정보를 얻게 된다.
도 3는 본 발명의 일실시예에 따른 위치추정정보 획득방법의 설명에 제공되는 흐름도이다. 이하에서는 도 1내지 도 3을 참조하여 설명하기로 한다. 본 발명의 일실시예에 따른 위치추정정보 획득방법은, 두 개의 서로 다른 영상획득장치로부터 제1영상정보 및 제2영상정보를 획득하는 영상정보 획득단계; 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보 획득단계; 제1위치추정정보를 제1영상정보 및 제2영상정보 중 어느 하나와 정합처리하여 제1위치추정정보를 보정하는 영상보정단계; 및 보정된 위치추정정보를 획득하는 최종위치추정정보 획득단계;를 포함한다.
본 발명에 따르면, 먼저, 두 개의 카메라와 같은 영상획득장치로부터 제1영상정보 및 제2영상정보를 획득한다(S310). 제1영상정보 및 제2영상정보는 각각 좌측영상정보 및 우측영성정보일 수 있다. 따라서, 이렇게 획득한 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보를 획득한다(S320).
정합처리에서 발생한 수치오차를 보정하기 위하여 제1위치추정정보를 제1영상정보 및 제2영상정보 중 어느 하나와 다시 정합처리하여 보정한다(S330). 보정이 완료되면, 보정된 위치추정정보인 최종위치추정정보를 획득할 수 있다(S340).
도 4는 본 발명의 다른 실시예에 따른 위치추정정보 획득방법의 설명에 제공 되는 흐름도이다. 본 발명의 다른 실시예에 따른 위치추정정보 획득방법에서는, 먼저 두 개의 서로 다른 영상획득장치로부터 제1영상정보 및 제2영상정보를 획득한다(S410). 획득한 영상정보를 기초로 하여 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보를 획득한다(S420). 제1위치추정정보는 제1영상정보 및 제2영상정보 중 어느 하나와 정합처리하여 보정된다(S430).
이 때, 제1위치추정정보가 보정되면, 보정이 충분이 수행되었는지를 판단한다(S440). 보정이 충분히 수행되어 완료되었다고 판단되면(S440: Y), 보정된 최종위치추정정보를 획득한다(S450). 만약, 보정이 충분히 수행되지 않아 보정이 완료되지 않았다고 판단되면(S440; N) 다시 영상보정단계(S430)로 돌아가 영상보정이 다시 수행된다. 이러한 단계는 보정이 완료되었다고 판단(S440; Y)때 까지 계속 반복될 수 있다.
본 발명의 다른 측면에 따르는 위치추정정보 획득방법은 두 개의 서로 다른 영상획득장치로부터 제1영상정보 및 제2영상정보를 획득하는 영상정보 획득단계; 제1영상정보 및 제2영상정보를 정합처리하여 제1위치추정정보 획득단계; 제1위치추정정보를, 제1영상정보 및 제2영상정보로부터 획득한 중심영상정보와 정합처리하여 제1위치추정정보를 보정하는 영상보정단계; 및 보정된 위치추정정보를 획득하는 최종위치추정정보 획득단계;를 포함한다. 본 실시예에서는 도 3을 참조하여 설명한 위치추정정보 획득방법과 영상보정단계를 제외하고는 그 설명이 동일하므로 이하 생략하기로 한다.
본 실시예에서는 제1위치추정정보를, 제1영상정보 및 제2영상정보 중 어느 하나가 아닌 이들 양 영상정보를 이용하여 획득한 중심영상정보와 정합처리한다. 제1영상정보 및 제2영상정보 중 어느 하나를 기준영상으로 하여 제1위치추정정보를 재정합처리하는 경우 양 영상정보는 좌측이나 우측으로 치우친 영상이다. 따라서, 제1영상정보 및 제2영상정보가 이격된 거리에 위치한 중심축에 가상의 영상인 중심영상정보를 생성하고 이를 이용하여 제1위치추정정보를 보정한다. 따라서, 본 실시예에 따르면, 중심영상정보를 생성하는 절차를 더 수행하여야 더욱 정확한 오차 보정이 가능하다.
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되는 것이 아니라, 첨부된 청구범위에 의해 해석되어야 한다. 또한, 본 발명에 대하여 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경이 가능하다는 것은 당해 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.
도 1은 본 발명의 일실시예에 따른 위치추정정보 획득장치의 블럭도이다.
도 2a 및 2b는 본 발명의 일실시예에 따른 영상획득부에서 획득한 영상정보들이고, 도 2c는 정합처리부에서 획득한 제1위치추정정보이며, 도 2d는 영상보정부에서 제1위치추정정보를 보정하기 위하여 사용하는 영상획득부에서 획득한 영상정보이고, 도 2e는 보정된 위치추정정보이다.
도 3는 본 발명의 일실시예에 따른 위치추정정보 획득방법의 설명에 제공되는 흐름도이다.
도 4는 본 발명의 일실시예에 따른 위치추정정보 획득방법의 설명에 제공되는 흐름도이다.
<도면의 주요부분에 대한 부호의 설명>
100 위치추정정보 획득장치 110 영상획득부
120 정합처리부 130 영상보정부
140 위치추정정보 획득부 150 압축전송부

Claims (10)

  1. 제1영상정보 및 제2영상정보를 획득하는 영상획득부;
    상기 제1영상정보 및 상기 제2영상정보를 정합처리하여 제1위치추정정보를 획득하는 정합처리부;
    상기 제1위치추정정보를 상기 제1영상정보 및 제2영상정보 중 어느 하나와 정합처리하여 상기 제1위치추정정보를 보정하는 영상보정부; 및
    상기 보정된 위치추정정보를 획득하는 위치추정정보 획득부;를 포함하는 위치추정정보 획득장치.
  2. 제 1항에 있어서,
    상기 영상획득부는 2개의 카메라를 포함하고,
    상기 2개의 카메라는 서로 일정거리 이격되어 있어서, 각각 좌/우로 치우친 영상정보를 획득할 수 있는 것을 특징으로 하는 위치추정정보 획득장치.
  3. 제 1항에 있어서,
    상기 정합처리부는,
    상기 제1영상정보 및 제2영상정보를 사각형태로 구분하여 비교하는 WMC 비교 방법을 이용하여 정합 처리를 수행하는 것을 특징으로 하는 위치추정정보 획득장치.
  4. 제 1항에 있어서,
    상기 영상보정부는, 상기 제1위치추정정보를 반복하여 보정하는 것을 특징으로 하는 위치추정정보 획득장치.
  5. 제 1항에 있어서,
    상기 영상보정부는,
    상기 영상획득부로부터 상기 제1영상정보 및 상기 제2영상정보 중 적어도 하나를 입력받고,
    상기 정합처리부로부터 상기 제1위치추정정보를 입력받는 것을 특징으로 하는 위치추정정보 획득장치.
  6. 제 1항에 있어서,
    상기 보정된 위치추정정보를 압축하고 외부 유무선 네트워크로 전송하는 압축전송부;를 더 포함하는 것을 특징으로 하는 위치추정정보 획득장치.
  7. 두 개의 서로 다른 영상획득장치로부터 제1영상정보 및 제2영상정보를 획득하는 영상정보 획득단계;
    상기 제1영상정보 및 상기 제2영상정보를 정합처리하여 제1위치추정정보 획득단계;
    상기 제1위치추정정보를 상기 제1영상정보 및 제2영상정보 중 어느 하나와 정합처리하여 상기 제1위치추정정보를 보정하는 영상보정단계; 및
    상기 보정된 위치추정정보를 획득하는 최종위치추정정보 획득단계;를 포함하는 위치추정정보 획득방법.
  8. 제 7항에 있어서,
    상기 제1위치추정정보 획득단계는,
    상기 제1영상정보 및 제2영상정보를 사각형태로 구분하여 비교하는 WMC 비교 방법을 수행하여 정합 처리하는 것을 특징으로 하는 위치추정정보 획득방법.
  9. 제 7항에 있어서,
    상기 영상보정단계는 반복되는 것을 특징으로 하는 위치추정정보 획득방법.
  10. 두 개의 서로 다른 영상획득장치로부터 제1영상정보 및 제2영상정보를 획득하는 영상정보 획득단계;
    상기 제1영상정보 및 상기 제2영상정보를 정합처리하여 제1위치추정정보 획득단계;
    상기 제1위치추정정보를, 상기 제1영상정보 및 제2영상정보로부터 획득한 중심영상정보와 정합처리하여 상기 제1위치추정정보를 보정하는 영상보정단계; 및
    상기 보정된 위치추정정보를 획득하는 최종위치추정정보 획득단계;를 포함하 는 위치추정정보 획득방법.
KR1020090037305A 2009-04-28 2009-04-28 위치추정 영상정보 획득장치 및 이를 이용한 위치추정 영상정보 획득방법 KR101082329B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090037305A KR101082329B1 (ko) 2009-04-28 2009-04-28 위치추정 영상정보 획득장치 및 이를 이용한 위치추정 영상정보 획득방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090037305A KR101082329B1 (ko) 2009-04-28 2009-04-28 위치추정 영상정보 획득장치 및 이를 이용한 위치추정 영상정보 획득방법

Publications (2)

Publication Number Publication Date
KR20100118449A true KR20100118449A (ko) 2010-11-05
KR101082329B1 KR101082329B1 (ko) 2011-11-10

Family

ID=43404757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090037305A KR101082329B1 (ko) 2009-04-28 2009-04-28 위치추정 영상정보 획득장치 및 이를 이용한 위치추정 영상정보 획득방법

Country Status (1)

Country Link
KR (1) KR101082329B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045579A1 (ko) * 2020-08-26 2022-03-03 삼성전자 주식회사 외부 장치의 위치를 보정하기 위한 전자 장치 및 그의 동작 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3429194B2 (ja) * 1998-05-12 2003-07-22 シャープ株式会社 自動追尾装置
KR100434876B1 (ko) * 2002-03-23 2004-06-07 (주)맥스소프트 스테레오 물체 추적 방법 및 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045579A1 (ko) * 2020-08-26 2022-03-03 삼성전자 주식회사 외부 장치의 위치를 보정하기 위한 전자 장치 및 그의 동작 방법

Also Published As

Publication number Publication date
KR101082329B1 (ko) 2011-11-10

Similar Documents

Publication Publication Date Title
US20090160931A1 (en) Image processing for supporting a stereoscopic presentation
US20150009295A1 (en) Three-dimensional image acquisition apparatus and image processing method using the same
US10825158B2 (en) Moving object monitoring device, server device, and moving object monitoring system
US20160295186A1 (en) Wearable projecting device and focusing method, projection method thereof
US20130258139A1 (en) Imaging apparatus
CN106131527A (zh) 双摄像头颜色同步方法、装置及终端
US10218960B2 (en) Stereoscopic imaging apparatus
US20120127271A1 (en) Stereo video capture system and method
CN109035193A (zh) 一种基于双目立体相机的成像处理方法及成像处理系统
CN113329174B (zh) 多目摄像机的控制方法、装置、系统和电子装置
CN109922325B (zh) 图像处理设备及其控制方法和计算机可读存储介质
US20120300035A1 (en) Electronic camera
US8810693B2 (en) Image processing apparatus and method thereof
EP2912843A1 (en) 3d video warning module
JP6354442B2 (ja) 撮像装置、制御方法及びプログラム
US20240022824A1 (en) Control method for image acquisition device, control device therefor, and storage medium
US20120157159A1 (en) Communication apparatus using image sensor and error correction method
KR101082329B1 (ko) 위치추정 영상정보 획득장치 및 이를 이용한 위치추정 영상정보 획득방법
US9438808B2 (en) Image capture control apparatus, method of limiting control range of image capture direction, and storage medium
CN110848907A (zh) 空调器的控制方法、空调器及计算机可读存储介质
JP6735557B2 (ja) 画像処理装置、画像処理方法
US9866821B2 (en) Rectification apparatus of stereo vision system and method thereof
JP6266022B2 (ja) 画像処理装置、警報装置、および画像処理方法
US20120154546A1 (en) Apparatus and method for capturing stereographic images
US10070056B2 (en) Omnidirectional camera system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140708

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161101

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181101

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 9