KR20210061068A - 비접촉식 위치 정보 획득 방법 및 장치 - Google Patents

비접촉식 위치 정보 획득 방법 및 장치 Download PDF

Info

Publication number
KR20210061068A
KR20210061068A KR1020190148839A KR20190148839A KR20210061068A KR 20210061068 A KR20210061068 A KR 20210061068A KR 1020190148839 A KR1020190148839 A KR 1020190148839A KR 20190148839 A KR20190148839 A KR 20190148839A KR 20210061068 A KR20210061068 A KR 20210061068A
Authority
KR
South Korea
Prior art keywords
target object
pattern
location information
motion
imaging means
Prior art date
Application number
KR1020190148839A
Other languages
English (en)
Other versions
KR102426726B1 (ko
Inventor
이민영
차무현
이근호
이동욱
이한민
Original Assignee
한국기계연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기계연구원 filed Critical 한국기계연구원
Priority to KR1020190148839A priority Critical patent/KR102426726B1/ko
Priority to US17/776,403 priority patent/US20220405960A1/en
Priority to PCT/KR2020/015537 priority patent/WO2021101142A1/ko
Publication of KR20210061068A publication Critical patent/KR20210061068A/ko
Application granted granted Critical
Publication of KR102426726B1 publication Critical patent/KR102426726B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 비접촉식 위치 정보 획득 방법 및 장치를 제공한다. 본 발명은 촬상 수단을 기 설정된 제1 패턴으로 이동하면서, 운동하는 대상 물체를 소정의 노출 시간 동안 촬상하여, 제2 패턴을 가지는 모션 블러된 이미지를 생성하는 단계, 상기 모션 블러된 이미지에서 상기 제2 패턴의 위치 정보를 산출하는 단계 및 상기 제1 패턴과 상기 제2 패턴에 기초하여, 상기 노출 시간 동안의 상기 대상 물체의 위치 정보를 획득하는 단계를 포함하는, 비접촉식 위치 정보 획득 방법을 제공한다.

Description

비접촉식 위치 정보 획득 방법 및 장치{CONTACTLESS DEVICE AND METHOD FOR ACQURING POSITION INFORMATION}
본 발명의 실시예는 비접촉식 위치 정보 획득 방법 및 장치에 관한 것이다.
엔진이나 모터 등과 같은 구동기의 진동은 구동기의 성능을 측정하기 위해 매우 중요한 지표 중 하나이다. 그러나 종래의 측정 장치의 경우, 구동기에 부착되는 센서 개수의 제한되고, 센서가 부착되는 구동기의 위치에 따라 측정 결과가 달라질 수 있으며, 구동기의 운동에 따라 센서가 구동기로부터 떨어져 나갈 수 있다. 또한, 부착되는 센서 자체의 관성도 접촉식 측정 장치의 정밀도를 떨어뜨리는 원인 중 하나이다. 특히, 고온의 엔진 또는 모터에 센서가 직접 부착되는 경우, 감지한 측정값이 특정 방향으로 치우치는 드리프트(drift) 현상이 발생하여, 큰 측정 오차를 야기할 수 있다.
전술한 배경 기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지 기술이라 할 수는 없다.
본 발명의 실시예는 비접촉식으로 대상 물체의 위치 정보를 정밀하게 파악할 수 있는 비접촉식 위치 정보 측정 방법 및 장치에 관한 것이다.
본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 방법은, 촬상 수단을 기 설정된 제1 패턴으로 이동하면서, 운동하는 대상 물체를 소정의 노출 시간 동안 촬상하여, 제2 패턴을 가지는 모션 블러된 이미지를 생성하는 단계, 상기 모션 블러된 이미지에서 상기 제2 패턴의 위치 정보를 산출하는 단계 및 상기 제1 패턴과 상기 제2 패턴에 기초하여, 상기 노출 시간 동안의 상기 대상 물체의 위치 정보를 획득하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 방법에서, 상기 모션 블러된 이미지를 생성하는 단계는 상기 촬상 수단과 연결된 변조 수단이 상기 촬상 수단의 본체, 렌즈 및 이미지 센서 중 적어도 어느 하나를, 상기 노출 시간 동안 상기 제1 패턴으로 이동시킬 수 있다.
본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 방법에서, 상기 모션 블러된 이미지를 생성하는 단계 이전에 상기 대상 물체로부터 반사광을 획득하기 위해서, 상기 대상 물체에서 이격된 광원으로 상기 대상 물체에 광을 조사하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 방법에서, 상기 대상 물체에 광을 조사하는 단계는 상기 대상 물체의 운동 상태를 고려하여, 상기 광원의 세기 및 파장 중 적어도 어느 하나를 조절할 수 있다.
본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 방법에서, 상기 제2 패턴의 위치 정보를 산출하는 단계는 상기 제2 패턴과 상기 노출 시간 동안 상기 촬상 수단에 기록된 광의 세기에 기초하여, 시간에 따른 상기 제2 패턴의 위치 정보를 획득할 수 있다.
본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 방법에서, 상기 대상 물체의 위치 정보를 획득하는 단계는 상기 제1 패턴과, 상기 시간에 따른 상기 제2 패턴의 위치 정보를 기초로, 시간에 따른 상기 대상 물체의 위치 정보를 산출할 수 있다.
본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 방법에서, 상기 모션 블러된 이미지를 생성하는 단계는 복수개의 카메라를 포함하는 상기 촬상 수단으로 상기 대상 물체를 촬상하되, 상기 복수개의 카메라의 방향 벡터는 서로 수직일 수 있다.
본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 방법에서, 상기 모션 블러된 이미지를 생성하는 단계는 상기 복수개의 카메라를 이용하여, 상기 대상 물체 상의 복수개의 특정점에 대한 모션 블러된 이미지를 생성할 수 있다.
본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 장치에서, 이동하는 대상 물체로부터 이격하여 설치되며, 소정의 노출 시간 동안 상기 대상 물체를 촬상하는 촬상 수단, 상기 촬상된 이미지에 모션 블러를 생성하여, 상기 모션 블러된 이미지가 제2 패턴을 갖도록, 상기 촬상 수단을 기 설정된 제1 패턴으로 이동시키는 변조 수단 및 상기 모션 블러된 이미지로부터 상기 노출 시간 동안의 상기 대상 물체의 위치 정보를 획득하는 컨트롤러를 포함할 수 있다.
본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 장치에서, 상기 대상 물체로부터 이격되게 설치되며, 상기 대상 물체로 광을 조사하는 광원 및 상기 대상 물체의 촬상면에 부착되며, 상기 광원에서 조사된 광을 반사하는 반사 부재를 더 포함하고, 상기 촬상 수단은 상기 반사 부재에서 반사된 광을 촬상하여 이미지를 획득할 수 있다.
본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 장치에서, 상기 컨트롤러는 상기 제2 패턴과 상기 노출 시간 동안 상기 촬상 수단에 기록된 광의 세기에 기초하여, 시간에 따른 상기 제2 패턴의 위치 정보를 획득할 수 있다.
본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 장치에서, 상기 컨트롤러는 상기 제1 패턴의 위치 정보와, 상기 시간에 따른 상기 제2 패턴의 위치 정보를 기초로, 시간에 따른 상기 대상 물체의 위치 정보를 산출할 수 있다.
본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 장치에서, 상기 컨트롤러는 상기 광원의 세기 및 파장 중 적어도 어느 하나를 조절할 수 있다.
본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 장치에서, 상기 촬상 수단은 복수개의 카메라를 포함하며, 상기 복수개의 카메라는 방향 벡터가 서로 수직을 이루도록 서로 다른 패턴으로 이동할 수 있다.
본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 장치에서, 상기 복수개의 카메라는, 상기 대상 물체 상의 복수개의 특정점에 대한 모션 블러된 이미지를 생성할 수 있다.
전술한 것 외의 다른 측면, 특징, 이점은 이하의 발명을 실시하기 위한 구체적인 내용, 청구범위 및 도면으로부터 명확해질 것이다.
본 발명의 실시예에 따른 비접촉식 위치 정보 획득 방법 및 장치는 촬상 수단의 프레임율에 제한을 받지 않으며, 광원을 조작하여 시간 분해능을 높임으로써 매우 높은 진동수로 운동하는 대상 물체의 위치 정보를 정밀도 좋게, 높은 해상도로 획득할 수 있다.
도 1은 본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 장치를 나타내는 도면이다.
도 2는 도 1의 컨트롤러를 나타내는 도면이다.
도 3은 도 1의 비접촉식 위치 정보 획득 장치를 이용하여 모션 블러(motion blur)된 이미지를 생성하는 모습을 나타내는 도면이다.
도 4는 도 1의 비접촉식 위치 정보 획득 장치를 이용하여, 대상 물체의 위치 정보를 획득하는 모습을 나타내는 도면이다.
도 5는 본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 장치를 나타내는 도면이다.
도 6은 본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 방법을 나타내는 도면이다.
도 7 및 도 8은 본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 방법을 개념적으로 나타내는 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 발명의 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시예로 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 다른 실시예에 도시되어 있다 하더라도, 동일한 구성요소에 대하여서는 동일한 식별부호를 사용한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부된 도면들에 도시된 본 발명에 관한 실시예들을 참조하여 본 발명을 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 장치(1)를 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 장치(1)는 이동하는 대상 물체(11)로부터 이격하여 설치되며, 소정의 노출 시간 동안 대상 물체를 촬상하는 촬상 수단(12), 촬상된 이미지에 모션 블러(motion blur)를 생성하여, 모션 블러된 이미지가 제2 패턴을 갖도록, 촬상 수단(12)을 기 설정된 제1 패턴으로 이동시키는 변조 수단(13) 및 모션 블러된 이미지로부터 노출 시간 동안의 대상 물체(11)의 위치 정보를 획득하는 컨트롤러(16)를 포함할 수 있다.
모션 블러는 노출 시간 동안 카메라와 피사체의 상대 위치에 변화가 발생하는 경우, 촬상된 이미지에 생성되는 줄무늬이다. 본 발명에서는 노출 시간 동안 촬상 수단(12)을 특정한 패턴으로 움직여, 촬상된 이미지에 모션 블러를 생성하고, 이로부터 대상 물체(11)의 위치 정보를 획득할 수 있다.
촬상 수단(12)은 대상 물체(11)로부터 이격하여 설치된다. 촬상 수단(12)은 소정의 노출 시간 동안 대상 물체(11)로부터 반사되는 광을 촬상하여, 대상 물체(11)의 이미지를 획득한다. 촬상 대상은 대상 물체(11)의 전체이거나 대상 물체(11)의 촬상면에 위치하는 단일 또는 복수개의 점일 수 있다. 설명의 편의상 이하에서는 촬상 수단(12)이 대상 물체(11)의 촬상면에 위치하는 단일 또는 복수개의 점을 촬상하는 것으로 설명한다. 촬상 수단(12)은 특별히 한정하지 않으며, 본 발명의 일 실시예에서 촬상 수단(12)은 렌즈와 이미지 센서를 포함하는 카메라일 수 있다.
대상 물체(11)는 위치 정보를 파악하고자 하는 대상이다. 위치 정보는 대상 물체(11)의 진동수를 포함하여, 시간에 따른 대상 물체(11)의 위치 또는 속도 등을 포함할 수 있다. 대상 물체(11)는 특별히 한정하지 않으며, 다양한 운동 상태를 가질 수 있다. 본 발명의 일 실시예에서 대상 물체(11)는 엔진 또는 모터일 수 있다.
변조 수단(13)은 촬상 수단(12)에 특정한 모션을 부여하는 구성이다. 예를 들어, 촬상 수단(12)이 대상 물체(11)를 촬상하는 동안, 변조 수단(13)은 사전에 설정된 패턴을 따라 촬상 수단(12)을 움직일 수 있다. 변조 수단(13)은 특별히 한정하지 않으며, 후술하는 컨트롤러(16)로부터 지시를 입력 받아 사전에 설정된 패턴으로 촬상 수단(12)을 움직일 수 있으면 충분하다. 예를 들어, 변조 수단(13)은 볼 스크류 모터와 리니어 가이드를 이용하여 촬상 수단(12)을 선형으로 움직일 수 있다. 또는, 변조 수단(13)은 스프링과 같은 탄성 부재를 이용하여 촬상 수단(12)이 사전에 설정된 진동수로 진동하도록 촬상 수단(12)을 움직일 수 있다. 또는, 변조 수단(13)은 촬상 수단(12)이 종동체가 되어, 사전에 설정된 패턴에 대응되는 홈을 따라 이동하도록 구성된 홈캠, 원통캠, 원뿔캠 등일 수 있다.
변조 수단(13)은 촬상 수단(12)을 사전에 설정된 패턴인 제1 패턴으로 움직일 수 있다. 이에 따라, 촬상 수단(12)이 노출 시간 동안 대상 물체(11)를 촬상하는 과정에서, 대상 물체(11)의 고유의 움직임뿐만 아니라, 제1 패턴으로 움직이는 촬상 수단(12)의 움직임이 더해져, 대상 물체(11)와 촬상 수단(12) 간의 상대 위치에 변화가 발생할 수 있다. 이에 따라, 촬상 수단(12)이 촬상한 대상 물체(11)의 이미지에 모션 블러가 생성될 수 있다. 이와 같이 생성된 모션 블러된 이미지는 제2 패턴을 가질 수 있다. 즉, 대상 물체(11)의 고유의 움직임과 제1 패턴으로 움직이는 촬상 수단(12)의 움직임이 더해져, 제2 패턴을 갖는 모션 블러된 이미지가 생성될 수 있다. 모션 블러된 이미지의 제2 패턴은, 대상 물체(11)의 움직임과 달리 추적 가능한 패턴일 수 있다.
도 3은 도 1의 비접촉식 위치 정보 획득 장치(1)를 이용하여 모션 블러된 이미지를 생성하는 모습을 나타내는 도면이다.
도 3의 (a)에 나타낸 바와 같이, 대상 물체(11)는 매우 높은 진동수를 갖는 패턴(PA)으로 운동할 수 있다. 종래의 비접촉식 측정 방법에서는 대상 물체의 진동수에 대응되도록 촬상 수단의 프레임율을 높여, 대상 물체의 위치 정보를 획득한다. 그러나 이러한 방법은 높은 프레임율을 지원하는 촬상 수단이 필요하고, 처리해야 하는 이미지의 수의 증가에 따라 이미지 프로세싱 계산량이 기하급수적으로 증가하게 되어, 경제성 및 효용성이 극히 떨어진다.
반면, 본 발명의 일 실시예에 따른 비접촉식 위치 정보 획득 장치(1)는 변조 수단(13)을 이용하여 촬상 수단(12)을 일정한 패턴으로 움직여, 모션 블러된 이미지를 생성하고, 이로부터 대상 물체(11)의 위치 정보를 획득할 수 있다.
예를 들어, 도 3의 (b) 및 (c)에 나타내는 바와 같이, 촬상 수단(12)은 변조 수단(13)에 의해 제1 패턴(P1)으로 움직이면서 대상 물체(11)를 촬상할 수 있다. 이 경우, 촬상 수단(12)의 노출 시간 동안 대상 물체(11)와 촬상 수단(12)의 상대 위치의 변화에 따라 모션 블러가 발생하고, 이로부터 제2 패턴(P2)을 갖는 모션 블러된 이미지를 생성할 수 있다. 즉, 제2 패턴(P2)은 대상 물체(11)의 움직임에 촬상 수단(12)의 제1 패턴(P1)이 더해진 것일 수 있다.
제1 패턴(P1)의 크기, 형상 등은 특별히 한정하지 않으나, 도 3에 나타낸 바와 같이, 제1 패턴(P1)의 크기는 대상 물체(11)의 패턴(PA)보다 클 수 있다. 이에 따라, 모션 블러된 이미지는 대상 물체(11)의 패턴(PA)보다 크며 추적 가능한 제2 패턴(P2)을 가질 수 있다. 또한, 제2 패턴(P2)의 위치 정보, 특히 진동수를 측정하는데 있어 시간 분해능을 높일 수 있어, 대상 물체(11)의 위치 정보를 보다 정밀하게 획득할 수 있다.
또한, 도 3에 나타낸 바와 같이, 제1 패턴(P1)은 원 또는 타원 형상을 가질 수 있다. 이에 따라, 최종적으로 생성되는 모션 블러된 이미지의 제2 패턴(P2)은 제1 패턴(P1)의 중점을 기준으로, R-θ 극좌표계로 표현될 수 있다. 제1 패턴(P1)의 형상은 대상 물체(11)의 운동 상태에 따라 달라질 수 있으며, 제2 패턴(P2)도 극좌표계뿐만 아니라 직교 좌표계로 표현될 수 있다. 다만 설명의 편의를 위해 본 발명의 일 실시예에서 제1 패턴(P1)은 원 또는 타원 형상인 것으로 설명한다.
전술한 바와 같이, 추적하기 어려운 운동 상태에 있는 대상 물체(11)에 있어서, 대상 물체(11)를 촬상하는 촬상 수단(12)을 사전에 설정된 제1 패턴(P1)으로 움직임으로써, 추적 가능한 패턴인 제2 패턴(P2)을 갖는 모션 블러된 이미지를 생성할 수 있다. 그리고 도 3의 (d)에 나타낸 바와 같이, 제2 패턴(P2)의 움직임을 극좌표계로 표현함으로써, 모션 블러된 이미지의 제2 패턴(P2)의 위치 정보를 획득할 수 있다.
변조 수단(13)은 촬상 수단(12) 자체를 사전에 설정된 패턴으로 움직일 수도 있으며, 촬상 수단(12)의 특정 부분만을 사전에 설정된 패턴으로 움직일 수도 있다. 예를 들어, 촬상 수단(12)이 카메라인 경우, 카메라 본체, 카메라 렌즈 또는 카메라의 이미지 센서 등을 선택적으로 움직일 수 있다. 변조 수단(13)은 움직이고자 하는 대상에 따라 적절한 크기 및 형상을 가질 수 있다. 또한, 변조 수단(13)은 움직이고자 하는 대상의 적절한 위치에 배치될 수 있다.
다른 실시예로, 비접촉식 위치 정보 획득 장치(1)는 광원(14)과 반사 부재(15)를 더 포함할 수 있다. 광원(14)은 대상 물체(11)에 부착되어 설치되거나, 대상 물체(11)로부터 이격하여 설치될 수 있다. 광원(14)은 대상 물체(11)에 광을 조사하며, 대상 물체(11)로부터 반사된 광을 촬상 수단(12)이 촬상할 수 있다. 광원(14)은 특별히 한정하지 않으며, 후술하는 컨트롤러(16)를 통해 광의 세기 및/또는 파장을 조작할 수 있는 것이 바람직하다. 본 발명의 일 실시예에서, 광원(14)은 LED일 수 있다.
반사 부재(15)는 대상 물체(11)의 촬상면에 부착된다. 반사 부재(15)의 종류, 형상, 크기 및 위치는 특별히 한정하지 않으며, 촬상 수단(12)을 이용하여 대상 물체(11)의 이미지를 획득하는데 적절한 부재를 선택할 수 있다. 이에 따라, 광은 광원(14)으로부터 조사되어(L1), 대상 물체(11)의 촬상면에 부착된 반사 부재(15)에 의해 반사된다(L2). 반사된 광은 촬상 수단(12)으로 입사되며, 촬상 수단(12)은 이를 촬상하여 대상 물체(11)의 이미지를 획득할 수 있다.
예를 들어, 대상 물체(11)가 엔진인 경우, 광이 부족한 엔진룸 등에 광원(14)과 반사 부재(15)를 설치함으로써, 대상 물체(11)의 선명한 이미지를 획득할 수 있다.
도 2는 도 1의 컨트롤러(16)를 나타내는 도면이다
도 1 및 도 2를 참조하면, 컨트롤러(16)는 비접촉식 위치 정보 획득 장치(1)의 일측에 설치될 수 있다. 컨트롤러(16)는 촬상 수단(12)과, 변조 수단(13)과, 광원(14)과 연결되어, 이들을 제어할 수 있다. 컨트롤러(16)는 통신부(161)와, 촬상 수단 제어부(162)와, 변조 수단 제어부(163)와, 광원 제어부(164)와, 연산부(165)와, 입출력 인터페이스부(166)를 포함할 수 있다.
촬상 수단 제어부(162)는 대상 물체(11)의 특성을 고려하여 촬상 수단(12)의 구체적인 촬상 조건을 제어할 수 있다. 예를 들어, 촬상 수단(12)으로 입사되는 광량을 고려하여, 촬상 수단(12)의 노출 시간 또는 조리개값을 제어할 수 있다.
변조 수단 제어부(163)는 변조 수단(13)을 제어하여, 촬상 수단(12)에 특정한 모션을 부여할 수 있다. 여기서 촬상 수단(12)에 부여되는 특정한 모션은 대상 물체(11)의 특성을 고려하여 선택될 수 있다. 예를 들어, 변조 수단 제어부(163)는 사전에 설정된 제1 패턴으로 촬상 수단(12)을 움직이도록 변조 수단(13)을 제어할 수 있다.
광원 제어부(164)는 광원(14)을 제어하여, 대상 물체(11(반사 부재(15))에 입사되는 광의 조작할 수 있다. 예를 들어, 대상 물체(11)가 매우 높은 진동수로 운동하는 경우, 대상 물체(11)의 정밀한 위치 정보를 획득하기 위해서는 시간 분해능이 향상되어야 한다. 본 발명의 일 실시예에서는 광원 제어부(164)는 광원(14)의 세기 및/또는 주파수를 제어하여, 시간 분해능을 향상시킬 수 있다. 또한, 광원(14)으로서 LED를 이용하는 경우, 적색 LED, 녹색 LED, 청색 LED의 세기 및/또는 주파수 각각 개별적으로 제어하여 LED의 RGB 값을 조작함으로써, 시간 분해능을 향상시킬 수 있다.
구체적으로, 광원(14)은 조사되는 광의 세기를 달리하여 광을 조사할 수 있다. 즉, 광원(14)으로부터 조사되는 광의 세기는 가변적일 수 있다. 예를 들어, 촬상 수단(12)의 노출 시간 중 제1 시간 동안 제1 세기로 광을 조사하고, 나머지 제2 시간 동안 제2 세기로 광을 조사할 수 있다. 여기서 제1 세기 > 제2 세기일 수 있다. 이 경우, 제1 시간과 제2 시간 동안 촬상 수단(12)의 이미지 센서에 기록된 광의 세기가 다르므로, 제1 시간 동안의 대상 물체(11)의 움직임과 제2 시간 동안의 대상 물체(11)의 움직임이 구분될 수 있다. 이에 따라, 대상 물체(11)의 시간에 다른 운동 상태를 보다 정밀하게 측정할 수 있다. 즉, 비접촉식 위치 정보 측정 장치(1)의 시간 분해능이 향상될 수 있다. 광의 세기와, 광이 특정 세기로 조사되는 시간은 대상 물체(11)의 운동 상태에 따라 다양한 조합으로 선택될 수 있다.
또한, 광원(14)은 조사되는 광의 파장을 달리할 수 있다. 즉, 광원(14)으로부터 조사되는 광의 파장은 가변적일 수 있다. 예를 들어, LED인 광원에 있어서, 광원(14)은 제1 시간 동안 제1 파장의 광을 조사하고, 제2 시간 동안 제2 파장의 광을 조사하고, 제3 시간 동안 제3 파장의 광을 조사할 수 있다. 이 경우, 제1 시간 내지 제3 시간 동안 촬상 수단(12)의 이미지 센서에는 서로 다른 파장의 광이 기록되므로, 제1 시간, 제2 시간, 제3 시간 각각에서의 대상 물체(11)의 움직임이 구분될 수 있다. 이에 따라, 대상 물체(11)의 시간에 다른 운동 상태를 보다 정밀하게 측정할 수 있다. 즉, 비접촉식 위치 정보 측정 장치(1)의 시간 분해능이 향상될 수 있다. 광의 파장과, 광이 특정 파장으로 조사되는 시간은 대상 물체(11)의 운동 상태에 따라 다양한 조합으로 선택될 수 있다.
이에 따라, 대상 물체(11)가 매우 높은 진동수로 운동하는 경우에도, 촬상 수단(12)의 프레임율을 높이지 않고도, 간단하게 광원(14)을 조작함으로써, 대상 물체(11)의 위치 정보를 정밀하게 획득할 수 있다.
촬상 수단 제어부(162)와, 변조 수단 제어부(163)와, 광원 제어부(164)는 통신부(161)를 통해 촬상 수단(12)과, 변조 수단(13)과, 광원(14)과 각각 통신할 수 있다. 촬상 수단 제어부(162)와, 변조 수단 제어부(163)와, 광원 제어부(164)로부터 입력된 명령은 통신부(161)를 거쳐 각각 촬상 수단(12)과, 변조 수단(13)과, 광원(14)으로 전달될 수 있다. 또한, 촬상 수단(12)이 생성한 대상 물체(11)의 이미지 또는 촬상 수단(12)과, 변조 수단(13)과, 광원(14)의 출력 데이터는 다시 통신부(161)를 거쳐 촬상 수단 제어부(162)와, 변조 수단 제어부(163)와, 광원 제어부(164)로 피드백될 수 있다. 통신부(161)는 컨트롤러(16) 내부 구성 간의 데이터 교환 또는 컨트롤러(16)와 외부 구성 간의 데이터 교환을 실시하는 구성으로서, 그 종류를 특별히 한정하지는 않는다.
연산부(165)는 촬상 수단(12)으로부터 전달받은 모션 블러된 이미지를 바탕으로, 대상 물체(11)의 위치 정보를 획득하기 위한 연산을 실시한다. 이에 대해서는 도 4를 참조하여 설명한다.
도 4는 도 1의 비접촉식 위치 정보 획득 장치(1)를 이용하여, 대상 물체(11)의 위치 정보를 획득하는 모습을 나타내는 도면이다.
연산부(165)는 촬상 수단(12)이 촬상한 모션 블러된 이미지의 제2 패턴(P2)에 대해 위치 정보를 산출한다. 예를 들어, 도 4a에 나타낸 바와 같이, 제 2 패턴(P2)의 위치 정보를 R-θ 극좌표계로 표현할 수 있다. 이때, 중점은 제1 패턴(P1)의 중점일 수 있다.
또한 연산부(165)는 제2 패턴(P2)의 위치 정보에 기초하여, 모션 블러된 이미지의 밀도 정보를 산출할 수 있다. 예를 들어, 연산부(165)는 도 4a에 나타낸 바와 같이 극좌표계로 표현된 제2 패턴(P2)과, 노출 시간 동안 촬상 수단(12)의 이미지 센서에 기록된 광의 세기 및/또는 파장에 기초하여, 도 4b에 나타낸 바와 같이 모션 블러된 이미지의 제2 패턴(P2)에 대한 밀도맵(density map)을 구축할 수 있다. 여기서 밀도맵은 노출 시간 동안 촬상 수단(12)의 이미지 센서에 기록된 광의 세기 및/또는 파장에 관한 정보를 제2 패턴(P2)에 맵핑한 결과물일 수 있다.
도 4b에는 좌측 하단에 위치한 임의의 원점을 기준으로 직교 좌표계로 표현된 제2 패턴(P2)에 대해 광의 파장에 관한 정보를 맵핑한 밀도맵을 나타낸다. 다만, 이에 한정하는 것은 아니며, 전술한 바와 같이 극좌표계로 표현된 제2 패턴(P2)에 대해 광의 세기에 관한 정보를 맵핑하여 밀도맵을 나타낼 수도 있다.
그리고 연산부(165)는, 이와 같이 모션 블러된 이미지의 제2 패턴(P2)에 광의 세기 및/또는 파장에 관한 정보가 맵핑된 밀도맵을 기초로 하여, 시간에 따른 제2 패턴(P2)의 위치 정보를 생성할 수 있다. 구체적으로, 촬상 수단(12)의 노출 시간과, 광원(14)의 조사 시간과, 광의 세기 및/또는 파장에 관한 정보를 알고 있으므로, 도 4c에 나타낸 바와 같이, 제2 패턴(P2)의 위치 정보를 시간에 대해 나타낼 수 있다. 도 4c에는 시간에 따른 제2 패턴(P2)의 위치 정보를 원점에 대한 반경으로 나타냈으나, 이에 한정하지는 않는다.
그리고 연산부(165)는 대상 물체(11)의 위치 정보를 역으로 산출할 수 있다. 구체적으로, 연산부(165)는 시간에 따른 제2 패턴(P2)의 움직임에 대해, 시간에 따른 제1 패턴(P1)의 움직임을 제외함으로써, 최종적으로 시간에 따른 대상 물체(11)의 움직임, 즉 대상 물체(11)의 위치 정보를 산출할 수 있다. 도 4d에는 대상 물체(11)의 위치 정보를 시간에 따른 X축과 Y축에서의 위치로 나타냈으나, 이에 한정하지는 않는다. 예를 들어, 대상 물체(11)의 위치 정보를 시간에 따른 제1 패턴(P1)의 원점과의 거리로 나타낼 수도 있다.
이와 같은 구성을 통해, 본 발명의 일 실시예에 따른 비접촉식 위치 정보 측정 장치(1)는 촬상 수단(12)의 프레임율을 높이거나, 고가의 프로세서를 이용하지 않고도, 대상 물체(11)의 위치 정보를 획득할 수 있다. 특히, 변조 수단(13)을 이용하여 촬상 수단(12)을 특정한 모션으로 움직여 모션 블러를 생성하고, 조사되는 광의 세기 및/또는 파장을 조작함으로써 높은 진동수로 움직이는 대상 물체의 위치 정보를 정밀도 좋게, 높은 해상도로 획득할 수 있다.
도 5는 본 발명의 다른 실시예에 따른 위치 정보 측정 장치(1')를 나타낸다.
도 5에 나타낸 바와 같이, 촬상 수단(12)은 복수개의 카메라를 포함할 수 있다. 도 5에는 제1 카메라(12A)와 제2 카메라(12B)만을 나타냈으나, 촬상 수단(12)은 2개 이상의 카메라를 포함할 수 있다. 다만, 설명의 편의를 위해 이하에서는 촬상 수단(12)이 2개의 카메라를 포함하는 것으로 설명한다. 카메라의 개수를 제외하고, 비접촉식 위치 정보 측정 장치(1')의 다른 구성은 도 1의 비접촉식 위치 정보 측정 장치(1)의 구성과 동일할 수 있다. 예를 들어, 제1 카메라(12A)와 제2 카메라(12B) 각각에 변조 수단(13)이 연결되고, 광원(14), 반사 부재(15), 컨트롤러(16)를 구비할 수 있다.
다른 실시예로, 제1 카메라(12A)와 제2 카메라(12B)는 서로 이격하여 설치되며, 서로 다른 패턴으로 움직일 수 있다. 예를 들어, 대상 물체(11)가 촬상 수단(12)과 같은 방향으로 움직이는 경우, 대상 물체(11)과 촬상 수단(12)의 상대 위치 변화량이 상쇄되어, 촬상된 이미지에 모션 블러가 충분히 생성되지 않을 수 있다. 이에 따라, 본 발명의 비접촉식 위치 정보 획득 장치(1')에서는 촬상 수단(12)의 제1 카메라(12A)와 제2 카메라(12B)이 서로 다른 패턴으로 움직이도록 구성하였다. 이러한 구성을 통해, 대상 물체(11)가 제1 카메라(12A) 또는 제2 카메라(12B) 중 어느 하나의 카메라와 같은 방향으로 움직이더라도, 나머지 카메라에 의한 모션 블러가 촬상된 이미지에 충분히 생성될 수 있다.
또 다른 실시예로, 본 발명의 비접촉식 위치 정보 획득 장치(1')에서 제1 카메라(12A)와 제2 카메라(12B)가 촬상하는 대상은, 대상 물체(11)의 촬상면에 위치하는 복수개의 특정점일 수 있다. 예를 들어, 도 5에 나타내는 바와 같이, 제1 카메라(12A)와 제2 카메라(12B)는 각각 대상 물체의 촬상면 상에 위치하는 제1 점(Point 1), 제2 점(Point 2), 제3 점(Point 3), 제4 점(Point 4)을 촬상할 수 있다. 이에 따라, 대상 물체(11) 상에 위치하는 복수개의 특정점에 대해 각각 모션 블러된 이미지를 생성하고, 그 위치 정보를 획득할 수 있다. 따라서, 대상 물체(11)가 전체적으로 하나의 운동 상태만을 갖는 것이 아니라, 재질, 진동원으로부터의 거리 또는 체결구의 체결 강도의 차이 등으로 인해 대상 물체(11)가 부분적으로 서로 다른 운동 상태를 갖더라도, 각각의 특정점에 대응되는 대상 물체(11)의 위치 정보를 획득할 수 있다.
또한, 복수개의 특정점은 서로 다른 촬상면에 각각 위치할 수 있다. 예를 들어, 도 5에 나타낸 바와 같이, 제1 점(Point 1) 내지 제3 점(Point 3)과 제4 점(Point 4)는 서로 다른 촬상면에 위치할 수 있다. 이에 따라, 대상 물체(11)의 모션 블러된 이미지를 3차원으로 구현하여, 대상 물체(11)의 3차원 위치 정보를 획득할 수 있다. 여기서, 특정점과 촬상면의 개수 및 위치는 대상 물체(11)의 운동 상태 등을 고려하여 적절히 선택될 수 있다. 또한, 반사 부재(15)는 복수개의 특정점 또는 복수개의 촬상면에 각각 대응되도록 설치될 수 있다.
도 6은 본 발명의 다른 실시예에 따른 비접촉식 위치 정보 획득 방법을 나타내는 도면이다.
도 1, 도 3, 도 6을 참조하면, 본 발명의 비접촉식 위치 정보 획득 방법은 촬상 수단(12)을 기 설정된 제1 패턴(P1)으로 이동하면서, 운동하는 대상 물체(11)를 소정의 노출 시간 동안 촬상하여, 제2 패턴(P2)을 가지는 모션 블러된 이미지를 생성하는 단계(S100), 모션 블러된 이미지에서 제2 패턴(P2)의 위치 정보를 산출하는 단계(S200) 및 제1 패턴(P1)과 제2 패턴(P2)에 기초하여, 노출 시간 동안의 대상 물체(11)의 위치 정보를 획득하는 단계(S300)를 포함할 수 있다.
먼저, 모션 블러된 이미지를 생성하는 단계(S100)에서, 변조 수단(13)을 이용하여 촬상 수단(12)을 제1 패턴(P1)으로 이동시킬 수 있다. 촬상 수단(12)으로 대상 물체(11)를 촬상하는 동안, 변조 수단(13)을 이용하여 촬상 수단(12)을 제1 패턴(P1)으로 움직임으로써, 촬상 수단(12)이 촬상한 이미지에 모션 블러를 생성한다. 즉, 촬상된 이미지는 대상 물체(11)의 움직임과 촬상 수단(12)의 제1 패턴(P1)이 합성된 상태일 수 있다. 변조 수단(13)을 이용하여 촬상 수단(12) 자체를 이동시키거나, 촬상 수단(12)의 카메라 또는 이미지 센서만을 선택적으로 이동시킬 수도 있다. 이렇게 생성된 모션 블러된 이미지는 제2 패턴(P2)을 가질 수 있다.
모션 블러된 이미지의 제2 패턴(P2)은, 대상 물체(11)의 움직임과 달리, 추적 가능한 패턴일 수 있다. 또한, 제2 패턴(P2)은 극좌표계 또는 직교좌표계 등으로 표현될 수 있다.
다른 실시예로, 촬상 수단(12)으로 대상 물체(11)를 촬상하기 전에, 광원(14)으로 대상 물체(11)에 광을 조사하는 단계를 더 포함할 수 있다. 대상 물체(11)로부터 이격하여 광원(14)을 설치하고, 대상 물체(11)의 촬상면에 반사 부재(15)를 설치할 수 있다. 그리고 광원(14)을 이용하여 대상 물체(11)에 광을 조사하고, 대상 물체(11)의 반사 부재(15)로부터 반사된 광을 촬상 수단(12)으로 촬상할 수 있다.
또 다른 실시예로, 광원(14)의 세기 및/또는 파장을 조절할 수 있다. 예를 들어, 제1 시간 동안 제1 세기로 광을 조사한 다음, 나머지 제2 시간 동안 제2 세기로 광을 조사할 수 있다. 또는, 제1 파장의 광을 제1 시간 동안 조사하고, 제2 파장의 광을 제2 시간 동안 조사하고, 제3 파장의 광을 제3 시간 동안 조사할 수 있다. 광원(14)으로부터 조사되는 광의 세기 및/또는 파장과, 각각의 광이 조사되는 시간은 대상 물체(11)의 움직임에 따라 적절히 선택할 수 있다. 이에 따라, 모션 블러된 이미지로부터 서로 다른 세기 또는 서로 다른 파장의 광을 구분할 수 있어, 대상 물체(11)의 위치 정보를 획득하는데 있어, 시간 분해능을 높일 수 있다.
다음, 모션 블러된 이미지에서 제2 패턴(P-2)의 위치 정보를 산출한다(S200). 구체적으로, 도 4를 참조하면, 전술한 바와 같이 획득한 제2 패턴(P2)과, 노출 시간 동안 촬상 수단(12)의 이미지 센서에 기록된 광의 세기 및/또는 파장에 관한 정보에 기초하여, 모션 블러된 이미지의 밀도맵을 구축할 수 있다. 그리고 이와 같이 구축된 밀도맵과, 이미 알고 있는 노출 시간 및 광원(14)을 이용하여 특정 광을 조사한 시간에 관한 정보에 기초하여, 제2 패턴(P2)의 위치 정보를 시간에 따라 표현할 수 있다.
다음, 대상 물체(11)의 위치 정보를 획득한다(S300). 구체적으로, 전술한 바와 같이 획득한, 제2 패턴(P2)의 시간에 따른 위치 정보와, 이미 알고 있는 제1 패턴(P1)의 위치 정보에 기초하여, 대상 물체(11)의 시간에 따른 위치 정보를 획득한다. 즉, 대상 물체(11)의 움직임에 모션 블러를 생성하여 획득한 제2 패턴(P2)의 위치 정보로부터, 다시 모션 블러를 제거하여 대상 물체(11)의 위치 정보를 역으로 산출할 수 있다.
다른 실시예로, 본 발명의 비접촉식 위치 정보 획득 방법은 복수개의 카메라를 포함하는 촬상 수단(12)을 이용하여, 대상 물체(11)를 촬상할 수 있다. 도 5를 참조하면, 촬상 수단(12)은 제1 카메라(12A)와 제2 카메라(12B)를 포함할 수 있다. 본 발명의 비접촉식 위치 정보 획득 방법에서는, 제1 카메라(12A)와 제2 카메라(12B)를 서로 다른 패턴으로 움직여, 대상 물체(11)의 복수개의 촬상면 상에 위치하는 복수개의 특정점을 촬상할 수 있다. 이에 따라, 각각의 특정점에 대해 모션 블러가 생성된 이미지를 생성하여, 대상 물체(11)의 위치 정보를 보다 정밀하게 획득할 수 있다. 특히, 대상 물체(11)의 서로 다른 면에 복수개의 특정점 및/또는 복수개의 촬상면을 배치하여, 대상 물체(11)의 3차원 위치 정보를 획득할 수 있다. 여기서, 촬상 수단(12)이 포함하는 카메라의 개수 및 위치, 특정점과 촬상면의 개수 및 위치는 대상 물체(11)의 운동 상태를 고려하여 적절히 선택될 수 있다.
또 다른 실시예로, 본 발명의 비접촉식 위치 정보 획득 방법은 제1 카메라(12A)의 방향 벡터(VA)와 제2 카메라(12B)의 방향 벡터(VB)가 서로 수직을 이루도록 제1 카메라(12A)와 제2 카메라(12B)를 움직일 수 있다. 이에 따라, 대상 물체(11)가 어느 한 카메라의 운동 방향과 동일한 방향으로 움직임에 따라, 모션 블러 효과가 상쇄되더라도, 다른 카메라에 의해 충분한 모션 블러 효과를 생성할 수 있다.
도 7 및 도 8은 본 발명의 비접촉식 위치 정보 획득 방법 및 장치를 개념적으로 설명하는 도면이다.
도 7을 참조하면, 모션 블러를 생성하지 않고 대상 물체의 움직임을 시간에 대해 적분할 경우, 서로 다른 움직임을 나타내는 대상 물체가 동일한 적분값을 갖는 것을 알 수 있다. 여기서 적분값은 촬상 수단을 이용하여 노출 시간 동안 대상 물체를 촬상했을 때, 이미지 센서에 기록된 광의 세기일 수 있다. 즉, 촬상 수단에 어떠한 조작 내지 변조를 가하지 않고, 대상 물체를 그대로 촬상할 경우, 대상 물체의 움직임을 시계열적으로 재구축하는 것이 불가능할 수 있다.
반면, 도 8을 참조하면, 대상 물체의 움직임에 임의의 패턴을 갖는 운동 상태를 연산하여, 새로운 패턴을 갖는 운동 상태를 생성할 수 있다. 이와 같이 생성된 새로운 운동 상태를 시간에 대해 적분할 경우, 다른 적분값을 나타내는 것을 알 수 있다. 그리고 이미 알고 있는 정보인 임의의 패턴을 갖는 운동 상태와, 새롭게 생성된 적분값을 이용하여, 대상 물체의 움직임을 역으로 산출할 수 있다. 즉, 대상 물체의 고유의 움직임에 더하여, 노출 시간 동안 촬상 수단을 움직임으로써 새로운 패턴으로 움직이는 운동 상태를 생성하고, 이를 통해 대상 물체의 움직임을 시계열적으로 재구축할 수 있다.
본 발명에 따른 비접촉식 위치 정보 획득 방법 및 장치는 대상 물체를 촬상하는 촬상 수단을 임의의 패턴으로 움직임으로써, 촬상된 이미지에 모션 블러를 생성하여, 이로부터 대상 물체의 움직임을 역으로 산출할 수 있다. 또한, 본 발명에 따른 비접촉식 위치 정보 획득 방법 및 장치는 촬상 수단의 운동 패턴이나, 광원으로부터 조사되는 광의 세기 및/또는 파장을 시간에 대해 조절함으로써, 대상 물체의 위치 정보를 획득하는데 있어 시간 분해능을 높일 수 있다. 이에 따라, 카메라의 프레임율에 제한을 받지 않으며, 고성능의 이미지 프로세서 없이도, 매우 높은 진동수로 움직이는 대상 물체의 위치 정보를 고해상도, 고정밀도로 획득할 수 있다.
1, 1': 비접촉식 위치 정보 획득 장치
11: 대상 물체
12: 촬상 수단
13: 변조 수단
14: 광원
15: 반사 부재
16: 컨트롤러

Claims (15)

  1. 촬상 수단을 기 설정된 제1 패턴으로 이동하면서, 운동하는 대상 물체를 소정의 노출 시간 동안 촬상하여, 제2 패턴을 가지는 모션 블러된 이미지를 생성하는 단계;
    상기 모션 블러된 이미지에서 상기 제2 패턴의 위치 정보를 산출하는 단계; 및
    상기 제1 패턴과 상기 제2 패턴에 기초하여, 상기 노출 시간 동안의 상기 대상 물체의 위치 정보를 획득하는 단계;를 포함하는, 비접촉식 위치 정보 획득 방법.
  2. 제1 항에 있어서,
    상기 모션 블러된 이미지를 생성하는 단계는
    상기 촬상 수단과 연결된 변조 수단이 상기 촬상 수단의 본체, 렌즈 및 이미지 센서 중 적어도 어느 하나를, 상기 노출 시간 동안 상기 제1 패턴으로 이동시키는, 비접촉식 위치 정보 획득 방법.
  3. 제1 항에 있어서,
    상기 모션 블러된 이미지를 생성하는 단계 이전에
    상기 대상 물체로부터 반사광을 획득하기 위해서, 상기 대상 물체에서 이격된 광원으로 상기 대상 물체에 광을 조사하는 단계;를 더 포함하는, 비접촉식 위치 정보 획득 방법.
  4. 제3 항에 있어서,
    상기 대상 물체에 광을 조사하는 단계는
    상기 대상 물체의 운동 상태를 고려하여, 상기 광원의 세기 및 파장 중 적어도 어느 하나를 조절하는, 비접촉식 위치 정보 획득 방법.
  5. 제1 항에 있어서,
    상기 제2 패턴의 위치 정보를 산출하는 단계는
    상기 제2 패턴과 상기 노출 시간 동안 상기 촬상 수단에 기록된 광의 세기에 기초하여, 시간에 따른 상기 제2 패턴의 위치 정보를 획득하는, 비접촉식 위치 정보 획득 방법.
  6. 제5 항에 있어서,
    상기 대상 물체의 위치 정보를 획득하는 단계는
    상기 제1 패턴과, 상기 시간에 따른 상기 제2 패턴의 위치 정보를 기초로, 시간에 따른 상기 대상 물체의 위치 정보를 산출하는, 비접촉식 위치 정보 획득 방법.
  7. 제1 항에 있어서,
    상기 모션 블러된 이미지를 생성하는 단계는
    복수개의 카메라를 포함하는 상기 촬상 수단으로 상기 대상 물체를 촬상하되, 상기 복수개의 카메라의 방향 벡터는 서로 수직인, 비접촉식 위치 정보 획득 방법.
  8. 제7 항에 있어서,
    상기 모션 블러된 이미지를 생성하는 단계는
    상기 복수개의 카메라를 이용하여, 상기 대상 물체 상의 복수개의 특정점에 대한 모션 블러된 이미지를 생성하는, 비접촉식 위치 정보 획득 방법.
  9. 이동하는 대상 물체로부터 이격하여 설치되며, 소정의 노출 시간 동안 상기 대상 물체를 촬상하는 촬상 수단;
    상기 촬상된 이미지에 모션 블러를 생성하여, 상기 모션 블러된 이미지가 제2 패턴을 갖도록, 상기 촬상 수단을 기 설정된 제1 패턴으로 이동시키는 변조 수단; 및
    상기 모션 블러된 이미지로부터 상기 노출 시간 동안의 상기 대상 물체의 위치 정보를 획득하는 컨트롤러;를 포함하는, 비접촉식 위치 정보 획득 장치.
  10. 제9 항에 있어서,
    상기 대상 물체로부터 이격되게 설치되며, 상기 대상 물체로 광을 조사하는 광원; 및
    상기 대상 물체의 촬상면에 부착되며, 상기 광원에서 조사된 광을 반사하는 반사 부재;를 더 포함하고,
    상기 촬상 수단은 상기 반사 부재에서 반사된 광을 촬상하여 이미지를 획득하는, 비접촉식 위치 정보 획득 장치.
  11. 제9 항에 있어서,
    상기 컨트롤러는
    상기 제2 패턴과 상기 노출 시간 동안 상기 촬상 수단에 기록된 광의 세기에 기초하여, 시간에 따른 상기 제2 패턴의 위치 정보를 획득하는, 비접촉식 위치 정보 획득 장치.
  12. 제11 항에 있어서,
    상기 컨트롤러는
    상기 제1 패턴의 위치 정보와, 상기 시간에 따른 상기 제2 패턴의 위치 정보를 기초로, 시간에 따른 상기 대상 물체의 위치 정보를 산출하는 비접촉식 위치 정보 획득 장치.
  13. 제10 항에 있어서,
    상기 컨트롤러는
    상기 광원의 세기 및 파장 중 적어도 어느 하나를 조절하는, 비접촉식 위치 정보 획득 장치.
  14. 제9 항에 있어서,
    상기 촬상 수단은 복수개의 카메라를 포함하며,
    상기 복수개의 카메라는 방향 벡터가 서로 수직을 이루도록 서로 다른 패턴으로 이동하는, 비접촉식 위치 정보 획득 장치.
  15. 제14 항에 있어서,
    상기 복수개의 카메라는,
    상기 대상 물체 상의 복수개의 특정점에 대한 모션 블러된 이미지를 생성하는, 비접촉식 위치 정보 획득 장치.
KR1020190148839A 2019-11-19 2019-11-19 비접촉식 위치 정보 획득 방법 및 장치 KR102426726B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190148839A KR102426726B1 (ko) 2019-11-19 2019-11-19 비접촉식 위치 정보 획득 방법 및 장치
US17/776,403 US20220405960A1 (en) 2019-11-19 2020-11-06 Contactless location information acquisition apparatus and location information acquisition method using the same
PCT/KR2020/015537 WO2021101142A1 (ko) 2019-11-19 2020-11-06 비접촉식 위치정보 획득장치 및 이를 이용한 위치정보 획득방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190148839A KR102426726B1 (ko) 2019-11-19 2019-11-19 비접촉식 위치 정보 획득 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20210061068A true KR20210061068A (ko) 2021-05-27
KR102426726B1 KR102426726B1 (ko) 2022-07-29

Family

ID=75980788

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190148839A KR102426726B1 (ko) 2019-11-19 2019-11-19 비접촉식 위치 정보 획득 방법 및 장치

Country Status (3)

Country Link
US (1) US20220405960A1 (ko)
KR (1) KR102426726B1 (ko)
WO (1) WO2021101142A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110137955A (ko) * 2010-06-18 2011-12-26 한국표준과학연구원 비접촉식 3차원 좌표 측정 장치
KR20130042989A (ko) * 2011-10-19 2013-04-29 주식회사 고영로보틱스 듀얼광을 이용한 3차원 형상 측정장치
JP2016170522A (ja) * 2015-03-11 2016-09-23 株式会社東芝 移動体検出装置
KR20180053119A (ko) * 2016-11-11 2018-05-21 (주) 인텍플러스 3차원 형상 측정 장치 및 측정 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100402361B1 (ko) * 1998-09-10 2003-10-17 엣챤데스 인코퍼레이션 시각장치
US7688999B2 (en) * 2004-12-08 2010-03-30 Electronics And Telecommunications Research Institute Target detecting system and method
KR100902389B1 (ko) * 2007-09-11 2009-06-11 김영기 진동 측정 시스템, 진동 측정 방법, 진동 측정 프로그램을기록한 컴퓨터로 읽을 수 있는 매체
US9749607B2 (en) * 2009-07-16 2017-08-29 Digimarc Corporation Coordinated illumination and image signal capture for enhanced signal detection
JP5939678B2 (ja) * 2012-05-09 2016-06-22 大塚電子株式会社 光学特性測定装置及び光学特性測定方法
US10139217B1 (en) * 2016-02-16 2018-11-27 Google Llc Array based patterned illumination projector
JP6895269B2 (ja) * 2017-02-21 2021-06-30 株式会社竹中工務店 計測装置、健全性判定装置、及び建物管理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110137955A (ko) * 2010-06-18 2011-12-26 한국표준과학연구원 비접촉식 3차원 좌표 측정 장치
KR20130042989A (ko) * 2011-10-19 2013-04-29 주식회사 고영로보틱스 듀얼광을 이용한 3차원 형상 측정장치
JP2016170522A (ja) * 2015-03-11 2016-09-23 株式会社東芝 移動体検出装置
KR20180053119A (ko) * 2016-11-11 2018-05-21 (주) 인텍플러스 3차원 형상 측정 장치 및 측정 방법

Also Published As

Publication number Publication date
US20220405960A1 (en) 2022-12-22
KR102426726B1 (ko) 2022-07-29
WO2021101142A1 (ko) 2021-05-27

Similar Documents

Publication Publication Date Title
KR101605386B1 (ko) 측정 물체 표면 위에서 3d 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템
US10706562B2 (en) Motion-measuring system of a machine and method for operating the motion-measuring system
CN103649674B (zh) 测量设备以及信息处理设备
KR101331543B1 (ko) 스페클 패턴을 이용한 3차원 센싱
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
CN108234984A (zh) 双目深度相机系统和深度图像生成方法
JP6478713B2 (ja) 計測装置および計測方法
KR20150086479A (ko) 관심 객체에 관한 적응적 조명을 사용하는 깊이 이미징 방법 및 장치
JP2016186469A (ja) 情報処理装置、情報処理方法、プログラム
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
US11504855B2 (en) System, method and marker for the determination of the position of a movable object in space
CN112437908A (zh) 使用结构光的深度感测机器手-眼相机
KR102426726B1 (ko) 비접촉식 위치 정보 획득 방법 및 장치
US20230408253A1 (en) Three-dimensional scanner having sensors with overlapping fields of view
JP2015132523A (ja) 位置姿勢計測装置、位置姿勢計測方法及びプログラム
US10068350B2 (en) Measurement apparatus, system, measurement method, determination method, and non-transitory computer-readable storage medium
JP2020020579A (ja) 流体速度測定方法及びシステム
CN110297225A (zh) 光调制激光雷达系统
KR101813979B1 (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
KR19980059962A (ko) 단안시를 사용한 물체의 3차원 위치 측정방법 및 이를 이용한 측정장치
KR20180107917A (ko) 서로 다른 편광에 대응하는 패턴 및 인버스 패턴을 이용하는 방법 및 장치
Breivik et al. A motion based real-time foveation control loop for rapid and relevant 3D laser scanning
JP2024033156A (ja) 3次元計測装置、3次元計測方法、プログラム、システム及び物品の製造方法
JP2591804B2 (ja) 距離測定方法及びその装置
JPH0131124B2 (ko)

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant