KR20230142635A - 멀티-카메라 장치를 사용하는 거리 추정 - Google Patents

멀티-카메라 장치를 사용하는 거리 추정 Download PDF

Info

Publication number
KR20230142635A
KR20230142635A KR1020237032236A KR20237032236A KR20230142635A KR 20230142635 A KR20230142635 A KR 20230142635A KR 1020237032236 A KR1020237032236 A KR 1020237032236A KR 20237032236 A KR20237032236 A KR 20237032236A KR 20230142635 A KR20230142635 A KR 20230142635A
Authority
KR
South Korea
Prior art keywords
image
images
camera
distance
acquired
Prior art date
Application number
KR1020237032236A
Other languages
English (en)
Inventor
오지 에그리
에얄 자크
Original Assignee
스냅 아이엔씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스냅 아이엔씨 filed Critical 스냅 아이엔씨
Publication of KR20230142635A publication Critical patent/KR20230142635A/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

적어도 두 개의 카메라(104, 106)에 의해, 물체까지의 거리를 측정하기 위한 방법 및 장치가 기술된다. 장치가 제1 위치에 있는 동안, 물체를 포함하는 하나 이상의 제1 이미지는 장치의 제1 카메라에 의해 얻고, 하나 이상의 제1 기준 이미지는 장치의 제2 카메라에 의해 얻어진다. 장치가 제1 위치와 다른 제2 위치에 있는 동안, 물체 및 하나 이상의 제2 기준 이미지를 포함하는 하나 이상의 제2 이미지는 장치의 카메라들에 의해 얻어진다. 제1 및 제2 기준 이미지에 기초하여, 제1 및 제2 위치 사이의 장치의 적어도 하나의 카메라의 변위에 대한 정보가 결정된다. 장치에서 물체까지의 거리는, 물체를 포함하는 제1 및 제2 이미지와 적어도 하나의 카메라의 변위에 대해 결정된 정보에 기초하여 계산된다.

Description

멀티-카메라 장치를 사용하는 거리 추정{DISTANCE ESTIMATION USING MULTI-CAMERA DEVICE}
본 출원은 2013년 4월 8일에 출원된 미국
관련 출원들가특허 출원 61/809,447 및 61/809,464로부터 35 USC 119(e) 하에서 우선권을 주장하며, 이들 전부는 본 명세서에 참조로서 포함된다.
본 발명의 분야
본 발명은 거리 측정에 관한 것이고, 구체적으로, 휴대용 장치에 의한 거리 측정에 관한 것이다.
한 때 전화 통화로만 사용되었던 모바일 장치는 다양한 범위의 업무를 위해 사용되고, 다양한 장치를 포함한다.
Ryoo의 대한민국 특허 공개 2013/0022831는 모바일 통신 단말기를 사용하여 물체의 거리, 높이, 및 길이를 측정하는 방법을 기술한다.
Wu Hao의 중국 특허 공개 202940864는 거리 센서를 모바일 폰에 통합시키는 것을 기술한다.
*Liu Guohua의 중국 특허 공개 10334213는 거리가 알려진 두 개의 카메라를 사용하여 거리를 측정하는 것을 기술한다.
이들 장치는 정확성이 충분하지 않거나, 많은 기존의 모바일 장치에 포함되지 않은 추가적인 하드웨어를 요한다.
본 발명의 일부 실시예의 양상은 전면 카메라와 후면 카메라가 있는 모바일 장치를 사용하여 이미지된 물체까지의 거리를 계산하는 것이다.
물체까지의 거리는 선택적으로, 두 개의 물체 이미지 및 두 개의 대응되는 기준 이미지를 달성함에 의해 계산되는데, 각각의 한 쌍의 대응되는 이미지는 서로 다른 위치에서 얻어진다. 서로 다른 위치 사이에서, 픽셀에서 및/또는 실제 세상에서의 차이 및/또는 거리가 결정되어서, 거리는 삼각 측량에 의해 계산된다.
그러므로, 본 발명의 실시예에 따라, 적어도 두 개의 카메라를 가진 장치에 의해 물체까지의 거리를 측정하는 방법이 제공되는데, 상기 방법은, 장치가 제1 위치에 있는 동안, 장치의 제1 카메라에 의해 물체를 포함하는 하나 이상의 제1 이미지 및 장치의 제2 카메라에 의해 하나 이상의 제1 기준 이미지를 얻는 단계와, 장치가 제1 위치와 다른 제2 위치에 있는 동안, 장치의 카메라들에 의해 물체를 포함하는 하나 이상의 제2 이미지 및 하나 이상의 제2 기준 이미지를 얻는 단계와, 제1 및 제2 기준 이미지에 기초하여, 제1 및 제2 위치 사이의 장치의 적어도 하나의 카메라의 변위에 대한 정보를 결정하는 단계와, 물체를 포함하는 제1 및 제2 이미지와 적어도 하나의 카메라의 변위에 대해 결정된 정보에 기초하여, 장치에서 물체까지의 거리를 계산하는 단계를 포함한다.
선택적으로, 물체를 포함하는 하나 이상의 제2 이미지를 얻는 단계는, 제1 카메라에 의해 얻는 단계를 포함하고, 물체의 하나 이상의 제1 이미지는 제1 카메라에 의해 얻어진다. 선택적으로, 물체를 포함하는 하나 이상의 제1 이미지를 얻는 단계는, 장치가 제1 위치에 있는 동안 복수의 이미지를 얻는 단계 및 복수의 얻은 이미지로부터 물체를 포함하는 하나의 이미지를 생성하는 단계를 포함한다. 선택적으로, 복수의 얻은 이미지로부터 물체를 포함하는 하나의 이미지를 생성하는 단계는, 이미지들 중에 하나를 선택하는 단계를 포함한다.
선택적으로, 복수의 얻은 이미지로부터 물체를 포함하는 하나의 이미지를 생성하는 단계는, 이미지들의 일부 또는 전부의 조합을 생성하는 단계 및/또는 얻은 이미지들의 품질을 자동으로 분석하는 단계 및 주어진 임계치 이하의 품질의 이미지들을 버리는 단계를 포함한다. 선택적으로, 본 방법은 하나 이상의 제1 이미지를 얻은 이후에, 장치의 위치를 제2 위치로 변경하도록 안내하는 명령을 사용자에게 디스플레이하는 단계를 포함한다. 선택적으로, 명령을 디스플레이하는 단계는, 제1 기준 이미지에 제2 카메라에 의해 얻은 현재 이미지의 매칭 정도의 표시를 디스플레이하는 단계를 포함한다. 선택적으로, 하나 이상의 제1 이미지를 얻은 이후에, 제2 카메라에 의해 얻은 비디오 스트림을 사용자에게 디스플레이하여, 사용자가 장치를 제2 위치로 안내하는데 비디오 스트림을 사용할 수 있도록 하는 단계를 포함한다.
선택적으로, 장치의 적어도 하나의 카메라의 변위에 대한 정보를 결정하는 단계는, 제1 및 제2 기준 이미지 모두에서 도시된 신체 기관의 크기를 비교하는 단계를 포함한다. 선택적으로, 장치의 적어도 하나의 카메라의 변위에 대한 정보를 결정하는 단계는, 제1 및 제2 기준 이미지 모두에서 도시된 각막의 크기를 비교하는 단계를 포함한다. 선택적으로, 장치의 적어도 하나의 카메라의 변위에 대한 정보를 결정하는 단계는, 제1 및 제2 기준 이미지간에 상대적인 회전의 정도를 결정하는 단계를 포함한다.
선택적으로, 장치의 적어도 하나의 카메라의 변위에 대한 정보를 결정하는 단계는, 제1 및 제2 카메라간의 알려진 거리에 기초하여 결정하는 단계를 포함한다. 선택적으로, 제1 및 제2 카메라는 장치의 반대면에 있다. 선택적으로, 물체를 포함하는 하나 이상의 제1 이미지 및 하나 이상의 제1 기준 이미지는 기준 이미지와 물체 이미지의 쌍으로 얻어지고, 각 쌍의 이미지는 1초 미만인 실질적으로 동시에 얻어진다.
본 발명의 실시예에 따라 추가로 제공되는 장치는, 하우징과, 하우징에 포함된 제1 카메라와, 하우징에 포함된 제2 카메라와, 하우징에 포함되고, 제1 카메라에 의해 얻은 물체를 포함하는 하나 이상의 제1 물체 이미지 및 물체를 포함하는 하나 이상의 제2 물체 이미지를 수신하고, 제2 카메라에 의해 얻은 하나 이상의 제1 기준 이미지 및 하나 이상의 제2 기준 이미지를 수신하고, 제1 및 제2 기준 이미지에 응답하여, 제1 물체 이미지를 얻는 것과 제2 물체 이미지를 얻는 것 사이의 장치의 적어도 하나의 카메라의 변위를 결정하며, 제1 및 제2 물체 이미지와 결정된 변위에 기초하여 장치에서 물체까지의 거리를 계산하도록 구성된 프로세서를 포함한다.
선택적으로, 제1 및 제2 카메라는 하우징의 반대면에 있다. 선택적으로, 프로세서는 제1 및 제2 카메라를 제어하여, 동시에 얻어진 물체 이미지들과 각각의 기준 이미지들의 쌍으로 이미지를 얻도록 구성된다. 선택적으로, 장치는 제2 카메라와 동일한 하우징의 면에 위치된 스크린을 포함한다. 선택적으로, 프로세서는, 하나 이상의 제1 물체 이미지와 제1 기준 이미지를 수신한 이후에, 제2 물체 이미지와 제2 기준 이미지를 얻기 위해 하우징의 위치를 변경하도록 명령을 제공하도록 구성된다. 선택적으로, 프로세서는, 하우징이 제2 기준 이미지와 제2 물체 이미지를 얻기에 적합한 위치에 있을 때를 결정하기 위하여, 하나 이상의 제1 물체 이미지와 제1 기준 이미지를 수신한 이후에, 하나 이상의 제1 기준 이미지에 대한 제2 카메라에 의해 제공된 입력 스트림을 분석하도록 구성된다.
선택적으로, 장치는 스크린을 포함하고, 프로세서는, 제2 이미지를 얻기 위해 사용자가 하우징을 위치시키기 위해, 하나 이상의 제1 물체 이미지와 제1 기준 이미지를 수신한 이후에, 제2 카메라에 의해 얻은 이미지의 스트림을 스크린상에 디스플레이하도록 구성된다.
선택적으로, 프로세서는 제1 기준 이미지와 제2 기준 이미지간의 상대적인 회전 정도를 결정하고, 제1 물체 이미지를 얻는 것과 제2 물체 이미지를 얻는 것 사이에 장치의 적어도 하나의 카메라의 변위를 결정하는데 있어서, 상대적인 회전의 결정된 정도를 사용한다.
선택적으로, 프로세서는, 제1 기준 이미지와 제2 기준 이미지 모두에 도시된 신체 기관의 크기를 비교함에 의해, 변위를 결정하도록 구성된다.
본 발명의 실시예에 따라 추가적으로 제공된, 컴퓨터에 의해 실행될 때, 컴퓨터에서 구현되는 컴퓨터 리드 가능한 프로그램 코드를 가진 컴퓨터 리드 가능한 비-일시적인 저장 매체를 포함하는 거리 추정을 위한 컴퓨터 프로그램 제품에 있어서, 상기 컴퓨터 리드 가능한 프로그램 코드는,
물체를 포함하는 하나 이상의 제1 이미지와 하나 이상의 제1 기준 이미지를 수신하는 단계와, 물체를 포함하는 하나 이상의 제2 이미지와 하나 이상의 제2 기준 이미지를 수신하는 단계와, 제1 기준 이미지와 제2 기준 이미지에 기초하여, 하나 이상의 제1 이미지를 얻는 것과 하나 이상의 제2 이미지를 얻는 것 간에, 장치의 적어도 하나의 카메라의 변위에 대한 정보를 결정하는 단계와, 물체를 포함하는 제1 이미지와 제2 이미지 및 적어도 하나의 카메라의 변위에 대해 결정된 정보에 기초하여, 장치에서 물체까지의 거리를 계산하는 단계를 포함한다.
본 발명의 예시적이고 비-제한적인 실시예는 도면과 함께 이하의 설명을 참조하여 기술될 것이다. 하나 이상의 도면에서 나타나는 동일한 구조물, 요소 또는 부분은 이들이 나타나는 모든 도면에서 동일하거나 유사한 숫자로 표기되는 것이 바람직하다.
도 1은 본 발명의 실시예에 따라 작동하도록 구성될 수 있는 모바일 장치(100)의 개략도이다.
도 2는 본 발명의 실시예에 따라, 물체까지의 거리를 추정하는데 있어서, 수행되는 작용의 순서도이다.
도 3은 본 발명의 실시예에 따라, 도 1의 배향에 대해 회전된 배향에서의 모바일 장치의 개략도이다.
도 4는 본 발명의 실시예에 따라, 두 개의 서로 다른 위치에서 얻은 이미지들에 기초하여 물체까지의 거리를 계산하는 개략도이다.
본 발명의 일부 실시예의 양상은 적어도 두 개의 카메라를 포함하는 모바일 장치에 의해 물체까지의 거리를 측정하는 방법에 관한 것이다. 물체를 포함하는 적어도 두 개의 이미지는 장치의 각각 서로 다른 위치에서 얻는다. 물체를 포함하는 이미지(이하 "물체 이미지"라고 함)들을 동시에 얻으면서, 각각의 기준 이미지는 각각의 물체 이미지를 얻는 카메라와 상이한 카메라에 의해 얻어진다. 물체의 적어도 두 개의 이미지가 얻어질 때, 기준 이미지는 카메라(들)의 상대적 위치를 결정하는데 사용되고, 적어도 두 개의 이미지와 카메라의 상대적 위치를 사용하여, 물체까지의 거리가 결정된다.
일부 실시예에서, 이미지를 얻는 카메라들의 상이한 위치는, 장치의 회전 및 기준 이미지를 얻는 카메라의 위치 선정에 의해 달성되어서, 기준 이미지는 실질적으로 동일하다. 그리고 나서, 물체 이미지를 얻는 카메라의 상대적 위치는 장치에 대한 카메라의 회전과 위치의 정도로부터 결정될 수 있다.
다른 실시예에서, 이미지를 얻는 카메라의 상이한 위치는 장치와 장치를 잡고 있는 사용자 사이의 거리를 변경함에 의해 달성된다. 장치를 잡고 있는 사용자까지의 거리는 기준 이미지로부터 결정된다.
용어 장치 위치는 본 명세서에서, 장치의 로케이션과 배향 모두에 관한 것으로서, 장치가 동일한 로케이션이더라도 장치의 두 개의 서로 다른 배향은 본 명세서에서 두 개의 서로 다른 위치라고 한다.
본 발명의 일부 실시예에서, 물체 이미지는 제1 카메라에 의해 모두 얻어지고, 기준 이미지는 제2 카메라에 의해 모두 얻어진다. 그러나, 다른 실시예에서, 장치의 동일한 카메라는 하나 이상의 물체 이미지 및 하나 이상의 기준 이미지를 위해 사용된다.
개관
도 1은 본 발명의 실시예에 따라 작동하도록 구성될 수 있는 모바일 장치(100)의 개략도이다. 장치(100)는 선택적으로, 터치 스크린(102), 터치 스크린(102)과 동일한 면에 있는, 이미징 축(134)을 가진 전면 카메라(104) 및 전면 카메라(104)의 반대편을 향하는, 이미징 축(132)을 가진 후면 카메라(106)를 포함한다. 프로세서(110) 및 메모리(112)는 모바일 장치(100) 내에 내장된다. 프로세서(110)는 이하에서 기술되는 바와 같이, 전면 카메라(104)와 후면 카메라(106)에 의해 얻어진 이미지에 기초하여 거리 추정을 수행하기 위한 소프트웨어로 구성된다. 본 명세서에서 논의되는 요소를 가진 다른 장치가 사용될 수 있지만, 장치(100)는 선택적으로 스마트-폰 또는 태블릿을 포함한다. 일반적으로, 프로세서(110)는 모바일 장치에 의해 수행될, 음성 신호를 인코딩 및 디코딩 및/또는 다른 업무와 같이, 거리 추정 이외의 다양한 업무를 수행하도록 구성된다.
소프트웨어는 가령, 네트워크를 통해 전자 형태로 프로세서(110)로 다운로드될 수 있고, 메모리(112) 내에 저장될 수 있다. 대안적으로 또는 추가적으로, 소프트웨어는, 광학, 자기 또는 전자 메모리 매체와 같은, 유형의, 비-일시적 저장 매체에서 유지될 수 있다. 또한, 대안적으로 또는 추가적으로, 프로세서(110)의 적어도 일부의 기능은, 전용 또는 프로그램 가능한 하드웨어 논리 회로에 의해 수행될 수 있다.
도 2는 본 발명의 실시예에 따라, 물체까지의 거리를 추정하는데 수행되는 작용의 순서도이다.
모바일 장치(100)가 물체까지의 거리를 추정하도록 명령을 받으면(204), 후면 카메라(106)가 물체에 조준되고, 모바일 장치(100)는 선택적으로, 거리 추정 절차를 관리하는 소프트웨어 프로세스를 실행하도록 시작된다. 추정 절차의 시작시에, 모바일 장치(100)는 후면 카메라(106)를 통해 물체에 조준되는 하나 이상의 이미지를 얻고(206), 전면 카메라(104)를 통해 하나 이상의 이미지를 추가로 얻는다(208). 선택적으로, 하나의 이미지 쌍, 이하 본 명세서에서는 (Rear1, Front1)로 함,은 후면 카메라 이미지와 전면 카메라 이미지를 나타내기 위해 선택된다(210).
그리고 나서, 모바일 장치(100)는 사용자가 모바일 장치(100)의 위치나 포즈를 새로운 위치로 변경하고, 위치에서의 변경 이전과 동일한 방향으로 전면 카메라(104)를 조준하도록 명령한다(212). 모바일 장치(100)는 선택적으로, 전면 카메라(104)가 적절하게 조준된다는 것을 확인하고(214), 그리고 나서, 전면 카메라와 후면 카메라 모두에 의해 하나 이상의 이미지들을 얻는다(216). 모바일 장치(100)는 선택적으로, 전면 카메라와 후면 카메라의 각각에 대해 새로운 위치에서 얻은 하나의 이미지를 선택한다(218). 위치 변경 이후의 선택된 한 쌍의 이미지는 이하 (Rear2, Front2)라고 한다.
모바일 장치(100)는 위치 변경 이전(Rear1, Front1)과 이후(Rear2, Front2)에 얻은 선택된 이미지를 분석하여, 모바일 장치(100)의 위치에 있어서의 변경에 의한, 후면 카메라(106)의 위치에서의 변경을 결정한다(222). 후면 카메라의 위치에 있어서 결정된 변경 및 변경 이전과 이후에서의 물체의 선택된 이미지(Rear1 및 Rear2)에 기초하여, 이하 자세히 설명되는 바와 같이, 물체까지의 거리가 추정된다(224).
정렬 명령
본 발명의 일부 실시예에서, 사용자가 장치(100)의 위치나 포즈를 변경하도록 하는 명령(212)은, 전면 카메라(104)에 의해 얻은 현재 비디오 스트림의 디스플레이를 포함하여, 현재 얻어지는 이미지에 따라 전면 카메라의 위치를 사용자가 조절하도록 한다.
선택적으로, 사용자에게의 명령(212)은 위치 변경 이전에 전면 카메라(104)에 의해 얻은 선택된(210) 이미지(Front1)를 더 포함하여서, 사용자는 전면 카메라(104)의 현재 위치를 선택된(210) 이전에 얻은 이미지(Front1)에 용이하게 매칭할 수 있다. 선택적으로, 현재 비디오 스트림은 디스플레이된 이미지(Front1)상에 오버레이되어서, 사용자에 의해 간단한 정렬을 가능하게 한다. 대안적으로, 현재 비디오 스트림은 이미지들간에 적절한 격자 상관성으로 이미지(Front1)와 나란히 디스플레이될 수 있다. 또한, 대안적으로 또는 추가적으로, Front1 이미지를 디스플레이하기 보다는, Front1 이미지로부터 추출된 그림자나 격자가 도시되어서, 사용자가 현재 비디오 스트림을 디스플레이된 그림자나 격자에 매칭하도록 요구된다.
대안적으로 또는 추가적으로, 프로세서(110)는 가령, 특징 매칭을 사용하여, 전면 카메라(104)에 의해 현재 수집되는 이미지 스트림의 이미지와 선택된 Front1 이미지를 비교하고, 이에 따라, 가령, 디스플레이되는 화살표 및/또는 다른 그래픽적인 안내 또는 음성 지시의 형태로 조준 명령을 제공한다. 특징 매칭은 선택적으로, Front1과 현재 수집되는 이미지 스트림의 이미지 모두에 나타나는 특징을 선택하는 것 및 Front1 및 이미지 스트림 내의 특징들의 상대적 위치를 결정하는 것을 포함한다.
본 발명의 일부 실시예에서, 프로세서(110)는 수치적인 매칭 정도 점수를 계산하고, 계산된 매칭 정도 점수를 사용자에게 디스플레이한다. 대안적으로 또는 추가적으로, 프로세서(110)는, 매칭 정도가 기설정된 임계치 이상이면, 정지 명령을 제공한다. 임계치는 일반적으로 사용되는 미리 구성된 임계치일 수 있고, 또는 거리 결정에서 요구되는 정확성 레벨에 따라 동적으로 조절 가능한 임계치 일 수 있다. 본 발명의 일부 실시예에서, 비교적 낮은 임계치가 요구되고, 프로세서(110)는 이하에 기술되는 바와 같이, 이미지 보정을 수행함에 의해 오류 매칭을 디지털적으로 보상한다.
선택적으로, 명령(212)은, (Rear1, Front1) 및 (Rear2, Front2)을 얻는 사이에 위치 변경을 최소로 하기 위해, 이미지를 얻을 때 까지 사용자에게 정지하도록 요구한다.
입문과 활용
추정된 거리는 선택적으로, 스크린(102) 상에 디스플레이함, 사용자에게 소리, 또는 그 밖의 적합한 방법에 의해 사용자에게 제공된다. 대안적으로 또는 추가적으로, 거리는 프로세서(110)에 의해 사용될 수 있고, 또는 추가 계산을 위해 다른 프로세서로 제공될 수 있다. 물체까지의 거리에 기초하여, 프로세서(110)는 선택적으로, 물체의 크기 및/또는 이미지 내에 다른 물체의 거리와 크기와 같이, 장면에서 다른 크기 및/또는 거리를 결정할 수 있다. 따라서, 장치(100)는 측정 툴로서 작동할 수 있다. 대안적으로 또는 추가적으로, 거리 추정은 가령, 가상 물체를 이미지, 이미지의 스트림 또는 라이브 장면 상에 오버레이하여, 스케일-인(scale-in) 증가된 실제 활용분야에 적용되는데 사용된다. 본 발명의 일부 실시예에서, 물체 크기는 프로세서(110)에 의해 사용되어서, 가령, 감시 활용분야와 같이, 모바일 장치(100)에 의해 얻은 비디오 스트림 내의 이미지 프레임들 사이에 물체 추적을 개선한다.
물체까지의 거리를 추정하기 위한 명령(204)이, 추정을 인식하고 있고, 그 과정에 일부러 참가하는 인간 사용자에 의해 일부 실시예에서 제공된다. 다른 실시예에서, 거리를 추정하기 위한 명령(204)은 장치(100)상에서 운영되는 또 다른 소프트웨어에 의해 자동으로 제공된다. 이들 실시예에서, 사용자는 일부러 그 과정에 참가할 수 있거나, 그 과정을 인식하지 못할 수 있다. 예를 들어, 장치를 새로운 위치로 움직이도록 하는 명령(212)은 다른 명령 보다, 거리 추정을 개시하는 다른 소프트웨어에 의해 제공될 수 있어서, 사용자는 그 명령이 거리 추정을 위해 수행된다는 것을 반드시 알 필요는 없다. 대안적으로 또는 추가적으로, 장치(100)의 위치를 변경하기 위한 명령(212)은, 명령이 있었다는 것을 사용자가 반드시 이해함 없이, 암시적인 방식으로 제공된다. 예를 들어, 스크린(102) 상의 이미지는, 사용자가 직감적으로 장치(100)를 회전하도록 하기 위해 회전될 수 있다.
이미지 얻음
전면 카메라(104)와 후면 카메라(106)를 통해 이미지들을 얻는(206, 208, 216)것을 좀 더 자세히 참조하면, 본 발명의 일부 실시예에서, 적어도 세 개, 적어도 다섯 개 또는 심지어 적어도 열 개의 이미지가 각각의 얻는 시간 동안에 각각의 카메라에 의해 얻어진다(가령, 위치 변경 이전과 이후에). 본 발명의 일부 실시예에서, 이미지의 품질은 이미지들이 얻으면서 평가되고, 이미지 얻음은 이미지, 기설정된 수의 이미지들 또는 충분한 품질을 가진 것으로 간주되는 전면 및 후면 이미지의 쌍이 얻어진다. 따라서, 이들 실시예에서, 얻어진 이미지의 수는 얻어진 이미지의 품질에 따라 가변된다. 선택적으로, 동일한 수의 이미지가 전면 카메라와 후면 카메라에 의해 얻어진다. 대안적으로, 후면 카메라에 의해 얻어진 이미지들이 흐릿하거나, 아니면 부적합할 확률이 전면 카메라 이미지가 흐릿할 확률보다 일반적으로 비교적 더 높기 때문에, 더 많은 이미지가 후면 카메라(106)에 의해 얻어진다. 그러나, 전면 카메라(104)가 부적합한 이미지를 제공할 확률이 더 높다고 예상되는 경우, 전면 카메라(104)가 후면 카메라(106) 보다 더 많은 이미지를 얻도록 명령될 수 있다.
선택적으로, 전면 이미지와 후면 이미지가 쌍으로 얻어지는 경우에서, 각 쌍의 전면 카메라 이미지와 후면 카메라 이미지는 동시에, 또는 가령, 5초 미만, 1초 미만, 0.5초 미만, 심지어 가능하면 30 밀리초와 같은 매우 짧은 시간차이 내에서 얻어진다.
선택적으로, 동일한 기준이, 장치(100)의 위치 변경 이전과 이후에 얻어진 이미지들의 수를 결정하는데 사용된다. 일부 실시예에서, 이미지는 충분한 품질의 기설정된 수가 얻어질 때까지, 이미지 얻는 시간 모두에서 얻어진다. 대안적으로, 동일한 수의 이미지가 위치 변경 이전과 이후에 얻어진다. 다른 실시예에서, 더 많은 이미지가 위치 변경 이전에 또는 위치 변경 이후에 얻어진다. 본 발명의 일부 실시예에서, 위치 변경 이후의 품질 평가는 객관적인 품질과 함께, 또는 객관적인 품질 대신에, 이미지가 위치 변경 이전에 얻어진 이미지에 매칭하는 정도를 나타내는 측정치를 매칭하는 것을 포함한다.
선택적으로, (Rear1, Front1)의 이미지 선택(210)은, 가령, 이미지가 강한 그래디언트를 가지거나, 및/또는 사진을 얻는 동안 카메라가 움직이지 않는다는 것을 확인하는 것과 같은(가령, 가속도 측정 및/또는 이미지 분석에 기초하여), 품질 평가 방법에 기초하여 수행된다. 선태걱으로, 선택은 Rear1을 후면 카메라(106)에 의해 위치 변경 이전에 얻은 최우수 품줄 이미지로 선택하는 단계를 포함하고, 동시에 Front1로 얻어지는 대응되는 전면 카메라 이미지를 선택하는 단계를 포함한다. 대안적으로, Rear1을 선택한 이후에, Front1은, Rear1과 함께 및/또는 Rear1을 얻은 이후에, 이전 시간의 짧은 기간 내에 얻어진 제한된 수의 이미지들 중에서 선택된다. 대안적으로, Rear1과 Front1의 선택은 후면 이미지의 품질 및 전면 이미지의 품질에 서로 다른 가중치를 부여하는 가중화된 점수에 기초한다. 일부 실시예에서, 각 쌍의 이미지들을 얻는 것의 시간 차이도 점수에 요소가 된다.
대안적으로 또는 추가적으로, 선택은 가령, 주어진 스레쇼ㅍ드 이상의 품질을 가지는 것으로 간주된 이미지 또는 이미지들의 가중화된 합산으로 생성되는 둘 이상의 이미지의 조합을 제공한다. 선택적으로, 낮은 품질 이미지(가령, 흐릿한 이미지)는 필터링 아웃되고, 가중화된 선택된 이미지는 충분한 품질로 간주된 이미지에 기초하여서만 계산된다.
(Rear2, Front2)의 이미지 선택(218)은 (Rear1, Front1)의 선택(210)과 유사한 방식으로 수행될 수 있다. 대안적으로, Front2는 Front1과 충분히 정렬된 것으로 간주되는 제1 이미지로 선택되는데, 이는 충분한 품질을 가진다.
일부 실시예에서, 프로세서(110)는 Front1 선택된 이미지 내의 배경에 대한 사용자의 로케이션을 결정하고, 이들 이미지 내의 배경에 대한 사용자의 로케이션이 Front1 내의 상대적인 로케이션을 매칭하는 정도에 기초하여 위치 변경 이후에 얻은 이미지를 분석한다. 선택적으로, 위치 변경 이후에 얻은 이미지가 선택되는데, 이는 Front1에 가장 잘 매칭된다. 대안적으로, 기설정된 값을 넘는, 로케이션에서의 차이를 가진 분석된 이미지는 고려 대상이 아니다. 또한 대안적으로, 분석된 이미지 내의 사용자의 상대적인 로케이션이 Front1 내의 것과 매칭되는 정도는 선택된 Front2에 사용된 품질 점수 내로 가중화된다.
선택적으로, 충분한 품질 및/또는 매칭의 이미지가 위치 변경 이후에 얻은 이미지 중에 발견되지 않으면, 사용자는 위치 변경 이후에 이미지의 얻음(216)을 반복하도록 요구되거나, 도 2의 전체 절차를 반복하도록 요구된다.
본 발명의 이부 실시예에서, 또한, 프로세서(110)는 후면 카메라 이미지 및/또는 전면 카메라 이미지로부터 결정된 바와 같은, 카메라의 축이 위치 변경 이전과 이후에 이미지를 얻는 사이에 실질적으로 변경되지 않다는 것을 확인한다. 대안적으로 또는 추가적으로, 보정은 이하에 기술되는 바와 같이, 카메라 축의 움직임을 보상하기 위해 수행된다.
거리 추정
추정(224)은 선택적으로, 이미지 보정을 포함하여, 후면 카메라(106)의 위치 변경 이전과 이후(Rear1, Rear2) 얻어진 이미지의 회전 성향에 대해 보정한다. 이미지 보정에서, Rear1과 Rear2이 조절되어서, 이들은 모두 동일한 평면에 있다. 보정은 Richard의 미국 특허 공개 2013/0271578, Aradhye 등의 미국 공개 2005/0180632 및 Lim, Ser-Nam과 Mittal, Anurag와 Davis, Larry와 Paragios, Nikos의 "Uncalibrated stereo rectification for automatic 3d surveillance" International Conference on Image Processing 2: 1357-1360, 2004에 기술된 임의의 방법과 같이, 기술 분야에서 알려진 임의의 적합한 방법을 사용하여 수행되고, 이들은 모두 본 명세서에 참조로서 포함된다.
그리고 나서, 프로세서(110)는 선택적으로, Rear1 및 Rear2의 보정된 버전에 대해 삼각 측량 방법을 수행하여, 이미지 내의 하나 이상의 관심 있는 점까지의 거리를 결정한다. 삼각 측량은 가령, Richard Hartley 및 Andrew Zisserman (2003)의 Multiple View Geometry in computer vision, Cambridge University Press에 기술된 임의의 방법을 사용하여, 기술 분야에서 알려진 임의의 적합한 방법을 사용하여 수행되는데, 이러한 개시물은 본 명세서에 참조로서 포함된다. 삼각 측량은 선택적으로, 위치 변경 이전과 이후의 후면 카메라(106)의 위치들, 즉, Rear1과 Rear2를 각각 얻을 때의 후면 카메라(106)의 위치들 사이의 거리 및 후면 카메라(106)의 초점 비율이라고도 하는 f-수(f-number)에 기초한다.
본 발명의 일부 실시예에서, 추정(224)은 Rear1, Rear2 이미지에 기초한 스테레오 또는 차이 이미지를 생성하는 단계를 포함한다.
회전
도 3은 본 발명의 실시예에 따라, 도 1의 배향에 대해 회전된 배향에서의 모바일 장치(100)의 개략도이다. 도 3을 참조하여 기술된 실시예에서, 모바일 장치(100)의 위치 변경은 모바일 장치의 회전이다.
모바일 장치(100)를 새로운 위치로 움직이도록 하는 명령(212)은, 본 실시예에서, 모바일 장치를 회전시키도록 하는 명령이다. 선택적으로, 사용자는 모바일 장치(100)를 위치시키도록 명령받아서, 회전 이후 새로운 위치에서 전면 카메라(104)에 의해 얻은 이미지는 회전 이전에 얻은 이미지와 동일하고, 모바일 장치(100)의 회전 정도에 대해 조절된다. 일부 실시예에서, 사용자는 180도만큼 모바일 장치(100)를 회전하도록 명령받아서, 전면 카메라(104)에 대해 후면 카메라(106)의 위치를 최대로 변경할 수 있다. 다른 실시예에서, 사용자는 모바일 장치를 90도만큼 또는 임의의 원하는 정도만큼 회전시키도록 명령 받는다. 예를 들어, 사용자는 장치(100)를 180도에 근처 정도, 가령, 160 - 200도 정도 회전시키도록 요청받아서, 사용자가 180도까지 회전을 정확하게 조절하지 않고 빠르게 회전을 수행할 수 있도록 할 수 있다.
180도 회전할 때, 도 1의 위치에 대해 180도만큼 회전된 장치(100)를 나타내는 도 3에 도시된 바와 같이, 회전의 이전(334)과 이후(336)의 후면 카메라(106)의 이미징 축들 사이의 거리(332)는, 전면 카메라(104)가 회전 이전과 이후의 동일한 상대적 로케이션에 유지되면서, 전면 카메라(104)와 후면 카메라(106)의 로케이션들 사이의 거리(140)의 두배 이다.
후면 카메라(106)의 위치에서의 변경의 결정(222)은 선택적으로, 장치(100)의 카메라들(104 및 106)의 알려진 위치에 기초한다. 본 발명의 일부 실시예에서, 결정은 가령, 회전 이전과 이후의 전면 카메라(104)에 의해 찍힌 이미지의 비교에 기초하여, 모바일 장치(100)의 회전 정도의 추정을 포함한다. 대안적으로 또는 추가적으로, 추정은 회전 이전과 이후에 후면 카메라(106)에 의해 찍힌 이미지의 비교에 기초한다. 또한 대안적으로, 회전의 정도는 장치(100) 내의 각도 측정 유닛으로부터 알려진다.
상기 기술에서 전면 카메라(104)가 사용자에 대한 회전의 이전과 이후에 관한 것인데, 다른 실시예에서, 전면 카메라(104)는 물체를 향하고, 물체의 거리는 회전 이전에 결정되고, 회전 이후에 사용자를 향한다. 이러한 회전은 본 명세서에서 플립핑이라고 한다. 이들 실시예에서, 위치 변경 이후에, 위치 변경 이전에 후면 카메라(106)에 의해 찍힌 이미지(352)는 옵션으로, 사용자에게 디스플레이되고, 사용자는 전면 카메라(104)에 의해 현재 얻은 이미지(354)를 디스플레이된 이미지에 매칭시키도록 요청된다. 거리는 선택적으로, 위치 변경 이전에 전면 카메라(104)에 의해 얻은 이미지 및 위치 변경 이후에 후면 카메라(106)에 의해 얻은 이미지의 분석에 기초하여 계산된다. 일부 실시예에서, 장치(100)는 양면에 스크린을 가지는데, 사용자에게의 명령은 사용자를 향하는 스크린 상에 적절히 제공된다.
거리 변경
본 발명의 다른 실시예에서, 모바일 장치(100)를 새로운 위치로 움직이도록 하는 명령(212)은, 장치를 사용자에게 가까이 움직이거나 사용자로부터 멀리 움직이도록 함에 의해, 모바일 장치와 사용자(가령, 사용자의 얼굴) 사이의 거리를 변경하도록 하는 명령을 포함한다.
도 4는 본 발명의 실시예에 따른, 물체(402)까지의 거리 측정의 개략도이다.
선택적으로, 원래의 위치(가령, 404)와 변경 후의 위치(가령, 406) 모두에서, 전면 카메라(104)는 특정 신체 일부(가령 410)을 포함하는 이미지를 얻는다. 선택적으로, 사용자에게의 명령(212)은, 전면 카메라(104)에 의해 얻어지는 이미지는 신체 일부(410)를 포함해야 하고, 가능하면, 신체 일부(410)를 이미지의 중앙 부분에 유지해야 한다고 진술한다. 대안적으로 또는 추가적으로, 사용자는 카메라를 조준하도록 명령받아서, 신체 일부가 위치 변경 이후에 얻어진 이미지 내의 상대적인 로케이션이 위치 변경 이전과 동일하게 위치되도록 한다. 선택적으로, 신체 일부는 서로 다른 사람의 거의 고정된 크기를 가진 다른 신체 기관이 사용될 수 있지만, 인간 각막을 포함한다. 일부 실시예에서, 복수의 서로 다른 신체 일부가 고려될 수 있고, 거리는 각각의 신체 일부에 대해 계산된 거리의 가중화된 합산에 기초하여 결정된다.
대안적으로 또는 추가적으로, 프로세서(110)는 초기 단계에서 신체 일부의 크기를 설정하면, 이후에는 사용자에 의해 수행되는 복수의 이후 거리 측정에서 설정된 크기가 사용된다. 설정된 크기는 장치(100)의 사용 없이 수행되는 측정에 기초하여 사용자에 의해 수동으로 입력될 수 있고, 또는 가령, 하나 이상의 미리 결정된 거리로부터 신체 일부의 이미지를 얻는 단계 및/또는 알려진 상대적인 로케이션으로 서로 다른 거리로부터의 복수의 이미지를 얻는 단계를 포함하는 환경 설정 절차에서 장치(100)를 사용하여 수행될 수 있다.
신체 일부를 사용하는 것에 대안적으로 또는 추가적으로, 전면 카메라(104)는 알려진 크기, 가령 자, 동전 또는 머니 노트와 같이 알려진 크기를 가진 물체에 조준된다. 본 발명의 일부 실시예에서, 알려진-크기의 물체는 위치 변경 이전과 이후에 얻어진 이미지 내에 포함된다. 다른 실시예에서, 알려진-크기의 물체는 신체 일부 옆에 사용자에 의해 위치되어서, 신체 일부의 크기가 알려진-크기의 물체로부터 결정될 수 있다. 이들 실시예에서, 알려진-크기의 물체는 얻어진 이미지의 일부에서만 나타날 수 있다.
이들 실시예에서, 위치 변경은 선택적으로, 위치 변경 이전과 이후의 전면 이미지(Front1, Front2) 내의 이미지된 신체 일부(410)의 크기를 비교함에 기초한다. 선택적으로, 프로세서(110)는, 이미지 Front1 내에서 각막(또는 다른 특정 신체 기관)이 걸쳐 있는 픽셀의 수를 카운트하고, 각막의 알려진 너비와 전면 카메라(104)의 시계(iFov)에 따라, 이미지 Front1이 얻었을 때의 장치(100)와 사용자 사이의 거리(F1)을 계산한다. 선택적으로, 각막의 너비는 흰자에서 흰자 각막 지름으로 평가된다.
선택적으로, 전면 카메라(104)와 사용자와의 거리(F1)는 다음과 같이 계산된다.
F1 = SizeOfCorneaInMeters / (iFovInRadiansToPixel * SizeOfCorneaInPixels)
프로세서(110)는 선택적으로, 각막의 크기 비율 및/또는 Front1과 Front2 사이의 각막 및/또는 다른 신체 일부의 크기 비율(이하, FrontZoom) 및 Rear1과 Rear2 사이의 하나 이상의 특징부의 크기 비율(이하, RearZoom)을 추가적으로 결정한다. RearZoom을 계산하는데 사용되는 하나 이상의 특징부는 선택적으로, 광학적 흐름, 스피드 업 로버스트 특징부(SURF) 및/또는 스케일 인베리언트 특징부 트랜스폼(SIFT)과 같은 특징 검출, 매칭 및/또는 추적의 알려진 방법을 사용하여 선택된다.
위치 변경 이전의 장치(100)로부터 물체까지의 거리는 선택적으로 다음과 같이 추정된다(224).
R1 = F1 * (FrontZoom - 1) / (1 - RearZoom)
대안적으로 또는 추가적으로, 계산은 위치 변경 이후에 F1의 계산과 유사한 방식으로, 사용자(408)와 장치(100) 사이의 새로운 거리(F2)를 결정하는 단계를 포함한다. 그리고 나서, F2는 FrontZoom 및/또는 R2를 계산하는데 사용될 수 있다.
대안예
상기 실시예의 일부에서의 장치(100)는, 카메라(104 및 106)가 탑재된 적어도 일부는 강성인 것으로 가정되어서, 카메라의 상대적인 위치가 변경되지 아니한다. 다른 실시예에서, 장치(100)는 유연할 수 있고, 및/또는 카메라(104 및/또는 106)는 장치(100) 상에 이동식으로 탑재될 수 있어서, 장치(100) 상의 카메라의 상대적인 위치는 변경될 수 있다. 이러한 실시예에서, 프로세서(110)는 선택적으로, 장치(100)의 포즈에 대한 정보를 수신하도록 구성되는데, 이러한 포즈 정보는 장치(100)의 로케이션과 배향은 물론, 장치(100) 상의 카메라(104 및 106)의 상대적인 로케이션도 포함한다.
상기 설명에서, 장치(100)는 사용자가 휴대하는 것으로 가정되고, 장치의 위치를 변경하는 것에 관한 명령이 사용자에게 제공된다. 다른 실시예에서, 장치(100)는 모터 또는 장치의 움직임을 제어하는 다른 장치를 포함하는 삼각대, 암 또는 다른 마운트 상에 탑재된다. 마운트는 장치(100)로부터 직접적으로 움직임 명령을 수신하도록 구성되어서, 도 2의 모든 방법은 사람의 도움 없이 자동으로 수행된다. 이러한 설정은 가령, 감시 목적으로 사용될 수 있다.
결론
상기 기술된 방법은, 사용된 특정 요소 및 이들의 레이아웃을 변경하는 것과 방법에서 행동의 순서를 변경하는 것을 포함하여, 많은 방식으로 가변될 수 있다는 것을 인식할 것이다. 또한, 방법과 장치의 상기 기술된 설명은, 방법을 수행하기 위한 장치 및 장치를 사용하는 방법을 포함하는 것으로 해석되어야 한다는 것도 인식해야 한다. 본 발명은 예시로서 제공되고, 본 발명의 범위를 제한하는 것으로 의도되지 않은, 본 발명의 실시예의 비-제한적인 자세한 설명을 사용하여 기술되었다. 많은 특정 실시예 세부사항이 사용될 수 있다.
일 실시예로 기술된 특징 및/또는 단계는 다른 실시예와 사용될 수 있고, 본 발명의 모든 실시예가 실시예의 하나에 대해 특정 도면이나 설명에 도시된 특징 및/또는 단계 모두를 가지는 것은 아니다. 기술된 실시예의 변형예는 기술 분야의 당업자가 알 것이다. 더구나, 용어 "포함하는", "포함하다", "가지다" 및 이들의 활용은 청구항에서 사용될 때, "포함하나 이에 제한되지 않는다"라는 의미일 것이다.
상기 기술된 실시예의 일부가 발명자에 의해 상정된 가장 우수한 모드를 기술할 수 있어서, 구조, 행동 또는 구조물 및 행동의 세부사항을 포함할 수 있고, 이러한 것은 예시로서 기술된 발명에 있어서 본질적이지 않을 수 있다는 것도 유의한다. 본 명세서에 기술된 구조물과 행동은, 구조물 또는 행동이 기술 분야에서 서로 다르더라도, 동일한 기능을 수행하는 등가예로 대체된다. 따라서, 본 발명의 범위는 청구항에서 사용된 바와 같은, 요소 및 제한예에서만 제한된다.

Claims (20)

  1. 객체까지의 거리를 측정하는 방법으로서, 상기 방법은
    프로세서에 의해, 제1 이미지 및 제1 기준 이미지를 포함하는 제1 이미지 쌍을 선택하는 단계 - 상기 제1 이미지는 객체를 포함하고, 제1 이미지는 장치가 제1 위치에 있는 동안 장치의 제1 카메라에 의해 획득되며, 제1 기준 이미지는 장치가 제1 위치에 있는 동안 장치의 제2 카메라에 의해 획득됨 - ,
    상기 프로세서에 의해, 제2 이미지 및 제2 기준 이미지를 포함하는 제2 이미지 쌍을 선택하는 단계 - 상기 제2 이미지는 객체를 포함하고, 상기 제2 이미지는 장치가 제2 위치에 있는 동안 상기 장치의 제1 카메라에 의해 획득되고, 상기 제2 기준 이미지는 장치가 제2 위치에 있는 동안 장치의 제2 카메라에 의해 획득됨 - , 및
    상기 프로세서에 의해, 상기 제1 이미지 쌍 및 상기 제2 이미지 쌍에 기초한 상기 장치에서 객체까지의 거리를 계산하는 단계를 포함하는, 객체까지의 거리를 측정하는 방법.
  2. 제1항에 있어서, 상기 제1 이미지는 상기 장치가 제1 위치에 있는 동안 상기 장치에 의해 획득된 복수의 이미지로부터 생성된 단일 이미지를 포함하는, 객체까지의 거리를 측정하는 방법.
  3. 제2항에 있어서, 상기 복수의 이미지로부터 단일 이미지를 생성하는 것은 상기 복수의 이미지 중 하나의 이미지를 선택하는 것을 포함하는, 객체까지의 거리를 측정하는 방법.
  4. 제2항에 있어서, 상기 복수의 이미지로부터 단일 이미지를 생성하는 것은 상기 복수의 이미지 중 적어도 일부 이미지의 조합을 생성하는 것을 포함하는, 객체까지의 거리를 측정하는 방법.
  5. 제2항에 있어서, 상기 복수의 이미지로부터 단일 이미지를 생성하는 것은 상기 복수의 이미지의 품질을 분석하고 상기 복수의 이미지 중에서 지정 임계값 미만의 품질을 갖는 이미지를 폐기하는 것을 포함하는, 객체까지의 거리를 측정하는 방법.
  6. 제1항에 있어서, 상기 거리는 고정된 측정치에 기초하여 계산되는, 객체까지의 거리를 측정하는 방법.
  7. 제6항에 있어서, 상기 고정된 측정치는 신체 기관의 크기를 포함하며, 상기 신체 기관은 상기 제1 기준 이미지 및 제2 기준 이미지에 포함되는, 객체까지의 거리를 측정하는 방법.
  8. 제7항에 있어서, 상기 신체 기관은 각막을 포함하는, 객체까지의 거리를 측정하는 방법.
  9. 제6항에 있어서, 상기 고정된 측정치는 제1 카메라와 제2 카메라 사이 거리를 포함하는, 객체까지의 거리를 측정하는 방법.
  10. 제1항에 있어서, 상기 제1 이미지 및 상기 제1 기준 이미지는 1초 미만 내에 동시에 획득되는, 객체까지의 거리를 측정하는 방법.
  11. 장치로서,
    제1 카메라,
    제2 카메라, 및
    동작을 수행하도록 구성된 프로세서를 포함하며, 상기 동작은
    제1 이미지 및 제1 기준 이미지를 포함하는 제1 이미지 쌍을 선택하는 것 - 상기 제1 이미지는 객체를 포함하며, 상기 제1 이미지는 장치가 제1 위치에 있는 동안 제1 카메라에 의해 획득되며, 상기 제1 기준 이미지는 상기 장치가 제1 위치에 있는 동안 상기 제2 카메라에 의해 획득됨 - ,
    제2 이미지 및 제2 기준 이미지를 포함하는 제2 이미지 쌍을 선택하는 것 - 상기 제2 이미지는 객체를 포함하고, 상기 제2 이미지는 장치가 제2 위치에 있는 동안 상기 제1 카메라에 의해 획득되며, 상기 제2 기준 이미지는 장치가 제2 위치에 있는 동안 상기 제2 카메라에 의해 획득됨 - , 및
    상기 제1 이미지 쌍 및 상기 제2 이미지 쌍에 기초하여 상기 장치로부터 객체까지의 거리를 계산하는 것을 포함하는, 장치.
  12. 제11항에 있어서, 상기 제1 이미지는 장치가 제1 위치에 있는 동안 상기 장치에 의해 획득된 복수의 이미지로부터 생성된 단일 이미지를 포함하는, 장치.
  13. 제12항에 있어서, 상기 복수의 이미지로부터 단일 이미지를 생성하는 것은 상기 복수의 이미지 중 하나를 선택하는 것을 포함하는, 장치.
  14. 제12항에 있어서, 상기 복수의 이미지로부터 단일 이미지를 생성하는 것은 복수의 이미지 중 적어도 일부의 조합을 생성하는 것을 포함하는, 장치.
  15. 제12항에 있어서, 상기 복수의 이미지로부터 단일 이미지를 생성하는 것은 복수의 이미지의 품질을 분석하고 상기 복수의 이미지 중에서 주어진 임계값 미만의 품질을 갖는 하나 이상의 이미지를 폐기하는 것을 포함하는, 장치.
  16. 제11항에 있어서, 상기 거리는 고정된 측정치에 기초하여 계산되는, 장치.
  17. 제16항에 있어서, 상기 고정된 측정치는 신체 기관의 크기를 포함하며, 상기 신체 기관은 상기 제1 기준 이미지 및 상기 제2 기준 이미지에 포함되는, 장치.
  18. 제17항에 있어서, 상기 신체 기관은 각막을 포함하는, 장치.
  19. 제16항에 있어서, 상기 고정된 측정치는 제1 카메라와 제2 카메라 사이 거리를 포함하는, 장치.
  20. 프로세서에 의해 실행될 때 장치로 하여금 객체까지의 거리를 측정하기 위한 동작을 수행하게 하는 컴퓨터 판독형 프로그램 코드를 갖는 컴퓨터 판독형 비일시적 저장 매체로서, 상기 동작은
    제1 이미지 및 제1 기준 이미지를 포함하는 제1 이미지 쌍을 선택하는 것 - 상기 제1 이미지는 객체를 포함하며, 상기 제1 이미지는 장치가 제1 위치에 있는 동안 제1 카메라에 의해 획득되며, 상기 제1 기준 이미지는 상기 장치가 제1 위치에 있는 동안 상기 제2 카메라에 의해 획득됨 - ,
    제2 이미지 및 제2 기준 이미지를 포함하는 제2 이미지 쌍을 선택하는 것 - 상기 제2 이미지는 객체를 포함하고, 상기 제2 이미지는 장치가 제2 위치에 있는 동안 상기 제1 카메라에 의해 획득되며, 상기 제2 기준 이미지는 장치가 제2 위치에 있는 동안 상기 제2 카메라에 의해 획득됨 - , 및
    상기 제1 이미지 쌍 및 상기 제2 이미지 쌍에 기초하여 상기 장치로부터 객체까지의 거리를 계산하는 것을 포함하는, 컴퓨터 판독형 비일시적 저장 매체.
KR1020237032236A 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정 KR20230142635A (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201361809447P 2013-04-08 2013-04-08
US201361809464P 2013-04-08 2013-04-08
US61/809,447 2013-04-08
US61/809,464 2013-04-08
PCT/IB2014/060462 WO2014167475A1 (en) 2013-04-08 2014-04-06 Distance estimation using multi-camera device
KR1020237017091A KR102582420B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020237017091A Division KR102582420B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정

Publications (1)

Publication Number Publication Date
KR20230142635A true KR20230142635A (ko) 2023-10-11

Family

ID=51689011

Family Applications (10)

Application Number Title Priority Date Filing Date
KR1020207023225A KR102210054B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020217022065A KR102357800B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020217002542A KR102279380B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020227002988A KR102416814B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020237032236A KR20230142635A (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020237017091A KR102582420B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020227022411A KR102482186B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020157031654A KR102025535B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020227045371A KR102536174B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020197027532A KR102146641B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020207023225A KR102210054B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020217022065A KR102357800B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020217002542A KR102279380B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020227002988A KR102416814B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정

Family Applications After (5)

Application Number Title Priority Date Filing Date
KR1020237017091A KR102582420B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020227022411A KR102482186B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020157031654A KR102025535B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020227045371A KR102536174B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정
KR1020197027532A KR102146641B1 (ko) 2013-04-08 2014-04-06 멀티-카메라 장치를 사용하는 거리 추정

Country Status (5)

Country Link
US (5) US10192312B2 (ko)
EP (2) EP3828496A1 (ko)
KR (10) KR102210054B1 (ko)
CN (2) CN105339756B (ko)
WO (1) WO2014167475A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3828496A1 (en) 2013-04-08 2021-06-02 SNAP Inc. Distance estimation using multi-camera device
US10171792B2 (en) * 2014-08-15 2019-01-01 The University Of Akron Device and method for three-dimensional video communication
CN106471803A (zh) 2014-12-04 2017-03-01 深圳市大疆创新科技有限公司 成像系统及方法
CN110658918B (zh) * 2019-09-25 2023-12-12 京东方科技集团股份有限公司 用于视频眼镜的眼球追踪相机的定位方法、设备及介质
CN111207688B (zh) * 2020-01-16 2022-06-03 睿镞科技(北京)有限责任公司 在载运工具中测量目标对象距离的方法、装置和载运工具
CN112378507B (zh) * 2020-11-05 2021-10-01 浙江大学 一种基于运动补偿的计算机视觉结构振动监测方法
KR20230116565A (ko) * 2022-01-28 2023-08-04 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2162996C (en) * 1993-05-18 2008-02-05 James N. Herron Apparatus and methods for multianalyte homogeneous fluoroimmunoassays
DE69526977T2 (de) * 1994-10-28 2003-01-23 Lasersight Tech Inc Multikameravorrichtung für untersuchungen der hornhaut
US5978773A (en) 1995-06-20 1999-11-02 Neomedia Technologies, Inc. System and method for using an ordinary article of commerce to access a remote computer
EP0814611B1 (de) 1996-06-17 2002-08-28 Siemens Aktiengesellschaft Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder
US7173651B1 (en) 1998-06-02 2007-02-06 Knowles Andrew T Apparatus and system for prompt digital photo delivery and archival
JP3255360B2 (ja) * 1999-09-22 2002-02-12 富士重工業株式会社 距離データの検査方法およびその検査装置
US6505123B1 (en) 2000-07-24 2003-01-07 Weatherbank, Inc. Interactive weather advisory system
US7738706B2 (en) 2000-09-22 2010-06-15 Sri International Method and apparatus for recognition of symbols in images of three-dimensional scenes
JP4767403B2 (ja) * 2000-11-06 2011-09-07 本田技研工業株式会社 三次元計測装置および三次元計測方法
US20100098702A1 (en) 2008-09-16 2010-04-22 Longgui Wang Method of treating androgen independent prostate cancer
KR100486596B1 (ko) 2002-12-06 2005-05-03 엘지전자 주식회사 왕복동식 압축기의 운전장치 및 제어방법
US7411493B2 (en) 2003-03-01 2008-08-12 User-Centric Ip, L.P. User-centric event reporting
US7535890B2 (en) 2003-12-18 2009-05-19 Ayalogic, Inc. System and method for instant VoIP messaging
US20050206874A1 (en) * 2004-03-19 2005-09-22 Dougherty Robert P Apparatus and method for determining the range of remote point light sources
US7671916B2 (en) * 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
WO2005119591A1 (ja) 2004-06-04 2005-12-15 Matsushita Electric Industrial Co., Ltd. 表示制御方法および装置、プログラム、並びに携帯機器
JP2006113807A (ja) * 2004-10-14 2006-04-27 Canon Inc 多視点画像の画像処理装置および画像処理プログラム
JP4480083B2 (ja) * 2005-02-23 2010-06-16 アイシン精機株式会社 物体認識装置
US8332475B2 (en) 2005-08-22 2012-12-11 Triplay Communications Ltd. Messaging system and method
JP2007258989A (ja) * 2006-03-22 2007-10-04 Eastman Kodak Co デジタルカメラ、構図補正装置、および、構図補正方法
CN100588902C (zh) * 2006-12-19 2010-02-10 北京中星微电子有限公司 一种车距检测方法及装置
JP4986679B2 (ja) 2007-03-29 2012-07-25 学校法人福岡工業大学 非静止物体の三次元画像計測装置、三次元画像計測方法および三次元画像計測プログラム
USRE47534E1 (en) 2007-04-23 2019-07-23 Ramot At Tel Aviv University Ltd. System, method and a computer readable medium for providing an output image
KR101477182B1 (ko) * 2007-06-01 2014-12-29 삼성전자주식회사 단말 및 그의 이미지 촬영 방법
US7826736B2 (en) * 2007-07-06 2010-11-02 Flir Systems Ab Camera and method for use with camera
KR100998709B1 (ko) * 2008-04-28 2010-12-07 한양대학교 산학협력단 물체의 공간적 의미정보를 이용한 로봇의 자기위치 추정 방법
US9171221B2 (en) * 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
US8204299B2 (en) * 2008-06-12 2012-06-19 Microsoft Corporation 3D content aggregation built into devices
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP5315891B2 (ja) 2008-09-24 2013-10-16 富士通株式会社 距離測定装置、距離測定方法及び距離測定プログラム
KR101618759B1 (ko) * 2008-12-24 2016-05-09 삼성전자주식회사 영상 촬영 장치 및 방법
FI121440B (fi) 2009-06-26 2010-11-15 Valtion Teknillinen Menetelmä ja laite etäisyyden määrittämiseksi
US8436893B2 (en) * 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
US9380292B2 (en) * 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
KR101284798B1 (ko) * 2009-12-08 2013-07-10 한국전자통신연구원 단일 카메라 영상 기반의 객체 거리 및 위치 추정 장치 및 방법
US10080006B2 (en) * 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
US8687070B2 (en) * 2009-12-22 2014-04-01 Apple Inc. Image capture device having tilt and/or perspective correction
US9443227B2 (en) 2010-02-16 2016-09-13 Tigertext, Inc. Messaging system apparatuses circuits and methods of operation thereof
JP5679978B2 (ja) * 2010-03-19 2015-03-04 パナソニックIpマネジメント株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
EP2395765B1 (en) * 2010-06-14 2016-08-24 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
US8933996B2 (en) 2010-06-30 2015-01-13 Fujifilm Corporation Multiple viewpoint imaging control device, multiple viewpoint imaging control method and computer readable medium
WO2012002021A1 (ja) * 2010-06-30 2012-01-05 富士フイルム株式会社 多視点撮影制御装置、多視点撮影制御方法及び多視点撮影制御プログラム
JP5489897B2 (ja) * 2010-07-22 2014-05-14 パナソニック株式会社 ステレオ測距装置及びステレオ測距方法
EP2625845B1 (en) 2010-10-04 2021-03-03 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
JP5625976B2 (ja) * 2011-02-09 2014-11-19 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにプログラム
US9300947B2 (en) * 2011-03-24 2016-03-29 Kodak Alaris Inc. Producing 3D images from captured 2D video
US8780180B2 (en) * 2011-05-13 2014-07-15 Apple Inc. Stereoscopic camera using anaglyphic display during capture
WO2013032041A1 (ko) 2011-08-26 2013-03-07 Ryoo Min-Kyu 이동통신 단말기를 이용한 거리, 높이, 길이 측정 방법
US8937646B1 (en) * 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
WO2013059599A1 (en) * 2011-10-19 2013-04-25 The Regents Of The University Of California Image-based measurement tools
US9223404B1 (en) * 2012-01-27 2015-12-29 Amazon Technologies, Inc. Separating foreground and background objects in captured images
US8259161B1 (en) * 2012-02-06 2012-09-04 Google Inc. Method and system for automatic 3-D image creation
CN102589516B (zh) * 2012-03-01 2014-05-28 长安大学 一种基于双目线扫描摄像机的动态距离测量系统
WO2013136607A1 (ja) * 2012-03-13 2013-09-19 富士フイルム株式会社 プロジェクタ付き撮影装置及びその制御方法
US9019350B2 (en) 2012-04-12 2015-04-28 Raytheon Company Stereo rectification method
CN104520898A (zh) * 2012-06-08 2015-04-15 诺基亚公司 多帧图像校准器
US9025859B2 (en) 2012-07-30 2015-05-05 Qualcomm Incorporated Inertial sensor aided instant autofocus
CN202940864U (zh) 2012-11-14 2013-05-15 吴昊 可更换摄像头的手机
CN102997891B (zh) * 2012-11-16 2015-04-29 上海光亮光电科技有限公司 场景深度的测量装置和方法
CN102980556B (zh) * 2012-11-29 2015-08-12 小米科技有限责任公司 一种测距方法及装置
CN103017730B (zh) * 2012-11-30 2015-04-01 中兴通讯股份有限公司 一种单摄像头测距的方法和系统
US9330471B2 (en) * 2013-02-14 2016-05-03 Qualcomm Incorporated Camera aided motion direction and speed estimation
KR20140108078A (ko) * 2013-02-28 2014-09-05 삼성전자주식회사 논-스테레오스코픽 카메라를 이용하여 스테레오스코픽 이미지를 생성하는 방법과 기기 및 장치
WO2014141654A1 (ja) * 2013-03-13 2014-09-18 パナソニック株式会社 測距装置、撮像装置および測距方法
US9967549B2 (en) * 2013-03-20 2018-05-08 Mediatek Inc. 3D image capture method with 3D preview of preview images generated by monocular camera and related electronic device thereof
EP3828496A1 (en) 2013-04-08 2021-06-02 SNAP Inc. Distance estimation using multi-camera device
CN103323461B (zh) 2013-06-14 2015-05-27 上海大学 一种非接触式的风力发电机叶片运动在线检测方法
CN103344213A (zh) 2013-06-28 2013-10-09 三星电子(中国)研发中心 一种双摄像头测量距离的方法和装置
CN103342130B (zh) 2013-07-15 2016-02-10 齐齐哈尔轨道交通装备有限责任公司 手制动机、制动装置及铁路货车
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
CN103824318B (zh) 2014-02-13 2016-11-23 西安交通大学 一种多摄像头阵列的深度感知方法
KR102296396B1 (ko) * 2014-07-31 2021-09-02 삼성전자주식회사 비접촉 체온 측정 시 정확도를 향상시키기 위한 장치 및 방법
US10704944B2 (en) 2014-09-14 2020-07-07 Becton, Dickinson And Company System and method for capturing dose information
KR20160133230A (ko) * 2015-05-12 2016-11-22 엘지전자 주식회사 이동 단말기
JP2017060008A (ja) * 2015-09-16 2017-03-23 キヤノン株式会社 多視点画像符号化装置、多視点画像符号化方法およびプログラム
JP2017086184A (ja) 2015-11-02 2017-05-25 国立大学法人埼玉大学 筋活動可視化システムと筋活動可視化方法
KR20170083327A (ko) * 2016-01-08 2017-07-18 엘지전자 주식회사 이동단말기 및 그 제어방법

Also Published As

Publication number Publication date
KR102279380B1 (ko) 2021-07-21
KR102416814B1 (ko) 2022-07-06
WO2014167475A1 (en) 2014-10-16
US10691967B2 (en) 2020-06-23
KR20200099616A (ko) 2020-08-24
EP2984448B1 (en) 2021-02-24
KR102482186B1 (ko) 2022-12-29
US20160048968A1 (en) 2016-02-18
US10467492B2 (en) 2019-11-05
CN110440747B (zh) 2021-11-09
KR102146641B1 (ko) 2020-08-21
EP2984448A4 (en) 2016-12-07
US20200293805A1 (en) 2020-09-17
KR20150140734A (ko) 2015-12-16
KR20210013318A (ko) 2021-02-03
KR20220020391A (ko) 2022-02-18
CN110440747A (zh) 2019-11-12
KR20230005434A (ko) 2023-01-09
US11879750B2 (en) 2024-01-23
CN105339756B (zh) 2019-08-06
KR20210091834A (ko) 2021-07-22
KR102582420B1 (ko) 2023-09-26
KR20190110635A (ko) 2019-09-30
EP2984448A1 (en) 2016-02-17
EP3828496A1 (en) 2021-06-02
US20190130201A1 (en) 2019-05-02
KR102536174B1 (ko) 2023-05-26
KR102210054B1 (ko) 2021-02-02
US20200042815A1 (en) 2020-02-06
US20240019245A1 (en) 2024-01-18
US10192312B2 (en) 2019-01-29
KR20220098053A (ko) 2022-07-08
CN105339756A (zh) 2016-02-17
KR102025535B1 (ko) 2019-09-26
KR102357800B1 (ko) 2022-02-08
KR20230076870A (ko) 2023-05-31

Similar Documents

Publication Publication Date Title
KR102582420B1 (ko) 멀티-카메라 장치를 사용하는 거리 추정
US10297076B2 (en) Apparatus and method for generating 3D face model using mobile device
EP3080550B1 (en) Laser receiver using a smart device
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
WO2019057176A1 (zh) 可穿戴设备的测试方法及系统
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
US10432916B2 (en) Measurement apparatus and operation method of measurement apparatus
CN108260360A (zh) 场景深度计算方法、装置及终端
US8121471B1 (en) Focusing system for motion picture camera
JP2016054409A (ja) 映像認識装置、映像認識方法及びプログラム
US11727655B1 (en) Systems and methods for synchronizing the scanning of a scene with the viewing of the scan results relative to a live view of the scene
JP2015015517A (ja) 情報処理装置、距離算出方法、コンピュータプログラム、及び記録媒体

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal