KR20170086476A - 동영상 카메라 초점 응용을 위한 거리 측정 디바이스 - Google Patents

동영상 카메라 초점 응용을 위한 거리 측정 디바이스 Download PDF

Info

Publication number
KR20170086476A
KR20170086476A KR1020177011047A KR20177011047A KR20170086476A KR 20170086476 A KR20170086476 A KR 20170086476A KR 1020177011047 A KR1020177011047 A KR 1020177011047A KR 20177011047 A KR20177011047 A KR 20177011047A KR 20170086476 A KR20170086476 A KR 20170086476A
Authority
KR
South Korea
Prior art keywords
interest
view
camera
field
distance
Prior art date
Application number
KR1020177011047A
Other languages
English (en)
Other versions
KR102391828B1 (ko
Inventor
리테쉬 나랑
윌리엄 베넷 호그
클라이브 오스틴 타운드로
Original Assignee
파나비젼 인터내셔널 엘. 피.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 파나비젼 인터내셔널 엘. 피. filed Critical 파나비젼 인터내셔널 엘. 피.
Publication of KR20170086476A publication Critical patent/KR20170086476A/ko
Application granted granted Critical
Publication of KR102391828B1 publication Critical patent/KR102391828B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • H04N5/247
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • H04N13/0239
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/2252
    • H04N5/2258
    • H04N5/2259
    • H04N5/23212
    • H04N5/23216
    • H04N5/23293
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Analysis (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

관심 영역까지의 거리를 결정하기 위한 시스템. 시스템은 동영상 카메라의 초점을 조정하는 데 이용될 수 있다. 시스템은, 제1 시야를 갖도록 구성된 제1 카메라, 및 제1 시야의 적어도 일부와 중첩되는 제2 시야를 갖도록 구성된 제2 카메라를 포함할 수 있다. 시스템은, 제1 시야 내의 선택된 관심 영역의 위치를 제2 시야 내의 선택된 관심 영역의 위치와 비교함으로써 소정 장소에 대한 선택된 관심 영역의 거리를 계산하도록 구성된 프로세서를 포함할 수 있다.

Description

동영상 카메라 초점 응용을 위한 거리 측정 디바이스{DISTANCE MEASUREMENT DEVICE FOR MOTION PICTURE CAMERA FOCUS APPLICATIONS}
본 개시내용은, 관심 영역까지의 거리를 결정하기 위한 시스템, 장치, 및 방법에 관한 것이다.
관심 영역까지의 거리를 결정하는 것은, 촬영 카메라의 초점을 적절히 설정하는 것을 포함한, 적절한 카메라 작동에 관련된다. 동영상 및 텔레비전을 위한 촬영을 포함한, 전문적인 수준의 촬영의 경우, 관심 영역까지의 거리를 적절하게 결정하는 것이 특히 적절하다. 카메라 보조수(camera assistant)는 관심 영역까지의 거리를 결정한 다음 그 거리에 기초하여 촬영 카메라의 초점을 설정하는 작업을 수행할 수 있다.
관심 영역까지의 거리를 결정하는 종래의 시스템, 장치, 및 방법은 일련의 단점을 갖는다. 음향 또는 적외선 측정 디바이스 등의 시스템은 원하는 관심 영역을 적절하게 식별하지 못할 수 있으며, 관심 영역의 이동을 적절하게 추적하지 못할 수 있다. 또한, 종래의 시스템은 원하는 관심 영역이 용이하게 시각화되는 것을 허용하지 않을 수 있다.
여기서 개시된 시스템, 장치, 및 방법은, 관심 영역까지의 거리의 개선된 결정을 제공하기 위한 것이다. 거리의 결정은, 촬영 카메라의 초점을 적절하게 설정하는 데 이용될 수 있다.
본 개시내용의 실시예들은, 입체 배향(stereoscopic orientation)으로 위치한 카메라들의 이용을 통해 관심 영역까지의 거리의 결정을 포함할 수 있다. 2개의 카메라의 시야를 통한 관심 영역의 불일치(disparity)는 카메라로부터의 관심 영역의 거리에 반비례한다. 관심 영역까지의 거리는 이러한 불일치에 기초하여 결정될 수 있다.
본 개시내용의 실시예는 관심 영역의 이동을 추적하는 것을 허용할 수 있다. 본 개시내용의 실시예는 관심 영역까지의 거리의 실시간 계산을 허용할 수 있다. 본 개시내용의 실시예는 복수의 관심 영역이 동시에 추적되는 것을 허용할 수 있고, 어느 한 카메라의 시야가 디스플레이 상에 생성되는 것을 허용할 수 있다.
여기서 개시된 시스템, 장치, 및 방법은, 관심 영역까지의 거리 결정의 용이성을 향상시키고, 관심 영역까지의 거리에 관한 개선된 정보를 생성한다.
여기서 개시된 시스템, 장치, 및 방법의 피쳐들 및 이점들은, 명세서, 청구항, 및 첨부된 도면을 참조하여 더 잘 이해될 수 있다.
도 1은 본 개시내용의 한 실시예에 따른 시스템의 개략도를 나타낸다.
도 2는 본 개시내용의 한 실시예에 따른 장치의 평면도를 나타낸다.
도 3은 본 개시내용의 한 실시예에 따른 도 2에 도시된 장치의 측면도를 나타낸다.
도 4는 본 개시내용의 한 실시예에 따른 도 2에 도시된 장치의 정면도를 나타낸다.
도 5는 본 개시내용의 한 실시예에 따른 컴포넌트들이 분리된 도 2에 도시된 장치의 상부 사시도를 나타낸다.
도 6은 본 개시내용의 한 실시예에 따른 하우징의 뚜껑이 제거된 도 2에 도시된 장치의 상부 사시도를 나타낸다.
도 7은 본 개시내용의 한 실시예에 따른 시야들의 개략도를 나타낸다.
도 8은 본 개시내용의 한 실시예에 따른 시야들의 이미지를 나타낸다.
도 9는 본 개시내용의 한 실시예에 따른 알고리즘을 나타낸다.
도 10은 본 개시내용의 한 실시예에 따른 관심 영역을 나타낸다.
도 11은 본 개시내용의 한 실시예에 따른 캘리브레이션 테이블을 나타낸다.
도 12는 본 개시내용의 한 실시예에 따른 해상도 테이블을 나타낸다.
도 13은 본 개시내용의 한 실시예에 따른 해상도 그래프를 나타낸다.
도 14는 본 개시내용의 한 실시예에 따른 장치의 이미지를 나타낸다.
도 15는 본 개시내용의 한 실시예에 따른 장치의 이미지를 나타낸다.
도 16은 본 개시내용의 한 실시예에 따른 장치의 이미지를 나타낸다.
도 17은 본 개시내용의 한 실시예에 따른 컴포넌트들이 분리된 장치의 상부 사시도를 나타낸다.
도 18은 본 개시내용의 한 실시예에 따른 도 17에 도시된 장치의 평면도를 나타낸다.
도 19는 본 개시내용의 한 실시예에 따른 도 18에 도시된 장치의 측면도를 나타낸다.
도 20은 본 개시내용의 한 실시예에 따른 하드웨어 구성의 개략도를 나타낸다.
도 21은 본 개시내용의 한 실시예에 따른 시스템의 유선 접속의 개략도를 나타낸다.
도 22는 본 개시내용의 한 실시예에 따른 프로세스 맵을 나타낸다.
도 23은 본 개시내용의 한 실시예에 따른 카메라 제어기와의 데이터 전송을 위한 프로세스를 나타낸다.
도 24는 본 개시내용의 한 실시예에 따른 거리 데이터를 카메라 제어기에 전송하는 프로세스를 나타낸다.
도 1은 관심 영역까지의 거리를 결정하기 위한 시스템(10)의 한 실시예를 나타낸다. 시스템(10)은 동영상 카메라 응용에서 이용되어, 촬영 카메라가 원하는 관심 영역에 기초하여 초점을 맞추는 것을 더욱 용이하게 허용할 수 있다.
시스템(10)은 카메라 디바이스(12)를 포함할 수 있다. 카메라 디바이스(12)는, 각각의 시야를 갖는 2개의 카메라들(14, 16)을 포함할 수 있다. 시스템(10)은 카메라들(14, 16) 중 하나의 시야에서 관심 영역을 선택하기 위한 제어 디바이스(18)를 포함할 수 있다. 시스템(10)은, 시스템(10)의 프로세서에 의해 계산된 관심 영역까지의 거리를 디스플레이하도록 구성된 디스플레이 디바이스(20)를 포함할 수 있다.
시스템(10)은, 촬영 카메라(22), 디스플레이 디바이스(24), 카메라 제어기(26) 및 디스플레이 디바이스(28)를 포함할 수 있다. 촬영 카메라(22)는, 카메라들(14, 16)의 시야와 중첩되는 시야에서 이미지를 생성하도록 구성될 수 있다. 디스플레이 디바이스(24)는, 시스템(10)의 프로세서에 의해 계산된 거리를 촬영 카메라(24)로부터의 이미지 상에 오버레이하기 위한 오버레이 디바이스(overlay device)의 형태일 수 있다. 카메라 제어기(26)는 카메라들(14, 16)의 동작을 제어하도록 구성될 수 있다. 디스플레이 디바이스(28)는, 오버레이 디바이스로부터의 오버레이를 포함한 촬영 디바이스(22)로부터의 이미지를 디스플레이할 수 있다. 시스템(10)의 요소들은 원하는 결과를 생성하기 위해 배제되거나, 추가 요소가 포함될 수 있다.
카메라 디바이스(12)는 2개의 카메라(14, 16)를 포함할 수 있다. 2개의 카메라(14, 16)는 입체적 배향으로 배치될 수 있다. 하나의 카메라(14)의 시야는, 다른 카메라(16)의 시야의 전체, 또는 다른 카메라(16)의 시야의 일부에만 중첩되되, 각각의 시야의 적어도 일부가 중첩되게 할 수 있다.
도 2를 참조하면, 각각의 카메라(14, 16)는 하우징(30)에 결합될 수 있다. 하우징(30)은 카메라들(14, 16)을 서로로부터 거리(32)에 유지할 수 있다. 하우징(30)은 카메라(14, 16)를 제 위치에 설정하고 2개의 카메라(14, 16) 사이의 거리(32)를 정의할 수 있다.
각각의 카메라(14, 16)는 각각의 축(34, 36)을 따라 정렬될 수 있다. 축(34, 36)은 서로 실질적으로 평행할 수 있다. 카메라들(14, 16)은 서로 실질적으로 동평면 상에 배향될 수 있고, 도 3에서 페이지 밖으로 연장되는 실질적으로 유사한 수평 또는 x-차원 평면(38)에서 정렬될 수 있다. 도 5에 도시된 카메라 이미지 센서들(40, 42)은 서로 실질적으로 동평면 상에 배향될 수 있고, 도 3의 페이지 밖으로 연장되는 실질적으로 유사한 수직 또는 y-차원 평면(44)에서 정렬될 수 있다. 카메라들(14, 16)은 동일한 방향을 향하도록 배향될 수 있다. 카메라들(14, 16)은 각각의 카메라(14, 16)의 배향이 고정되도록 하우징(30)에 의해 유지될 수 있다. 한 실시예에서, 어느 한 카메라(14, 16)는 하우징(30) 및/또는 다른 카메라(14, 16)에 관해 이동가능하도록 구성될 수 있다. 한 실시예에서, 어느 한 카메라(14, 16)는 하우징(30)에 결합되지 않을 수도 있다. 카메라는, 하우징(30)에 결합된 카메라에 관하여 설명된 배향을 포함한, 원하는 배향으로 셋업될 수 있는 분리가능한 카메라일 수 있다.
각각의 카메라의 초점 거리는 원하는대로 설정될 수 있고, 바람직하게는 2개의 카메라(14, 16)의 시야가 중첩되도록 설정된다. 한 실시예에서, 각각의 카메라(14, 16)의 초점 거리는 약 12mm 내지 16mm일 수 있다. 한 실시예에서, 각각의 카메라(14, 16)의 초점 거리는 동일하거나 실질적으로 유사하도록 설정될 수 있다. 이러한 실시예에서, 유사하거나 동일한 초점 거리는 거리를 결정하는 데 이용되는 처리량을 감소시킬 수 있다. 한 실시예에서, 원한다면 카메라의 상이한 초점 거리들이 이용될 수 있다.
카메라 유닛(12)은 경량이고 휴대가능하도록 구성될 수 있다. 도 2에 도시된 바와 같이, 카메라 유닛(12)의 길이는 약 7.29 인치일 수 있고, 그 폭은 약 10.5 인치일 수 있다. 도 3에 도시된 높이는 대략 2.65 인치일 수 있다. 도 2 및 도 3에 도시된 치수는 예시적인 것인데, 그 이유는, 약 5 내지 10 인치의 길이, 약 7 내지 13 인치의 폭, 및 약 1 내지 5 인치의 높이를 포함하는 다양한 치수가 이용될 수 있기 때문이다. 한 실시예에서, 여기에 언급된 것들과는 상이한 치수들이 이용될 수 있다. 하우징(30)은, 카메라 유닛(12)이 시스템(10)의 다른 구조들 또는 요소들에 접속하는 것을 허용하도록 구성된 부착 디바이스들(46, 48)을 포함할 수 있다. 부착 디바이스들(46, 48) 중 어느 하나는 카메라 유닛(12)이 원하는 배향으로 유지되는 것을 허용할 수 있다. 부착 디바이스들(46, 48) 중 어느 하나는 카메라 유닛(12)이 촬영 카메라(22)에 결합되는 것을 허용할 수 있다. 부착 디바이스들(46, 48)은, 도 2에 도시된 더브테일 디바이스(dovetail device)이거나, 원하는 다른 형태를 가질 수도 있다.
도 4는 카메라 유닛(12)의 정면도를 나타낸다. 도 5는 뚜껑(50)이 제거된 하우징(30)을 나타낸다. 카메라들(14, 16)은 컴포넌트들로 분리되어 도시되어 있다. 카메라 유닛(12)의 내부 하드웨어는 가시적이다. 카메라들(14, 16)은, 각각의 전방 윈도우(54, 56), 각각의 렌즈 어셈블리(58, 60), 및 각각의 이미지 센서(40, 42)를 포함할 수 있다. 각각의 전방 베젤(62, 64)은 렌즈 어셈블리(58, 60)를 하우징(30)에 고정시킬 수 있다. 각각의 렌즈 어셈블리(58, 60)는 단일의 렌즈 또는 복수의 렌즈를 포함할 수 있다. 한 실시예에서, 렌즈 어셈블리(58, 60)는 줌 렌즈를 포함할 수 있다. 한 실시예에서, 렌즈 어셈블리(58, 60)는 각각의 카메라(14, 16)의 초점, 줌 및/또는 조리개를 제어하도록 구성될 수 있다. 이미지 센서들(40, 42) 각각은, 각각의 시야의 이미지를 포착하고 그것을 처리를 위해 디지털화하도록 구성될 수 있다. 이미지 센서들(40, 42)은, CCD 센서, CMOS 센서, 또는 다른 형태의 이미지 센서일 수 있다. 이미지 센서들(40, 42)은, 720p, 1080i, 1080PsF, 1080p의 해상도를 생성할 수 있지만, 원한다면 다른 해상도가 이용될 수도 있다. 이미지 센서는 바람직하게는 비디오 이미지를 포착하도록 구성된다. 23.98, 24, 25, 29.97, 30, 48, 50, 59.94 및 60의 프레임 속도가 이용될 수 있지만, 원하는 경우 다른 프레임 속도가 이용할 수도 있다. 한 실시예에서, 카메라들(14, 16)은 정지 이미지를 포착하도록 구성될 수 있다.
카메라(14, 16)는, 수평 또는 x-차원에서 각각 약 80° 내지 90° (양 끝점 포함)의 시야를 각각 갖도록 구성될 수 있다. 바람직하게는, 각각의 카메라(14, 16)는 수평 또는 x-차원에서 약 90 도의 시야를 갖는다. 한 실시예에서, 원한다면, 각각의 카메라(14, 16)에 대한 보다 작은 또는 더 큰 각도가 이용될 수 있다.
한 실시예에서, 카메라(14, 16)의 피쳐들은 동일하거나 실질적으로 유사하도록 설정될 수 있다. 이러한 실시예에서, 카메라들(14, 16)의 유사하거나 동일한 피쳐들은 거리를 결정하는 데 이용되는 처리량을 감소시킬 수 있다.
도 2를 참조하면, 2개의 카메라(14, 16) 사이의 거리(32)는 약 5 내지 14 인치(양 끝점 포함)일 수 있다. 거리(32)는 바람직하게는 약 8인치이다. 한 실시예에서, 원하는 경우 카메라들(14, 16) 사이의 더 작은 또는 더 큰 거리(32)가 이용될 수도 있다.
다시 도 5를 참조하면, 카메라 디바이스(12)는 입력 디바이스를 포함할 수 있고, 출력 디바이스를 포함할 수 있다. 도 5에 도시된 실시예에서, 입력 디바이스 및 출력 디바이스는 안테나(66) 형태의 무선 통신 디바이스이다. 한 실시예에서, 입력 디바이스 및 출력 디바이스는, 도 5에 도시된 커넥터(68) 등의 커넥터를 포함할 수 있다. 한 실시예에서, 입력 디바이스 및 출력 디바이스는 상이한 구조들을 포함할 수 있다. 입력 디바이스는 데이터를 수신하도록 구성될 수 있고, 출력 디바이스는 데이터를 출력하도록 구성될 수 있다. 카메라 디바이스(12)는 또한, 카메라 디바이스(12)를 작동시키기 위한 전력을 수신하는 전원 커넥터(68)를 포함할 수 있다. 카메라 디바이스(12)에 의해 이용되는 전압은, 대략 12V 내지 24V의 범위(양 끝점 포함)이거나, 약 10V 내지 약 35V의 범위(양 끝점 포함)일 수 있다. 한 실시예에서, 원한다면, 더 작은 또는 더 큰 양의 전압이 이용될 수 있다. 전원 커넥터(68) 및 다른 형태의 커넥터는 하우징(30) 상에서 함께 근접하게 그룹화될 수 있다.
카메라 디바이스(12)는 무선 통신 카드(70)를 포함할 수 있다. 무선 통신 카드(70)는 안테나(66)로 및 안테나(66)로부터 데이터를 전송하도록 동작할 수 있다. 무선 통신 카드(70)는 라우터의 형태일 수 있고 시스템(10)에서 이용될 수 있는 다른 디바이스와 무선 통신하기 위한 네트워크 허브로서 동작할 수 있다. 카메라 디바이스(12)는 제1 카메라(14) 및/또는 제2 카메라(16)와 통신하기 위한 인터페이스 디바이스(72)를 포함할 수 있다. 인터페이스 디바이스(72)는 USB 카드의 형태일 수 있다. 카메라 디바이스(12)는, 카메라 디바이스(12)의 컴포넌트들로의 전력을 처리하고 공급하기 위한 전원(74)을 포함할 수 있다. 전력은 전원 커넥터(68)로부터 전원(74)에 입력될 수 있다. 한 실시예에서, 전원(74)은 DC-DC 변환기의 형태일 수 있지만, 원한다면, 실시예들에서 다른 형태의 전원(74)이 이용될 수 있다.
카메라 디바이스(12)는 프로세서 카드(76)를 포함할 수 있다. 프로세서 카드(76)는 제1 카메라(14) 및 제2 카메라(16)로부터 수신된 이미지를 처리하도록 구성된 프로세서(77)를 포함할 수 있다. 프로세서(77)는 관심 영역까지의 거리를 계산하는 데 이용될 수 있다.
도 6은, 하우징(30)의 뚜껑(50)이 제거된, 하우징(30) 내에 위치한 카메라 디바이스(12)의 컴포넌트들을 나타낸다.
도 7을 참조하면, 제1 카메라(14)의 시야(78) 및 제2 카메라(16)의 시야(80)는 중첩 시야(82)의 일부를 가질 수 있다. 한 실시예에서, 촬영 카메라(22)의 시야(84)는 어느 한 시야(78, 80)의 적어도 일부와 중첩될 수 있다. 관심 영역은 시야(78) 및/또는 시야(80) 내에서 선택될 수 있다. 관심 영역은, 물체 또는 영역 등의, 어느 하나의 시야(78, 80)에 도시된 임의의 이미지일 수 있다. 관심 영역은 지점 또는 지점들의 모음일 수 있다. 한 실시예에서, 관심 영역은, 80 × 80 픽셀의 크기 등의, 정의된 크기를 가질 수 있다. 한 실시예에서, 관심 영역은, 원한다면, 상이한 크기를 가질 수 있거나, 정의된 크기를 갖지 않을 수 있다.
도 8은, 카메라(14)에 의해 생성된 시야(78)의 예시적인 이미지를 도 8의 좌측에 나타낸다. 도 8은, 카메라(16)에 의해 생성된 시야(80)의 예시적인 이미지를 도 8의 우측에 나타낸다. 시야들(78, 80)은, 양쪽 이미지에서 유사한 시야들(78, 80)의 이미지들의 부분들에 의해 도시된 바와 같이 중첩된다. 시야들(78, 80)은, 시야(80)에 도시되지 않은 시야(78)의 부분에 의해 도시된 바와 같이, 오프셋된다. 관심 영역(86)이 선택되었다. 한 실시예에서, 관심 영역(86)은 프로세서(77) 또는 다른 자동 프로세스에 의해 자동으로 선택될 수 있다. 한 실시예에서, 관심 영역(86)은 사용자의 입력에 의해 선택될 수 있다.
한 실시예에서, 관심 영역(86)은 시야들(78, 80) 중 하나에서 선택될 수 있다. 예를 들어, 관심 영역(86)은, 제1 시야(78)로 지칭될 수 있는 시야(78)에서 선택될 수 있다. 프로세서(77)는, 관심 영역(86)의 피쳐, 예를 들어, 선택된 관심 영역(86)의 외관을 식별하도록 구성될 수 있고, 제2 시야(80)로 지칭될 수 있는 다른 시야(80) 내의 선택된 관심 영역(86)의 외관을 정합시키는 알고리즘을 이용할 수 있다. 이 알고리즘은 제1 시야(78) 내의 선택된 관심 영역(86)의 외관을 제2 시야(80) 내의 선택된 관심 영역(86)의 외관과 상관시킬 수 있다.
도 9는, 제1 시야 영역(78) 내의 선택된 관심 영역(86)의 외관을 제2 시야(80) 내의 선택된 관심 영역(86)의 외관과 상관시키기 위해 이용될 수 있는 알고리즘의 실시예를 나타낸다. 요소 "T"는 선택된 관심 영역(86)의 이미지의 외관을 나타낸다. 요소 "I"는 제2 시야(80)의 이미지를 나타낸다. "x" 및 "y" 요소들은 도 8에 마킹된 바와 같은 시야들의 각각의 "x" 및 "y" 차원에 대응한다. "w" 및 "h" 요소는 시야의 폭과 높이에 대응한다. 요소 "R"은, 제1 시야(78) 내의 선택된 관심 영역(86)의 외관과 제2 시야(80) 내의 선택된 관심 영역(86)의 외관 사이의 상관성을 나타낸다. 프로세서(77)는 이 알고리즘을 이용하여 제2 시야(80)의 이미지를 스캐닝하여 피크 상관성을 발견할 수 있다. 한 실시예에서, 도 9에 도시된 알고리즘과는 상이한 알고리즘이 프로세서(77)에 의해 이용될 수 있다.
한 실시예에서, 정합 알고리즘이 이용되지 못할 수도 있고, 사용자는 제1 시야(78) 및 제2 시야(80) 양쪽 모두에서 선택된 관심 영역(86)을 식별할 수 있다.
프로세서(77)는, 제1 시야(78) 내의 관심 영역(86)의 위치를 제2 시야(80) 내의 관심 영역(86)의 위치와 비교함으로써 소정 장소에 대한 관심 영역(86)의 거리를 계산하도록 구성될 수 있다. 예를 들어, 도 10은, 제2 카메라(16)를 통해 도시된 관심 영역(86)의 위치(하부 이미지)와 비교하여 제1 카메라(14)를 통해 도시된 관심 영역(86)의 상대적 위치(상부 이미지)를 디스플레이한다. 프로세서(77)는, 전술된 정합 알고리즘을 통해, 또는 원한다면 대안적 프로세스를 통해, 제2 시야(80) 내의 관심 영역의 위치를 식별할 수 있다. 제1 시야(78) 및 제2 시야(80) 내의 관심 영역(86)의 장소에서의 차이는 장소들 사이의 불일치(disparity)이다. 관심 영역(86)의 장소에서의 차이는, 정합 알고리즘을 이용하여 계산된 피크 상관성의 장소에서의 차이일 수 있다.
불일치는, 수평 또는 x-차원에서의 제2 시야(80) 내의 관심 영역(86)의 위치에 대한 수평 또는 x-차원에서의 제1 시야(78) 내의 관심 영역(86)의 위치의 차이로서 계산될 수 있다. 불일치는 제1 시야(78) 및 제2 시야(80) 내의 관심 영역(86)의 픽셀 장소의 차이에 기초하여 계산될 수 있다. 한 실시예에서, 불일치는, 중심선에 대한 제1 시야(78) 및 제2 시야(80) 내의 관심 영역(86)의 장소에 기초하여 계산될 수 있다.
프로세서(77)는, 카메라들(14, 16) 사이의 거리 및 관심 영역(86)의 불일치에 기초하여 관심 영역(86)의 거리를 계산하도록 구성될 수 있다. 불일치가 증가함에 따라, 카메라들(14, 16)로부터의 관심 영역(86)의 상대적 거리가 감소한다. 카메라들(14, 16) 사이의 거리가 증가함에 따라, 명백한 불일치가 증가할 것이다. 거리 측정은 아래에 주어진 관계에 기초할 수 있고, 이 때, 카메라 베이스라인은, 2개의 카메라(14, 16) 렌즈의 중심의 안구간 간격(interocular spacing)일 수 있는 2개의 카메라(14, 16) 렌즈 사이의 거리이다.
거리 ∝ ((카메라 초점 거리)(카메라 베이스라인))/(불일치)
상기에 나타낸 관계의 상수적 요소(constant element)는 프로세서(77)에 의해 자동으로 결정될 수 있거나 프로세서(77)에 입력될 수 있다. 예를 들어, 카메라 초점 거리, 및 카메라 베이스라인, 또는 기타 임의의 상수적 요소는 거리 계산에 이용하기 위해 프로세서(77)에 입력될 수 있다. 한 실시예에서, 프로세서(77)는, 예를 들어, 카메라 디바이스(12)와 함께 이용되는 카메라의 특정 종류에 기초하여, 상기 관계의 상수적 요소를 자동으로 검출할 수 있다. 한 실시예에서, 프로세서(77)는, 카메라들(14, 16)의 배향 및/또는 카메라들(14, 16)의 서로간의 거리를 자동으로 검출할 수 있다. 한 실시예에서, 프로세서(77)는 메모리에 저장된 룩업 테이블(look-up table)을 포함할 수 있고, 룩업 테이블은 저장된 상수를 사용자에 의해 제공된 입력과 정합하는 데 이용될 수 있다. 입력은 이용되는 카메라의 타입일 수 있다. 한 실시예에서, 메모리는 프로세서(77)에 의해 이용되는 임의의 상수 또는 기타의 정보를 저장하는 데 이용될 수 있다. 한 실시예에서, 상기에서 식별된 것과는 상이한 상수 또는 변수를 포함하는 거리 관계가 이용될 수도 있다.
한 실시예에서, 카메라 디바이스(12)는, 프로세서(77)가 소정 장소에 대한 거리를 계산하는 것을 허용하게끔 캘리브레이트되도록 구성될 수 있다. 도 11은, 예를 들어, 프로세서(77)를 캘리브레이트하는 데 이용될 수 있는 테이블(88)을 나타낸다. 캘리브레이션 프로세스에서, 사용자는 정의된 거리에서의 관심 영역을 설정할 수 있다. 프로세서(77)는 그 거리에서의 관심 영역의 불일치를 결정할 수 있다. 사용자는 그 불일치에 대응하는 거리를 프로세서(77) 또는 프로세서의 메모리에 입력할 수 있다. 사용자는 다양한 거리에서 이 프로세스를 반복할 수 있다. 캘리브레이션 후에, 프로세서(77)가 불일치를 계산할 때, 프로세서는 거리를 출력할 수 있도록 캘리브레이션 동안에 메모리에 저장된 거리와 이 불일치를 정합시킬 수 있다. 캘리브레이션 프로세스는, 프로세서(77)가 거리를 계산하는 데 이용된 임의의 상수의 변동을 더욱 용이하게 감안하는 것을 허용할 수 있다. 캘리브레이션 데이터는, 카메라의 타입, 카메라 초점 거리, 카메라 배향 또는 카메라들 사이의 거리, 또는 다른 요인 등의, 상이한 상수들에 대해 메모리에 저장될 수 있다. 캘리브레이션 데이터는 프로세서(77)에 의해 회수되어 계산된 불일치에 기초하여 거리를 출력할 수 있다.
프로세서(77)가 상대적 거리를 계산하는 그 기준 장소는, 디폴트에 의해 설정되거나 또는 프로세서(77)에 입력되거나 또는 프로세서(77)에 의해 자동으로 결정될 수 있다. 그 장소는 캘리브레이션 프로세스 동안에 설정될 수 있다. 한 실시예에서, 그 장소는 촬영 카메라(22)의 위치로서 설정될 수 있다. 촬영 카메라(22)의 위치는 또한, 촬영 카메라(22)의 렌즈 또는 센서 평면 중 하나로서 정의될 수 있다. 한 실시예에서, 카메라 디바이스(12)는 정의된 위치에서 촬영 카메라(22)에 결합되도록 구성될 수 있고, 장소는 정의된 위치에 기초하여 촬영 카메라(22)가 되도록 설정될 수 있다. 한 실시예에서, 장소는 촬영 카메라의 타입을 프로세서(77)에 입력함으로써 프로세서(77)에 입력될 수 있다. 프로세서(77)는, 이용되는 촬영 카메라(22)의 타입에 기초하여, 촬영 카메라(22) 또는 렌즈나 센서 평면 등의 카메라의 컴포넌트의 위치를 제공하는 룩업 테이블을 포함할 수 있다. 한 실시예에서, 장소는 원한다면 상이한 위치에 설정될 수 있고, 예를 들어, 사용자는 그 장소를 프로세서(77) 내에 입력할 수 있다.
한 실시예에서, 카메라 디바이스(12)는, 관심 영역(86)이 이동하는 동안 소정 장소에 대한 관심 영역(86)의 거리를 계산하도록 구성될 수 있다. 프로세서(77)는 선택된 관심 영역(86)의 위치를 추적하도록 구성될 수 있다. 도 8을 참조하면, 관심 영역(86)이 선택되면, 프로세서(77)는 관심 영역(86)이 이동하는지를 결정하도록 구성될 수 있다. 프로세서(77)는 관심 영역(86)의 외관을 결정한 다음 관심 영역(86)의 이동을 추적하기 위해 연속적인 프레임들에서 관심 영역(86)의 외관을 식별할 수 있다. 한 실시예에서, 프로세서(77)는, 픽셀 데이터가 원래의 픽셀들과는 상이한 픽셀들로 변환되었는지를 계산함으로써 관심 영역(86)을 추적할 수 있다. 한 실시예에서, 관심 영역(86)을 추적하는 상이한 프로세스가 이용될 수 있다. 프로세서(77)는 각각의 프레임에서 관심 영역(86)을 추적할 수 있다. 한 실시예에서, 프로세서(77)는 정의된 구간의 프레임들 동안에 관심 영역(86)을 추적할 수 있다.
한 실시예에서, 제어 디바이스 등의 별개의 디바이스는 관심 영역(86)을 추적하도록 프로세서(77)를 보조할 수 있다. 별개의 디바이스는 관심 영역(86)의 이동을 식별할 수 있고, 프로세서(77)는 관심 영역(86)이 이동함에 따라 관심 영역(86)을 나타내는 픽셀들의 서브세트로부터의 이미지 데이터를 이용하여 관심 영역(86)의 이동을 추적할 수 있다. 픽셀들의 서브세트로부터의 이미지 데이터는 제2 시야(80)로부터의 이미지와의 비교를 위해 이용될 수 있다.
프로세서(77)는 제2 시야(80) 내의 관심 영역(86)의 위치를 추적하도록 구성될 수 있다. 본 출원에서 앞서 논의된 프로세스에서 프로세서(77)는 제1 시야(78) 내의 관심 영역(86)의 외관을 제2 시야(80)에 정합시킴으로써 제2 시야(80) 내의 위치를 추적할 수 있다. 예를 들어, 프로세서(77)는, 다른 시야(82) 내의 선택된 관심 영역(86)의 외관을 정합시키는 알고리즘을 이용할 수 있다. 알고리즘은 제1 시야(78) 내의 선택된 관심 영역(86)의 외관을 제2 시야(80) 내의 선택된 관심 영역(86)의 외관과 상관시킬 수 있다. 이 알고리즘은 도 9에 도시된 알고리즘이거나, 상이한 알고리즘일 수도 있다. 한 실시예에서, 프로세서(77)는, 제2 시야(78) 내의 관심 영역(86)의 이동을 계산하기 위해 제1 시야(78) 내의 관심 영역(86)의 이동을 나타내는 데이터가 적용되는 프로세스에서 제2 시야(80) 내의 관심 영역(86)을 추적할 수 있다. 한 실시예에서, 제2 시야(78) 내의 관심 영역(86)을 추적하는 상이한 프로세스가 이용될 수 있다.
프로세서(77)는, 제1 시야(78) 내의 관심 영역(86)의 위치를 제2 시야(80) 내의 관심 영역(86)의 위치와 비교함으로써, 관심 영역(86)이 움직이는 동안 소정 장소에 대한 관심 영역(86)의 거리를 계산하도록 구성될 수 있다. 거리는 본 출원에서 상기에서 논의된 바와 같은 프로세스에서 계산될 수 있다. 예를 들어 관심 영역(86)이 제1 시야(78)에서 이동함에 따라, 거리는 실시간으로 계산될 수 있다. 거리는 각각의 프레임에 대해 계산될 수 있다. 한 실시예에서, 거리는 정의된 구간의 프레임들에 대해 계산될 수 있다.
한 실시예에서, 카메라 디바이스(12)는 복수의 관심 영역(86)의 거리를 계산하도록 구성될 수 있다. 한 실시예에서, 프로세서(77)는 복수의 관심 영역(86)을 추적하고 복수의 관심 영역(86)의 거리를 계산하도록 구성될 수 있다. 한 실시예에서, 12개까지의 상이한 관심 영역들이 추적되거나 및/또는 그들 각각의 거리가 계산되게 할 수 있다. 한 실시예에서, 더 많거나 더 적은 수의 관심 영역이 추적되거나 및/또는 그들 각각의 거리가 계산되게 할 수 있다. 복수의 관심 영역의 거리 및/또는 추적은 동시에 발생할 수 있다. 추적, 정합, 및 거리 프로세스는, 개개의 관심 영역(86)에 대해 상기 논의된 바와 같은 유사한 프로세스를 통해 각각의 관심 영역(86)에 대해 발생할 수 있다. 거리는 각각의 프레임에 대한 각각의 관심 영역에 대해 계산될 수 있다. 한 실시예에서, 거리는 정의된 구간의 프레임들에 대한 각각의 관심 영역에 대해 계산될 수 있다. 한 실시예에서, 프로세서(77)는 다양한 관심 영역(86)에 대한 불일치들의 불일치 맵을 생성하도록 구성될 수 있다.
카메라 디바이스(12)는 프로세서(77)가 계산한 거리 데이터를 출력하도록 구성될 수 있다.
한 실시예에서, 프로세서(77)는 하우징(30)의 외부에 위치할 수 있다.
한 실시예에서, 거리 계산은, 하우징(30)에 결합되지 않은 및/또는 예를 들어 도 2 또는 도 7에 도시된 것과는 상이한 배향으로 위치한 카메라(12, 14)를 이용하여 수행될 수 있다. 카메라들(12, 14)의 상이한 배향들은 그 거리 계산에서 프로세서(77)에 의해 이용될 수 있다, 예를 들어, 상이한 카메라 베이스라인 값이 이용될 수 있다.
도 12는, 카메라 디바이스(12)로부터의 소정의 정의된 거리들에서 카메라 디바이스(12)의 카메라들(14, 16)의 해상도를 나타내는 테이블을 나타낸다. 도 13은, 카메라 디바이스(12)로부터의 소정의 정의된 거리들에서 카메라 디바이스(12)의 카메라들(14, 16)의 해상도의 그래프를 나타낸다. 도 12 및 도 13에 도시된 데이터는 카메라 디바이스(12)의 한 실시예를 나타내고, 카메라 디바이스(12)의 다른 실시예에서는 다른 해상도들이 발생할 수 있다.
다시 도 1을 참조하면, 시스템(10)은 제어 디바이스(18)를 포함할 수 있다. 제어 디바이스(18)는 사용자가 관심 영역을 선택하는 것을 허용하도록 구성될 수 있다. 제어 디바이스(18)로부터의 제어 데이터는 카메라 디바이스(12)에 입력되고 프로세서(77)에 의해 수신될 수 있다. 제어 디바이스(18)는 카메라 디바이스(12)에 접속되거나 카메라 디바이스(12)와 무선으로 통신하도록 구성될 수 있다. 카메라 디바이스(12)의 무선 통신 디바이스는 제어 디바이스(18)와 통신하는 데 이용될 수 있다. 제어 디바이스(18)는 시스템(10)의 임의의 컴포넌트와 통신하는 무선 통신 디바이스를 포함할 수 있다.
도 14는 제어 디바이스(18)의 확대도를 나타낸다. 제어 디바이스(18)는 핸드헬드 디바이스로서 구성되거나, 카메라 디바이스(12)의 동작을 제어하도록 구성된 임의의 디바이스로서 구성될 수 있다. 도 14에 도시된 실시예에서, 제어 디바이스(18)는 태블릿 컴퓨터이지만, 원한다면, 랩탑 컴퓨터 등의 다른 형태의 컴퓨터가 이용될 수 있다. 제어 디바이스(18)는 디스플레이(90)를 포함할 수 있다. 디스플레이(90)는, 각각의 카메라(14, 16) 중 어느 하나로부터의 시야(78, 80), 및/또는 촬영 카메라(22)의 시야(82)의 이미지를 디스플레이하도록 구성될 수 있다. 한 실시예에서, 디스플레이(90)는 시야들(78, 80)의 중첩 부분, 및/또는 촬영 카메라(22)의 시야(82)의 중첩 부분을 디스플레이하도록 구성될 수 있다.
한 실시예에서, 제어 디바이스(18)는 시야들(78, 80, 84) 중 임의의 것의 중첩을 나타내는 표시자(92)를 생성하도록 구성될 수 있다. 도 14에 도시된 실시예에서, 예를 들어, 표시자(92)는 촬영 카메라(22) 시야(84)와 제1 시야(78)의 중첩을 나타낸다. 한 실시예에서, 제1 시야(78)와 제2 시야(80) 사이의 중첩, 및/또는 촬영 카메라(22) 시야(84)와 제2 시야(80) 사이의 중첩이 표시될 수 있다. 표시자(92)는 도 14에 도시된 바와 같이 디스플레이(90) 상의 박스의 형태를 취할 수 있지만, 다른 실시예에서는 원한다면 표시자의 다른 형태(92)가 이용될 수 있다.
제어 디바이스(18)는 사용자가 관심 영역(86)을 선택하도록 구성된 터치 스크린(94)을 포함할 수 있다. 사용자는, 관심 영역(86)을 디스플레이하는 시야들(78, 80, 84) 중 임의의 것으로부터의 이미지의 일부를 터치하여 원하는 관심 영역(86)을 선택할 수 있다. 사용자는 관심 영역의 이미지를 다시 터치함으로써 원하는 관심 영역(86)을 선택취소할 수 있다. 한 실시예에서, 제어 디바이스(18)는 시야들(78, 80, 84) 중 임의의 것 내의 안면 피쳐를 자동으로 식별하는 안면 인식 프로세스를 포함할 수 있다. 제어 디바이스(18)는, 이들 안면 피쳐들에 대응하는 관심 영역(86)을 자동으로 선택하도록 구성되거나, 이들 안면 피쳐들에 대응하는 관심 영역(86)을 사용자에게 제안하도록 구성될 수 있다. 한 실시예에서, 제어 디바이스(18)는 관심 영역(86)을 선택하는 대안적 방법을 이용할 수 있고, 예를 들어, 제어 디바이스(18)는 관심 영역(86)을 나타내는 데 이용되는 마커(marker)에 응답하도록 구성될 수 있다. 마커는 관심 영역(86)에 위치한 물리적 구조물이거나, 관심 영역(86)을 겨냥한 레이저 빔 등의 광 디바이스이거나, 또 다른 형태를 가질 수 있다.
제어 디바이스(18)는, 자동적으로 또는 사용자 선택에 기초하여, 복수의 관심 영역(86)을 선택할 수 있다. 제어 디바이스(18)가 터치 스크린(94)을 포함하는 실시예에서, 사용자는 시야들(78, 80, 84) 중 임의의 것으로부터의 이미지의 복수의 부분을 터치하여 관심 영역(86)을 선택할 수 있다. 한 실시예에서, 12개까지의 상이한 관심 영역들이 선택될 수 있다. 한 실시예에서, 더 많거나 더 적은 수의 관심 영역들이 선택될 수 있다.
제어 디바이스(18)는 선택된 관심 영역(86)을 나타내는 표시자(96)를 생성하도록 구성될 수 있다. 표시자(96)는 도 14에 도시된 바와 같이 디스플레이(90) 상의 박스의 형태를 취할 수 있지만, 다른 실시예에서는 원한다면 표시자의 다른 형태(96)가 이용될 수 있다. 선택된 복수의 관심 영역(86)을 표시하기 위해 추가적인 표시자들(98, 100)이 이용될 수 있다. 프로세서(77)가 단일의 또는 복수의 관심 영역(86)의 이동을 추적하는 실시예에서, 대응하는 표시자들(96, 98, 100)은 관심 영역(86)과 함께 이동할 수 있다.
제어 디바이스(18)는 프로세서(77)에 의해 계산된 거리를 디스플레이하도록 구성될 수 있다. 거리는 디스플레이(90) 상에 제공될 수 있다. 프로세서(77)가 거리의 실시간 계산을 제공하는 실시예에서, 제어 디바이스(18) 상에 디스플레이된 거리는 역시 실시간으로 업데이트될 수 있다. 복수의 거리가 디스플레이될 수 있으며, 각각은 복수의 관심 영역에 대응한다. 제어 디바이스(18)는 시야들(78, 80, 84)의 중첩 부분 바깥에 거리를 디스플레이할 수 있다. 예를 들어, 도 14에서, 촬영 카메라(22)의 시야(84)의 바깥에 있는 표시자(100)에 대해 거리가 도시되어 있다. 이 거리는, 촬영 카메라(22)의 시야(84)가 이 관심 영역을 커버하도록 움직인다면, 이 관심 영역까지의 거리가 이미 표시되도록 표시될 수 있다.
제어 디바이스(18)는, 카메라들(14, 16)의 속성 또는 촬영 카메라(22)의 속성의 입력을 수신하도록 구성될 수 있다. 속성은, 특히, 임의의 카메라의 초점 거리, 임의의 카메라의 시야, 카메라들(14, 16) 사이의 거리, 초점, 조리개, 및/또는 임의의 카메라의 줌, 및/또는 이용중인 카메라 또는 렌즈의 타입을 포함할 수 있다. 제어 디바이스(18)는 프로세서(77)가 상대 거리를 계산하는 기준 장소의 입력을 수신하도록 구성될 수 있다. 제어 디바이스(18)는 사용자가 이 데이터를 제어 디바이스(18)에 입력하도록 구성될 수 있다.
한 실시예에서, 제어 디바이스(18)는, 카메라들(14, 16)의 초점, 조리개 및/또는 줌을 포함한, 카메라들(14, 16)의 속성을 제어하도록 구성될 수 있다. 제어 디바이스(18)는, 사용자가 초점, 조리개 및/또는 줌을 포함한 속성들의 터치 스크린 제어를 갖도록 구성될 수 있다. 제어 디바이스(18)는 이들 속성들을 디스플레이하도록 구성될 수 있다.
제어 디바이스(18)는, 시스템(10)에 관한 정보를 제공하는 이미지들의 복수의 스크린을 디스플레이하도록 구성될 수 있다. 예를 들어, 도 14에 도시된 하나의 스크린은 카메라(14)로부터의 시야(78)의 비디오 이미지를 디스플레이할 수 있다. 제어 디바이스(18)는, 카메라들(14, 16)의 초점, 조리개, 및/또는 줌에 관한 정보를 제공하는 또 다른 스크린을 디스플레이할 수 있다. 제어 디바이스(18)는, 사용자가 제어 디바이스(18) 상에 디스플레이된 스크린을 변경할 수 있도록 구성될 수 있다.
한 실시예에서, 제어 디바이스(18)의 프로세스는 제어 디바이스(18)의 프로세서에 의해 동작되는 프로그램으로 구현될 수 있다. 프로그램은 비-일시적 머신 판독가능한 매체로 구현될 수 있다. 프로그램은 제어 디바이스(18)의 메모리에 저장될 수 있다. 프로그램은 제어 디바이스(18)에 의해 다운로드가능하도록 구성될 수 있다. 프로그램은 제어 디바이스(18)에 의해 동작되는 애플리케이션 또는 "앱(app)"일 수 있다. 예를 들어, 제어 디바이스(18)는 Apple에 의해 판매되는 iPad 또는 삼성에 의해 판매된 Galaxy 등의 태블릿 컴퓨터일 수 있고, 여기서 논의된 제어 디바이스(18)의 프로세스는 제어 디바이스(18) 상에 로딩될 수 있다. 프로그램은 제어 디바이스(18)의 프로세서가 여기서 논의된 프로세스들을 실행하게 할 수 있다.
한 실시예에서, 제어 디바이스(18)는 카메라 디바이스(12)의 하우징(30)에 결합될 수 있다. 한 실시예에서, 제어 디바이스(18)는 카메라 디바이스(12) 내에 통합될 수 있다. 예를 들어, 한 실시예에서, 카메라 디바이스(12) 내에 통합된 제어 디바이스(18)는 안면 피쳐들 또는 관심 영역의 다른 원하는 피쳐들을 자동적으로 검출하는 역할을 할 수 있다.
제어 디바이스(18)는, 무선으로 또는 유선 접속을 통해 카메라 디바이스(12)와 통신하도록 구성될 수 있다. 제어 디바이스(18)는, 관심 영역의 선택, 카메라들(14, 16)의 속성, 및/또는 촬영 카메라(22)의 속성을 카메라 디바이스(12) 또는 시스템(10)의 또 다른 요소에 출력할 수 있다. 제어 디바이스(18)는 또한, 카메라(14, 16)의 제어를 카메라 디바이스(12)에 출력할 수 있다. 제어 디바이스(18)는 제어 디바이스(18) 또는 시스템(10)의 다른 요소로부터 데이터를 수신할 수 있다.
한 실시예에서, 제어 디바이스(18)는 관심 영역 또는 시야 내의 복수의 관심 영역의 이동을 추적하는 데 있어서 프로세서(77)를 보조할 수 있다. 제어 디바이스(12)는 이동하는 동안 선택된 관심 영역의 위치에 관하여 프로세서(77)에게 데이터를 제공하도록 구성될 수 있다. 예를 들어, 제어 디바이스(18)에 의해 식별된 안면 인식 피쳐들은 관심 영역의 이동을 추적하는 데 있어서 프로세서(77)를 보조하기 위해 프로세서(77)에 제공될 수 있다.
제어 디바이스(18)는, 제어 디바이스(18)의 조작자가 카메라 디바이스(12)를 조작하는 동안 더욱 용이하게 움직이는 것을 허용하도록 경량이고 휴대가능하도록 구성될 수 있다.
다시 도 1을 참조하면, 시스템(10)은, 시스템(10)의 프로세서에 의해 계산된 관심 영역까지의 거리 또는 복수의 관심 영역까지의 거리를 디스플레이하도록 구성된 디스플레이 디바이스(20)를 포함할 수 있다. 디스플레이 디바이스(20)는 카메라 디바이스(12)에 접속되거나 카메라 디바이스(12)와 무선으로 통신하도록 구성될 수 있다. 카메라 디바이스(12)의 무선 통신 디바이스는 디스플레이 디바이스(20)와 통신하는 데 이용될 수 있다. 디스플레이 디바이스(20)는 시스템(10)의 기타 임의의 컴포넌트와 통신하는 무선 통신 디바이스를 포함할 수 있다.
도 15는 디스플레이 디바이스(20)의 확대도를 나타낸다. 디스플레이 디바이스(20)는 핸드헬드 디바이스로서 구성되거나, 관심 영역까지의 거리를 디스플레이하도록 구성된 임의의 디바이스로서 구성될 수 있다. 도 15에 도시된 실시예에서, 제어 디바이스(18)는 모바일 통신 디바이스이지만, 원한다면 다른 형태의 디바이스가 이용될 수도 있다. 제어 디바이스(18)는, iPhone, iPod 또는 다른 모바일 디바이스 등의 모바일 통신 디바이스일 수 있다. 디스플레이 디바이스(20)는 디스플레이(104)를 포함할 수 있다. 디스플레이(104)는 관심 영역까지의 거리를 디스플레이하도록 구성될 수 있다.
디스플레이 디바이스(20)는, 프로세서(77)에 의해 계산된 단일 거리 또는 복수의 거리를 디스플레이하도록 구성될 수 있다. 디스플레이 디바이스(20)는, 관심 영역 또는 영역들이 이동함에 따라 프로세서(77)가 실시간으로 거리를 계산할 때 거리 또는 거리들을 디스플레이하도록 구성될 수 있다. 도 15에 도시된 실시예에서, 복수의 디스플레이는 상이한 관심 영역들에 대해 계산된 거리를 보여준다. 거리는 1차 및 2차 관심 영역으로 구분할 수 있다. 거리는 수치 값으로서 보여질 수 있다. 한 실시예에서, 특히, 테이블, 차트 또는 다른 대표적인 다이어그램 등의, 또 다른 형태의 거리 표시자가 이용될 수 있다.
디스플레이 디바이스(20)는 경량이고 휴대가능하도록 구성될 수 있다. 한 실시예에서, 디스플레이 디바이스(20)는 카메라 디바이스(12) 내에 통합되도록 구성될 수 있다. 한 실시예에서, 디스플레이 디바이스(20)는 시스템(10)의 임의의 요소에 결합되도록 구성될 수 있다. 예를 들어, 도 16은 촬영 카메라(22)에 결합된 디스플레이 디바이스(106)의 한 실시예를 나타낸다. 관심 영역까지의 거리는 10피트인 것으로 디스플레이 디바이스의 우측 상에 표시된다.
다시 도 1을 참조하면, 시스템은, 프로세서(77)에 의해 계산된 거리, 또는 복수의 관심 영역까지의 거리들을 촬영 카메라(22)로부터의 이미지 상에 오버레이하기 위한, 오버레이 디바이스의 형태인 디스플레이 디바이스(24)를 포함할 수 있다. 디스플레이 디바이스(24)는 카메라 디바이스(12)에 접속되거나 카메라 디바이스(12)와 무선으로 통신하도록 구성될 수 있다. 카메라 디바이스(12)의 무선 통신 디바이스는 디스플레이 디바이스(24)와 통신하는 데 이용될 수 있다. 디스플레이 디바이스(24)는 시스템(10)의 기타 임의의 컴포넌트와 통신하는 무선 통신 디바이스를 포함할 수 있다.
도 17은, 하우징(110)의 뚜껑(108)이 하우징(110)의 나머지 부분으로부터 분리되어 있고 디스플레이 디바이스(24)의 다른 컴포넌트들이 분리되어 있는, 디스플레이 디바이스(24)의 확대도를 나타낸다. 디스플레이 디바이스(24)는 디스플레이 디바이스(24)를 동작시키기 위한 전력을 수신하는 전원 커넥터(112)를 포함할 수 있다. 디스플레이 디바이스(24)는, 촬영 카메라(22)로부터의 이미지들을 포함한, 시스템(10)의 요소들로부터의 케이블링된 데이터를 수신하기 위한 데이터 커넥터(114)를 포함할 수 있다. 디스플레이 디바이스(24)는 입력 디바이스를 포함할 수 있고, 출력 디바이스를 포함할 수 있다. 도 17에 도시된 실시예에서, 입력 디바이스 및 출력 디바이스는 안테나(116) 형태의 무선 통신 디바이스이다. 한 실시예에서, 입력 디바이스 및 출력 디바이스는 커넥터(114) 등의 커넥터를 포함할 수 있다. 한 실시예에서, 입력 디바이스 및 출력 디바이스는 상이한 구조들을 포함할 수 있다.
디스플레이 디바이스(24)는 오버레이 프로세서 카드(118)를 포함할 수 있다. 프로세서 카드(118)는, 프로세서(77)로부터 계산된 거리를 다른 카메라들로부터의 다른 이미지 상에 오버레이하도록 구성된 프로세서(120)를 포함할 수 있다. 프로세서(120)는 카메라 디바이스(12)로부터 거리 데이터를 수신하고, 예를 들어, 촬영 카메라(22)로부터 이미지를 수신하고 거리 데이터를 이미지에 정합시킬 수 있다. 도 1을 참조하면, 디스플레이 디바이스(24)는 선택된 관심 영역(86)을 나타내는 표시자를 생성할 수 있다. 표시자는 도 1에 도시된 바와 같이 박스의 형태를 취할 수 있지만, 다른 실시예에서는 원한다면 다른 형태의 표시자가 이용될 수 있다. 프로세서(77)가 단일의 또는 복수의 관심 영역(86)의 이동을 추적하는 실시예에서, 대응하는 표시자들은 관심 영역(86)과 함께 이동할 수 있다.
디스플레이 디바이스(24)는 프로세서(77)에 의해 계산된 거리 또는 거리들을 또 다른 디스플레이 디바이스(28) 상에 디스플레이할 수 있다. 거리는 디스플레이 디바이스(28)의 디스플레이 상에 제공될 수 있다. 프로세서(77)가 거리의 실시간 계산을 제공하는 실시예에서, 디스플레이 디바이스(28) 상에 디스플레이된 거리는 역시 실시간으로 업데이트될 수 있다. 복수의 거리가 디스플레이될 수 있으며, 각각은 복수의 관심 영역에 대응한다. 디스플레이 디바이스(24)는 촬영 카메라(22)의 시야 내의 이미지만을 디스플레이하도록 구성될 수 있다. 도 1에 도시된 바와 같이, 디스플레이 디바이스(28) 상의 이미지는 도 14에 도시된 표시자(92) 내에 도시된 이미지와 정합된다.
디스플레이 디바이스(24)는 경량이고 휴대가능하도록 구성될 수 있다. 도 18 및 도 19는, 디스플레이 디바이스(24)의 길이가 약 7.37 인치이고, 하우징(110)의 길이가 약 6.75 인치일 수 있다는 것을 나타낸다. 폭은 약 4.75 인치일 수 있다. 도 19에 도시된 높이는 대략 1.35 인치일 수 있다. 도 18 및 도 19에 도시된 치수는 예시적인 것인데, 그 이유는, 약 5 내지 10 인치의 총 길이, 약 2 내지 7 인치의 폭, 및 약 1 내지 3 인치의 높이를 포함하는 다양한 치수가 이용될 수 있기 때문이다. 한 실시예에서, 여기에 언급된 것들과는 상이한 치수들이 이용될 수 있다.
여기서 논의된 임의의 디스플레이 디바이스는, 카메라의 제조, 줌, 조리개, 및 초점 등의, 카메라 디바이스(12)의 카메라(14, 16) 및/또는 촬영 카메라(22)와 연관된 데이터를 디스플레이할 수 있다.
다시 도 1을 참조하면, 시스템은 카메라들(14, 16)의 동작을 제어하도록 구성된 카메라 제어기(26)를 포함할 수 있다. 카메라 제어기(26)는, 조리개, 초점 및/또는 줌 등의 렌즈 제어를 포함한, 카메라들(14, 16)의 피쳐를 작동시키도록 구성될 수 있다. 카메라 제어기(26)는, 카메라들(14, 16)의 피쳐들이 유사하도록 양쪽 카메라(14, 16)를 동시에 작동시키도록 구성될 수 있다. 한 실시예에서, 카메라 제어기(26)는 제어 디바이스(18)를 통해 작동될 수 있다.
한 실시예에서, 카메라 제어기(26)는 촬영 카메라(22) 및/또는 카메라(14, 16)를 제어하도록 구성될 수 있다. 카메라 제어기(26)는, 촬영 카메라(22)의 이들 피쳐들이 카메라들(14, 16)의 피쳐들과 정합하도록, 조리개, 초점, 및/또는 줌 등의 렌즈 제어를 포함한 촬영 카메라(22)의 피쳐들을 작동하도록 구성될 수 있다. 한 실시예에서, 카메라 제어기(26)는, 카메라 디바이스(12)에 의해 제공된 거리 측정치에 기초하여 촬영 카메라(22)의 초점을 자동으로 조정하도록 구성될 수 있다.
카메라 제어기(26)는 카메라 디바이스(12)에 접속되거나, 카메라 디바이스(12)와 무선으로 통신하도록 구성될 수 있다. 카메라 디바이스(12)의 무선 통신 디바이스는 카메라 제어기(26)와 통신하는 데 이용될 수 있다. 카메라 제어기(26)는 시스템(10)의 기타 임의의 컴포넌트와 통신하는 무선 통신 디바이스를 포함할 수 있다. 카메라 제어기(26)는 촬영 카메라(22)에 대한 유선 또는 무선 연결을 포함할 수 있다.
한 실시예에서, 카메라 제어기(26)는 모터 구동기일 수 있다. 모터 구동기는 Preston MDR 또는 다른 종류의 모터 구동기일 수 있다.
시스템(10)은, 카메라들(14, 16)의 시야와 중첩하는 시야에서 이미지를 생성하도록 구성된 촬영 카메라(22)를 포함할 수 있다. 이미지는 정지 이미지이거나 비디오 이미지일 수 있다. 촬영 카메라(22)는 통상적으로 텔레비전 또는 동영상을 촬영하는 데 이용되는 스타일일 수 있고, 디지털 또는 필름 카메라일 수 있다. 촬영 카메라(22)는 HD 이미지를 출력하도록 구성될 수 있다. 촬영 카메라로는, 특히, Arri Alexa, Red Epic, Sony F55, Sony F65, Genesis 및 Panavision 필름 카메라가 포함될 수 있지만 이것으로 제한되지 않는다.
한 실시예에서, 촬영 카메라(22)는 카메라 디바이스(12)에 대해 정의된 배향으로 이용될 수 있다. 예를 들어, 촬영 카메라(22)는, 촬영 카메라(22)의 렌즈가 카메라들(14, 16) 중 하나 또는 양쪽 모두의 각각의 축(34, 36)에 실질적으로 평행하게 배향되도록 배향될 수 있다. 촬영 카메라(22)는 도 3의 페이지 밖으로 연장되는 실질적으로 유사한 수평 또는 x-차원의 평면(38)에서 정렬되는 카메라들(14, 16) 중 하나 또는 양쪽 모두와 실질적으로 동평면 상에 배향될 수 있다. 촬영 카메라(22)의 카메라 센서는, 도 3의 페이지 밖으로 연장되는 실질적으로 유사한 수직 또는 y-차원의 평면(44)에서 정렬된 카메라들(14, 16) 중 하나 또는 양쪽 모두의 센서와 실질적으로 동평면 상에 배향될 수 있다. 촬영 카메라(22)는 한쪽 또는 양쪽 카메라(14, 16)와 동일한 방향으로 향하도록 배향될 수 있다. 한 실시예에서, 촬영 카메라(22)는 도 7에 도시된 방식으로 배향될 수 있고, 촬영 카메라(22)는 2개의 카메라(14, 16) 사이에 위치한다. 촬영 카메라(22)의 시야(84)는 중앙에 위치할 수 있고 카메라들(14, 16)의 각각의 시야(78, 80)와 중첩될 수 있다.
촬영 카메라(22)는 카메라 디바이스(12)에 결합되어 카메라 디바이스(12)에 대한 촬영 카메라(22)의 원하는 배향을 유지할 수 있다. 한 실시예에서, 촬영 카메라(22)는 카메라 디바이스(12)로부터 분리될 수 있다. 여기서 논의된 디스플레이 디바이스들(20, 24, 28, 106) 중 임의의 것 또는 제어 디바이스(18)는 원한다면 촬영 카메라(22)에 결합될 수 있다.
시스템(10) 및/또는 시스템의 디바이스들에 의해 수행되는 거리의 계산은 촬영 카메라(22)의 초점을 설정하는 데 이용될 수 있다. 촬영하는 동안, 촬영 카메라(22)의 초점을 이들 영역들에 효율적으로 설정하는 방법을 결정하기 위해 관심 영역들까지의 거리를 용이하게 확인하는 것이 적절하다. 여기서 논의된 시스템, 디바이스, 및 프로세스는, 거리를 용이하게 확인하는 능력을 향상시키고, 따라서 촬영 카메라(22)의 초점을 설정하는 능력을 향상시킨다. 한 실시예에서, 촬영 카메라(22)의 초점은, 카메라 디바이스(12)에 의해 제공된 거리 계산에 기초하여, 사용자에 의해 설정될 수 있다. 사용자는, 디스플레이 디바이스들 중 하나 또는 제어 디바이스 또는 시스템(10)과 연관된 또 다른 디바이스로부터의 출력을 검토함으로써 거리 계산을 결정할 수 있다. 예를 들어, 사용자는, 계산된 거리와 촬영 카메라(22)로부터의 이미지의 오버레이를 보여주는 디스플레이 디바이스(28) 상에서 거리를 볼 수 있다. 사용자는 카메라 보조수 등의 개인일 수 있다. 한 실시예에서, 촬영 카메라(22)의 초점은, 카메라 디바이스(12)에 의해 제공된 거리 계산에 기초하여 자동으로 설정될 수 있다. 예를 들어, 카메라 제어기(26), 또는 시스템(10)의 다른 디바이스는 초점을 자동으로 조정할 수 있다.
여기서 논의된 시스템(10), 디바이스들 및 프로세스들의 추가적인 이점은, 안면 인식을 포함한, 관심 영역들을 그들의 외관에 기초하여 선택하는 능력을 포함한다. 추가적 혜택으로는, 관심 영역 또는 관심 영역들이 이동할 때 그들의 위치를 추적하는 능력이 포함된다. 추가적인 혜택으로는, 이동 동안에 발생할 수 있는, 관심 영역 또는 영역들까지의 거리의 실시간 계산이 포함된다.
여기에 논의된 시스템(10), 디바이스들, 및 프로세스들은, 음향 또는 적외선 측정 디바이스들의 이용을 포함한, 거리를 결정하는 종래의 방법에 비해 현저한 개선을 나타낸다.
시스템(10)의 요소들은, 유익하게도 보통의 카메라 시스템의 일부로서 나타나, 시스템의 이용 용이성 및 시장성을 향상시킨다. 예를 들어, 카메라 디바이스(12), 제어 디바이스(18), 및/또는 디스플레이 디바이스는 촬영 카메라(22)에 결합되어 이용되는 부품의 총 수를 감소시킬 수 있다. 시스템(10)의 요소들은 휴대 가능하고 바람직하게는 경량으로 제작될 수 있다. 한 실시예에서, 카메라 디바이스(12)는 약 4 파운드 미만의 무게를 가질 수 있다. 한 실시예에서, 디스플레이 디바이스(24)는 2 파운드 미만의 무게를 가질 수 있다.
시스템(10)은 약 1 피트 내지 45 피트의 거리에서 작동할 수 있지만, 추가적인 범위도 역시 이용될 수도 있다. 시스템(10)은 유익하게는 촬영 카메라(22)의 피사계 심도(depth-of-field)의 정확도를 갖는 거리에서 작동할 수 있다. 시스템(10)은, 약 10 lux 내지 25,000 lux의, 매우 어두운 조명과 밝은 조명 사이의 휘도 레벨에서 작동할 수 있다. 다른 휘도 레벨도 역시 이용될 수 있다.
도 20은 카메라 디바이스(12)와 디스플레이 디바이스(24)의 하드웨어 구성의 한 실시예를 나타낸다. 다른 실시예들에서는 다른 하드웨어 구성이 이용될 수도 있다. 카메라 디바이스(12)는 프로세서 카드(76)를 이용할 수 있다. 한 실시예에서, 프로세서 카드(76)는, 최대 2 기가바이트의 내부 메모리, 및 최대 16 기가바이트의 플래시 메모리를 포함할 수 있다. 다른 실시예들에서, 다른 형태의 프로세서 카드(76)가 이용될 수 있다. 한 실시예에서, 인터페이스 디바이스(72)는 PCT USB3 카드의 형태일 수 있다. 다른 실시예들에서, 다른 형태의 인터페이스 디바이스가 이용될 수 있다. 디스플레이 디바이스(24)는 오버레이 프로세서 카드(118)를 이용할 수 있다. 한 실시예에서, 오버레이 프로세서 카드(76)는 HD-SDI 입력 및 HD-SDI 출력을 포함할 수 있다. 다른 실시예들에서, 다른 형태의 프로세서 카드(76)가 이용될 수 있다. 디스플레이 디바이스(24)는 무선 통신 카드(122) 및 전원(124)을 포함할 수 있다.
한 실시예에서, 카메라들(14, 16)은, 비닝(binning), 윈도잉(windowing) 및 고속 판독을 위해 구성될 수 있다. 카메라들(14, 16)은 5 메가-픽셀까지의 이미지 센서를 포함할 수 있다. 카메라들(14, 16)은 원하는 해상도에 따라 초당 최대 33개의 이미지, 또는 초당 최대 15개의 이미지를 생성하도록 구성될 수 있다. 다른 실시예에서, 카메라들(14, 16)의 피쳐들은 원한다면 변경될 수 있다.
도 21은 시스템(10)의 요소들 사이의 유선 접속의 한 실시예를 나타낸다. 케이블은 유선 접속을 수행하는 데 이용될 수 있다. 이미지 데이터를 전송하기 위한 케이블은 HD-SDI 케이블의 형태일 수 있지만, 원한다면 다른 형태의 케이블이 이용될 수 있다. 전원 케이블은 배터리 팩(126)으로부터 전력을 공급할 수 있지만, 원한다면 다른 형태의 전원이 이용될 수 있다.
도 22는 관심 영역까지의 거리를 결정하기 위한 프로세스 맵의 한 실시예를 나타낸다. 프로세스(128)는 하나 이상의 관심 영역의 선택과 함께 발생할 수 있다. 프로세스(128)는 제어 디바이스(18)의 이용을 통해 발생할 수 있다. 프로세스(128)는, 안면 피쳐 검출, 또는 추적 마크의 검출의 프로세스를 포함할 수 있다. 프로세스(130)는 카메라 디바이스(12)의 이용을 통해 발생할 수 있다. 카메라 디바이스(12)는 제1 시야 내의 선택된 관심 영역 또는 영역들은 제2 시야와 정합시킬 수 있다. 카메라 디바이스(12)는 불일치 계산을 수행할 수 있다. 프로세스(132)는, 시스템(10) 또는 카메라 디바이스(12)의 카메라들의 파라미터들이 카메라 디바이스(12)에 입력되는 것을 통해 발생할 수 있다. 이러한 파라미터들은, 카메라 베이스라인, 카메라 초점 거리, 및 여기에 기초한 다른 피쳐들 등의, 피쳐들을 포함할 수 있다. 프로세스(134)는, 카메라 디바이스(12)가 불일치 계산 및 프로세스(132)에서 입력된 파라미터에 기초하여 관심 영역 또는 관심 영역들까지의 거리 또는 거리들을 계산하는 것을 통해 발생할 수 있다. 프로세스(136)는, 제어 디바이스(18) 또는 디스플레이 디바이스(24)가 카메라들(12, 14 또는 22) 중 하나로부터의 이미지 상에 거리를 오버레이하는 것을 통해 발생할 수 있다. 도 22의 프로세스는 단계들을 포함하거나 배제하도록 수정될 수 있으며, 여기서 논의된 임의의 프로세스를 포함할 수 있다.
도 23은 카메라 제어기(26)에 및 카메라 제어기(26)로부터 데이터를 전송하는 프로세스의 한 실시예를 나타낸다. 시스템(10)의 요소는 카메라 제어기(26)에게 초점, 줌, 및/또는 조리개 데이터를 요청할 수 있다. 이 데이터는 카메라 디바이스(12) 및/또는 촬영 카메라(22)의 상태를 나타낼 수 있다. 도 23에 도시된 프로세스는 원한다면 수정되거나 배제될 수 있다. 도 24는 거리 데이터를 카메라 제어기(26)에 전송하는 프로세스의 한 실시예를 나타낸다. 도 23에 도시된 프로세스는 원한다면 수정되거나 배제될 수 있다.
여기서 개시된 실시예들은 다음과 같은 프로세스를 포함할 수 있다. 여기서 개시된 추가적인 프로세스들은 이하에 열거된 단계들 내에 병합될 수 있다 :
카메라의 초점을 조정하는 방법은 : 제어 디바이스로, 제1 카메라의 제1 시야에서 관심 영역을 선택하는 단계; 상기 제1 시야 내의 상기 선택된 관심 영역의 위치를, 제2 카메라의 제2 시야 내의 상기 선택된 관심 영역의 위치와 비교함으로써 소정 장소에 대한 상기 선택된 관심 영역의 거리를 계산 ―상기 제2 시야는 상기 제1 시야의 적어도 일부와 중첩함― 하는 단계; 및 상기 프로세서에 의해 계산된 거리에 기초하여 상기 선택된 관심 영역 상에서 제3 카메라의 초점을 조정하는 단계를 포함할 수 있다.
이 방법은, 제어 디바이스가 상기 제1 카메라에 의해 생성된 상기 제1 시야의 이미지를 디스플레이하도록 구성된 터치 스크린을 포함한다는 사항을 포함할 수 있고, 상기 관심 영역은 사용자가 상기 이미지 내의 관심 영역을 디스플레이하는 상기 터치 스크린의 일부를 터치함으로써 선택된다.
이 방법은, 상기 제1 카메라와 상기 제2 카메라 각각이 서로 소정 거리에서 상기 제1 카메라와 상기 제2 카메라를 유지하는 하우징에 결합된다는 사항을 포함할 수 있다.
이 방법은, 상기 제1 카메라와 상기 제2 카메라 사이의 거리에 기초하여 상기 장소에 대한 상기 선택된 관심 영역의 거리를 계산하는 단계를 더 포함하는 계산 단계를 포함할 수 있다.
이 방법은, 상기 제3 카메라에 의해 생성된 이미지의 오버레이 상에 상기 프로세서에 의해 계산된 거리를 디스플레이 단계를 더 포함할 수 있다.
이 방법은, 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 제1 시야에서 상기 선택된 관심 영역의 위치를 상기 프로세서로 추적하는 단계를 더 포함할 수 있다.
이 방법은, 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 장소에 대한 상기 선택된 관심 영역의 거리를 실시간으로 계산하는 단계를 더 포함하는 계산 단계를 포함할 수 있다.
이 방법은, 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 프로세서에 의해 계산된 거리를 실시간으로 디스플레이 단계를 더 포함할 수 있다.
이 방법은, 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 프로세서에 의해 계산된 거리를 상기 제3 카메라에 의해 생성된 이미지 상에 실시간으로 오버레이하는 단계를 더 포함하는 디스플레이 단계를 포함할 수 있다.
이 방법은, 상기 제3 카메라에 의해 생성된 이미지가 이동하는 상기 선택된 관심 영역을 디스플레이하는 비디오 이미지라는 사항을 포함할 수 있다.
여기서 개시된 실시예들은 다음과 같은 장치를 포함할 수 있다. 여기서 개시된 추가적인 피쳐들은 이하에 열거된 장치 내에 병합될 수 있다 :
하우징; 상기 하우징에 결합되고 제1 시야를 갖도록 배향된 제1 카메라; 상기 하우징에 결합되고 상기 제1 시야의 적어도 일부와 중첩되는 제2 시야를 갖도록 배향된 제2 카메라; 및 상기 하우징에 결합되고, 상기 제1 시야 내의 상기 선택된 관심 영역의 위치와 상기 제2 시야 내의 상기 선택된 관심 영역의 위치를 비교함으로써 소정 장소에 대한 상기 선택된 관심 영역의 거리를 계산하도록 구성된 프로세서를 포함하는 관심 영역까지의 거리를 결정하기 위한 장치.
이 장치는, 상기 제1 카메라가 제1 종축을 따라 정렬되고 상기 제2 카메라가 제1 종축에 실질적으로 평행한 제2 종축을 따라 정렬되도록 구성될 수 있다.
이 장치는, 상기 제1 카메라가 제1 이미지 센서를 갖고 상기 제2 카메라가 제2 이미지 센서를 가지며, 상기 제1 이미지 센서는 상기 제2 이미지 센서와는 실질적으로 동평면 상에 배치되도록 구성될 수 있다.
이 장치는, 상기 제1 카메라가 약 12 밀리미터 내지 16 밀리미터(양 끝점 포함)의 초점 거리를 갖고, 제2 카메라가 약 12 밀리미터 내지 16 밀리미터(양 끝점 포함)의 초점 거리를 갖도록 구성될 수 있다.
이 장치는, 상기 제1 시야가 수평 차원 및 수직 차원을 포함하고, 상기 제2 시야가 수평 차원 및 수직 차원을 포함하며; 상기 프로세서는 또한, 상기 제1 시야의 상기 수평 차원에서의 상기 선택된 관심 영역의 위치와 상기 제2 시야의 상기 수평 차원에서의 상기 선택된 관심 영역의 위치를 비교함으로써 상기 소정 장소에 대한 상기 선택된 관심 영역의 거리를 계산하도록 구성되도록 구성될 수 있다.
이 장치는, 상기 프로세서가 또한 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 제1 시야에서 상기 선택된 관심 영역의 위치를 추적하도록 구성되게끔 구성될 수 있다.
이 장치는, 상기 프로세서가 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 장소에 대한 상기 선택된 관심 영역의 거리를 실시간으로 계산하게끔 구성되도록 구성될 수 있다.
이 장치는, 상기 하우징에 결합되고 상기 선택된 관심 영역을 나타내는 데이터를 수신하도록 구성된 입력 디바이스를 더 포함할 수 있다.
이 장치는, 상기 입력 디바이스가 무선 통신 디바이스이도록 구성될 수 있다.
이 장치는, 상기 하우징에 결합되고 상기 프로세서에 의해 계산된 거리를 나타내는 데이터를 출력하도록 구성된 출력 디바이스를 더 포함할 수 있다.
결론적으로, 특정 실시예를 참조하여 본 명세서의 양태들이 강조되었지만, 본 기술분야의 통상의 기술자라면 이들 개시된 실시예들은 여기서 개시된 주제의 원리를 예시하기 위한 것일 뿐이라는 것을 용이하게 이해할 것이다. 따라서, 개시된 주제는 여기서 설명된 특정한 방법론, 프로토콜, 및/또는 시약 등에 결코 제한되는 것은 아님을 이해해야 한다. 따라서, 본 명세서의 사상을 벗어나지 않고 여기서의 교시에 따라 개시된 주제에 대한 다양한 수정이나 변경 또는 그 대안적 구성이 이루어질 수 있다. 마지막으로, 여기서 사용된 용어는 특정한 실시예를 설명하기 위한 목적이며, 청구항들에 의해서만 정의되는 여기서 개시된 시스템, 장치, 및 방법의 범위를 제한하고자 하는 것은 아니다. 따라서, 시스템, 장치, 및 방법들은 여기서 도시되고 설명된 정확히 그대로로 제한되는 것은 아니다.
시스템, 장치, 및 방법의 소정 실시예들이, 이를 실행하기 위해 발명자들에게 알려진 최상의 모드를 포함하여, 여기서 설명되었다. 물론, 이들 설명된 실시예들에 관한 변형은, 상기 설명을 읽은 본 기술분야의 통상의 기술자에게 명백할 것이다. 발명자는, 통상의 기술자가 적절하다면 이러한 변형을 채택할 것으로 예상하며, 발명자는, 이들 시스템, 장치, 및 방법들이 여기서 구체적으로 설명된 것과는 다른 방식으로 실시될 수 있고자 한다. 따라서, 이 시스템, 장치, 및 방법들은 적용가능한 법률에 의해 허용되는 바와 같이 본 명세서에 첨부된 청구항들에 기재된 본 주제의 모든 수정 및 균등물을 포함한다. 더욱이, 본 명세서에서 달리 표시되거나 문맥상 명확히 상충되지 않는 한, 모든 가능한 변형의 전술된 시스템, 장치 및 방법들의 임의의 조합은 전술된 시스템, 장치, 및 방법들에 의해 포괄된다.
이 시스템, 장치, 및 방법들의 대안적인 실시예들, 요소들, 또는 단계들의 그룹화는 제한으로 해석되어서는 안 된다. 각각의 그룹 멤버는, 개별적으로, 또는 여기서 개시된 다른 그룹 멤버들과의 임의의 조합으로, 참조되고 청구될 수 있다. 그룹 내의 하나 이상의 멤버는 편의상 및/또는 특허성의 이유로 그룹에 포함되거나 그룹으로부터 삭제될 수 있는 것으로 예상된다. 임의의 이러한 포함 또는 삭제가 발생하는 경우, 본 명세서는 수정된 그룹을 포함하는 것으로 간주되며, 따라서 첨부된 청구항에 이용된 모든 Markush 그룹의 서면 기재를 이행한다.
본 명세서 및 청구항들에서 사용된 특성, 항목, 양, 파라미터, 속성, 용어 등을 나타내는 모든 숫자는 모든 경우에서 "약"이라는 용어로 수정되는 것으로 이해되어야 한다. 여기서 사용되는 바와 같이, 용어 "약"은, 그러한 특성, 항목, 양, 파라미터, 속성, 또는 용어가 변동될 수 있는 근사치를 포괄하는 것을 의미한다. 용어 "근사적[으로]" 및 "실질적[으로]"는, 언급된 양으로부터 변동될 수 있지만 여전히 여기서 논의된 원하는 동작이나 프로세스를 수행할 수 있는 양을 나타낸다.
시스템, 장치, 및 방법들을 설명하는 정황에서(특히, 첨부된 청구항들의 정황에서) 사용된 용어 "한(a)" 및 "하나(an)" 및 "상기 하나(the)" 및 유사한 지시대상물은, 여기서 달리 표시하거나 문맥상 명확하게 상충되지 않는 한, 단수 및 복수 모두를 포괄하는 것으로 해석되어야 한다. 여기서의 모든 방법은 여기서 달리 명시하지 않는 한 또는 문맥상 명확하게 상충되지 않는 한 임의의 적절한 순서로 수행될 수 있다. 여기서 제공된 임의의 예 및 모든 예들, 또는 예시적인 용어(예를 들어, "~등의")의 사용은 단지 시스템, 장치, 및 방법들을 더 명료하게 나타내기 위한 것일 뿐이며, 청구되는 시스템, 장치, 및 방법들의 범위에 제약을 부과하는 것은 아니다. 본 명세서의 어떠한 용어도, 시스템, 장치, 및 방법들의 실시에 대해 필수적인 임의의 청구되지 않은 요소를 가리키는 것으로 해석되어서는 안 된다.
본 명세서에서 참조되고 식별된 모든 특허, 특허 공보, 및 기타의 문헌은, 예를 들어, 시스템, 장치, 및 방법들과 연계하여 이용될 수도 있는 이러한 문헌들에서 설명된 조성물 및 방법론을 기술하고 개시하기 위한 목적으로, 본 명세서에 참조에 의해 개별적으로 및 명시적으로 포함된다. 이들 문헌들은 본 출원의 출원일 이전의 그들의 공개만을 목적으로 제공되는 것이다. 이 점에 있어서, 이전의 발명이나 기타 임의의 사유로 발명자들이 본 출원이 이러한 공개물들보다 날짜가 늦다고 인정하는 것으로 해석되어서는 안 된다. 본 문서의 내용에 대한 날짜 또는 표현에 관한 모든 진술은 출원인이 이용할 수 있는 정보에 기초한 것이며, 이들 문서들의 날짜 또는 내용의 정확성에 대한 어떠한 인정을 구성하지는 않는다.

Claims (14)

  1. 관심 영역까지의 거리를 결정하기 위한 시스템으로서,
    제1 시야를 갖도록 구성된 제1 카메라;
    상기 제1 시야의 적어도 일부와 중첩되는 제2 시야를 갖도록 구성된 제2 카메라;
    사용자가 상기 제2 시야와 중첩하는 상기 제1 시야의 적어도 일부에서 관심 영역을 선택하는 것을 허용하도록 구성된 제어 디바이스;
    상기 제1 시야 내의 상기 선택된 관심 영역의 위치를 상기 제2 시야 내의 상기 선택된 관심 영역의 위치와 비교함으로써 한 장소에 대한 상기 선택된 관심 영역의 거리를 계산하도록 구성된 프로세서; 및
    상기 프로세서에 의해 계산된 상기 거리의 디스플레이를 생성하도록 구성된 디스플레이 디바이스
    를 포함하는 시스템.
  2. 제1항에 있어서, 상기 제1 카메라와 상기 제2 카메라를 서로로부터의 소정의 거리에서 유지하는 하우징을 더 포함하는 시스템.
  3. 제2항에 있어서, 상기 프로세서는 상기 제1 카메라와 상기 제2 카메라 사이의 상기 거리에 기초하여 상기 선택된 관심 영역의 거리를 계산하도록 구성된, 시스템.
  4. 제2항에 있어서, 상기 하우징은, 상기 제2 시야가 상기 제1 시야의 적어도 일부와 중첩하게 하는 배향으로 상기 제1 카메라와 상기 제2 카메라를 유지하는, 시스템.
  5. 제1항에 있어서, 상기 디스플레이 디바이스는 상기 프로세서에 의해 계산된 거리를 제3 카메라에 의해 생성된 이미지 상에 오버레이하도록 구성된 오버레이 디바이스(overlay device)를 포함하는, 시스템.
  6. 제5항에 있어서, 상기 이미지는 비디오 이미지를 포함하는, 시스템.
  7. 제1항에 있어서,
    상기 제1 시야는 수평 차원 및 수직 차원을 포함하고, 상기 제2 시야는 수평 차원 및 수직 차원을 포함하며;
    상기 프로세서는 또한, 상기 제1 시야의 상기 수평 차원에서의 상기 선택된 관심 영역의 위치를 상기 제2 시야의 상기 수평 차원에서의 상기 선택된 관심 영역의 위치와 비교함으로써 상기 장소에 대한 상기 선택된 관심 영역의 거리를 계산하도록 구성된, 시스템.
  8. 제1항에 있어서, 상기 프로세서는 또한, 상기 제1 시야 내의 상기 선택된 관심 영역의 외관을 상기 제2 시야 내의 상기 선택된 관심 영역의 외관과 상관시키는 알고리즘을 이용함으로써 상기 제2 시야 내의 상기 선택된 관심 영역의 위치를 식별하도록 구성된, 시스템.
  9. 제1항에 있어서, 상기 프로세서는 또한, 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 제1 시야 내의 상기 선택된 관심 영역의 위치를 추적하도록 구성된, 시스템.
  10. 제9항에 있어서, 상기 프로세서는 또한, 상기 제1 시야 내의 상기 선택된 관심 영역의 외관을 상기 제2 시야 내의 상기 선택된 관심 영역의 외관과 상관시키는 알고리즘을 이용함으로써 상기 제2 시야 내의 상기 선택된 관심 영역의 위치를 추적하도록 구성된, 시스템.
  11. 제10항에 있어서, 상기 프로세서는, 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 장소에 대한 상기 선택된 관심 영역의 거리를 실시간으로 계산하도록 구성된, 시스템.
  12. 제11항에 있어서, 상기 디스플레이 디바이스는, 상기 선택된 관심 영역이 상기 제1 시야에서 이동하는 동안 상기 프로세서에 의해 계산된 거리를 제3 카메라에 의해 생성된 이미지 상에 실시간으로 오버레이하도록 구성된 오버레이 디바이스를 포함하는, 시스템.
  13. 제1항에 있어서,
    상기 제어 디바이스는, 사용자가 상기 제2 시야와 중첩하는 상기 제1 시야의 적어도 일부에서 복수의 관심 영역을 선택하는 것을 허용하도록 구성되고;
    상기 프로세서는, 상기 제1 시야 내의 상기 복수의 선택된 관심 영역들 중 각각의 관심 영역의 위치를 상기 제2 시야 내의 상기 복수의 선택된 관심 영역들 중 대응하는 관심 영역의 위치와 비교함으로써 한 장소에 대한 상기 복수의 선택된 관심 영역들 중 각각의 관심 영역의 거리를 계산하도록 구성되며;
    상기 디스플레이 디바이스는 상기 복수의 선택된 관심 영역들 중 각각의 관심 영역에 대해 상기 프로세서에 의해 계산된 거리의 디스플레이를 생성하도록 구성된, 시스템.
  14. 제1항에 있어서, 상기 제어 디바이스는 상기 제1 카메라에 의해 생성된 상기 제1 시야의 이미지를 디스플레이하도록 구성된 터치 스크린을 포함하고, 상기 사용자가 상기 이미지 내의 상기 관심 영역을 디스플레이하는 상기 터치 스크린의 일부를 터치함으로써 상기 관심 영역을 선택하는 것을 허용하도록 구성된, 시스템.
KR1020177011047A 2014-09-24 2015-09-23 동영상 카메라 초점 응용을 위한 거리 측정 디바이스 KR102391828B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/495,862 2014-09-24
US14/495,862 US9609200B2 (en) 2014-09-24 2014-09-24 Distance measurement device for motion picture camera focus applications
PCT/US2015/051598 WO2016049113A1 (en) 2014-09-24 2015-09-23 Distance measurement device for motion picture camera focus applications

Publications (2)

Publication Number Publication Date
KR20170086476A true KR20170086476A (ko) 2017-07-26
KR102391828B1 KR102391828B1 (ko) 2022-04-27

Family

ID=54252427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177011047A KR102391828B1 (ko) 2014-09-24 2015-09-23 동영상 카메라 초점 응용을 위한 거리 측정 디바이스

Country Status (9)

Country Link
US (3) US9609200B2 (ko)
EP (2) EP3198864A1 (ko)
JP (2) JP2017535755A (ko)
KR (1) KR102391828B1 (ko)
CN (1) CN107209943B (ko)
AU (1) AU2015320751B2 (ko)
CA (1) CA2962065C (ko)
NZ (1) NZ730031A (ko)
WO (1) WO2016049113A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609200B2 (en) 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
KR102636272B1 (ko) 2016-07-26 2024-02-14 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템
WO2019094003A1 (en) * 2017-11-08 2019-05-16 Hewlett-Packard Development Company, L.P. Determining locations of electro-optical pens
TWI650530B (zh) * 2018-01-22 2019-02-11 國立臺灣科技大學 檢測系統及其方法
US10739552B2 (en) * 2018-02-21 2020-08-11 Panavision International, L.P. Internally slotted cam for lens system
CN111669493B (zh) * 2018-03-26 2021-04-09 华为技术有限公司 一种拍摄方法、装置与设备
AT521845B1 (de) * 2018-09-26 2021-05-15 Waits Martin Verfahren zur Fokuseinstellung einer Filmkamera
DE102019003510B4 (de) * 2019-05-20 2023-02-23 Florian Maier Verfahren und Vorrichtung zur Steuerung von Motoren im Film- und Broadcastbereich
CN112815911B (zh) * 2020-12-30 2022-01-04 河海大学 基于三目视觉的输电线路交跨距离测量方法
KR20230018069A (ko) * 2021-07-29 2023-02-07 삼성전자주식회사 카메라를 포함하는 전자 장치 및 전자 장치의 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5166533A (en) * 1989-12-25 1992-11-24 Mitsubishi Denki K.K. Triangulation type distance sensor for moving objects with window forming means
JP2009522591A (ja) * 2005-12-30 2009-06-11 ノキア コーポレイション 関心領域を追跡することによってビデオカメラの自動焦点を制御するための方法および装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4601053A (en) * 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
US5175616A (en) * 1989-08-04 1992-12-29 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada Stereoscopic video-graphic coordinate specification system
JP2608996B2 (ja) * 1991-03-13 1997-05-14 三菱電機株式会社 車両の走行状態記憶装置
JP2000112019A (ja) 1998-10-08 2000-04-21 Olympus Optical Co Ltd 電子3眼カメラ装置
AU6355799A (en) * 1998-10-28 2000-05-15 Measurement Devices Limited Apparatus and method for obtaining 3d images
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
JP2004312249A (ja) * 2003-04-04 2004-11-04 Olympus Corp カメラ
US7697724B1 (en) * 2006-05-23 2010-04-13 Hewlett-Packard Development Company, L.P. Displacement determination system and method using separated imaging areas
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP2010093422A (ja) 2008-10-06 2010-04-22 Canon Inc 撮像装置
CA2752691C (en) 2009-02-27 2017-09-05 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
US7933512B2 (en) * 2009-03-24 2011-04-26 Patrick Campbell Stereo camera with controllable pivot point
US20100277575A1 (en) * 2009-04-30 2010-11-04 Tetracam, Inc. Method and apparatus for providing a 3d image via a media device
KR20110021500A (ko) 2009-08-26 2011-03-04 유지상 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
US8853631B2 (en) * 2009-11-23 2014-10-07 Flir Systems Ab Camera with two visual imaging subsystems for determining parallax and for focusing an infrared imaging subsystem
JP5409483B2 (ja) 2010-03-30 2014-02-05 富士フイルム株式会社 撮像装置
JP2012028915A (ja) 2010-07-21 2012-02-09 Kantatsu Co Ltd 撮像装置
US9049423B2 (en) * 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
JP5834410B2 (ja) 2011-01-13 2015-12-24 株式会社リコー 撮像装置および撮像方法
JP5594157B2 (ja) 2011-01-14 2014-09-24 株式会社Jvcケンウッド 撮像装置および撮像方法
JP5942343B2 (ja) * 2011-05-25 2016-06-29 株式会社リコー 撮像装置
US9279677B2 (en) * 2011-06-24 2016-03-08 Konica Minolta, Inc. Corresponding point search device and distance measurement device
JP5546692B2 (ja) 2011-09-30 2014-07-09 富士フイルム株式会社 撮影装置、撮影方法およびプログラム
JP2013086959A (ja) * 2011-10-21 2013-05-13 Sumitomo Heavy Ind Ltd フォークリフトのフォーク位置決め支援装置および方法
KR20130073344A (ko) 2011-12-23 2013-07-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN102609724B (zh) * 2012-02-16 2014-05-14 北京航空航天大学 一种基于双摄像头的周围环境信息提示方法
JP5991688B2 (ja) * 2012-02-24 2016-09-14 株式会社レゾナント・システムズ ステレオカメラユニット及び自動車用モニタシステム
GB201208088D0 (en) 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
GB2519006B (en) * 2012-07-02 2018-05-16 Panasonic Ip Man Co Ltd Size measurement device and size measurement method
JP2014044345A (ja) * 2012-08-28 2014-03-13 Ricoh Co Ltd 撮像装置
CN104156946B (zh) * 2014-07-17 2017-04-19 西北工业大学 一种空间绳系机器人抓捕区域内的障碍物检测方法
US9609200B2 (en) 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
JP6900174B2 (ja) 2016-06-27 2021-07-07 芝浦メカトロニクス株式会社 錠剤印刷装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5166533A (en) * 1989-12-25 1992-11-24 Mitsubishi Denki K.K. Triangulation type distance sensor for moving objects with window forming means
JP2009522591A (ja) * 2005-12-30 2009-06-11 ノキア コーポレイション 関心領域を追跡することによってビデオカメラの自動焦点を制御するための方法および装置

Also Published As

Publication number Publication date
JP2017535755A (ja) 2017-11-30
AU2015320751B2 (en) 2020-03-12
JP2020174361A (ja) 2020-10-22
US10587792B2 (en) 2020-03-10
AU2015320751A1 (en) 2017-04-06
US11494929B2 (en) 2022-11-08
EP3451285B1 (en) 2022-11-23
CA2962065C (en) 2023-11-21
WO2016049113A1 (en) 2016-03-31
US20170264815A1 (en) 2017-09-14
NZ730031A (en) 2022-02-25
CN107209943B (zh) 2021-08-06
US9609200B2 (en) 2017-03-28
US20200280672A1 (en) 2020-09-03
JP7293169B2 (ja) 2023-06-19
KR102391828B1 (ko) 2022-04-27
EP3198864A1 (en) 2017-08-02
CA2962065A1 (en) 2016-03-31
CN107209943A (zh) 2017-09-26
US20160088212A1 (en) 2016-03-24
EP3451285A1 (en) 2019-03-06

Similar Documents

Publication Publication Date Title
US11494929B2 (en) Distance measurement device
EP3248374B1 (en) Method and apparatus for multiple technology depth map acquisition and fusion
EP2812756B1 (en) Method and system for automatic 3-d image creation
US20130271579A1 (en) Mobile Stereo Device: Stereo Imaging, Measurement and 3D Scene Reconstruction with Mobile Devices such as Tablet Computers and Smart Phones
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
US20110234759A1 (en) 3d modeling apparatus, 3d modeling method, and computer readable medium
WO2011125937A1 (ja) キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置
CN102724398B (zh) 图像数据提供方法、组合方法及呈现方法
US20100171815A1 (en) Image data obtaining method and apparatus therefor
CN105744138A (zh) 快速对焦方法和电子设备
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
JP2013044597A (ja) 画像処理装置および方法、プログラム
JP5996233B2 (ja) 画像撮像装置
TW201205344A (en) Adjusting system and method for screen, advertisement board including the same
KR20130019582A (ko) 초점 가변 액체 렌즈를 이용한 3차원 이미지 촬영장치 및 방법
KR20200082441A (ko) 촬영영상을 이용한 실내공간 실측 시스템
US9076215B2 (en) Arithmetic processing device
JP5980541B2 (ja) 撮像装置、及び撮像制御方法
WO2013151076A1 (ja) 画像撮像装置、画像処理方法、プログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant