JP2020174361A - 動画カメラフォーカス用途における距離測定デバイス - Google Patents

動画カメラフォーカス用途における距離測定デバイス Download PDF

Info

Publication number
JP2020174361A
JP2020174361A JP2020104960A JP2020104960A JP2020174361A JP 2020174361 A JP2020174361 A JP 2020174361A JP 2020104960 A JP2020104960 A JP 2020104960A JP 2020104960 A JP2020104960 A JP 2020104960A JP 2020174361 A JP2020174361 A JP 2020174361A
Authority
JP
Japan
Prior art keywords
interest
camera
field
view
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020104960A
Other languages
English (en)
Other versions
JP7293169B2 (ja
Inventor
ナラング リテシュ
Narang Ritesh
ナラング リテシュ
ベネット ホグエ ウイリアム
bennett hogue William
ベネット ホグエ ウイリアム
オウスチン タウンドロウ クリブ
Austin Towndrow Clive
オウスチン タウンドロウ クリブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panavision International LP
Original Assignee
Panavision International LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panavision International LP filed Critical Panavision International LP
Publication of JP2020174361A publication Critical patent/JP2020174361A/ja
Application granted granted Critical
Publication of JP7293169B2 publication Critical patent/JP7293169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Analysis (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】動画カメラの焦点を調節するために、関心領域までの距離を決定するシステムを提供する。【解決手段】システムは、第1視野78を有する第1カメラ14と、第1視野の少なくとも一部と重なる第2視野80を有する第2カメラ16とを含み、第1視野の選択された関心領域の位置を、第2視野の選択された関心領域の位置と比較することによって、あるロケーションに対する選択された関心領域の距離を決定し、第3視野84を有する撮影カメラ22の光学系を制御する。【選択図】図7

Description

(分野)
本開示は、関心領域までの距離を決定するためのシステム、装置、及び方法に関する。
(背景)
関心領域までの距離を決定することは、撮影カメラのフォーカスの適切な設定を含む、
適切なカメラ動作と関連している。動画及びテレビジョンの撮影を含む、プロレベルの撮
影では、関心領域までの距離を適切に決定することに特に関連している。カメラアシスタ
ントが、関心領域までの距離を決定した後に、その距離に基づいて、撮影カメラのフォー
カスを設定する任務を負ってもよい。
関心領域までの距離を決定するための従来のシステム、装置、及び方法は、一連の欠点
がある。音響又は赤外測定デバイスなどのシステムは、所望の関心領域を適切に識別しな
い場合があり、関心領域の動きを適切に追跡しない場合がある。加えて、従来のシステム
は、所望の関心領域を容易に視覚化できない場合がある。
(概要)
本明細書に開示されているシステム、装置、及び方法は、関心領域までの距離の改善さ
れた決定を提供することを目的とするものである。距離の決定を使用して、撮影カメラの
フォーカスを適切に設定してもよい。
本開示の実施態様は、立体配向に位置したカメラの使用を介した関心領域までの距離の
決定を含んでもよい。2台のカメラのビューを介した関心領域の視差は、カメラからの関
心領域の距離に反比例する。関心領域までの距離は、この視差に基づいて決定してもよい
本開示の実施態様は、関心領域の動きを追跡することができる。本開示の実施態様は、
関心領域までの距離をリアルタイム算出することができる。本開示の実施態様は、複数の
関心領域を同時に追跡することができ、いずれかのカメラの視野をディスプレイ上に生成
することができる。
本明細書に開示されているシステム、装置、及び方法は、関心領域までの距離の決定し
やすさを向上させ、関心領域までの距離に関する改善された情報を生成する。
(図面の簡単な説明)
本明細書に開示されているシステム、装置、及び方法の特徴及び利点は、明細書、特許
請求の範囲、及び添付図面を参照することによってより良く理解するにつれて分かるであ
ろう。
図1は、本開示の実施態様によるシステムの概略図を示す。
図2は、本開示の実施態様による装置の上面図を示す。
図3は、本開示の実施態様による図2に示す装置の側面図を示す。
図4は、本開示の実施態様による図2に示す装置の正面図を示す。
図5は、本開示の実施態様による、部品を別々にした図2に示す装置の上面斜視図を示す。
図6は、本開示の実施態様による、筺体の蓋を除去した図2に示す装置の上面斜視図を示す。
図7は、本開示の実施態様による視野の概略図を示す。
図8は、本開示の実施態様による視野の画像を示す。
図9は、本開示の実施態様によるアルゴリズムを示す。
図10は、本開示の実施態様による関心領域を示す。
図11は、本開示の実施態様による校正表を示す。
図12は、本開示の実施態様による解像度表を示す。
図13は、本開示の実施態様による解像度グラフを示す。
図14は、本開示の実施態様による装置の画像を示す。
図15は、本開示の実施態様による装置の画像を示す。
図16は、本開示の実施態様による装置の画像を示す。
図17は、本開示の実施態様による、部品を別々にした装置の上面斜視図を示す。
図18は、本開示の実施態様による図17に示す装置の上面図を示す。
図19は、本開示の実施態様による図18に示す装置の側面図を示す。
図20は、本開示の実施態様によるハードウェア構成の概略図を示す。
図21は、本開示の実施態様によるシステムの有線接続の概略図を示す。
図22は、本開示の実施態様によるプロセスマップを示す。
図23は、本開示の実施態様による、カメラ制御器にデータを送受信するプロセスを示す。
図24は、本開示の実施態様による、カメラ制御器に距離データを送信するプロセスを示す。
(詳細な説明)
図1は、関心領域までの距離を決定するためのシステム10の実施態様を示す。システム1
0は、撮影カメラが所望の関心領域上に焦点をより簡単に合わせられるように、動画カメ
ラ用途に使用してもよい。
システム10は、カメラデバイス12を含んでもよい。カメラデバイス12は、各々がそれぞ
れの視野を有する2台のカメラ14、16を含んでもよい。システム10は、カメラ14、16の1つ
の視野の関心領域を選択するための制御デバイス18を含んでもよい。システム10は、シス
テム10のプロセッサによって算出された関心領域までの距離を表示するように構成された
表示デバイス20を含んでもよい。
システム10は、撮影カメラ22、表示デバイス24、カメラ制御器26、及び表示デバイス28
を含んでもよい。撮影カメラ22は、カメラ14、16の視野と重なる視野における画像を生成
するように構成されてもよい。表示デバイス24は、システム10のプロセッサによって算出
された距離を撮影カメラ24からの画像上に重ねるためのオーバーレイデバイスの形態であ
ってもよい。カメラ制御器26は、カメラ14、16の動作を制御するように構成されてもよい
。表示デバイス28は、撮影デバイス22からの画像、例えば、オーバーレイデバイスからの
オーバーレイを表示してもよい。所望の結果を生成するように、システム10の要素を除外
してもよく、又は追加要素を含めてもよい。
カメラデバイス12は、2台のカメラ14、16を含んでもよい。2台のカメラ14、16は、立体
配向で位置してもよい。1台のカメラ14の視野は、他のカメラ16の視野の全体に、又はそ
れぞれの視野の少なくとも一部が重なるように他のカメラ16の視野の一部のみに重なって
もよい。
図2を参照すると、各カメラ14、16は、筺体30と連結してもよい。筺体30は、カメラ14
、16を互いに距離32で保持してもよい。筺体30は、カメラ14、16を適所に設定し、2台の
カメラ14、16間の距離32を定義してもよい。
各カメラ14、16は、それぞれの軸34、36に沿って位置合わせされてもよい。軸34、36は
、互いに実質的に平行であってもよい。カメラ14、16は、互いに実質的に同一平面上に配
向され、実質的に同様の水平に、又は図3の頁から伸びているx次元の平面38に位置合わせ
されてもよい。図5に示すカメラ画像センサ40、42は、互いに実質的に同一平面上に配向
され、実質的に同様の垂直に、又は図3の頁から伸びているy次元の平面44に位置合わせさ
れてもよい。カメラ14、16は、同じ方向に面しているように配向されてもよい。カメラ14
、16は、各カメラ14、16の配向が固定されるように、筺体30によって保持されてもよい。
一実施態様では、カメラ14、16のいずれかは、筺体30及び/又は他のカメラ14、16に対し
て移動可能であるように構成されてもよい。一実施態様では、カメラ14、16のいずれかは
、筺体30に連結しなくてもよい。カメラは、筺体30に連結したカメラに関して説明した配
向を含む、所望の配向でセットアップできる分離可能なカメラであってもよい。
各カメラの焦点距離は、必要に応じて設定してもよく、2台のカメラ14、16の視野が重
なるように設定するのが好ましい。一実施態様では、各カメラ14、16の焦点距離は、おお
よそ12mm以上16mm以下であってもよい。一実施態様では、各カメラ14、16の焦点距離は、
同じか又は実質的に同様に設定してもよい。そのような実施態様では、同様又は同一の焦
点距離は、距離を決定するのに使用されるプロセスの量を減少させることができる。一実
施態様では、カメラの異なる焦点距離は、必要に応じて使用してもよい。
カメラユニット12は、軽量且つ携帯型であるように構成されてもよい。図2に示すよう
に、カメラユニット12の長さは、おおよそ7.29インチ(18.52センチメートル)であって
もよく、その幅は、おおよそ10.5インチ(26.67センチメートル)であってもよい。図3に
示す高さは、おおよそ2.65インチ(6.73センチメートル)であってもよい。図2及び3に示
す寸法は、例示であり、おおよそ5〜10インチ(12.7〜25.4センチメートル)の長さ、お
およそ7〜13インチ(17.78〜33.02センチメートル)の幅、及びおおよそ1〜5インチ(2.5
4〜12.7センチメートル)の高さを含む様々な寸法を利用してもよい。一実施態様では、
本明細書に記載されたものとは異なる寸法を利用してもよい。筺体30は、カメラユニット
12を他の構造体又はシステム10の要素に接続させるように構成された取付デバイス46、48
を含んでもよい。取付デバイス46、48のいずれかは、カメラユニット12を所望の配向で保
持させてもよい。取付デバイス46、48のいずれかは、カメラユニット12を撮影カメラ22に
連結させてもよい。取付デバイス46、48は、図2に示すようなダブテールデバイスであっ
てもよく、又は必要に応じて他の形態を有してもよい。
図4は、カメラユニット12の正面図を示す。図5は、蓋50を除去した筺体30を示す。カメ
ラ14、16は、部品に分けて示している。カメラユニット12の内部ハードウェアを見ること
ができる。カメラ14、16は、それぞれ前窓54、56、それぞれレンズアセンブリ58、60、及
びそれぞれ画像センサ40、42を含んでもよい。それぞれのフロントベゼル62、64は、レン
ズアセンブリ58、60を筺体30に固定することができる。各レンズアセンブリ58、60は、単
一レンズ又はマルチレンズを含んでもよい。一実施態様では、レンズアセンブリ58、60は
、ズームレンズを含んでもよい。一実施態様では、レンズアセンブリ58、60は、それぞれ
のカメラ14、16のフォーカス、ズーム、及び/又は絞りを制御するように構成されてもよ
い。画像センサ40、42は、各々、それぞれの視野の画像を捕捉し、それをデジタル化して
処理するように構成されてもよい。画像センサ40、42は、CCDセンサ、CMOSセンサ、又は
他の形態の画像センサであってもよい。画像センサ40、42は、720p、1080i、1080PsF、10
80pの解像度を生成することができてもよいが、必要に応じて他の解像度を使用してもよ
い。画像センサは、ビデオ画像を捕捉するように構成されるのが好ましい。23、98、24、
25、29、97、30、48、50、59、94、及び60のフレームレートを利用してもよいが、必要に
応じて他のフレームレートを使用してもよい。一実施態様では、カメラ14、16は、静止画
像を捕捉するように構成されてもよい。
カメラ14、16は、各々、水平又はx次元において、おおよそ80度以上90度以下の視野を
有するように構成されてもよい。好ましくは、各カメラ14、16は、水平又はx次元におい
て、おおよそ90度の視野を有する。一実施態様では、各カメラ14、16のより小さな又はよ
り大きな角度を必要に応じて利用してもよい。
一実施態様では、カメラ14、16の特徴は、同じか又は実質的に同様になるように設定し
てもよい。そのような実施態様では、カメラ14、16の同様又は同一の特徴は、距離を決定
するのに使用されるプロセスの量を減少させることができる。
図2を参照すると、2台のカメラ14、16間の距離32は、おおよそ5以上14インチ(12.7以
上35.56センチメートル)以下であってもよい。距離32は、おおよそ8インチ(20.32セン
チメートル)であるのが好ましい。一実施態様では、カメラ14、16間のより小さな又はよ
り大きな距離32を必要に応じて利用してもよい。
図5を再び参照すると、カメラデバイス12は、入力デバイスを含んでもよく、出力デバ
イスを含んでもよい。図5に示す実施態様では、入力デバイス及び出力デバイスは、アン
テナ66の形態の無線通信デバイスである。一実施態様では、入力デバイス及び出力デバイ
スは、図5に示すコネクタ68などのコネクタを含んでもよい。一実施態様では、入力デバ
イス及び出力デバイスは、異なる構造体を含んでもよい。入力デバイスは、データを受信
するように構成されてもよく、出力デバイスは、データを出力するように構成されてもよ
い。カメラデバイス12は、カメラデバイス12を動作させる電力を受電する電力コネクタ68
も含んでもよい。カメラデバイス12に利用される電圧は、おおよそ12V以上24V以下、又は
おおよそ10V以上35V以下の範囲であってもよい。一実施態様では、より小さな又はより大
きな量の電圧を必要に応じて利用してもよい。電力コネクタ68及び他の形態のコネクタを
筺体30上に近接して一緒にまとめてもよい。
カメラデバイス12は、無線通信カード70を含んでもよい。無線通信カード70は、データ
をアンテナ66に送受信するように動作してもよい。無線通信カード70は、ルータの形態で
あってもよく、システム10に使用してもよい他のデバイスと無線通信するためのネットワ
ークハブとして動作してもよい。カメラデバイス12は、第1カメラ14及び/又は第2カメラ1
6と通信するためのインタフェースデバイス72を含んでもよい。インタフェースデバイス7
2は、USBカードの形態であってもよい。カメラデバイス12は、処理し、電力をカメラデバ
イス12の部品に供給するための電源74を含んでもよい。電力は、電力コネクタ68から電源
74に入力してもよい。一実施態様では、電源74は、DC-DCコンバータの形態であってもよ
いが、他の形態の電源74を必要に応じて実施態様で使用してもよい。
カメラデバイス12は、プロセッサカード76を含んでもよい。プロセッサカード76は、第
1カメラ14及び第2カメラ16から受信する画像を処理するように構成されているプロセッサ
77を含んでもよい。プロセッサ77を使用して、関心領域までの距離を算出してもよい。
図6は、筺体30の蓋50を除去した、筺体30における適所のカメラデバイス12の部品を示
す。
図7を参照すると、第1カメラ14の視野78、及び第2カメラ16の視野80は、重なり視野82
の部分を有してもよい。一実施態様では、撮影カメラ22の視野84は、視野78、80のいずれ
かの少なくとも一部と重なってもよい。関心領域は、視野78及び/又は視野80内で選択し
てもよい。関心領域は、物体又は領域などの、視野78、80のいずれかを示す任意の画像で
あってもよい。関心領域は、1点又は点の集合であってもよい。一実施態様では、関心領
域は、80×80ピクセルのサイズなどの所定のサイズを有してもよい。一実施態様では、関
心領域は、異なるサイズを有してもよく、又は必要に応じて所定のサイズを有していなく
てもよい。
図8は、図8の左側で、カメラ14によって生成された視野78の画像の一例を示す。図8は
、図8の右側で、カメラ16によって生成された視野80の画像の一例を示す。視野78、80は
、両方の画像で同様な視野78、80の画像の一部で示されるように重なる。視野78、80は、
視野80で示されない視野78の部分で示されるようにずれている。関心領域86が選択されて
いる。一実施態様では、関心領域86は、プロセッサ77又は他の自動プロセスによって自動
的に選択してもよい。一実施態様では、関心領域86は、ユーザの入力によって選択しても
よい。
一実施態様では、関心領域86は、視野78、80の1つで選択してもよい。例えば、関心領
域86は、第1視野78と呼んでもよい視野78で選択してもよい。プロセッサ77は、関心領域8
6の特徴、例えば、選択された関心領域86の外観を識別するように構成されてもよく、ア
ルゴリズムを使用して、選択された関心領域86の外観を、第2視野80と呼んでもよい他の
視野80に整合させてもよい。アルゴリズムは、第1視野78の選択された関心領域86の外観
を、第2視野80の選択された関心領域86の外観と相関させてもよい。
図9は、第1視野78の選択された関心領域86の外観を第2視野80の選択された関心領域86
の外観と相関させるために使用してもよいアルゴリズムの実施態様を示す。要素「T」は
、選択された関心領域86の画像の外観を表す。要素「I」は、第2視野80の画像を表す。「
x」及び「y」要素は、図8に示したような視野の「x」及び「y」次元にそれぞれ対応する
。「w」及び「h」要素は、視野の幅及び高さに対応する。要素「R」は、第1視野78の選択
された関心領域86の外観と第2視野80の選択された関心領域86の外観との間の相関を表す
。プロセッサ77は、アルゴリズムを使用して、第2視野80の画像をスキャンし、ピーク相
関を見つけてもよい。一実施態様では、図9に示すアルゴリズムとは異なるアルゴリズム
をプロセッサ77で使用してもよい。
一実施態様では、整合アルゴリズムを使用しなくてもよく、ユーザは、第1視野78及び
第2視野80の両方の選択された関心領域86を識別してもよい。
プロセッサ77は、第1視野78の関心領域86の位置を第2視野80の関心領域86の位置と比較
することによって、あるロケーションに対する関心領域86の距離を算出するように構成さ
れてもよい。例えば、図10は、第2カメラ16を通じて示された関心領域86(下画像)の位
置と比較した、第1カメラ14を通じて示された関心領域86(上画像)の相対位置を表示す
る。プロセッサ77は、上記の整合アルゴリズムを通じて、又は必要に応じて代替プロセス
を通じて第2視野80の関心領域の位置を識別してもよい。第1視野78及び第2視野80の関心
領域86のロケーションの差は、ロケーションの視差である。関心領域86のロケーションの
差は、整合アルゴリズムを用いて算出されたピーク相関のロケーションの差であってもよ
い。
視差は、水平又はx次元における第2視野80の関心領域86の位置に対する第1視野78の関
心領域86の水平又はx次元における位置の差として算出されてもよい。視差は、第1視野78
及び第2視野80の関心領域86のピクセルロケーションの差に基づいて算出されてもよい。
一実施態様では、視差は、中心線に対する第1視野78及び第2視野80の関心領域86のロケー
ションに基づいて算出されてもよい。
プロセッサ77は、カメラ14、16の間の距離と関心領域86の視差に基づいて、関心領域86
の距離を算出するように構成されてもよい。視差が増加すると、カメラ14、16からの関心
領域86の相対距離は減少する。カメラ14、16の間の距離が増加すると、見掛けの視差は増
加する。距離測定は、カメラベースラインが2台のカメラ14、16のレンズの間の距離(2台
のカメラ14、16のレンズの中心の眼間間隔であってもよい)である以下の関係に基づいて
もよい:
距離∝((カメラ焦点距離)(カメラベースライン))/(視差)
前述の関係の定数要素は、プロセッサ77で自動的に決定してもよく、又はプロセッサ77
に入力してもよい。カメラ焦点距離、及びカメラベースライン、例えば、又は任意の他の
定数要素は、その距離算出に使用するためにプロセッサ77に入力してもよい。一実施態様
では、プロセッサ77は、例えば、カメラデバイス12で利用される特定種類のカメラに基づ
いて、上述の関係の定数要素を自動的に検出してもよい。一実施態様では、プロセッサ77
は、カメラ14、16の配向、及び/又は、カメラ14、16の互いの距離を自動的に検出しても
よい。一実施態様では、プロセッサ77は、メモリーに保存されたルックアップ表を含んで
もよく、ルックアップ表は、保存された定数をユーザが提供した入力に整合させるために
使用してもよい。入力は、利用されているカメラの種類であってもよい。一実施態様では
、メモリーを使用して、任意の定数、又はプロセッサ77が使用した他の情報を保存しても
よい。一実施態様では、上で識別したものとは異なる定数又は変数を含む距離関係を利用
してもよい。
一実施態様では、カメラデバイス12は、あるロケーションに対する距離をプロセッサ77
に算出させるように校正されるように構成されてもよい。図11は、例えば、プロセッサ77
を校正するために使用してもよい表88を示す。校正プロセスでは、ユーザは、関心領域を
所定の距離で設定してもよい。プロセッサ77は、関心領域の視差をその距離で決定しても
よい。ユーザは、その視差に対応する距離をプロセッサ77又はプロセッサのメモリーに入
力してもよい。ユーザは、このプロセスを様々な距離で繰り返してもよい。校正後、プロ
セッサ77が視差を算出する際に、プロセッサ77は、この視差を校正中にメモリーに保存さ
れた距離に整合させて、距離を出力できるようにしてもよい。校正プロセスにより、プロ
セッサ77は、距離の算出に使用した任意の定数の変化をより簡単に説明することができる
。校正データは、カメラの種類、カメラ焦点距離、カメラ配向又はカメラ間の距離、又は
他の因子などの異なる定数についてメモリーに保存してもよい。校正データは、算出され
た視差に基づいて距離を出力するように、プロセッサ77によって検索されてもよい。
プロセッサ77が相対距離を算出するロケーションは、デフォルトで設定してもよく、又
はプロセッサ77に入力してもよく、又はプロセッサ77によって自動的に決定してもよい。
ロケーションは、校正プロセス中に設定してもよい。一実施態様では、ロケーションは、
撮影カメラ22の位置として設定してもよい。撮影カメラ22の位置は、撮影カメラ22のレン
ズ又はセンサ平面のいずれかとしてさらに定義してもよい。一実施態様では、カメラデバ
イス12は、所定の位置で撮影カメラ22に連結するように構成されてもよく、ロケーション
は、所定の位置に基づいて、撮影カメラ22に設定してもよい。一実施態様では、ロケーシ
ョンは、撮影カメラの種類をプロセッサ77に入力することによって、プロセッサ77に入力
してもよい。プロセッサ77は、撮影カメラ22の位置を提供するルックアップ表、又は使用
した撮影カメラ22の種類に基づいて、レンズ又はセンサ平面などのカメラの構成要素を含
んでもよい。一実施態様では、ロケーションは、必要に応じて異なる位置で設定してもよ
く、例えば、ユーザは、ロケーションをプロセッサ77に入力してもよい。
一実施態様では、カメラデバイス12は、関心領域86を動かしながら、あるロケーション
に対する関心領域86の距離を算出するように構成されてもよい。プロセッサ77は、選択さ
れた関心領域86の位置を追跡するように構成されてもよい。図8を参照すると、関心領域8
6を選択した際に、プロセッサ77は、関心領域86が動いたかどうかを決定するように構成
されてもよい。プロセッサ77は、関心領域86の外観を決定した後、連続するフレームにお
ける関心領域86の外観を識別して、関心領域86の動きを追跡してもよい。一実施態様では
、プロセッサ77は、ピクセルデータが元のピクセル以外の異なるピクセルに変換されてい
るかどうかを算出することによって関心領域86を追跡してもよい。一実施態様では、関心
領域86を追跡する異なるプロセスを使用してもよい。プロセッサ77は、各フレームにおけ
る関心領域86を追跡してもよい。一実施態様では、プロセッサ77は、所定の間隔のフレー
ムごとに関心領域86を追跡してもよい。
一実施態様では、制御デバイスなどの別個のデバイスは、プロセッサ77を支援して、関
心領域86を追跡してもよい。別個のデバイスは、関心領域86の動きを識別してもよく、プ
ロセッサ77は、関心領域86を表すピクセルのサブセットから画像データを使用して、関心
領域86が動くにつれて関心領域86の動きを追跡してもよい。ピクセルのサブセットからの
画像データを使用して、第2視野80からの画像と比較してもよい。
プロセッサ77は、第2視野80の関心領域86の位置を追跡するように構成されてもよい。
プロセッサ77は、この用途では上記のプロセスで第1視野78の関心領域86の外観を第2視野
80に整合させることによって第2視野80の位置を追跡してもよい。例えば、プロセッサ77
は、アルゴリズムを使用して、他の視野82の選択された関心領域86の外観に整合させても
よい。アルゴリズムは、第1視野78の選択された関心領域86の外観を、第2視野80の選択さ
れた関心領域86の外観と相関させてもよい。アルゴリズムは、図9に示すアルゴリズムで
あってもよく、又は異なるアルゴリズムであってもよい。一実施態様では、プロセッサ77
は、第1視野78の関心領域86の動きを表すデータを適用して、第2視野78の関心領域86の動
きを算出するプロセスにおいて、第2視野80の関心領域86を追跡してもよい。一実施態様
では、第2視野78の関心領域86を追跡する異なるプロセスを使用してもよい。
プロセッサ77は、第1視野78の関心領域86の位置を第2視野80の関心領域86の位置と比較
することによって、関心領域86を動かしながら、あるロケーションに対する関心領域86の
距離を算出するように構成されてもよい。距離は、この用途では上記のプロセスで算出さ
れてもよい。距離は、関心領域86が、例えば、第1視野78で動くにつれてリアルタイムで
算出されてもよい。距離は、フレームごとに算出されてもよい。一実施態様では、距離は
、所定の間隔のフレームごとに算出されてもよい。
一実施態様では、カメラデバイス12は、複数の関心領域86の距離を算出するように構成
されてもよい。一実施態様では、プロセッサ77は、複数の関心領域86を追跡し、複数の関
心領域86の距離を算出するように構成されてもよい。一実施態様では、最大12個の異なる
関心領域を追跡してもよく、及び/又は、算出されたそれぞれの距離を有してもよい。一
実施態様では、より多い又はより少ない数の関心領域を追跡してもよく、及び/又は、算
出されたそれぞれの距離を有してもよい。複数の関心領域の距離及び/又は追跡は、同時
に生じてもよい。追跡、整合、及び距離のプロセスは、個々の関心領域86について上記と
同様のプロセスを通じて関心領域86ごとに生じてもよい。距離は、フレームごとの関心領
域ごとに算出されてもよい。一実施態様では、距離は、所定間隔のフレームについて関心
領域ごとに算出されてもよい。一実施態様では、プロセッサ77は、様々な関心領域86の視
差の視差マップを生成するように構成されてもよい。
カメラデバイス12は、プロセッサ77が算出した距離データを出力するように構成されて
もよい。
一実施態様では、プロセッサ77は、筺体30の外部に位置してもよい。
一実施態様では、距離算出は、筺体30に連結していない、及び/又は、例えば、図2又は
7に示すものと異なる配向に位置するカメラ12、14を用いて行ってもよい。異なる配向の
カメラ12、14は、その距離算出において、プロセッサ77によって利用されてもよく、例え
ば、異なるカメラベースライン値を使用してもよい。
図12は、カメラデバイス12からある一定の距離でのカメラデバイス12のカメラ14、16の
解像度を表す表を示す。図13は、カメラデバイス12からある一定の距離でのカメラデバイ
ス12のカメラ14、16の解像度のグラフを示す。図12及び13に示すデータは、カメラデバイ
ス12の一実施態様を表し、他の解像度は、カメラデバイス12の他の実施態様で生じてもよ
い。
図1を再び参照すると、システム10は、制御デバイス18を含んでもよい。制御デバイス1
8は、関心領域をユーザに選択させるように構成されてもよい。制御デバイス18からの制
御データは、カメラデバイス12に入力され、プロセッサ77で受信されてもよい。制御デバ
イス18は、カメラデバイス12に接続されてもよく、又はカメラデバイス12と無線で通信す
るように構成されてもよい。カメラデバイス12の無線通信デバイスを使用して、制御デバ
イス18と通信してもよい。制御デバイス18は、システム10の任意の構成要素と通信するよ
うに、無線通信デバイスを含んでもよい。
図14は、制御デバイス18の拡大図を示す。制御デバイス18は、携帯型デバイスとして構
成されてもよく、又はカメラデバイス12の動作を制御するように構成された任意のデバイ
スとして構成されてもよい。図14に示す実施態様では、制御デバイス18は、他の形態のコ
ンピュータを必要に応じて使用してもよいが、ラップトップコンピュータなどのタブレッ
トコンピュータである。制御デバイス18は、ディスプレイ90を含んでもよい。ディスプレ
イ90は、それぞれのカメラ14、16のいずれかからの視野78、80、及び/又は、撮影カメラ2
2の視野82の画像を表示するように構成されてもよい。一実施態様では、ディスプレイ90
は、視野78、80の重なり部分、及び/又は、撮影カメラ22の視野82の重なり部分を表示す
るように構成されてもよい。
一実施態様では、制御デバイス18は、視野78、80、84のいずれかの重なりを示すインジ
ケータ92を生成するように構成されてもよい。図14に示す実施態様では、例えば、インジ
ケータ92は、撮影カメラ22の視野84と第1視野78の重なりを示す。一実施態様では、第1視
野78と第2視野80の間の重なり、及び/又は、撮影カメラ22の視野84と第2視野80の間の重
なりを示してもよい。インジケータ92は、他の実施態様では、他の形態のインジケータ92
を必要に応じて使用してもよいが、図14に示すようなディスプレイ90上でボックスの形態
を取ってもよい。
制御デバイス18は、ユーザに関心領域86を選択させるように構成されたタッチスクリー
ン94を含んでもよい。ユーザは、所望の関心領域86を表示する視野78、80、84のいずれか
から画像の一部に触れて、関心領域86を選択してもよい。ユーザは、関心領域の画像に再
び触れることで、所望の関心領域86を選択しなくてもよい。一実施態様では、制御デバイ
ス18は、視野78、80、84のいずれかにおける顔の特徴を自動的に識別するための顔認識プ
ロセスを含んでもよい。制御デバイス18は、これらの顔の特徴に対応する関心領域86を自
動的に選択するように構成されてもよく、又はこれらの顔の特徴に対応するユーザに関心
領域86を提案するように構成されてもよい。一実施態様では、制御デバイス18は、関心領
域86を選択するための代替方法を利用してもよく、例えば、制御デバイス18は、関心領域
86を示すのに使用したマーカーに反応するように構成されてもよい。マーカーは、関心領
域86に位置した物理的構造体であってもよく、又は関心領域86に向けたレーザービームな
どの光デバイスであってもよく、又は別の形態を有してもよい。
制御デバイス18は、自動又はユーザ選択に基づいてのいずれかで、複数の関心領域86を
選択してもよい。制御デバイス18がタッチスクリーン94を含む実施態様では、ユーザは、
視野78、80、84のいずれかから画像の複数の部分に触れて、関心領域86を選択してもよい
。一実施態様では、最大12個の異なる関心領域を選択してもよい。一実施態様では、より
多い又はより少ない数の関心領域を選択してもよい。
制御デバイス18は、選択されている関心領域86を示すインジケータ96を生成するように
構成されてもよい。インジケータ96は、他の実施態様では、他の形態のインジケータ96を
必要に応じて使用してもよいが、図14に示すようなディスプレイ90上でボックスの形態を
取ってもよい。さらなるインジケータ98、100を使用して、選択されている複数の関心領
域86を示してもよい。プロセッサ77が単一又は複数の関心領域86の動きを追跡する実施態
様では、対応するインジケータ96、98、100は、関心領域86と共に動いてもよい。
制御デバイス18は、プロセッサ77によって算出された距離を表示するように構成されて
もよい。距離は、ディスプレイ90上に提供されてもよい。プロセッサ77が距離のリアルタ
イム算出を提供する実施態様では、制御デバイス18上に表示された距離も、リアルタイム
で更新してもよい。複数の関心領域にそれぞれ対応する複数の距離を表示してもよい。制
御デバイス18は、視野78、80、84の重なり部分の外側の距離を表示してもよい。例えば、
図14では、撮影カメラ22の視野84の外側の距離をインジケータ100に示す。この距離は、
この関心領域までの距離がすでに表示されているように表示してもよく、撮影カメラ22の
視野84は、この関心領域を包含するように動くべきである。
制御デバイス18は、カメラ14、16の特性又は撮影カメラ22の特性の入力を受信するよう
に構成されてもよい。特性は、いくつかある特性の中でとりわけ、カメラのいずれかの焦
点距離、カメラのいずれかの視野、カメラ14、16の間の距離、カメラのいずれかのフォー
カス、絞り、及び/又はズーム、及び/又は使用しているカメラ又はレンズの種類を含んで
もよい。制御デバイス18は、プロセッサ77が相対距離を算出するロケーションの入力を受
信するように構成されてもよい。制御デバイス18は、ユーザがこのデータを制御デバイス
18に入力するように構成されてもよい。
一実施態様では、制御デバイス18は、カメラ14、16のフォーカス、絞り、及び/又はズ
ームを含むカメラ14、16の特性を制御するように構成されてもよい。制御デバイス18は、
ユーザがフォーカス、絞り、及び/又はズームを含む特性を制御するタッチスクリーンを
有するように構成されてもよい。制御デバイス18は、これらの特性を表示するように構成
されてもよい。
制御デバイス18は、システム10についての情報を提供する画像の複数のスクリーンを表
示するように構成されてもよい。例えば、図14に示すような1つのスクリーンは、カメラ1
4からの視野78のビデオ画像を表示してもよい。制御デバイス18は、カメラ14、16のフォ
ーカス、絞り、及び/又はズームに関する情報を提供する別のスクリーンを表示してもよ
い。制御デバイス18は、ユーザが制御デバイス18上に表示されるスクリーンを変えてもよ
いように構成されてもよい。
一実施態様では、制御デバイス18のプロセスは、制御デバイス18のプロセッサによって
操作されるプログラムで具現化してもよい。プログラムは、非一時的な機械読み出し可能
な媒体で具現化してもよい。プログラムは、制御デバイス18のメモリーに保存されてもよ
い。プログラムは、制御デバイス18によってダウンロード可能であるように構成されても
よい。プログラムは、制御デバイス18によって操作されるアプリケーション又は「app」
であってもよい。制御デバイス18は、例えば、Appleが販売しているiPad、又はSamsungが
販売しているGalaxyなどのタブレットコンピュータであってもよく、本明細書に記載され
た制御デバイス18のプロセスを制御デバイス18にロードしてもよい。プログラムによって
、制御デバイス18のプロセッサに本明細書に記載されたプロセスを実行させてもよい。
一実施態様では、制御デバイス18は、カメラデバイス12の筺体30と連結してもよい。一
実施態様では、制御デバイス18は、カメラデバイス12内に組み込まれてもよい。例えば、
一実施態様では、カメラデバイス12内に組み込まれた制御デバイス18は、関心領域の顔の
特徴又は他の所望の特徴を自動的に検出するように働いてもよい。
制御デバイス18は、無線で又は有線接続を介してのいずれかで、カメラデバイス12と通
信するように構成されてもよい。制御デバイス18は、関心領域の選択、カメラ14、16の特
性、及び/又は撮影カメラ22の特性をカメラデバイス12又はシステム10の別の要素に出力
してもよい。また、制御デバイス18は、カメラ14、16の制御をカメラデバイス12に出力し
てもよい。制御デバイス18は、制御デバイス18又はシステム10の他の要素からデータを受
信してもよい。
一実施態様では、制御デバイス18は、視野における関心領域又は複数の関心領域の動き
を追跡するようにプロセッサ77を支援してもよい。制御デバイス12は、選択された関心領
域が動いている間に、その位置についてプロセッサ77にデータを提供するように構成され
てもよい。例えば、制御デバイス18によって識別された顔認識特徴をプロセッサ77に提供
して、関心領域の動きを追跡するようにプロセッサ77を支援してもよい。
制御デバイス18は、制御デバイス18のオペレータがカメラデバイス12の作動中により簡
単に動かせるように、軽量及び携帯型に構成されてもよい。
図1を再び参照すると、システム10は、システム10プロセッサによって算出された関心
領域までの距離、又は複数の関心領域までの距離を表示するように構成された表示デバイ
ス20を含んでもよい。表示デバイス20は、カメラデバイス12に接続してもよく、又はカメ
ラデバイス12と無線で通信するように構成されてもよい。カメラデバイス12の無線通信デ
バイスを使用して、表示デバイス20と通信してもよい。表示デバイス20は、システム10の
任意の他の構成要素と通信するための無線通信デバイスを含んでもよい。
図15は、表示デバイス20の拡大図を示す。表示デバイス20は、携帯型デバイスとして構
成されてもよく、又は関心領域までの距離を表示するように構成された任意のデバイスと
して構成されてもよい。図15に示す実施態様では、制御デバイス18は、他の形態のデバイ
スを必要に応じて使用してもよいが、モバイル通信デバイスである。制御デバイス18は、
iPhone、iPod、又は他のモバイルデバイスなどのモバイル通信デバイスであってもよい。
表示デバイス20は、ディスプレイ104を含んでもよい。ディスプレイ104は、関心領域まで
の距離を表示するように構成されてもよい。
表示デバイス20は、プロセッサ77によって算出された単一距離又は複数の距離を表示す
るように構成されてもよい。表示デバイス20は、プロセッサ77が距離をリアルタイムで算
出する場合に、1つ又は複数の関心領域が動く場合に、距離又は複数の距離を表示するよ
うに構成されてもよい。図15に示す実施態様では、複数行表示が、異なる関心領域までの
算出された距離を示す。距離は、一次及び二次関心領域に分割してもよい。距離は、数値
として示してもよい。一実施態様では、とりわけ、表、チャート、又は他の代表的な図な
どの別の形態の距離のインジケータを使用してもよい。
表示デバイス20は、軽量及び携帯型に構成されてもよい。一実施態様では、表示デバイ
ス20は、カメラデバイス12内に組み込まれるように構成されてもよい。一実施態様では、
表示デバイス20は、システム10の任意の要素に連結するように構成されてもよい。図16は
、例えば、撮影カメラ22に連結した表示デバイス106の実施態様を示す。関心領域までの
距離は、10フィートであるとして表示デバイスの右側に示される。
図1を再び参照すると、システムは、プロセッサ77によって算出された距離又は複数の
関心領域までの距離を撮影カメラ22からの画像上に重ねるためのオーバーレイデバイスの
形態で表示デバイス24を含んでもよい。表示デバイス24は、カメラデバイス12に接続して
もよく、又はカメラデバイス12と無線で通信するように構成されてもよい。カメラデバイ
ス12の無線通信デバイスを使用して、表示デバイス24と通信してもよい。表示デバイス24
は、システム10の任意の他の構成要素と通信するための無線通信デバイスを含んでもよい
図17は、筺体110の蓋108を筺体110の残り部分から分離し、且つ、表示デバイス24の他
の部品を分離した、表示デバイス24の拡大図を示す。表示デバイス24は、表示デバイス24
を動作させる電力を受電する電力コネクタ112を含んでもよい。表示デバイス24は、撮影
カメラ22からの画像を含む、システム10の要素からのケーブルデータを受信するためのデ
ータコネクタ114を含んでもよい。表示デバイス24は、入力デバイスを含んでもよく、且
つ、出力デバイスを含んでもよい。図17に示す実施態様では、入力デバイス及び出力デバ
イスは、アンテナ116の形態の無線通信デバイスである。一実施態様では、入力デバイス
及び出力デバイスは、コネクタ114などのコネクタを含んでもよい。一実施態様では、入
力デバイス及び出力デバイスは、異なる構造体を含んでもよい。
表示デバイス24は、オーバーレイプロセッサカード118を含んでもよい。プロセッサカ
ード118は、プロセッサ77から算出された距離を他のカメラからの他の画像上に重ねるよ
うに構成されているプロセッサ120を含んでもよい。プロセッサ120は、カメラデバイス12
から距離データを受信し、例えば、撮影カメラ22から画像を受信し、距離データを画像と
一致させてもよい。図1を参照すると、表示デバイス24は、選択されている関心領域86を
示すインジケータを生成してもよい。インジケータは、他の実施態様では、他の形態のイ
ンジケータを必要に応じて使用してもよいが、図1に示すようなボックスの形態を取って
もよい。プロセッサ77が単一又は複数の関心領域86の動きを追跡する実施態様では、対応
するインジケータは、関心領域86と共に動いてもよい。
表示デバイス24は、プロセッサ77によって算出された距離又は複数の距離を別の表示デ
バイス28上に表示してもよい。距離は、表示デバイス28のディスプレイ上に提供されても
よい。プロセッサ77が距離のリアルタイム算出を提供する実施態様では、表示デバイス28
上に表示された距離は、リアルタイムで更新してもよい。複数の関心領域にそれぞれ対応
する複数の距離を表示してもよい。表示デバイス24は、撮影カメラ22の視野の画像のみを
表示するように構成されてもよい。図1に示すように、表示デバイス28上の画像は、図14
に示すインジケータ92内に示された画像と一致する。
表示デバイス24は、軽量及び携帯型に構成されてもよい。図18及び19は、表示デバイス
24の長さがおおよそ7.37インチ(18.72センチメートル)であり、筺体110の長さがおおよ
そ6.75インチ(17.15センチメートル)であるものを示す。幅は、おおよそ4.75インチ(1
2.07センチメートル)であってもよい。図19に示すような高さは、おおよそ1.35インチ(
3.43センチメートル)であってもよい。図18及び19に示す寸法は例示であり、おおよそ5
〜10インチ(12.7〜25.4センチメートル)の全長、おおよそ2〜7インチ(5.08〜17.78セ
ンチメートル)の幅、及びおおよそ1〜3インチ(2.54〜7.62センチメートル)の高さを含
む、様々な寸法を利用してもよい。一実施態様では、本明細書に記載されたものとは異な
る寸法を利用してもよい。
本明細書に記載された表示デバイスのいずれかは、カメラの型式、ズーム、絞り、及び
フォーカスなどの、撮影カメラ22及び/又はカメラデバイス12のカメラ14、16に関連付け
られたデータを表示してもよい。
図1を再び参照すると、システムは、カメラ14、16の動作を制御するように構成された
カメラ制御器26を含んでもよい。カメラ制御器26は、絞り、フォーカス、及び/又はズー
ムなどのレンズ制御を含む、カメラ14、16の特徴を動作するように構成されてもよい。カ
メラ制御器26は、カメラ14、16の特徴が同様であるように、カメラ14、16の両方を同時に
動作するように構成されてもよい。一実施態様では、カメラ制御器26は、制御デバイス18
を介して動作してもよい。
一実施態様では、カメラ制御器26は、撮影カメラ22及び/又はカメラ14、16を制御する
ように構成されてもよい。カメラ制御器26は、撮影カメラ22のこれらの特徴がカメラ14、
16の特徴と一致するように、絞り、フォーカス、及び/又はズームなどのレンズ制御を含
む撮影カメラ22の特徴を動作するように構成されてもよい。一実施態様では、カメラ制御
器26は、カメラデバイス12によって提供された距離測定に基づいて、撮影カメラ22のフォ
ーカスを自動的に調節するように構成されてもよい。
カメラ制御器26は、カメラデバイス12に接続してもよく、又はカメラデバイス12と無線
で通信するように構成されてもよい。カメラデバイス12の無線通信デバイスを使用して、
カメラ制御器26と通信してもよい。カメラ制御器26は、システム10の任意の他の構成要素
と通信するための無線通信デバイスを含んでもよい。カメラ制御器26は、撮影カメラ22に
有線又は無線接続を含んでもよい。
一実施態様では、カメラ制御器26は、モータドライバであってもよい。モータドライバ
は、Preston MDR、又は他の種類のモータドライバであってもよい。
システム10は、カメラ14、16の視野と重なる視野において画像を生成するように構成さ
れている撮影カメラ22を含んでもよい。画像は、静止画像であってもよく、又はビデオ画
像であってもよい。撮影カメラ22は、フィルムテレビジョン又は動画を撮影するのに典型
的に使用されるスタイルであってもよく、デジタル又はフィルムメラであってもよい。撮
影カメラ22は、HD画像を出力するように構成されてもよい。撮影カメラとしては、他の種
類の撮影カメラのうちで、Arri Alexa、Red Epic、Sony F55、Sony F65、Genesis、及びP
anavisionフィルムカメラが挙げられるが、これらに限定されない。
一実施態様では、撮影カメラ22は、カメラデバイス12に対して所定の配向で利用しても
よい。例えば、撮影カメラ22は、撮影カメラ22のレンズが、カメラ14、16の1台又は両方
のそれぞれの軸34、36に実質的に平行に配向されるように配向されてもよい。撮影カメラ
22は、カメラ14、16の1台又は両方と実質的に同一平面上に配向され、実質的に同様の水
平に、又は図3の頁から伸びているx次元の平面38に位置合わせされてもよい。撮影カメラ
22のカメラセンサは、カメラ14、16の1台又は両方のセンサと実質的に同一平面上に配向
され、実質的に同様の垂直に、又は図3の頁から伸びているy次元の平面44に位置合わせさ
れてもよい。撮影カメラ22は、カメラ14、16の1台又は両方と同じ方向に面するように配
向されてもよい。一実施態様では、撮影カメラ22は、撮影カメラ22を2台のカメラ14、16
の間に位置して、図7に示すように配向されてもよい。撮影カメラ22の視野84は、中心に
位置し、カメラ14、16のそれぞれの視野78、80と重なってもよい。
撮影カメラ22は、カメラデバイス12に対して撮影カメラ22を所望の配向に保持するよう
にカメラデバイス12と連結してもよい。一実施態様では、撮影カメラ22は、カメラデバイ
ス12と別個のものであってもよい。本明細書に記載された表示デバイス20、24、28、106
又は制御デバイス18のいずれかは、必要に応じて撮影カメラ22と連結してもよい。
システム10及び/又はシステムのデバイスによって行われた距離の算出を使用して、撮
影カメラ22のフォーカスを設定してもよい。撮影中、関心領域までの距離を容易に確認し
、撮影カメラ22のフォーカスをこれらの領域にどのように効率的に設定するかを決定する
ことに関連する。本明細書に記載されたシステム、デバイス、及びプロセスは、距離を容
易に確認する能力を向上させるため、撮影カメラ22のフォーカスを設定する能力を向上さ
せる。一実施態様では、撮影カメラ22のフォーカスは、カメラデバイス12によって提供さ
れた距離算出に基づいて、ユーザによって設定してもよい。ユーザは、表示デバイス、又
は制御デバイス、又はシステム10に関連する別のデバイスの1つからの出力を再検討する
ことによって距離算出を決定してもよい。例えば、ユーザは、算出された距離と撮影カメ
ラ22からの画像の重なりを示す表示デバイス28上で距離を見てもよい。ユーザは、カメラ
アシスタントなどの個人であってもよい。一実施態様では、撮影カメラ22のフォーカスは
、カメラデバイス12によって提供された距離算出に基づいて、自動的に設定してもよい。
例えば、カメラ制御器26、又はシステム10の他のデバイスは、フォーカスを自動的に調節
してもよい。
本明細書に記載されたシステム10、デバイス、及びプロセスのさらなる利点としては、
それらの外観に基づいて関心領域を選択する能力、例えば、顔認識が挙げられる。さらな
る利点としては、1つ又は複数の関心領域が動くにつれて1つ又は複数の関心領域のロケー
ションを追跡する能力が挙げられる。さらなる利点としては、移動中に生じ得る、1つ又
は複数の関心領域までの距離のリアルタイム算出が挙げられる。
本明細書に記載されたシステム10、デバイス、及びプロセスは、距離を決定する従来の
方法、例えば、音響又は赤外測定デバイスの使用を上回る飛躍的な向上を表す。
システム10の要素は、通常のカメラシステムの一部として有利に現れ得、使いやすさや
システムの市場性が高まる。例えば、カメラデバイス12、制御デバイス18、及び/又は表
示デバイスを撮影カメラ22と連結して、使用する総部品数を減らしてもよい。システム10
の要素は、携帯型にしてもよく、軽量であるのが好ましい。一実施態様では、カメラデバ
イス12は、おおよそ4ポンド未満の重量を有してもよい。一実施態様では、表示デバイス2
4は、2ポンド未満の重量を有してもよい。
システム10は、おおよそ1フィート〜45フィートの距離で動作してもよいが、さらなる
範囲も利用してよい。システム10は、撮影カメラ22の被写界深度の精度と共にある距離で
有利に動作してもよい。システム10は、非常に暗い光と明るい光の間の輝度レベル、おお
よそ10ルクス〜25,000ルクスで動作してもよい。他の輝度レベルも利用してよい。
図20は、カメラデバイス12及び表示デバイス24のハードウェア構成の一実施態様を示す
。他のハードウェア構成を他の実施態様で使用してもよい。カメラデバイス12は、プロセ
ッサカード76を使用してもよい。一実施態様では、プロセッサカード76は、最大2ギガバ
イトの内部メモリー、及び最大16ギガバイトのフラッシュメモリーを含んでもよい。他の
実施態様では、他の形態のプロセッサカード76を利用してもよい。一実施態様では、イン
タフェースデバイス72は、PCT USB3カードの形態であってもよい。他の実施態様では、他
の形態のインタフェースデバイスを利用してもよい。表示デバイス24は、オーバーレイプ
ロセッサカード118を使用してもよい。一実施態様では、オーバーレイプロセッサカード7
6は、HD-SDI入力、及びHD-SDI出力を含んでもよい。他の実施態様では、他の形態のプロ
セッサカード76を利用してもよい。表示デバイス24は、無線通信カード122、及び電源124
を含んでもよい。
一実施態様では、カメラ14、16は、ビニング、ウィンドウイング、高速読み取りするよ
うに構成されてもよい。カメラ14、16は、最大5メガピクセルを有する画像センサを含ん
でもよい。カメラ14、16は、所望の解像度に応じて、毎秒最大33枚の画像、又は毎秒最大
15枚の画像を生成するように構成されてもよい。他の実施態様では、カメラ14、16の特徴
は、必要に応じて変化してもよい。
図21は、システム10の要素間の有線接続の一実施態様を示す。ケーブルを使用して、有
線接続を行ってもよい。画像データを転送するためのケーブルは、HD-SDIケーブルの形態
であってもよいが、他の形態のケーブルを必要に応じて使用してもよい。電力ケーブルは
、電池パック126から電力を供給してもよいが、他の形態の電源を必要に応じて使用して
もよい。
図22は、関心領域までの距離を決定するためのプロセスマップの一実施態様を示す。プ
ロセス128は、1つ以上の関心領域の選択で生じてもよい。プロセス128は、制御デバイス1
8の使用を介して生じてもよい。プロセス128は、顔の特徴検出、又はマークを追跡する検
出のプロセスを含んでもよい。プロセス130は、カメラデバイス12の使用を介して生じて
もよい。カメラデバイス12は、第1視野における選択された1つ又は複数の関心領域を第2
視野と一致させてもよい。カメラデバイス12は、視差算出を行ってもよい。プロセス132
は、カメラデバイス12に入力されているシステム10又はカメラデバイス12のカメラのパラ
メータを介して生じてもよい。そのようなパラメータは、カメラベースライン、カメラ焦
点距離、及び本明細書に基づく他の特徴などの特徴を含んでもよい。プロセス134は、視
差算出、及びプロセス132で入力したパラメータに基づいて、1つ又は複数の関心領域まで
の距離又は複数の距離を算出するカメラデバイス12を介して生じてもよい。プロセス136
は、制御デバイス18、又はカメラ12、14又は22の1つからの画像上に距離を重ねる表示デ
バイス24を介して生じてもよい。図22のプロセスは、工程を含むか又は除外するように変
更してもよく、本明細書に記載された任意のプロセスを含んでもよい。
図23は、カメラ制御器26とデータを送受信するプロセスの一実施態様を示す。システム
10の要素は、カメラ制御器26からフォーカス、ズーム、及び/又は絞りのデータを要求し
てもよい。データは、カメラデバイス12及び/又は撮影カメラ22のステータスを表しても
よい。図23に示すプロセスは、必要に応じて変更又は除外してもよい。図24は、距離デー
タをカメラ制御器26に送信するプロセスの一実施態様を示す。図23に示すプロセス、必要
に応じて変更又は除外してもよい。
本明細書に開示されている実施態様は、以下のプロセスを含んでもよい。本明細書に開
示されているさらなるプロセスは、以下に列挙する工程に組み込んでもよい:
カメラのフォーカスを調節するための方法は、制御デバイスが第1カメラの第1視野にお
ける関心領域を選択すること;第1視野における選択された関心領域の位置を、第2カメラ
の、第1視野の少なくとも一部と重なる第2視野における選択された関心領域の位置と比較
することによって、あるロケーションに対する選択された関心領域の距離をプロセッサで
算出すること;プロセッサによって算出された距離に基づいて、第3カメラのフォーカス
を選択された関心領域上で調節することを含んでもよい。
方法は、第1カメラによって生成された第1視野の画像を表示するように構成されたタッ
チスクリーンを含む制御デバイスを含んでもよく、関心領域は、ユーザが、画像における
関心領域を表示するタッチスクリーンの一部に触れることによって選択される。
方法は、第1カメラと第2カメラを含んでもよく、各々は、第1カメラと第2カメラを互い
にある距離に保持する筺体に連結されている。
方法は、第1カメラと第2カメラの間の距離に基づいて、ロケーションに対する選択され
た関心領域の距離を算出することをさらに含む算出工程を含んでもよい。
方法は、プロセッサによって算出された距離を第3カメラによって生成された画像のオ
ーバーレイ上に表示する工程をさらに含んでもよい。
方法は、プロセッサが、選択された関心領域を第1視野で移動させながら、第1視野にお
ける選択された関心領域の位置を追跡する工程をさらに含んでもよい。
方法は、選択された関心領域を第1視野で移動させながら、ロケーションに対する選択
された関心領域の距離をリアルタイムで算出することをさらに含む算出工程を含んでもよ
い。
方法は、選択された関心領域を第1視野で移動させながら、プロセッサによって算出さ
れた距離をリアルタイムで表示する工程をさらに含んでもよい。
方法は、選択された関心領域を第1視野で移動させながら、プロセッサによって算出さ
れた距離を第3カメラによって生成された画像上にリアルタイムで重ねることをさらに含
む表示工程を含んでもよい。
方法は、動いている選択された関心領域を表示するビデオ画像である、第3カメラによ
って生成された画像を含んでもよい。
本明細書に開示されている実施態様は、以下の装置を含んでもよい。本明細書に開示さ
れているさらなる特徴は、以下に列挙する装置に組み込んでもよい:
関心領域までの距離を決定するための装置は、筺体と;筺体に連結され、第1視野を有
するように配向された第1カメラと;筺体に連結され、第1視野の少なくとも一部と重なる
第2視野を有するように配向された第2カメラと;筺体に連結され、第1視野における選択
された関心領域の位置を第2視野における選択された関心領域の位置と比較することによ
って、あるロケーションに対する選択された関心領域の距離を算出するように構成された
プロセッサとを含む。
装置は、第1カメラが第1縦軸に沿って位置合わせされ、第2カメラが第1縦軸に実質的に
平行な第2縦軸に沿って位置合わせされるように構成されてもよい。
装置は、第1カメラが第1画像センサを有し、第2カメラが第2画像センサを有し、第1画
像センサが第2画像センサと実質的に同一平面上に位置するように構成されてもよい。
装置は、第1カメラがおおよそ12ミリメートル以上16ミリメートル以下の焦点距離を有
し、第2カメラがおおよそ12ミリメートル以上16ミリメートル以下の焦点距離を有するよ
うに構成されてもよい。
装置は、第1視野が水平次元及び垂直次元を含み、第2視野が水平次元及び垂直次元を含
み;プロセッサが、第1視野の水平次元における選択された関心領域の位置を第2視野の水
平次元における選択された関心領域の位置と比較することによって、ロケーションに対す
る選択された関心領域の距離を算出するようにさらに構成されているように構成されても
よい。
装置は、プロセッサが、選択された関心領域を第1視野で移動させながら、第1視野にお
ける選択された関心領域の位置を追跡するようにさらに構成されているように構成されて
もよい。
装置は、プロセッサが、選択された関心領域を第1視野で移動させながら、ロケーショ
ンに対する選択された関心領域の距離をリアルタイムで算出するように構成されているよ
うに構成されてもよい。
装置は、筺体に連結され、選択された関心領域を示すデータを受信するように構成され
た入力デバイスをさらに含んでもよい。
装置は、入力デバイスが無線通信デバイスであるように構成されてもよい。
装置は、筺体に連結され、プロセッサによって算出された距離を示すデータを出力する
ように構成された出力デバイスをさらに含んでもよい。
締めくくりとして、本明細書の態様は具体的な実施態様を参照して強調されているが、
当業者であれば、これらの開示されている実施態様は、本明細書に開示されている主題の
原理の単に例示であることが容易に分かるであろうことを理解すべきである。従って、開
示されている主題は、決して本明細書に記載されている特定の方法論、手順、及び/又は
試薬などに限定されないことを理解すべきである。従って、本明細書の趣旨から逸脱する
ことなく、本明細書中の教示に従って、開示されている主題に対する様々な修正又は変更
又はそれらの他の構成が可能である。最後に、本明細書中で使用されている専門用語は、
単に特定の実施態様を記述するためのものであり、本明細書に開示されているシステム、
装置、及び方法の範囲を限定するものではく、特許請求の範囲によってのみ定義される。
従って、システム、装置、及び方法は、詳細に図示及び記載されているものに限定されな
い。
本発明者らに知られている本発明を実施するための最良の形態を含むシステム、装置、
及び方法の特定の実施態様が、本明細書に記載されている。当然のことながら、これらの
記載されている実施態様の変形形態は、上記記載を読めば当業者には明らかである。本発
明者は、当業者がそのような変形形態を適宜用いることを想定しており、本発明者らは、
本明細書に具体的に記載されているものとは異なる方法でシステム、装置、及び方法が実
施されることを企図している。従って、システム、装置、及び方法は、本明細書に添付さ
れている特許請求の範囲に列挙されている主題の全ての変形形態及び均等物を適用法によ
り認められるものとして含むものである。さらに、本明細書に特に明記しない限り、ある
いは文脈に明らかに矛盾しない限り、その全ての可能な変形形態における上記実施態様の
任意の組み合わせがシステム、装置、及び方法により包含される。
システム、装置、及び方法の他の実施態様、要素、又は工程のグループ化は、本発明を
限定するものとして解釈されるべきではない。各グループの構成要素は、個々に、あるい
は本明細書に開示されている他のグループの構成要素との任意の組み合わせで参照及び特
許請求することができる。グループの1つ以上の構成要素は、利便性及び/又は特許性を理
由に、グループに含めたり、そこから削除したりすることができるものと想定される。任
意のそのような包含又は削除が生じた場合、本明細書は、そのグループを修正されたもの
として含めるものとし、従って、添付の特許請求の範囲に使用されている全てのマーカッ
シュ群の記載を満たすものとする。
特に明記しない限り、本明細書及び特許請求の範囲に使用されている特性、項目、量、
パラメータ、性質、用語などを表わす全ての数は、「約」という用語により、全ての場合
に修正されるものとして理解されるべきである。本明細書で使用される「約」という用語
は、そのように評された特性、項目、量、パラメータ、性質又は用語が、変動し得る近似
値を包含することを意味する。「おおよそ[で]」及び「実質的[に]」という用語は、指定
した量から変化し得る量を表すが、本明細書に記載された所望の動作又はプロセスを実施
することが可能である。
システム、装置、及び方法を記載する文脈(特に、以下の特許請求の範囲の文脈)に使用
される「1つの(a)」「1つの(an)」「その(前記)(the)」という用語及び同様の指
示物は、本明細書に特に明記しない限り、あるいは文脈に明らかに矛盾しない限り、単数
及び複数の両方を包含するものと解釈されるべきである。本明細書に記載されている全て
の方法は、本明細書に特に明記しない限り、あるいは文脈に明らかに矛盾しない限り、任
意の好適な順序で実施することができる。本明細書に提供されているありとあらゆる例又
は例を表わす言葉(例えば、「など」)の使用は、システム、装置、及び方法を単により
良く理解するためのものであり、特許請求の範囲に別段の記載がない限り、システム、装
置、及び方法の範囲に限定を課すものではない。本明細書中のいずれの言葉も、システム
、装置、及び方法の実施に必須なあらゆる特許請求されていない要素を示すものとして解
釈されるべきではない。
本明細書で参照及び特定されている全ての特許、特許公開公報、及び他の刊行物の開示
内容全体が、例えば、システム、装置、及び方法に関して使用され得るそのような刊行物
に記載されている組成物及び方法論を記載及び開示するために、個々に、かつ明確に参照
により本明細書に組み込まれる。これらの刊行物は単に、本出願の出願日より前のそれら
の開示のために提供されている。この点に関してはいずれも、本発明者らが、先願発明に
より、あるいはあらゆる他の理由のために、そのような開示に先行する権利がないという
ことを認めるものとして解釈されるべきではない。これらの文献の日付に関する全ての記
載又は内容に関する表現は、本出願人に利用可能な情報に基づくものであり、これらの文
献の日付又は内容の正確性に関するいかなる承認も構成するものではない。
本明細書で参照及び特定されている全ての特許、特許公開公報、及び他の刊行物の開示内容全体が、例えば、システム、装置、及び方法に関して使用され得るそのような刊行物に記載されている組成物及び方法論を記載及び開示するために、個々に、かつ明確に参照により本明細書に組み込まれる。これらの刊行物は単に、本出願の出願日より前のそれらの開示のために提供されている。この点に関してはいずれも、本発明者らが、先願発明により、あるいはあらゆる他の理由のために、そのような開示に先行する権利がないということを認めるものとして解釈されるべきではない。これらの文献の日付に関する全ての記載又は内容に関する表現は、本出願人に利用可能な情報に基づくものであり、これらの文献の日付又は内容の正確性に関するいかなる承認も構成するものではない。
本件出願は、以下の態様の発明を提供する。
(態様1)
関心領域までの距離を決定するためのシステムであって:
第1視野を有するように構成された第1カメラと;
該第1視野の少なくとも一部と重なる第2視野を有するように構成された第2カメラと;
該第2視野と重なる該第1視野の少なくとも一部の関心領域をユーザに選択させるように構成された制御デバイスと;
該第1視野における該選択された関心領域の位置を該第2視野における該選択された関心領域の位置と比較することによって、あるロケーションに対する該選択された関心領域の距離を算出するように構成されたプロセッサと;及び
該プロセッサによって算出された距離の表示を生成するように構成された表示デバイスと
を含む、前記システム。
(態様2)
前記第1カメラと前記第2カメラを互いにある距離に保持する筺体をさらに含む、態様1に記載のシステム。
(態様3)
前記プロセッサが、前記第1カメラと前記第2カメラの間の距離に基づいて、前記選択された関心領域の距離を算出するように構成されている、態様2に記載のシステム。
(態様4)
前記筺体が、該第2視野が前記第1視野の少なくとも一部と重なるように、前記第1カメラと前記第2カメラをある配向に保持する、態様2に記載のシステム。
(態様5)
前記表示デバイスが、前記プロセッサによって算出された距離を第3カメラによって生成された画像上に重ねるように構成されたオーバーレイデバイスを含む、態様1に記載のシステム。
(態様6)
前記画像が、ビデオ画像を含む、態様5に記載のシステム。
(態様7)
前記第1視野が、水平次元及び垂直次元を含み、前記第2視野が、水平次元及び垂直次元を含み;及び
前記プロセッサが、前記第1視野の水平次元における前記選択された関心領域の位置を前記第2視野の水平次元における前記選択された関心領域の位置と比較することによって、前記ロケーションに対する前記選択された関心領域の距離を算出するようにさらに構成されている、態様1に記載のシステム。
(態様8)
前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって、前記第2視野における前記選択された関心領域の位置を識別するようにさらに構成されている、態様1に記載のシステム。
(態様9)
前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記第1視野における前記選択された関心領域の位置を追跡するようにさらに構成されている、態様1に記載のシステム。
(態様10)
前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって、前記第2視野における前記選択された関心領域の位置を追跡するようにさらに構成されている、態様9に記載のシステム。
(態様11)
前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記ロケーションに対する前記選択された関心領域の距離をリアルタイムで算出するように構成されている、態様10に記載のシステム。
(態様12)
前記表示デバイスが、前記選択された関心領域を前記第1視野で移動させながら、前記プロセッサによって算出された距離を第3カメラによって生成された画像上にリアルタイムで重ねるように構成されたオーバーレイデバイスを含む、態様11に記載のシステム。
(態様13)
前記制御デバイスが、前記第2視野と重なる前記第1視野の少なくとも一部における複数の関心領域をユーザに選択させるように構成されており;
前記プロセッサが、前記第1視野における前記複数の選択された関心領域の各々の位置を前記第2視野における前記複数の選択された関心領域の対応するものの位置と比較することによって、あるロケーションに対する前記複数の選択された関心領域の各々の距離を算出するように構成されており;
前記表示デバイスが、前記複数の選択された関心領域の各々について、前記プロセッサによって算出された距離の表示を生成するように構成されている、態様1に記載のシステム。
(態様14)
前記制御デバイスが、前記第1カメラによって生成された前記第1視野の画像を表示するように構成されたタッチスクリーンを含み、前記画像における前記関心領域を表示する前記タッチスクリーンの一部に触れることによって、前記関心領域を前記ユーザに選択させるように構成されている、態様1に記載のシステム。

Claims (14)

  1. 関心領域までの距離を決定するためのシステムであって:
    第1視野を有するように構成された第1カメラと;
    該第1視野の少なくとも一部と重なる第2視野を有するように構成された第2カメラと;
    該第2視野と重なる該第1視野の少なくとも一部の関心領域をユーザに選択させるように
    構成された制御デバイスと;
    該第1視野における該選択された関心領域の位置を該第2視野における該選択された関心
    領域の位置と比較することによって、あるロケーションに対する該選択された関心領域の
    距離を算出するように構成されたプロセッサと;及び
    該プロセッサによって算出された距離の表示を生成するように構成された表示デバイス

    を含む、前記システム。
  2. 前記第1カメラと前記第2カメラを互いにある距離に保持する筺体をさらに含む、請求項
    1に記載のシステム。
  3. 前記プロセッサが、前記第1カメラと前記第2カメラの間の距離に基づいて、前記選択さ
    れた関心領域の距離を算出するように構成されている、請求項2に記載のシステム。
  4. 前記筺体が、該第2視野が前記第1視野の少なくとも一部と重なるように、前記第1カメ
    ラと前記第2カメラをある配向に保持する、請求項2に記載のシステム。
  5. 前記表示デバイスが、前記プロセッサによって算出された距離を第3カメラによって生
    成された画像上に重ねるように構成されたオーバーレイデバイスを含む、請求項1に記載
    のシステム。
  6. 前記画像が、ビデオ画像を含む、請求項5に記載のシステム。
  7. 前記第1視野が、水平次元及び垂直次元を含み、前記第2視野が、水平次元及び垂直次元
    を含み;及び
    前記プロセッサが、前記第1視野の水平次元における前記選択された関心領域の位置を
    前記第2視野の水平次元における前記選択された関心領域の位置と比較することによって
    、前記ロケーションに対する前記選択された関心領域の距離を算出するようにさらに構成
    されている、請求項1に記載のシステム。
  8. 前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野
    における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって
    、前記第2視野における前記選択された関心領域の位置を識別するようにさらに構成され
    ている、請求項1に記載のシステム。
  9. 前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記第1
    視野における前記選択された関心領域の位置を追跡するようにさらに構成されている、請
    求項1に記載のシステム。
  10. 前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野
    における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって
    、前記第2視野における前記選択された関心領域の位置を追跡するようにさらに構成され
    ている、請求項9に記載のシステム。
  11. 前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記ロ
    ケーションに対する前記選択された関心領域の距離をリアルタイムで算出するように構成
    されている、請求項10に記載のシステム。
  12. 前記表示デバイスが、前記選択された関心領域を前記第1視野で移動させながら、前記
    プロセッサによって算出された距離を第3カメラによって生成された画像上にリアルタイ
    ムで重ねるように構成されたオーバーレイデバイスを含む、請求項11に記載のシステム。
  13. 前記制御デバイスが、前記第2視野と重なる前記第1視野の少なくとも一部における複数
    の関心領域をユーザに選択させるように構成されており;
    前記プロセッサが、前記第1視野における前記複数の選択された関心領域の各々の位置
    を前記第2視野における前記複数の選択された関心領域の対応するものの位置と比較する
    ことによって、あるロケーションに対する前記複数の選択された関心領域の各々の距離を
    算出するように構成されており;
    前記表示デバイスが、前記複数の選択された関心領域の各々について、前記プロセッサ
    によって算出された距離の表示を生成するように構成されている、請求項1に記載のシス
    テム。
  14. 前記制御デバイスが、前記第1カメラによって生成された前記第1視野の画像を表示する
    ように構成されたタッチスクリーンを含み、前記画像における前記関心領域を表示する前
    記タッチスクリーンの一部に触れることによって、前記関心領域を前記ユーザに選択させ
    るように構成されている、請求項1に記載のシステム。
JP2020104960A 2014-09-24 2020-06-18 動画カメラフォーカス用途における距離測定デバイス Active JP7293169B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/495,862 2014-09-24
US14/495,862 US9609200B2 (en) 2014-09-24 2014-09-24 Distance measurement device for motion picture camera focus applications
JP2017516929A JP2017535755A (ja) 2014-09-24 2015-09-23 動画カメラフォーカス用途における距離測定デバイス

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017516929A Division JP2017535755A (ja) 2014-09-24 2015-09-23 動画カメラフォーカス用途における距離測定デバイス

Publications (2)

Publication Number Publication Date
JP2020174361A true JP2020174361A (ja) 2020-10-22
JP7293169B2 JP7293169B2 (ja) 2023-06-19

Family

ID=54252427

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017516929A Pending JP2017535755A (ja) 2014-09-24 2015-09-23 動画カメラフォーカス用途における距離測定デバイス
JP2020104960A Active JP7293169B2 (ja) 2014-09-24 2020-06-18 動画カメラフォーカス用途における距離測定デバイス

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017516929A Pending JP2017535755A (ja) 2014-09-24 2015-09-23 動画カメラフォーカス用途における距離測定デバイス

Country Status (9)

Country Link
US (3) US9609200B2 (ja)
EP (2) EP3451285B1 (ja)
JP (2) JP2017535755A (ja)
KR (1) KR102391828B1 (ja)
CN (1) CN107209943B (ja)
AU (1) AU2015320751B2 (ja)
CA (1) CA2962065C (ja)
NZ (1) NZ730031A (ja)
WO (1) WO2016049113A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008968A1 (ko) * 2021-07-29 2023-02-02 삼성전자 주식회사 카메라를 포함하는 전자 장치 및 전자 장치의 동작 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609200B2 (en) 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
KR102636272B1 (ko) * 2016-07-26 2024-02-14 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템
WO2019094003A1 (en) * 2017-11-08 2019-05-16 Hewlett-Packard Development Company, L.P. Determining locations of electro-optical pens
TWI650530B (zh) * 2018-01-22 2019-02-11 國立臺灣科技大學 檢測系統及其方法
US10739552B2 (en) * 2018-02-21 2020-08-11 Panavision International, L.P. Internally slotted cam for lens system
CN111885294B (zh) * 2018-03-26 2022-04-22 华为技术有限公司 一种拍摄方法、装置与设备
AT521845B1 (de) * 2018-09-26 2021-05-15 Waits Martin Verfahren zur Fokuseinstellung einer Filmkamera
DE102019003510B4 (de) * 2019-05-20 2023-02-23 Florian Maier Verfahren und Vorrichtung zur Steuerung von Motoren im Film- und Broadcastbereich
CN112815911B (zh) * 2020-12-30 2022-01-04 河海大学 基于三目视觉的输电线路交跨距离测量方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112019A (ja) * 1998-10-08 2000-04-21 Olympus Optical Co Ltd 電子3眼カメラ装置
JP2010093422A (ja) * 2008-10-06 2010-04-22 Canon Inc 撮像装置
KR20110021500A (ko) * 2009-08-26 2011-03-04 유지상 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
JP2011211531A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 撮像装置
JP2012028915A (ja) * 2010-07-21 2012-02-09 Kantatsu Co Ltd 撮像装置
JP2012145813A (ja) * 2011-01-13 2012-08-02 Ricoh Co Ltd 撮像装置および撮像方法
JP2012151526A (ja) * 2011-01-14 2012-08-09 Jvc Kenwood Corp 撮像装置および撮像方法
WO2013047482A1 (ja) * 2011-09-30 2013-04-04 富士フイルム株式会社 撮影装置、撮影方法、記録媒体およびプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4601053A (en) * 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
US5175616A (en) * 1989-08-04 1992-12-29 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada Stereoscopic video-graphic coordinate specification system
KR940000019B1 (ko) * 1989-12-25 1994-01-05 미쯔비시 덴끼 가부시기가이샤 거리측정장치
JP2608996B2 (ja) * 1991-03-13 1997-05-14 三菱電機株式会社 車両の走行状態記憶装置
AU6355799A (en) * 1998-10-28 2000-05-15 Measurement Devices Limited Apparatus and method for obtaining 3d images
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
JP2004312249A (ja) * 2003-04-04 2004-11-04 Olympus Corp カメラ
US8089515B2 (en) * 2005-12-30 2012-01-03 Nokia Corporation Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
US7697724B1 (en) * 2006-05-23 2010-04-13 Hewlett-Packard Development Company, L.P. Displacement determination system and method using separated imaging areas
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2010099495A2 (en) 2009-02-27 2010-09-02 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
US7933512B2 (en) * 2009-03-24 2011-04-26 Patrick Campbell Stereo camera with controllable pivot point
WO2010127285A2 (en) * 2009-04-30 2010-11-04 Tetracam, Inc. Method and apparatus for providing a 3d image via media device
US8853631B2 (en) * 2009-11-23 2014-10-07 Flir Systems Ab Camera with two visual imaging subsystems for determining parallax and for focusing an infrared imaging subsystem
US9049423B2 (en) * 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
JP5942343B2 (ja) * 2011-05-25 2016-06-29 株式会社リコー 撮像装置
JP5776771B2 (ja) * 2011-06-24 2015-09-09 コニカミノルタ株式会社 対応点探索装置、および距離測定装置
JP2013086959A (ja) * 2011-10-21 2013-05-13 Sumitomo Heavy Ind Ltd フォークリフトのフォーク位置決め支援装置および方法
KR20130073344A (ko) 2011-12-23 2013-07-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN102609724B (zh) * 2012-02-16 2014-05-14 北京航空航天大学 一种基于双摄像头的周围环境信息提示方法
JP5991688B2 (ja) * 2012-02-24 2016-09-14 株式会社レゾナント・システムズ ステレオカメラユニット及び自動車用モニタシステム
GB201208088D0 (en) 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
DE112013003338B4 (de) * 2012-07-02 2017-09-07 Panasonic Intellectual Property Management Co., Ltd. Größenmessvorrichtung und Größenmessverfahren
JP2014044345A (ja) * 2012-08-28 2014-03-13 Ricoh Co Ltd 撮像装置
CN104156946B (zh) * 2014-07-17 2017-04-19 西北工业大学 一种空间绳系机器人抓捕区域内的障碍物检测方法
US9609200B2 (en) 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
JP6900174B2 (ja) 2016-06-27 2021-07-07 芝浦メカトロニクス株式会社 錠剤印刷装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112019A (ja) * 1998-10-08 2000-04-21 Olympus Optical Co Ltd 電子3眼カメラ装置
JP2010093422A (ja) * 2008-10-06 2010-04-22 Canon Inc 撮像装置
KR20110021500A (ko) * 2009-08-26 2011-03-04 유지상 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
JP2011211531A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 撮像装置
JP2012028915A (ja) * 2010-07-21 2012-02-09 Kantatsu Co Ltd 撮像装置
JP2012145813A (ja) * 2011-01-13 2012-08-02 Ricoh Co Ltd 撮像装置および撮像方法
JP2012151526A (ja) * 2011-01-14 2012-08-09 Jvc Kenwood Corp 撮像装置および撮像方法
WO2013047482A1 (ja) * 2011-09-30 2013-04-04 富士フイルム株式会社 撮影装置、撮影方法、記録媒体およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008968A1 (ko) * 2021-07-29 2023-02-02 삼성전자 주식회사 카메라를 포함하는 전자 장치 및 전자 장치의 동작 방법

Also Published As

Publication number Publication date
AU2015320751B2 (en) 2020-03-12
US10587792B2 (en) 2020-03-10
CA2962065C (en) 2023-11-21
US11494929B2 (en) 2022-11-08
US20160088212A1 (en) 2016-03-24
KR102391828B1 (ko) 2022-04-27
AU2015320751A1 (en) 2017-04-06
EP3198864A1 (en) 2017-08-02
KR20170086476A (ko) 2017-07-26
CN107209943B (zh) 2021-08-06
WO2016049113A1 (en) 2016-03-31
NZ730031A (en) 2022-02-25
US20200280672A1 (en) 2020-09-03
US9609200B2 (en) 2017-03-28
EP3451285B1 (en) 2022-11-23
JP2017535755A (ja) 2017-11-30
CA2962065A1 (en) 2016-03-31
JP7293169B2 (ja) 2023-06-19
US20170264815A1 (en) 2017-09-14
CN107209943A (zh) 2017-09-26
EP3451285A1 (en) 2019-03-06

Similar Documents

Publication Publication Date Title
JP7293169B2 (ja) 動画カメラフォーカス用途における距離測定デバイス
US20130271579A1 (en) Mobile Stereo Device: Stereo Imaging, Measurement and 3D Scene Reconstruction with Mobile Devices such as Tablet Computers and Smart Phones
US8259161B1 (en) Method and system for automatic 3-D image creation
TWI394431B (zh) 評價立體影像顯示面板的方法及系統
JP2018510324A (ja) 複数技術奥行きマップ取得および融合のための方法および装置
US10229656B2 (en) Image processing apparatus and image processing method to display full-size image of an object
CN105744138B (zh) 快速对焦方法和电子设备
CN102724398B (zh) 图像数据提供方法、组合方法及呈现方法
JP2014241496A (ja) 情報処理装置、撮像装置、情報処理方法、及びプログラム
CN105791663A (zh) 距离估算系统及距离估算方法
TW201310970A (zh) 三維影像擷取方法與裝置及三維影像顯示裝置
JP2021027584A (ja) 画像処理装置、画像処理方法およびプログラム
KR101082545B1 (ko) 영상 변환 기능을 구비한 이동통신 단말기
TW201205344A (en) Adjusting system and method for screen, advertisement board including the same
KR20150028533A (ko) 실내 공간 정보 구축을 위한 이동식 정보수집 장치
KR20160111678A (ko) 단일 카메라를 이용한 거리 측정 장치 및 방법
KR20200082441A (ko) 촬영영상을 이용한 실내공간 실측 시스템
JP5980541B2 (ja) 撮像装置、及び撮像制御方法
WO2021020358A1 (ja) 画像処理装置、画像処理方法、プログラムおよび記憶媒体
KR20160008666A (ko) 스테레오 카메라 칼리브레이션 시스템 및 스테레오 카메라 칼리브레이션 방법
JP2012010186A (ja) 画像処理装置、画像処理システム及び画像処理方法
JP2014032589A (ja) 電子機器

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230607

R150 Certificate of patent or registration of utility model

Ref document number: 7293169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150