JP2020174361A - 動画カメラフォーカス用途における距離測定デバイス - Google Patents
動画カメラフォーカス用途における距離測定デバイス Download PDFInfo
- Publication number
- JP2020174361A JP2020174361A JP2020104960A JP2020104960A JP2020174361A JP 2020174361 A JP2020174361 A JP 2020174361A JP 2020104960 A JP2020104960 A JP 2020104960A JP 2020104960 A JP2020104960 A JP 2020104960A JP 2020174361 A JP2020174361 A JP 2020174361A
- Authority
- JP
- Japan
- Prior art keywords
- interest
- camera
- field
- view
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 title description 5
- 230000000007 visual effect Effects 0.000 claims description 55
- 230000003287 optical effect Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 81
- 238000004891 communication Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 12
- 230000001815 facial effect Effects 0.000 description 5
- 230000000712 assembly Effects 0.000 description 4
- 238000000429 assembly Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/58—Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/44504—Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Automatic Focus Adjustment (AREA)
- Image Analysis (AREA)
- Focusing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、関心領域までの距離を決定するためのシステム、装置、及び方法に関する。
関心領域までの距離を決定することは、撮影カメラのフォーカスの適切な設定を含む、
適切なカメラ動作と関連している。動画及びテレビジョンの撮影を含む、プロレベルの撮
影では、関心領域までの距離を適切に決定することに特に関連している。カメラアシスタ
ントが、関心領域までの距離を決定した後に、その距離に基づいて、撮影カメラのフォー
カスを設定する任務を負ってもよい。
がある。音響又は赤外測定デバイスなどのシステムは、所望の関心領域を適切に識別しな
い場合があり、関心領域の動きを適切に追跡しない場合がある。加えて、従来のシステム
は、所望の関心領域を容易に視覚化できない場合がある。
本明細書に開示されているシステム、装置、及び方法は、関心領域までの距離の改善さ
れた決定を提供することを目的とするものである。距離の決定を使用して、撮影カメラの
フォーカスを適切に設定してもよい。
決定を含んでもよい。2台のカメラのビューを介した関心領域の視差は、カメラからの関
心領域の距離に反比例する。関心領域までの距離は、この視差に基づいて決定してもよい
。
関心領域までの距離をリアルタイム算出することができる。本開示の実施態様は、複数の
関心領域を同時に追跡することができ、いずれかのカメラの視野をディスプレイ上に生成
することができる。
やすさを向上させ、関心領域までの距離に関する改善された情報を生成する。
本明細書に開示されているシステム、装置、及び方法の特徴及び利点は、明細書、特許
請求の範囲、及び添付図面を参照することによってより良く理解するにつれて分かるであ
ろう。
図1は、関心領域までの距離を決定するためのシステム10の実施態様を示す。システム1
0は、撮影カメラが所望の関心領域上に焦点をより簡単に合わせられるように、動画カメ
ラ用途に使用してもよい。
れの視野を有する2台のカメラ14、16を含んでもよい。システム10は、カメラ14、16の1つ
の視野の関心領域を選択するための制御デバイス18を含んでもよい。システム10は、シス
テム10のプロセッサによって算出された関心領域までの距離を表示するように構成された
表示デバイス20を含んでもよい。
を含んでもよい。撮影カメラ22は、カメラ14、16の視野と重なる視野における画像を生成
するように構成されてもよい。表示デバイス24は、システム10のプロセッサによって算出
された距離を撮影カメラ24からの画像上に重ねるためのオーバーレイデバイスの形態であ
ってもよい。カメラ制御器26は、カメラ14、16の動作を制御するように構成されてもよい
。表示デバイス28は、撮影デバイス22からの画像、例えば、オーバーレイデバイスからの
オーバーレイを表示してもよい。所望の結果を生成するように、システム10の要素を除外
してもよく、又は追加要素を含めてもよい。
配向で位置してもよい。1台のカメラ14の視野は、他のカメラ16の視野の全体に、又はそ
れぞれの視野の少なくとも一部が重なるように他のカメラ16の視野の一部のみに重なって
もよい。
、16を互いに距離32で保持してもよい。筺体30は、カメラ14、16を適所に設定し、2台の
カメラ14、16間の距離32を定義してもよい。
、互いに実質的に平行であってもよい。カメラ14、16は、互いに実質的に同一平面上に配
向され、実質的に同様の水平に、又は図3の頁から伸びているx次元の平面38に位置合わせ
されてもよい。図5に示すカメラ画像センサ40、42は、互いに実質的に同一平面上に配向
され、実質的に同様の垂直に、又は図3の頁から伸びているy次元の平面44に位置合わせさ
れてもよい。カメラ14、16は、同じ方向に面しているように配向されてもよい。カメラ14
、16は、各カメラ14、16の配向が固定されるように、筺体30によって保持されてもよい。
一実施態様では、カメラ14、16のいずれかは、筺体30及び/又は他のカメラ14、16に対し
て移動可能であるように構成されてもよい。一実施態様では、カメラ14、16のいずれかは
、筺体30に連結しなくてもよい。カメラは、筺体30に連結したカメラに関して説明した配
向を含む、所望の配向でセットアップできる分離可能なカメラであってもよい。
なるように設定するのが好ましい。一実施態様では、各カメラ14、16の焦点距離は、おお
よそ12mm以上16mm以下であってもよい。一実施態様では、各カメラ14、16の焦点距離は、
同じか又は実質的に同様に設定してもよい。そのような実施態様では、同様又は同一の焦
点距離は、距離を決定するのに使用されるプロセスの量を減少させることができる。一実
施態様では、カメラの異なる焦点距離は、必要に応じて使用してもよい。
に、カメラユニット12の長さは、おおよそ7.29インチ(18.52センチメートル)であって
もよく、その幅は、おおよそ10.5インチ(26.67センチメートル)であってもよい。図3に
示す高さは、おおよそ2.65インチ(6.73センチメートル)であってもよい。図2及び3に示
す寸法は、例示であり、おおよそ5〜10インチ(12.7〜25.4センチメートル)の長さ、お
およそ7〜13インチ(17.78〜33.02センチメートル)の幅、及びおおよそ1〜5インチ(2.5
4〜12.7センチメートル)の高さを含む様々な寸法を利用してもよい。一実施態様では、
本明細書に記載されたものとは異なる寸法を利用してもよい。筺体30は、カメラユニット
12を他の構造体又はシステム10の要素に接続させるように構成された取付デバイス46、48
を含んでもよい。取付デバイス46、48のいずれかは、カメラユニット12を所望の配向で保
持させてもよい。取付デバイス46、48のいずれかは、カメラユニット12を撮影カメラ22に
連結させてもよい。取付デバイス46、48は、図2に示すようなダブテールデバイスであっ
てもよく、又は必要に応じて他の形態を有してもよい。
ラ14、16は、部品に分けて示している。カメラユニット12の内部ハードウェアを見ること
ができる。カメラ14、16は、それぞれ前窓54、56、それぞれレンズアセンブリ58、60、及
びそれぞれ画像センサ40、42を含んでもよい。それぞれのフロントベゼル62、64は、レン
ズアセンブリ58、60を筺体30に固定することができる。各レンズアセンブリ58、60は、単
一レンズ又はマルチレンズを含んでもよい。一実施態様では、レンズアセンブリ58、60は
、ズームレンズを含んでもよい。一実施態様では、レンズアセンブリ58、60は、それぞれ
のカメラ14、16のフォーカス、ズーム、及び/又は絞りを制御するように構成されてもよ
い。画像センサ40、42は、各々、それぞれの視野の画像を捕捉し、それをデジタル化して
処理するように構成されてもよい。画像センサ40、42は、CCDセンサ、CMOSセンサ、又は
他の形態の画像センサであってもよい。画像センサ40、42は、720p、1080i、1080PsF、10
80pの解像度を生成することができてもよいが、必要に応じて他の解像度を使用してもよ
い。画像センサは、ビデオ画像を捕捉するように構成されるのが好ましい。23、98、24、
25、29、97、30、48、50、59、94、及び60のフレームレートを利用してもよいが、必要に
応じて他のフレームレートを使用してもよい。一実施態様では、カメラ14、16は、静止画
像を捕捉するように構成されてもよい。
有するように構成されてもよい。好ましくは、各カメラ14、16は、水平又はx次元におい
て、おおよそ90度の視野を有する。一実施態様では、各カメラ14、16のより小さな又はよ
り大きな角度を必要に応じて利用してもよい。
てもよい。そのような実施態様では、カメラ14、16の同様又は同一の特徴は、距離を決定
するのに使用されるプロセスの量を減少させることができる。
上35.56センチメートル)以下であってもよい。距離32は、おおよそ8インチ(20.32セン
チメートル)であるのが好ましい。一実施態様では、カメラ14、16間のより小さな又はよ
り大きな距離32を必要に応じて利用してもよい。
イスを含んでもよい。図5に示す実施態様では、入力デバイス及び出力デバイスは、アン
テナ66の形態の無線通信デバイスである。一実施態様では、入力デバイス及び出力デバイ
スは、図5に示すコネクタ68などのコネクタを含んでもよい。一実施態様では、入力デバ
イス及び出力デバイスは、異なる構造体を含んでもよい。入力デバイスは、データを受信
するように構成されてもよく、出力デバイスは、データを出力するように構成されてもよ
い。カメラデバイス12は、カメラデバイス12を動作させる電力を受電する電力コネクタ68
も含んでもよい。カメラデバイス12に利用される電圧は、おおよそ12V以上24V以下、又は
おおよそ10V以上35V以下の範囲であってもよい。一実施態様では、より小さな又はより大
きな量の電圧を必要に応じて利用してもよい。電力コネクタ68及び他の形態のコネクタを
筺体30上に近接して一緒にまとめてもよい。
をアンテナ66に送受信するように動作してもよい。無線通信カード70は、ルータの形態で
あってもよく、システム10に使用してもよい他のデバイスと無線通信するためのネットワ
ークハブとして動作してもよい。カメラデバイス12は、第1カメラ14及び/又は第2カメラ1
6と通信するためのインタフェースデバイス72を含んでもよい。インタフェースデバイス7
2は、USBカードの形態であってもよい。カメラデバイス12は、処理し、電力をカメラデバ
イス12の部品に供給するための電源74を含んでもよい。電力は、電力コネクタ68から電源
74に入力してもよい。一実施態様では、電源74は、DC-DCコンバータの形態であってもよ
いが、他の形態の電源74を必要に応じて実施態様で使用してもよい。
1カメラ14及び第2カメラ16から受信する画像を処理するように構成されているプロセッサ
77を含んでもよい。プロセッサ77を使用して、関心領域までの距離を算出してもよい。
す。
の部分を有してもよい。一実施態様では、撮影カメラ22の視野84は、視野78、80のいずれ
かの少なくとも一部と重なってもよい。関心領域は、視野78及び/又は視野80内で選択し
てもよい。関心領域は、物体又は領域などの、視野78、80のいずれかを示す任意の画像で
あってもよい。関心領域は、1点又は点の集合であってもよい。一実施態様では、関心領
域は、80×80ピクセルのサイズなどの所定のサイズを有してもよい。一実施態様では、関
心領域は、異なるサイズを有してもよく、又は必要に応じて所定のサイズを有していなく
てもよい。
、図8の右側で、カメラ16によって生成された視野80の画像の一例を示す。視野78、80は
、両方の画像で同様な視野78、80の画像の一部で示されるように重なる。視野78、80は、
視野80で示されない視野78の部分で示されるようにずれている。関心領域86が選択されて
いる。一実施態様では、関心領域86は、プロセッサ77又は他の自動プロセスによって自動
的に選択してもよい。一実施態様では、関心領域86は、ユーザの入力によって選択しても
よい。
域86は、第1視野78と呼んでもよい視野78で選択してもよい。プロセッサ77は、関心領域8
6の特徴、例えば、選択された関心領域86の外観を識別するように構成されてもよく、ア
ルゴリズムを使用して、選択された関心領域86の外観を、第2視野80と呼んでもよい他の
視野80に整合させてもよい。アルゴリズムは、第1視野78の選択された関心領域86の外観
を、第2視野80の選択された関心領域86の外観と相関させてもよい。
の外観と相関させるために使用してもよいアルゴリズムの実施態様を示す。要素「T」は
、選択された関心領域86の画像の外観を表す。要素「I」は、第2視野80の画像を表す。「
x」及び「y」要素は、図8に示したような視野の「x」及び「y」次元にそれぞれ対応する
。「w」及び「h」要素は、視野の幅及び高さに対応する。要素「R」は、第1視野78の選択
された関心領域86の外観と第2視野80の選択された関心領域86の外観との間の相関を表す
。プロセッサ77は、アルゴリズムを使用して、第2視野80の画像をスキャンし、ピーク相
関を見つけてもよい。一実施態様では、図9に示すアルゴリズムとは異なるアルゴリズム
をプロセッサ77で使用してもよい。
第2視野80の両方の選択された関心領域86を識別してもよい。
することによって、あるロケーションに対する関心領域86の距離を算出するように構成さ
れてもよい。例えば、図10は、第2カメラ16を通じて示された関心領域86(下画像)の位
置と比較した、第1カメラ14を通じて示された関心領域86(上画像)の相対位置を表示す
る。プロセッサ77は、上記の整合アルゴリズムを通じて、又は必要に応じて代替プロセス
を通じて第2視野80の関心領域の位置を識別してもよい。第1視野78及び第2視野80の関心
領域86のロケーションの差は、ロケーションの視差である。関心領域86のロケーションの
差は、整合アルゴリズムを用いて算出されたピーク相関のロケーションの差であってもよ
い。
心領域86の水平又はx次元における位置の差として算出されてもよい。視差は、第1視野78
及び第2視野80の関心領域86のピクセルロケーションの差に基づいて算出されてもよい。
一実施態様では、視差は、中心線に対する第1視野78及び第2視野80の関心領域86のロケー
ションに基づいて算出されてもよい。
の距離を算出するように構成されてもよい。視差が増加すると、カメラ14、16からの関心
領域86の相対距離は減少する。カメラ14、16の間の距離が増加すると、見掛けの視差は増
加する。距離測定は、カメラベースラインが2台のカメラ14、16のレンズの間の距離(2台
のカメラ14、16のレンズの中心の眼間間隔であってもよい)である以下の関係に基づいて
もよい:
距離∝((カメラ焦点距離)(カメラベースライン))/(視差)
に入力してもよい。カメラ焦点距離、及びカメラベースライン、例えば、又は任意の他の
定数要素は、その距離算出に使用するためにプロセッサ77に入力してもよい。一実施態様
では、プロセッサ77は、例えば、カメラデバイス12で利用される特定種類のカメラに基づ
いて、上述の関係の定数要素を自動的に検出してもよい。一実施態様では、プロセッサ77
は、カメラ14、16の配向、及び/又は、カメラ14、16の互いの距離を自動的に検出しても
よい。一実施態様では、プロセッサ77は、メモリーに保存されたルックアップ表を含んで
もよく、ルックアップ表は、保存された定数をユーザが提供した入力に整合させるために
使用してもよい。入力は、利用されているカメラの種類であってもよい。一実施態様では
、メモリーを使用して、任意の定数、又はプロセッサ77が使用した他の情報を保存しても
よい。一実施態様では、上で識別したものとは異なる定数又は変数を含む距離関係を利用
してもよい。
に算出させるように校正されるように構成されてもよい。図11は、例えば、プロセッサ77
を校正するために使用してもよい表88を示す。校正プロセスでは、ユーザは、関心領域を
所定の距離で設定してもよい。プロセッサ77は、関心領域の視差をその距離で決定しても
よい。ユーザは、その視差に対応する距離をプロセッサ77又はプロセッサのメモリーに入
力してもよい。ユーザは、このプロセスを様々な距離で繰り返してもよい。校正後、プロ
セッサ77が視差を算出する際に、プロセッサ77は、この視差を校正中にメモリーに保存さ
れた距離に整合させて、距離を出力できるようにしてもよい。校正プロセスにより、プロ
セッサ77は、距離の算出に使用した任意の定数の変化をより簡単に説明することができる
。校正データは、カメラの種類、カメラ焦点距離、カメラ配向又はカメラ間の距離、又は
他の因子などの異なる定数についてメモリーに保存してもよい。校正データは、算出され
た視差に基づいて距離を出力するように、プロセッサ77によって検索されてもよい。
はプロセッサ77に入力してもよく、又はプロセッサ77によって自動的に決定してもよい。
ロケーションは、校正プロセス中に設定してもよい。一実施態様では、ロケーションは、
撮影カメラ22の位置として設定してもよい。撮影カメラ22の位置は、撮影カメラ22のレン
ズ又はセンサ平面のいずれかとしてさらに定義してもよい。一実施態様では、カメラデバ
イス12は、所定の位置で撮影カメラ22に連結するように構成されてもよく、ロケーション
は、所定の位置に基づいて、撮影カメラ22に設定してもよい。一実施態様では、ロケーシ
ョンは、撮影カメラの種類をプロセッサ77に入力することによって、プロセッサ77に入力
してもよい。プロセッサ77は、撮影カメラ22の位置を提供するルックアップ表、又は使用
した撮影カメラ22の種類に基づいて、レンズ又はセンサ平面などのカメラの構成要素を含
んでもよい。一実施態様では、ロケーションは、必要に応じて異なる位置で設定してもよ
く、例えば、ユーザは、ロケーションをプロセッサ77に入力してもよい。
に対する関心領域86の距離を算出するように構成されてもよい。プロセッサ77は、選択さ
れた関心領域86の位置を追跡するように構成されてもよい。図8を参照すると、関心領域8
6を選択した際に、プロセッサ77は、関心領域86が動いたかどうかを決定するように構成
されてもよい。プロセッサ77は、関心領域86の外観を決定した後、連続するフレームにお
ける関心領域86の外観を識別して、関心領域86の動きを追跡してもよい。一実施態様では
、プロセッサ77は、ピクセルデータが元のピクセル以外の異なるピクセルに変換されてい
るかどうかを算出することによって関心領域86を追跡してもよい。一実施態様では、関心
領域86を追跡する異なるプロセスを使用してもよい。プロセッサ77は、各フレームにおけ
る関心領域86を追跡してもよい。一実施態様では、プロセッサ77は、所定の間隔のフレー
ムごとに関心領域86を追跡してもよい。
心領域86を追跡してもよい。別個のデバイスは、関心領域86の動きを識別してもよく、プ
ロセッサ77は、関心領域86を表すピクセルのサブセットから画像データを使用して、関心
領域86が動くにつれて関心領域86の動きを追跡してもよい。ピクセルのサブセットからの
画像データを使用して、第2視野80からの画像と比較してもよい。
プロセッサ77は、この用途では上記のプロセスで第1視野78の関心領域86の外観を第2視野
80に整合させることによって第2視野80の位置を追跡してもよい。例えば、プロセッサ77
は、アルゴリズムを使用して、他の視野82の選択された関心領域86の外観に整合させても
よい。アルゴリズムは、第1視野78の選択された関心領域86の外観を、第2視野80の選択さ
れた関心領域86の外観と相関させてもよい。アルゴリズムは、図9に示すアルゴリズムで
あってもよく、又は異なるアルゴリズムであってもよい。一実施態様では、プロセッサ77
は、第1視野78の関心領域86の動きを表すデータを適用して、第2視野78の関心領域86の動
きを算出するプロセスにおいて、第2視野80の関心領域86を追跡してもよい。一実施態様
では、第2視野78の関心領域86を追跡する異なるプロセスを使用してもよい。
することによって、関心領域86を動かしながら、あるロケーションに対する関心領域86の
距離を算出するように構成されてもよい。距離は、この用途では上記のプロセスで算出さ
れてもよい。距離は、関心領域86が、例えば、第1視野78で動くにつれてリアルタイムで
算出されてもよい。距離は、フレームごとに算出されてもよい。一実施態様では、距離は
、所定の間隔のフレームごとに算出されてもよい。
されてもよい。一実施態様では、プロセッサ77は、複数の関心領域86を追跡し、複数の関
心領域86の距離を算出するように構成されてもよい。一実施態様では、最大12個の異なる
関心領域を追跡してもよく、及び/又は、算出されたそれぞれの距離を有してもよい。一
実施態様では、より多い又はより少ない数の関心領域を追跡してもよく、及び/又は、算
出されたそれぞれの距離を有してもよい。複数の関心領域の距離及び/又は追跡は、同時
に生じてもよい。追跡、整合、及び距離のプロセスは、個々の関心領域86について上記と
同様のプロセスを通じて関心領域86ごとに生じてもよい。距離は、フレームごとの関心領
域ごとに算出されてもよい。一実施態様では、距離は、所定間隔のフレームについて関心
領域ごとに算出されてもよい。一実施態様では、プロセッサ77は、様々な関心領域86の視
差の視差マップを生成するように構成されてもよい。
もよい。
7に示すものと異なる配向に位置するカメラ12、14を用いて行ってもよい。異なる配向の
カメラ12、14は、その距離算出において、プロセッサ77によって利用されてもよく、例え
ば、異なるカメラベースライン値を使用してもよい。
解像度を表す表を示す。図13は、カメラデバイス12からある一定の距離でのカメラデバイ
ス12のカメラ14、16の解像度のグラフを示す。図12及び13に示すデータは、カメラデバイ
ス12の一実施態様を表し、他の解像度は、カメラデバイス12の他の実施態様で生じてもよ
い。
8は、関心領域をユーザに選択させるように構成されてもよい。制御デバイス18からの制
御データは、カメラデバイス12に入力され、プロセッサ77で受信されてもよい。制御デバ
イス18は、カメラデバイス12に接続されてもよく、又はカメラデバイス12と無線で通信す
るように構成されてもよい。カメラデバイス12の無線通信デバイスを使用して、制御デバ
イス18と通信してもよい。制御デバイス18は、システム10の任意の構成要素と通信するよ
うに、無線通信デバイスを含んでもよい。
成されてもよく、又はカメラデバイス12の動作を制御するように構成された任意のデバイ
スとして構成されてもよい。図14に示す実施態様では、制御デバイス18は、他の形態のコ
ンピュータを必要に応じて使用してもよいが、ラップトップコンピュータなどのタブレッ
トコンピュータである。制御デバイス18は、ディスプレイ90を含んでもよい。ディスプレ
イ90は、それぞれのカメラ14、16のいずれかからの視野78、80、及び/又は、撮影カメラ2
2の視野82の画像を表示するように構成されてもよい。一実施態様では、ディスプレイ90
は、視野78、80の重なり部分、及び/又は、撮影カメラ22の視野82の重なり部分を表示す
るように構成されてもよい。
ケータ92を生成するように構成されてもよい。図14に示す実施態様では、例えば、インジ
ケータ92は、撮影カメラ22の視野84と第1視野78の重なりを示す。一実施態様では、第1視
野78と第2視野80の間の重なり、及び/又は、撮影カメラ22の視野84と第2視野80の間の重
なりを示してもよい。インジケータ92は、他の実施態様では、他の形態のインジケータ92
を必要に応じて使用してもよいが、図14に示すようなディスプレイ90上でボックスの形態
を取ってもよい。
ン94を含んでもよい。ユーザは、所望の関心領域86を表示する視野78、80、84のいずれか
から画像の一部に触れて、関心領域86を選択してもよい。ユーザは、関心領域の画像に再
び触れることで、所望の関心領域86を選択しなくてもよい。一実施態様では、制御デバイ
ス18は、視野78、80、84のいずれかにおける顔の特徴を自動的に識別するための顔認識プ
ロセスを含んでもよい。制御デバイス18は、これらの顔の特徴に対応する関心領域86を自
動的に選択するように構成されてもよく、又はこれらの顔の特徴に対応するユーザに関心
領域86を提案するように構成されてもよい。一実施態様では、制御デバイス18は、関心領
域86を選択するための代替方法を利用してもよく、例えば、制御デバイス18は、関心領域
86を示すのに使用したマーカーに反応するように構成されてもよい。マーカーは、関心領
域86に位置した物理的構造体であってもよく、又は関心領域86に向けたレーザービームな
どの光デバイスであってもよく、又は別の形態を有してもよい。
選択してもよい。制御デバイス18がタッチスクリーン94を含む実施態様では、ユーザは、
視野78、80、84のいずれかから画像の複数の部分に触れて、関心領域86を選択してもよい
。一実施態様では、最大12個の異なる関心領域を選択してもよい。一実施態様では、より
多い又はより少ない数の関心領域を選択してもよい。
構成されてもよい。インジケータ96は、他の実施態様では、他の形態のインジケータ96を
必要に応じて使用してもよいが、図14に示すようなディスプレイ90上でボックスの形態を
取ってもよい。さらなるインジケータ98、100を使用して、選択されている複数の関心領
域86を示してもよい。プロセッサ77が単一又は複数の関心領域86の動きを追跡する実施態
様では、対応するインジケータ96、98、100は、関心領域86と共に動いてもよい。
もよい。距離は、ディスプレイ90上に提供されてもよい。プロセッサ77が距離のリアルタ
イム算出を提供する実施態様では、制御デバイス18上に表示された距離も、リアルタイム
で更新してもよい。複数の関心領域にそれぞれ対応する複数の距離を表示してもよい。制
御デバイス18は、視野78、80、84の重なり部分の外側の距離を表示してもよい。例えば、
図14では、撮影カメラ22の視野84の外側の距離をインジケータ100に示す。この距離は、
この関心領域までの距離がすでに表示されているように表示してもよく、撮影カメラ22の
視野84は、この関心領域を包含するように動くべきである。
に構成されてもよい。特性は、いくつかある特性の中でとりわけ、カメラのいずれかの焦
点距離、カメラのいずれかの視野、カメラ14、16の間の距離、カメラのいずれかのフォー
カス、絞り、及び/又はズーム、及び/又は使用しているカメラ又はレンズの種類を含んで
もよい。制御デバイス18は、プロセッサ77が相対距離を算出するロケーションの入力を受
信するように構成されてもよい。制御デバイス18は、ユーザがこのデータを制御デバイス
18に入力するように構成されてもよい。
ームを含むカメラ14、16の特性を制御するように構成されてもよい。制御デバイス18は、
ユーザがフォーカス、絞り、及び/又はズームを含む特性を制御するタッチスクリーンを
有するように構成されてもよい。制御デバイス18は、これらの特性を表示するように構成
されてもよい。
示するように構成されてもよい。例えば、図14に示すような1つのスクリーンは、カメラ1
4からの視野78のビデオ画像を表示してもよい。制御デバイス18は、カメラ14、16のフォ
ーカス、絞り、及び/又はズームに関する情報を提供する別のスクリーンを表示してもよ
い。制御デバイス18は、ユーザが制御デバイス18上に表示されるスクリーンを変えてもよ
いように構成されてもよい。
操作されるプログラムで具現化してもよい。プログラムは、非一時的な機械読み出し可能
な媒体で具現化してもよい。プログラムは、制御デバイス18のメモリーに保存されてもよ
い。プログラムは、制御デバイス18によってダウンロード可能であるように構成されても
よい。プログラムは、制御デバイス18によって操作されるアプリケーション又は「app」
であってもよい。制御デバイス18は、例えば、Appleが販売しているiPad、又はSamsungが
販売しているGalaxyなどのタブレットコンピュータであってもよく、本明細書に記載され
た制御デバイス18のプロセスを制御デバイス18にロードしてもよい。プログラムによって
、制御デバイス18のプロセッサに本明細書に記載されたプロセスを実行させてもよい。
実施態様では、制御デバイス18は、カメラデバイス12内に組み込まれてもよい。例えば、
一実施態様では、カメラデバイス12内に組み込まれた制御デバイス18は、関心領域の顔の
特徴又は他の所望の特徴を自動的に検出するように働いてもよい。
信するように構成されてもよい。制御デバイス18は、関心領域の選択、カメラ14、16の特
性、及び/又は撮影カメラ22の特性をカメラデバイス12又はシステム10の別の要素に出力
してもよい。また、制御デバイス18は、カメラ14、16の制御をカメラデバイス12に出力し
てもよい。制御デバイス18は、制御デバイス18又はシステム10の他の要素からデータを受
信してもよい。
を追跡するようにプロセッサ77を支援してもよい。制御デバイス12は、選択された関心領
域が動いている間に、その位置についてプロセッサ77にデータを提供するように構成され
てもよい。例えば、制御デバイス18によって識別された顔認識特徴をプロセッサ77に提供
して、関心領域の動きを追跡するようにプロセッサ77を支援してもよい。
単に動かせるように、軽量及び携帯型に構成されてもよい。
領域までの距離、又は複数の関心領域までの距離を表示するように構成された表示デバイ
ス20を含んでもよい。表示デバイス20は、カメラデバイス12に接続してもよく、又はカメ
ラデバイス12と無線で通信するように構成されてもよい。カメラデバイス12の無線通信デ
バイスを使用して、表示デバイス20と通信してもよい。表示デバイス20は、システム10の
任意の他の構成要素と通信するための無線通信デバイスを含んでもよい。
成されてもよく、又は関心領域までの距離を表示するように構成された任意のデバイスと
して構成されてもよい。図15に示す実施態様では、制御デバイス18は、他の形態のデバイ
スを必要に応じて使用してもよいが、モバイル通信デバイスである。制御デバイス18は、
iPhone、iPod、又は他のモバイルデバイスなどのモバイル通信デバイスであってもよい。
表示デバイス20は、ディスプレイ104を含んでもよい。ディスプレイ104は、関心領域まで
の距離を表示するように構成されてもよい。
るように構成されてもよい。表示デバイス20は、プロセッサ77が距離をリアルタイムで算
出する場合に、1つ又は複数の関心領域が動く場合に、距離又は複数の距離を表示するよ
うに構成されてもよい。図15に示す実施態様では、複数行表示が、異なる関心領域までの
算出された距離を示す。距離は、一次及び二次関心領域に分割してもよい。距離は、数値
として示してもよい。一実施態様では、とりわけ、表、チャート、又は他の代表的な図な
どの別の形態の距離のインジケータを使用してもよい。
ス20は、カメラデバイス12内に組み込まれるように構成されてもよい。一実施態様では、
表示デバイス20は、システム10の任意の要素に連結するように構成されてもよい。図16は
、例えば、撮影カメラ22に連結した表示デバイス106の実施態様を示す。関心領域までの
距離は、10フィートであるとして表示デバイスの右側に示される。
関心領域までの距離を撮影カメラ22からの画像上に重ねるためのオーバーレイデバイスの
形態で表示デバイス24を含んでもよい。表示デバイス24は、カメラデバイス12に接続して
もよく、又はカメラデバイス12と無線で通信するように構成されてもよい。カメラデバイ
ス12の無線通信デバイスを使用して、表示デバイス24と通信してもよい。表示デバイス24
は、システム10の任意の他の構成要素と通信するための無線通信デバイスを含んでもよい
。
の部品を分離した、表示デバイス24の拡大図を示す。表示デバイス24は、表示デバイス24
を動作させる電力を受電する電力コネクタ112を含んでもよい。表示デバイス24は、撮影
カメラ22からの画像を含む、システム10の要素からのケーブルデータを受信するためのデ
ータコネクタ114を含んでもよい。表示デバイス24は、入力デバイスを含んでもよく、且
つ、出力デバイスを含んでもよい。図17に示す実施態様では、入力デバイス及び出力デバ
イスは、アンテナ116の形態の無線通信デバイスである。一実施態様では、入力デバイス
及び出力デバイスは、コネクタ114などのコネクタを含んでもよい。一実施態様では、入
力デバイス及び出力デバイスは、異なる構造体を含んでもよい。
ード118は、プロセッサ77から算出された距離を他のカメラからの他の画像上に重ねるよ
うに構成されているプロセッサ120を含んでもよい。プロセッサ120は、カメラデバイス12
から距離データを受信し、例えば、撮影カメラ22から画像を受信し、距離データを画像と
一致させてもよい。図1を参照すると、表示デバイス24は、選択されている関心領域86を
示すインジケータを生成してもよい。インジケータは、他の実施態様では、他の形態のイ
ンジケータを必要に応じて使用してもよいが、図1に示すようなボックスの形態を取って
もよい。プロセッサ77が単一又は複数の関心領域86の動きを追跡する実施態様では、対応
するインジケータは、関心領域86と共に動いてもよい。
バイス28上に表示してもよい。距離は、表示デバイス28のディスプレイ上に提供されても
よい。プロセッサ77が距離のリアルタイム算出を提供する実施態様では、表示デバイス28
上に表示された距離は、リアルタイムで更新してもよい。複数の関心領域にそれぞれ対応
する複数の距離を表示してもよい。表示デバイス24は、撮影カメラ22の視野の画像のみを
表示するように構成されてもよい。図1に示すように、表示デバイス28上の画像は、図14
に示すインジケータ92内に示された画像と一致する。
24の長さがおおよそ7.37インチ(18.72センチメートル)であり、筺体110の長さがおおよ
そ6.75インチ(17.15センチメートル)であるものを示す。幅は、おおよそ4.75インチ(1
2.07センチメートル)であってもよい。図19に示すような高さは、おおよそ1.35インチ(
3.43センチメートル)であってもよい。図18及び19に示す寸法は例示であり、おおよそ5
〜10インチ(12.7〜25.4センチメートル)の全長、おおよそ2〜7インチ(5.08〜17.78セ
ンチメートル)の幅、及びおおよそ1〜3インチ(2.54〜7.62センチメートル)の高さを含
む、様々な寸法を利用してもよい。一実施態様では、本明細書に記載されたものとは異な
る寸法を利用してもよい。
フォーカスなどの、撮影カメラ22及び/又はカメラデバイス12のカメラ14、16に関連付け
られたデータを表示してもよい。
カメラ制御器26を含んでもよい。カメラ制御器26は、絞り、フォーカス、及び/又はズー
ムなどのレンズ制御を含む、カメラ14、16の特徴を動作するように構成されてもよい。カ
メラ制御器26は、カメラ14、16の特徴が同様であるように、カメラ14、16の両方を同時に
動作するように構成されてもよい。一実施態様では、カメラ制御器26は、制御デバイス18
を介して動作してもよい。
ように構成されてもよい。カメラ制御器26は、撮影カメラ22のこれらの特徴がカメラ14、
16の特徴と一致するように、絞り、フォーカス、及び/又はズームなどのレンズ制御を含
む撮影カメラ22の特徴を動作するように構成されてもよい。一実施態様では、カメラ制御
器26は、カメラデバイス12によって提供された距離測定に基づいて、撮影カメラ22のフォ
ーカスを自動的に調節するように構成されてもよい。
で通信するように構成されてもよい。カメラデバイス12の無線通信デバイスを使用して、
カメラ制御器26と通信してもよい。カメラ制御器26は、システム10の任意の他の構成要素
と通信するための無線通信デバイスを含んでもよい。カメラ制御器26は、撮影カメラ22に
有線又は無線接続を含んでもよい。
は、Preston MDR、又は他の種類のモータドライバであってもよい。
れている撮影カメラ22を含んでもよい。画像は、静止画像であってもよく、又はビデオ画
像であってもよい。撮影カメラ22は、フィルムテレビジョン又は動画を撮影するのに典型
的に使用されるスタイルであってもよく、デジタル又はフィルムメラであってもよい。撮
影カメラ22は、HD画像を出力するように構成されてもよい。撮影カメラとしては、他の種
類の撮影カメラのうちで、Arri Alexa、Red Epic、Sony F55、Sony F65、Genesis、及びP
anavisionフィルムカメラが挙げられるが、これらに限定されない。
よい。例えば、撮影カメラ22は、撮影カメラ22のレンズが、カメラ14、16の1台又は両方
のそれぞれの軸34、36に実質的に平行に配向されるように配向されてもよい。撮影カメラ
22は、カメラ14、16の1台又は両方と実質的に同一平面上に配向され、実質的に同様の水
平に、又は図3の頁から伸びているx次元の平面38に位置合わせされてもよい。撮影カメラ
22のカメラセンサは、カメラ14、16の1台又は両方のセンサと実質的に同一平面上に配向
され、実質的に同様の垂直に、又は図3の頁から伸びているy次元の平面44に位置合わせさ
れてもよい。撮影カメラ22は、カメラ14、16の1台又は両方と同じ方向に面するように配
向されてもよい。一実施態様では、撮影カメラ22は、撮影カメラ22を2台のカメラ14、16
の間に位置して、図7に示すように配向されてもよい。撮影カメラ22の視野84は、中心に
位置し、カメラ14、16のそれぞれの視野78、80と重なってもよい。
にカメラデバイス12と連結してもよい。一実施態様では、撮影カメラ22は、カメラデバイ
ス12と別個のものであってもよい。本明細書に記載された表示デバイス20、24、28、106
又は制御デバイス18のいずれかは、必要に応じて撮影カメラ22と連結してもよい。
影カメラ22のフォーカスを設定してもよい。撮影中、関心領域までの距離を容易に確認し
、撮影カメラ22のフォーカスをこれらの領域にどのように効率的に設定するかを決定する
ことに関連する。本明細書に記載されたシステム、デバイス、及びプロセスは、距離を容
易に確認する能力を向上させるため、撮影カメラ22のフォーカスを設定する能力を向上さ
せる。一実施態様では、撮影カメラ22のフォーカスは、カメラデバイス12によって提供さ
れた距離算出に基づいて、ユーザによって設定してもよい。ユーザは、表示デバイス、又
は制御デバイス、又はシステム10に関連する別のデバイスの1つからの出力を再検討する
ことによって距離算出を決定してもよい。例えば、ユーザは、算出された距離と撮影カメ
ラ22からの画像の重なりを示す表示デバイス28上で距離を見てもよい。ユーザは、カメラ
アシスタントなどの個人であってもよい。一実施態様では、撮影カメラ22のフォーカスは
、カメラデバイス12によって提供された距離算出に基づいて、自動的に設定してもよい。
例えば、カメラ制御器26、又はシステム10の他のデバイスは、フォーカスを自動的に調節
してもよい。
それらの外観に基づいて関心領域を選択する能力、例えば、顔認識が挙げられる。さらな
る利点としては、1つ又は複数の関心領域が動くにつれて1つ又は複数の関心領域のロケー
ションを追跡する能力が挙げられる。さらなる利点としては、移動中に生じ得る、1つ又
は複数の関心領域までの距離のリアルタイム算出が挙げられる。
方法、例えば、音響又は赤外測定デバイスの使用を上回る飛躍的な向上を表す。
システムの市場性が高まる。例えば、カメラデバイス12、制御デバイス18、及び/又は表
示デバイスを撮影カメラ22と連結して、使用する総部品数を減らしてもよい。システム10
の要素は、携帯型にしてもよく、軽量であるのが好ましい。一実施態様では、カメラデバ
イス12は、おおよそ4ポンド未満の重量を有してもよい。一実施態様では、表示デバイス2
4は、2ポンド未満の重量を有してもよい。
範囲も利用してよい。システム10は、撮影カメラ22の被写界深度の精度と共にある距離で
有利に動作してもよい。システム10は、非常に暗い光と明るい光の間の輝度レベル、おお
よそ10ルクス〜25,000ルクスで動作してもよい。他の輝度レベルも利用してよい。
。他のハードウェア構成を他の実施態様で使用してもよい。カメラデバイス12は、プロセ
ッサカード76を使用してもよい。一実施態様では、プロセッサカード76は、最大2ギガバ
イトの内部メモリー、及び最大16ギガバイトのフラッシュメモリーを含んでもよい。他の
実施態様では、他の形態のプロセッサカード76を利用してもよい。一実施態様では、イン
タフェースデバイス72は、PCT USB3カードの形態であってもよい。他の実施態様では、他
の形態のインタフェースデバイスを利用してもよい。表示デバイス24は、オーバーレイプ
ロセッサカード118を使用してもよい。一実施態様では、オーバーレイプロセッサカード7
6は、HD-SDI入力、及びHD-SDI出力を含んでもよい。他の実施態様では、他の形態のプロ
セッサカード76を利用してもよい。表示デバイス24は、無線通信カード122、及び電源124
を含んでもよい。
うに構成されてもよい。カメラ14、16は、最大5メガピクセルを有する画像センサを含ん
でもよい。カメラ14、16は、所望の解像度に応じて、毎秒最大33枚の画像、又は毎秒最大
15枚の画像を生成するように構成されてもよい。他の実施態様では、カメラ14、16の特徴
は、必要に応じて変化してもよい。
線接続を行ってもよい。画像データを転送するためのケーブルは、HD-SDIケーブルの形態
であってもよいが、他の形態のケーブルを必要に応じて使用してもよい。電力ケーブルは
、電池パック126から電力を供給してもよいが、他の形態の電源を必要に応じて使用して
もよい。
ロセス128は、1つ以上の関心領域の選択で生じてもよい。プロセス128は、制御デバイス1
8の使用を介して生じてもよい。プロセス128は、顔の特徴検出、又はマークを追跡する検
出のプロセスを含んでもよい。プロセス130は、カメラデバイス12の使用を介して生じて
もよい。カメラデバイス12は、第1視野における選択された1つ又は複数の関心領域を第2
視野と一致させてもよい。カメラデバイス12は、視差算出を行ってもよい。プロセス132
は、カメラデバイス12に入力されているシステム10又はカメラデバイス12のカメラのパラ
メータを介して生じてもよい。そのようなパラメータは、カメラベースライン、カメラ焦
点距離、及び本明細書に基づく他の特徴などの特徴を含んでもよい。プロセス134は、視
差算出、及びプロセス132で入力したパラメータに基づいて、1つ又は複数の関心領域まで
の距離又は複数の距離を算出するカメラデバイス12を介して生じてもよい。プロセス136
は、制御デバイス18、又はカメラ12、14又は22の1つからの画像上に距離を重ねる表示デ
バイス24を介して生じてもよい。図22のプロセスは、工程を含むか又は除外するように変
更してもよく、本明細書に記載された任意のプロセスを含んでもよい。
10の要素は、カメラ制御器26からフォーカス、ズーム、及び/又は絞りのデータを要求し
てもよい。データは、カメラデバイス12及び/又は撮影カメラ22のステータスを表しても
よい。図23に示すプロセスは、必要に応じて変更又は除外してもよい。図24は、距離デー
タをカメラ制御器26に送信するプロセスの一実施態様を示す。図23に示すプロセス、必要
に応じて変更又は除外してもよい。
示されているさらなるプロセスは、以下に列挙する工程に組み込んでもよい:
ける関心領域を選択すること;第1視野における選択された関心領域の位置を、第2カメラ
の、第1視野の少なくとも一部と重なる第2視野における選択された関心領域の位置と比較
することによって、あるロケーションに対する選択された関心領域の距離をプロセッサで
算出すること;プロセッサによって算出された距離に基づいて、第3カメラのフォーカス
を選択された関心領域上で調節することを含んでもよい。
チスクリーンを含む制御デバイスを含んでもよく、関心領域は、ユーザが、画像における
関心領域を表示するタッチスクリーンの一部に触れることによって選択される。
にある距離に保持する筺体に連結されている。
た関心領域の距離を算出することをさらに含む算出工程を含んでもよい。
ーバーレイ上に表示する工程をさらに含んでもよい。
ける選択された関心領域の位置を追跡する工程をさらに含んでもよい。
された関心領域の距離をリアルタイムで算出することをさらに含む算出工程を含んでもよ
い。
れた距離をリアルタイムで表示する工程をさらに含んでもよい。
れた距離を第3カメラによって生成された画像上にリアルタイムで重ねることをさらに含
む表示工程を含んでもよい。
って生成された画像を含んでもよい。
れているさらなる特徴は、以下に列挙する装置に組み込んでもよい:
するように配向された第1カメラと;筺体に連結され、第1視野の少なくとも一部と重なる
第2視野を有するように配向された第2カメラと;筺体に連結され、第1視野における選択
された関心領域の位置を第2視野における選択された関心領域の位置と比較することによ
って、あるロケーションに対する選択された関心領域の距離を算出するように構成された
プロセッサとを含む。
平行な第2縦軸に沿って位置合わせされるように構成されてもよい。
像センサが第2画像センサと実質的に同一平面上に位置するように構成されてもよい。
し、第2カメラがおおよそ12ミリメートル以上16ミリメートル以下の焦点距離を有するよ
うに構成されてもよい。
み;プロセッサが、第1視野の水平次元における選択された関心領域の位置を第2視野の水
平次元における選択された関心領域の位置と比較することによって、ロケーションに対す
る選択された関心領域の距離を算出するようにさらに構成されているように構成されても
よい。
ける選択された関心領域の位置を追跡するようにさらに構成されているように構成されて
もよい。
ンに対する選択された関心領域の距離をリアルタイムで算出するように構成されているよ
うに構成されてもよい。
た入力デバイスをさらに含んでもよい。
ように構成された出力デバイスをさらに含んでもよい。
当業者であれば、これらの開示されている実施態様は、本明細書に開示されている主題の
原理の単に例示であることが容易に分かるであろうことを理解すべきである。従って、開
示されている主題は、決して本明細書に記載されている特定の方法論、手順、及び/又は
試薬などに限定されないことを理解すべきである。従って、本明細書の趣旨から逸脱する
ことなく、本明細書中の教示に従って、開示されている主題に対する様々な修正又は変更
又はそれらの他の構成が可能である。最後に、本明細書中で使用されている専門用語は、
単に特定の実施態様を記述するためのものであり、本明細書に開示されているシステム、
装置、及び方法の範囲を限定するものではく、特許請求の範囲によってのみ定義される。
従って、システム、装置、及び方法は、詳細に図示及び記載されているものに限定されな
い。
及び方法の特定の実施態様が、本明細書に記載されている。当然のことながら、これらの
記載されている実施態様の変形形態は、上記記載を読めば当業者には明らかである。本発
明者は、当業者がそのような変形形態を適宜用いることを想定しており、本発明者らは、
本明細書に具体的に記載されているものとは異なる方法でシステム、装置、及び方法が実
施されることを企図している。従って、システム、装置、及び方法は、本明細書に添付さ
れている特許請求の範囲に列挙されている主題の全ての変形形態及び均等物を適用法によ
り認められるものとして含むものである。さらに、本明細書に特に明記しない限り、ある
いは文脈に明らかに矛盾しない限り、その全ての可能な変形形態における上記実施態様の
任意の組み合わせがシステム、装置、及び方法により包含される。
限定するものとして解釈されるべきではない。各グループの構成要素は、個々に、あるい
は本明細書に開示されている他のグループの構成要素との任意の組み合わせで参照及び特
許請求することができる。グループの1つ以上の構成要素は、利便性及び/又は特許性を理
由に、グループに含めたり、そこから削除したりすることができるものと想定される。任
意のそのような包含又は削除が生じた場合、本明細書は、そのグループを修正されたもの
として含めるものとし、従って、添付の特許請求の範囲に使用されている全てのマーカッ
シュ群の記載を満たすものとする。
パラメータ、性質、用語などを表わす全ての数は、「約」という用語により、全ての場合
に修正されるものとして理解されるべきである。本明細書で使用される「約」という用語
は、そのように評された特性、項目、量、パラメータ、性質又は用語が、変動し得る近似
値を包含することを意味する。「おおよそ[で]」及び「実質的[に]」という用語は、指定
した量から変化し得る量を表すが、本明細書に記載された所望の動作又はプロセスを実施
することが可能である。
される「1つの(a)」「1つの(an)」「その(前記)(the)」という用語及び同様の指
示物は、本明細書に特に明記しない限り、あるいは文脈に明らかに矛盾しない限り、単数
及び複数の両方を包含するものと解釈されるべきである。本明細書に記載されている全て
の方法は、本明細書に特に明記しない限り、あるいは文脈に明らかに矛盾しない限り、任
意の好適な順序で実施することができる。本明細書に提供されているありとあらゆる例又
は例を表わす言葉(例えば、「など」)の使用は、システム、装置、及び方法を単により
良く理解するためのものであり、特許請求の範囲に別段の記載がない限り、システム、装
置、及び方法の範囲に限定を課すものではない。本明細書中のいずれの言葉も、システム
、装置、及び方法の実施に必須なあらゆる特許請求されていない要素を示すものとして解
釈されるべきではない。
内容全体が、例えば、システム、装置、及び方法に関して使用され得るそのような刊行物
に記載されている組成物及び方法論を記載及び開示するために、個々に、かつ明確に参照
により本明細書に組み込まれる。これらの刊行物は単に、本出願の出願日より前のそれら
の開示のために提供されている。この点に関してはいずれも、本発明者らが、先願発明に
より、あるいはあらゆる他の理由のために、そのような開示に先行する権利がないという
ことを認めるものとして解釈されるべきではない。これらの文献の日付に関する全ての記
載又は内容に関する表現は、本出願人に利用可能な情報に基づくものであり、これらの文
献の日付又は内容の正確性に関するいかなる承認も構成するものではない。
本件出願は、以下の態様の発明を提供する。
(態様1)
関心領域までの距離を決定するためのシステムであって:
第1視野を有するように構成された第1カメラと;
該第1視野の少なくとも一部と重なる第2視野を有するように構成された第2カメラと;
該第2視野と重なる該第1視野の少なくとも一部の関心領域をユーザに選択させるように構成された制御デバイスと;
該第1視野における該選択された関心領域の位置を該第2視野における該選択された関心領域の位置と比較することによって、あるロケーションに対する該選択された関心領域の距離を算出するように構成されたプロセッサと;及び
該プロセッサによって算出された距離の表示を生成するように構成された表示デバイスと
を含む、前記システム。
(態様2)
前記第1カメラと前記第2カメラを互いにある距離に保持する筺体をさらに含む、態様1に記載のシステム。
(態様3)
前記プロセッサが、前記第1カメラと前記第2カメラの間の距離に基づいて、前記選択された関心領域の距離を算出するように構成されている、態様2に記載のシステム。
(態様4)
前記筺体が、該第2視野が前記第1視野の少なくとも一部と重なるように、前記第1カメラと前記第2カメラをある配向に保持する、態様2に記載のシステム。
(態様5)
前記表示デバイスが、前記プロセッサによって算出された距離を第3カメラによって生成された画像上に重ねるように構成されたオーバーレイデバイスを含む、態様1に記載のシステム。
(態様6)
前記画像が、ビデオ画像を含む、態様5に記載のシステム。
(態様7)
前記第1視野が、水平次元及び垂直次元を含み、前記第2視野が、水平次元及び垂直次元を含み;及び
前記プロセッサが、前記第1視野の水平次元における前記選択された関心領域の位置を前記第2視野の水平次元における前記選択された関心領域の位置と比較することによって、前記ロケーションに対する前記選択された関心領域の距離を算出するようにさらに構成されている、態様1に記載のシステム。
(態様8)
前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって、前記第2視野における前記選択された関心領域の位置を識別するようにさらに構成されている、態様1に記載のシステム。
(態様9)
前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記第1視野における前記選択された関心領域の位置を追跡するようにさらに構成されている、態様1に記載のシステム。
(態様10)
前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって、前記第2視野における前記選択された関心領域の位置を追跡するようにさらに構成されている、態様9に記載のシステム。
(態様11)
前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記ロケーションに対する前記選択された関心領域の距離をリアルタイムで算出するように構成されている、態様10に記載のシステム。
(態様12)
前記表示デバイスが、前記選択された関心領域を前記第1視野で移動させながら、前記プロセッサによって算出された距離を第3カメラによって生成された画像上にリアルタイムで重ねるように構成されたオーバーレイデバイスを含む、態様11に記載のシステム。
(態様13)
前記制御デバイスが、前記第2視野と重なる前記第1視野の少なくとも一部における複数の関心領域をユーザに選択させるように構成されており;
前記プロセッサが、前記第1視野における前記複数の選択された関心領域の各々の位置を前記第2視野における前記複数の選択された関心領域の対応するものの位置と比較することによって、あるロケーションに対する前記複数の選択された関心領域の各々の距離を算出するように構成されており;
前記表示デバイスが、前記複数の選択された関心領域の各々について、前記プロセッサによって算出された距離の表示を生成するように構成されている、態様1に記載のシステム。
(態様14)
前記制御デバイスが、前記第1カメラによって生成された前記第1視野の画像を表示するように構成されたタッチスクリーンを含み、前記画像における前記関心領域を表示する前記タッチスクリーンの一部に触れることによって、前記関心領域を前記ユーザに選択させるように構成されている、態様1に記載のシステム。
Claims (14)
- 関心領域までの距離を決定するためのシステムであって:
第1視野を有するように構成された第1カメラと;
該第1視野の少なくとも一部と重なる第2視野を有するように構成された第2カメラと;
該第2視野と重なる該第1視野の少なくとも一部の関心領域をユーザに選択させるように
構成された制御デバイスと;
該第1視野における該選択された関心領域の位置を該第2視野における該選択された関心
領域の位置と比較することによって、あるロケーションに対する該選択された関心領域の
距離を算出するように構成されたプロセッサと;及び
該プロセッサによって算出された距離の表示を生成するように構成された表示デバイス
と
を含む、前記システム。 - 前記第1カメラと前記第2カメラを互いにある距離に保持する筺体をさらに含む、請求項
1に記載のシステム。 - 前記プロセッサが、前記第1カメラと前記第2カメラの間の距離に基づいて、前記選択さ
れた関心領域の距離を算出するように構成されている、請求項2に記載のシステム。 - 前記筺体が、該第2視野が前記第1視野の少なくとも一部と重なるように、前記第1カメ
ラと前記第2カメラをある配向に保持する、請求項2に記載のシステム。 - 前記表示デバイスが、前記プロセッサによって算出された距離を第3カメラによって生
成された画像上に重ねるように構成されたオーバーレイデバイスを含む、請求項1に記載
のシステム。 - 前記画像が、ビデオ画像を含む、請求項5に記載のシステム。
- 前記第1視野が、水平次元及び垂直次元を含み、前記第2視野が、水平次元及び垂直次元
を含み;及び
前記プロセッサが、前記第1視野の水平次元における前記選択された関心領域の位置を
前記第2視野の水平次元における前記選択された関心領域の位置と比較することによって
、前記ロケーションに対する前記選択された関心領域の距離を算出するようにさらに構成
されている、請求項1に記載のシステム。 - 前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野
における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって
、前記第2視野における前記選択された関心領域の位置を識別するようにさらに構成され
ている、請求項1に記載のシステム。 - 前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記第1
視野における前記選択された関心領域の位置を追跡するようにさらに構成されている、請
求項1に記載のシステム。 - 前記プロセッサが、前記第1視野における前記選択された関心領域の外観を前記第2視野
における前記選択された関心領域の外観に相関させるアルゴリズムを用いることによって
、前記第2視野における前記選択された関心領域の位置を追跡するようにさらに構成され
ている、請求項9に記載のシステム。 - 前記プロセッサが、前記選択された関心領域を前記第1視野で移動させながら、前記ロ
ケーションに対する前記選択された関心領域の距離をリアルタイムで算出するように構成
されている、請求項10に記載のシステム。 - 前記表示デバイスが、前記選択された関心領域を前記第1視野で移動させながら、前記
プロセッサによって算出された距離を第3カメラによって生成された画像上にリアルタイ
ムで重ねるように構成されたオーバーレイデバイスを含む、請求項11に記載のシステム。 - 前記制御デバイスが、前記第2視野と重なる前記第1視野の少なくとも一部における複数
の関心領域をユーザに選択させるように構成されており;
前記プロセッサが、前記第1視野における前記複数の選択された関心領域の各々の位置
を前記第2視野における前記複数の選択された関心領域の対応するものの位置と比較する
ことによって、あるロケーションに対する前記複数の選択された関心領域の各々の距離を
算出するように構成されており;
前記表示デバイスが、前記複数の選択された関心領域の各々について、前記プロセッサ
によって算出された距離の表示を生成するように構成されている、請求項1に記載のシス
テム。 - 前記制御デバイスが、前記第1カメラによって生成された前記第1視野の画像を表示する
ように構成されたタッチスクリーンを含み、前記画像における前記関心領域を表示する前
記タッチスクリーンの一部に触れることによって、前記関心領域を前記ユーザに選択させ
るように構成されている、請求項1に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/495,862 | 2014-09-24 | ||
US14/495,862 US9609200B2 (en) | 2014-09-24 | 2014-09-24 | Distance measurement device for motion picture camera focus applications |
JP2017516929A JP2017535755A (ja) | 2014-09-24 | 2015-09-23 | 動画カメラフォーカス用途における距離測定デバイス |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017516929A Division JP2017535755A (ja) | 2014-09-24 | 2015-09-23 | 動画カメラフォーカス用途における距離測定デバイス |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020174361A true JP2020174361A (ja) | 2020-10-22 |
JP7293169B2 JP7293169B2 (ja) | 2023-06-19 |
Family
ID=54252427
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017516929A Pending JP2017535755A (ja) | 2014-09-24 | 2015-09-23 | 動画カメラフォーカス用途における距離測定デバイス |
JP2020104960A Active JP7293169B2 (ja) | 2014-09-24 | 2020-06-18 | 動画カメラフォーカス用途における距離測定デバイス |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017516929A Pending JP2017535755A (ja) | 2014-09-24 | 2015-09-23 | 動画カメラフォーカス用途における距離測定デバイス |
Country Status (9)
Country | Link |
---|---|
US (3) | US9609200B2 (ja) |
EP (2) | EP3451285B1 (ja) |
JP (2) | JP2017535755A (ja) |
KR (1) | KR102391828B1 (ja) |
CN (1) | CN107209943B (ja) |
AU (1) | AU2015320751B2 (ja) |
CA (1) | CA2962065C (ja) |
NZ (1) | NZ730031A (ja) |
WO (1) | WO2016049113A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008968A1 (ko) * | 2021-07-29 | 2023-02-02 | 삼성전자 주식회사 | 카메라를 포함하는 전자 장치 및 전자 장치의 동작 방법 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9609200B2 (en) | 2014-09-24 | 2017-03-28 | Panavision International, L.P. | Distance measurement device for motion picture camera focus applications |
KR102636272B1 (ko) * | 2016-07-26 | 2024-02-14 | 삼성전자주식회사 | 영상 촬상 장치 및 이를 포함하는 전자 시스템 |
WO2019094003A1 (en) * | 2017-11-08 | 2019-05-16 | Hewlett-Packard Development Company, L.P. | Determining locations of electro-optical pens |
TWI650530B (zh) * | 2018-01-22 | 2019-02-11 | 國立臺灣科技大學 | 檢測系統及其方法 |
US10739552B2 (en) * | 2018-02-21 | 2020-08-11 | Panavision International, L.P. | Internally slotted cam for lens system |
CN111885294B (zh) * | 2018-03-26 | 2022-04-22 | 华为技术有限公司 | 一种拍摄方法、装置与设备 |
AT521845B1 (de) * | 2018-09-26 | 2021-05-15 | Waits Martin | Verfahren zur Fokuseinstellung einer Filmkamera |
DE102019003510B4 (de) * | 2019-05-20 | 2023-02-23 | Florian Maier | Verfahren und Vorrichtung zur Steuerung von Motoren im Film- und Broadcastbereich |
CN112815911B (zh) * | 2020-12-30 | 2022-01-04 | 河海大学 | 基于三目视觉的输电线路交跨距离测量方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000112019A (ja) * | 1998-10-08 | 2000-04-21 | Olympus Optical Co Ltd | 電子3眼カメラ装置 |
JP2010093422A (ja) * | 2008-10-06 | 2010-04-22 | Canon Inc | 撮像装置 |
KR20110021500A (ko) * | 2009-08-26 | 2011-03-04 | 유지상 | 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치 |
JP2011211531A (ja) * | 2010-03-30 | 2011-10-20 | Fujifilm Corp | 撮像装置 |
JP2012028915A (ja) * | 2010-07-21 | 2012-02-09 | Kantatsu Co Ltd | 撮像装置 |
JP2012145813A (ja) * | 2011-01-13 | 2012-08-02 | Ricoh Co Ltd | 撮像装置および撮像方法 |
JP2012151526A (ja) * | 2011-01-14 | 2012-08-09 | Jvc Kenwood Corp | 撮像装置および撮像方法 |
WO2013047482A1 (ja) * | 2011-09-30 | 2013-04-04 | 富士フイルム株式会社 | 撮影装置、撮影方法、記録媒体およびプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4601053A (en) * | 1983-11-21 | 1986-07-15 | Grumman Aerospace Corporation | Automatic TV ranging system |
US5175616A (en) * | 1989-08-04 | 1992-12-29 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada | Stereoscopic video-graphic coordinate specification system |
KR940000019B1 (ko) * | 1989-12-25 | 1994-01-05 | 미쯔비시 덴끼 가부시기가이샤 | 거리측정장치 |
JP2608996B2 (ja) * | 1991-03-13 | 1997-05-14 | 三菱電機株式会社 | 車両の走行状態記憶装置 |
AU6355799A (en) * | 1998-10-28 | 2000-05-15 | Measurement Devices Limited | Apparatus and method for obtaining 3d images |
JP2001324305A (ja) * | 2000-05-17 | 2001-11-22 | Minolta Co Ltd | 画像対応位置検出装置および該装置を備える測距装置 |
JP2004312249A (ja) * | 2003-04-04 | 2004-11-04 | Olympus Corp | カメラ |
US8089515B2 (en) * | 2005-12-30 | 2012-01-03 | Nokia Corporation | Method and device for controlling auto focusing of a video camera by tracking a region-of-interest |
US7697724B1 (en) * | 2006-05-23 | 2010-04-13 | Hewlett-Packard Development Company, L.P. | Displacement determination system and method using separated imaging areas |
US8866920B2 (en) * | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
WO2010099495A2 (en) | 2009-02-27 | 2010-09-02 | Laurence James Claydon | Systems, apparatus and methods for subtitling for stereoscopic content |
US7933512B2 (en) * | 2009-03-24 | 2011-04-26 | Patrick Campbell | Stereo camera with controllable pivot point |
WO2010127285A2 (en) * | 2009-04-30 | 2010-11-04 | Tetracam, Inc. | Method and apparatus for providing a 3d image via media device |
US8853631B2 (en) * | 2009-11-23 | 2014-10-07 | Flir Systems Ab | Camera with two visual imaging subsystems for determining parallax and for focusing an infrared imaging subsystem |
US9049423B2 (en) * | 2010-12-01 | 2015-06-02 | Qualcomm Incorporated | Zero disparity plane for feedback-based three-dimensional video |
JP5942343B2 (ja) * | 2011-05-25 | 2016-06-29 | 株式会社リコー | 撮像装置 |
JP5776771B2 (ja) * | 2011-06-24 | 2015-09-09 | コニカミノルタ株式会社 | 対応点探索装置、および距離測定装置 |
JP2013086959A (ja) * | 2011-10-21 | 2013-05-13 | Sumitomo Heavy Ind Ltd | フォークリフトのフォーク位置決め支援装置および方法 |
KR20130073344A (ko) | 2011-12-23 | 2013-07-03 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
CN102609724B (zh) * | 2012-02-16 | 2014-05-14 | 北京航空航天大学 | 一种基于双摄像头的周围环境信息提示方法 |
JP5991688B2 (ja) * | 2012-02-24 | 2016-09-14 | 株式会社レゾナント・システムズ | ステレオカメラユニット及び自動車用モニタシステム |
GB201208088D0 (en) | 2012-05-09 | 2012-06-20 | Ncam Sollutions Ltd | Ncam |
DE112013003338B4 (de) * | 2012-07-02 | 2017-09-07 | Panasonic Intellectual Property Management Co., Ltd. | Größenmessvorrichtung und Größenmessverfahren |
JP2014044345A (ja) * | 2012-08-28 | 2014-03-13 | Ricoh Co Ltd | 撮像装置 |
CN104156946B (zh) * | 2014-07-17 | 2017-04-19 | 西北工业大学 | 一种空间绳系机器人抓捕区域内的障碍物检测方法 |
US9609200B2 (en) | 2014-09-24 | 2017-03-28 | Panavision International, L.P. | Distance measurement device for motion picture camera focus applications |
JP6900174B2 (ja) | 2016-06-27 | 2021-07-07 | 芝浦メカトロニクス株式会社 | 錠剤印刷装置 |
-
2014
- 2014-09-24 US US14/495,862 patent/US9609200B2/en active Active
-
2015
- 2015-09-23 CN CN201580063649.0A patent/CN107209943B/zh active Active
- 2015-09-23 EP EP18196011.3A patent/EP3451285B1/en active Active
- 2015-09-23 KR KR1020177011047A patent/KR102391828B1/ko active IP Right Grant
- 2015-09-23 EP EP15775345.0A patent/EP3198864A1/en not_active Withdrawn
- 2015-09-23 WO PCT/US2015/051598 patent/WO2016049113A1/en active Application Filing
- 2015-09-23 JP JP2017516929A patent/JP2017535755A/ja active Pending
- 2015-09-23 AU AU2015320751A patent/AU2015320751B2/en active Active
- 2015-09-23 NZ NZ730031A patent/NZ730031A/en unknown
- 2015-09-23 CA CA2962065A patent/CA2962065C/en active Active
-
2017
- 2017-03-28 US US15/472,116 patent/US10587792B2/en active Active
-
2020
- 2020-03-10 US US16/814,888 patent/US11494929B2/en active Active
- 2020-06-18 JP JP2020104960A patent/JP7293169B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000112019A (ja) * | 1998-10-08 | 2000-04-21 | Olympus Optical Co Ltd | 電子3眼カメラ装置 |
JP2010093422A (ja) * | 2008-10-06 | 2010-04-22 | Canon Inc | 撮像装置 |
KR20110021500A (ko) * | 2009-08-26 | 2011-03-04 | 유지상 | 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치 |
JP2011211531A (ja) * | 2010-03-30 | 2011-10-20 | Fujifilm Corp | 撮像装置 |
JP2012028915A (ja) * | 2010-07-21 | 2012-02-09 | Kantatsu Co Ltd | 撮像装置 |
JP2012145813A (ja) * | 2011-01-13 | 2012-08-02 | Ricoh Co Ltd | 撮像装置および撮像方法 |
JP2012151526A (ja) * | 2011-01-14 | 2012-08-09 | Jvc Kenwood Corp | 撮像装置および撮像方法 |
WO2013047482A1 (ja) * | 2011-09-30 | 2013-04-04 | 富士フイルム株式会社 | 撮影装置、撮影方法、記録媒体およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008968A1 (ko) * | 2021-07-29 | 2023-02-02 | 삼성전자 주식회사 | 카메라를 포함하는 전자 장치 및 전자 장치의 동작 방법 |
Also Published As
Publication number | Publication date |
---|---|
AU2015320751B2 (en) | 2020-03-12 |
US10587792B2 (en) | 2020-03-10 |
CA2962065C (en) | 2023-11-21 |
US11494929B2 (en) | 2022-11-08 |
US20160088212A1 (en) | 2016-03-24 |
KR102391828B1 (ko) | 2022-04-27 |
AU2015320751A1 (en) | 2017-04-06 |
EP3198864A1 (en) | 2017-08-02 |
KR20170086476A (ko) | 2017-07-26 |
CN107209943B (zh) | 2021-08-06 |
WO2016049113A1 (en) | 2016-03-31 |
NZ730031A (en) | 2022-02-25 |
US20200280672A1 (en) | 2020-09-03 |
US9609200B2 (en) | 2017-03-28 |
EP3451285B1 (en) | 2022-11-23 |
JP2017535755A (ja) | 2017-11-30 |
CA2962065A1 (en) | 2016-03-31 |
JP7293169B2 (ja) | 2023-06-19 |
US20170264815A1 (en) | 2017-09-14 |
CN107209943A (zh) | 2017-09-26 |
EP3451285A1 (en) | 2019-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7293169B2 (ja) | 動画カメラフォーカス用途における距離測定デバイス | |
US20130271579A1 (en) | Mobile Stereo Device: Stereo Imaging, Measurement and 3D Scene Reconstruction with Mobile Devices such as Tablet Computers and Smart Phones | |
US8259161B1 (en) | Method and system for automatic 3-D image creation | |
TWI394431B (zh) | 評價立體影像顯示面板的方法及系統 | |
JP2018510324A (ja) | 複数技術奥行きマップ取得および融合のための方法および装置 | |
US10229656B2 (en) | Image processing apparatus and image processing method to display full-size image of an object | |
CN105744138B (zh) | 快速对焦方法和电子设备 | |
CN102724398B (zh) | 图像数据提供方法、组合方法及呈现方法 | |
JP2014241496A (ja) | 情報処理装置、撮像装置、情報処理方法、及びプログラム | |
CN105791663A (zh) | 距离估算系统及距离估算方法 | |
TW201310970A (zh) | 三維影像擷取方法與裝置及三維影像顯示裝置 | |
JP2021027584A (ja) | 画像処理装置、画像処理方法およびプログラム | |
KR101082545B1 (ko) | 영상 변환 기능을 구비한 이동통신 단말기 | |
TW201205344A (en) | Adjusting system and method for screen, advertisement board including the same | |
KR20150028533A (ko) | 실내 공간 정보 구축을 위한 이동식 정보수집 장치 | |
KR20160111678A (ko) | 단일 카메라를 이용한 거리 측정 장치 및 방법 | |
KR20200082441A (ko) | 촬영영상을 이용한 실내공간 실측 시스템 | |
JP5980541B2 (ja) | 撮像装置、及び撮像制御方法 | |
WO2021020358A1 (ja) | 画像処理装置、画像処理方法、プログラムおよび記憶媒体 | |
KR20160008666A (ko) | 스테레오 카메라 칼리브레이션 시스템 및 스테레오 카메라 칼리브레이션 방법 | |
JP2012010186A (ja) | 画像処理装置、画像処理システム及び画像処理方法 | |
JP2014032589A (ja) | 電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200716 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7293169 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |