JP2018509030A - 撮像デバイスの視野における物体の奥行きによってトリガされるイベント - Google Patents

撮像デバイスの視野における物体の奥行きによってトリガされるイベント Download PDF

Info

Publication number
JP2018509030A
JP2018509030A JP2017537487A JP2017537487A JP2018509030A JP 2018509030 A JP2018509030 A JP 2018509030A JP 2017537487 A JP2017537487 A JP 2017537487A JP 2017537487 A JP2017537487 A JP 2017537487A JP 2018509030 A JP2018509030 A JP 2018509030A
Authority
JP
Japan
Prior art keywords
depth
imaging device
view
field
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017537487A
Other languages
English (en)
Inventor
キャンベル、シャンドン
アタナソフ、カリン・ミトコフ
シャンムガバディベル、カルティケヤン
ベラール、スティーブン・マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018509030A publication Critical patent/JP2018509030A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

画像において特定の奥行き基準を満たすことに基づいてイベントをトリガするシステムおよび方法。方法の一発明は、撮像デバイスの視野における少なくとも1つの物体を識別することと、撮像デバイスは、視野の少なくとも1つの画像をキャプチャするように構成される、閾値奥行きレベルを決定することと、撮像デバイスに対する、視野内の少なくとも1つの物体の奥行きを測定することと、少なくとも1つの物体の測定された奥行きを閾値奥行きレベルと比較することと、視野内の物体の奥行きが閾値奥行きレベルを超えるとき、物体の画像をキャプチャすることとを含む。【選択図】 図1

Description

発明の分野
[0001]本願は一般に、視野(FOV)における物体の奥行きの決定に関し、より具体的には、写真(photograph)およびビデオフレームを自動的に検出およびキャプチャするためのまたは撮像システムのシーンまたはFOV内の物体の奥行きに少なくとも部分的に基づいて他のアクションを実行するためのシステム、方法、およびデバイスに関する。
関連出願の説明
[0002]ユーザは、たとえば、子供の最初の一歩や第一声、卒業式、または結婚式のような、彼らが、写真またはビデオにキャプチャし、後日および/または後の時間にレビューしいと望む瞬間またはイベントを経験することが多い。多くの場合、これらの瞬間またはイベントは、静的であり得、それらの発生(たとえば、結婚式、卒業式、静かな風景、ポートレート)は大抵予測可能であり得、カメラ、ビデオレコーダ、またはスマートフォン、等の撮像機器を利用してユーザによって特定の奥行きで十分にキャプチャされ得る。しかしながら、時々、正しい時間に特定の奥行きにおいて物体またはイベントを有するシーンをキャプチャすることは、特に、シーンが動いている物体を含む場合またはカメラが素早いパンニング(panning)をされている場合に課題を提示し得る。たとえば、動いている物体に伴ってカメラがパン(pan)しなければならないときに、一群の木の間を飛んでいる鳥をキャプチャすることまたは歩いている子供をキャプチャすること。
[0003]機器のユーザが適切な瞬間にシーンをキャプチャするまたはマルチショットシステムを利用するときでさえ、ユーザは、瞬間またはイベントがいつ発生しそうであるかに気付いていなければならず、撮像機器を準備して、適切な方向に向けておかなければならず、彼または彼女の周りのシーンおよびイベントに気を配っていなければならない。追加的に、ユーザは、依然として、シーン全体のキャプチャを確実にするために、正確な(exact)瞬間に機器をアクティブにしなければならない。ゆえに、ユーザがアクションの瞬間を認識し、撮像機器をアクティブにし、撮像機器がシーンをキャプチャするのに必要とされる時間を考慮すると(account for)、シーンの少なくともいくらかの部分が、キャプチャされることなく過ぎており、ゆえに、ユーザの後のレビューから失われ得ること、または、誤った奥行きまたは不適切な焦点でキャプチャされ得ることは不可避である。したがって、奥行きトリガイベントに基づいて物体またはイベントをキャプチャすることを容易にするシステムおよび方法は有益となるであろう。
[0004]本発明のシステム、方法、およびデバイスは各々、数個の態様を有し、これらは1つとして、その望ましい属性を単独で担うものではない。後続する特許請求の範囲によって示されるような本発明の範囲を制限することなく、ここから、いくつかの特徴が簡潔に説明されるであろう。この説明を考察した後、特に「発明の詳細な説明」と題するセクションを読んだ後、当業者は、この発明のさまざまな実施形態の特徴が、撮像機器を用いたユーザによるアクションの瞬間の改善されたキャプチャを含む利点をどのようにもたらすかを理解するであろう。
[0005]本開示で説明される主題の一態様は、シーンをキャプチャするための方法を提供する。方法は、撮像デバイスの視野における少なくとも1つ物体を識別することを備える。撮像デバイスは、視野の少なくとも1つの画像をキャプチャするように構成される。方法は、閾値奥行きレベルを確立することと、撮像デバイスに対する、視野内の少なくとも1つの物体の奥行きを測定することとをさらに備える。方法はまた、少なくとも1つの物体の測定された奥行きを閾値レベルと比較することと、視野内の物体の奥行きが閾値レベルを超えるとき、撮像デバイスを介して、視野における物体の画像をキャプチャすることとを備える。
[0006]主題の別の態様は、シーンをキャプチャするための装置を説明する。装置は、視野における少なくとも1つの画像をキャプチャするように構成された撮像システムと、撮像システムに動作可能に結合されたプロセッサとを備える。プロセッサは、視野における少なくとも1つの物体を識別することと、閾値奥行きレベルを確立することとを行うように構成される。プロセッサはまた、撮像システムに対する、視野内の少なくとも1つの物体の奥行きを測定することと、少なくとも1つの物体の測定された奥行きを閾値奥行きレベルと比較することとを行うように構成される。プロセッサは、視野内の物体の奥行きが閾値レベルを超えるとき、撮像システムを介して、視野における物体の画像をキャプチャするようにさらに構成される。
[0007]本開示で説明される主題の別の態様は、シーンをキャプチャするための装置を提供する。装置は、撮像デバイスの視野における少なくとも1つの物体を識別するための手段と、閾値奥行きレベルを確立するための手段とを備える。装置は、撮像デバイスに対する、視野内の少なくとも1つの物体の奥行きを測定するための手段と、少なくとも1つの物体の測定された奥行きを閾値レベルと比較するための手段とをさらに備える。装置はまた、視野内の物体の奥行きが閾値レベルを超えるとき、視野における物体の画像をキャプチャするための手段を備える。
[0008]上記の態様、ならびに、本技術の他の特徴、態様、および利点が、添付の図面を参照して、ここから、さまざまな実施形態に関連して説明されるであろう。しかしながら、例示される実施形態は例にすぎず、制限するものであることは意図されない。図面全体にわたって、文脈が別途定めない限り、同様のシンボルは典型的に、同様の構成要素を識別する。下の図の相対的な寸法が原寸通りに描かれていない場合があることに留意されたい。
[0009]図1は、たとえば、ステレオオプティックスを介して、ターゲット物体の奥行きを決定する手法または方法の例示的な図を例示する。 [0010]図2は、本明細書で説明される使用事例に使用され得る画像キャプチャデバイスの一実施形態のブロック図を例示する。 [0011]図3Aは、モーションキャプチャの使用事例において使用される図2の画像キャプチャデバイスの実施形態を例示する。 図3Bは、モーションキャプチャの使用事例において使用される図2の画像キャプチャデバイスの実施形態を例示する。 [0012]図4は、物体トラッキングの使用事例で使用される図2の画像キャプチャデバイスの実施形態を例示する。 [0013]図5は、衝突検出の使用事例で使用される図2の画像キャプチャデバイスの実施形態を例示する。 [0014]図6は、特定の奥行きでの動き(motion)検出の使用事例で使用される図2の画像キャプチャデバイスの実施形態を例示する。 [0015]図7は、奥行きトリガイベント機能を実現するための例示的な方法を具現化するフローチャートを例示する。
発明の詳細な説明
[0016]新規なシステム、装置、および方法のさまざまな態様が、添付の図面を参照して下により十分に説明される。しかしながら、本開示は、多くの異なる形式で具現化され得、本開示全体にわたって提示される任意の特定の構造または機能に限定されるものとして解釈されるべきではない。むしろ、これらの態様は、本開示が徹底的かつ完全となり得、当業者に本開示の範囲を十分に伝え得るように提供される。本明細書における教示に基づき、当業者は、本開示の範囲が、本明細書に開示される新規なシステム、装置、および方法の任意の態様を、本発明の任意の他の態様から独立して実現されようと組み合わされて実現されようと、カバーすることが意図されることを理解するべきである。たとえば、本明細書に示される任意の数の態様を使用して、装置が実現され得るか、方法が実施され得る。加えて、本発明の範囲は、本明細書に示される発明のさまざまな態様に加えて、またはそれ以外の、他の構造、機能性、または構造と機能性を使用して実施されるこのような装置または方法をカバーすることが意図される。本明細書に開示される任意の態様が、特許請求の範囲の1つ以上の要素によって具現化され得ることは理解されるべきである。
[0017]特定の態様が本明細書で説明されるが、これらの態様の多くの変形および置換は、本開示の範囲内である。好ましい態様のいくつかの利益および利点が述べられるが、本開示の範囲は、特定の利益、用途、または目的に限定されることを意図されない。むしろ、本開示の態様は、異なるワイヤレス技術、システム構成、ネットワーク、および送信プロトコルに広く適用可能であるように意図されており、それらのうちのいくつかは、図においておよび好ましい態様の下の説明において例として例示される。発明の詳細な説明および図面は、限定というよりはむしろ、本開示の単なる例示であり、本開示の範囲は、添付の特許請求の範囲およびそれらの同等物によって定義されている。
[0018]写真撮影の際、ユーザは、キャプチャされるシーン内のさまざまな奥行きにおいて物体またはイベントを含む画像をキャプチャし得る。ユーザが撮像機器をアクティブにモニタしており、撮像機器を手動で制御しているとき、ユーザは、ターゲット物体が視野またはシーンにおいて所望の奥行きにあるときに、そのターゲット物体の画像をキャプチャすることができ得る。しかしながら、撮像機器を手動で制御するときでさえ、所望の奥行きでターゲット物体をキャプチャすることは、シーンが複数の動いている物体を含むとき、または、撮像機器がパンされている(たとえば、ターゲット物体を追従するように動かされているか、ターゲット物体を検出するために動かされている)場合、困難であり得る。たとえば、多くの他の動いている物体を有するシーンにおいてターゲット物体が動いている最中に、それに適切に焦点を合わせることは、困難であり得る。
[0019]ユーザが撮像機器をアクティブに制御していないとき、たとえば、撮像機器が、画像を自動的にキャプチャするように設定されているとき、所望の奥行きでのターゲット物体のキャプチャは、特に、撮像機器が単一のカメラまたは画像キャプチャセンサを備える場合、より一層複雑であり得る。これは、単一のカメラ/画像キャプチャセンサデバイスがターゲット物体の奥行きを決定することの難しさによるものであり得る。いくつかの実施形態では、所望の奥行きでターゲット物体の画像をキャプチャしようと試みるために、撮像機器は、連続して複数のフレームをキャプチャするように構成され得る(たとえば、単一カメラのマルチショット、すなわちフレームキャプチャのバースト、モードを実現する)。撮像機器は、単一のカメラ/画像キャプチャセンサ撮像機器が決定することができる限り、ターゲット物体が理想の奥行きに近いときマルチショットバーストを開始し得る。しかしながら、そのようなマルチショット実現は、メモリおよび処理時間における大幅なオーバヘッドと、複数のフレームをキャプチャし、ユーザレビューのためにメモリにそれらを格納するための電力とを必要とする。追加的に、単一のカメラ/画像キャプチャセンサを用いたそのようなマルチショットバーストは、所望の物体またはアクションをキャプチャすることを少しも保証することができない。所望の物体またはアクションがマルチショットバーストのフレームにおいてキャプチャされる場合、マルチショット実現は、ターゲット物体に適切に焦点を合わせない場合があり、代わりに、特に、ターゲット物体が動いている場合、および/または、撮像機器が動いている場合、そのフレーム内の背景または別の物体に焦点を合わせる。代替的に、ターゲット物体は、所望の奥行きでキャプチャされない場合があり得る。また、ユーザまたは撮像機器は、キャプチャされたフレームをレビューし、どのフレームがキャプチャされたフレームの中で最良であるかを決定するのに追加の時間を費やさなければならない。
[0020]ターゲット物体を自動的にキャプチャするための1つの例示的な解決策は、奥行きトリガイベント機能を実現することであり得る。奥行きトリガイベント機能は、視差マッチングを有するステレオカメラシステム(または、ターゲット物体の奥行きを確実にかつ正確に決定する能力のある任意の他の撮像システム)を備える撮像機器が、特定の奥行きにおいてターゲット物体を含むシーンをキャプチャすることを可能にし得、たとえば、ここでは、シーンの背景、シーン内の他の物体、撮像機器および/またはターゲット物体の動きに関わらず、ターゲット物体は、適切に焦点が合った状態にある。いくつかの実施形態では、奥行きトリガイベント機能は、ターゲット物体に適切に焦点が合わせられるのを待たない場合があり得るが、ターゲット物体が特定の奥行きを得るときにシーンをキャプチャし得る。視差マッチングを有するステレオ(たとえば、2つの)カメラシステムでは、個々にキャプチャされるフレーム(たとえば、キャプチャされる、2つのカメラの各々から1つのフレーム、なお、これらのフレームは、一斉にキャプチャされる)からの視差値は、カメラの両方によってキャプチャされる物体についての奥行き情報を決定するために使用され得る。背景シーンの奥行きまたはユーザ選択された物体の奥行きに基づいて、ステレオカメラシステムは、イベントをトリガし得る。たとえば、奥行きトリガイベント機能は、ユーザが、(ステレオカメラまたは他の奥行き決定システムを備える)撮像機器によってモニタされるべきターゲット物体またはシーンを識別することを備え得る。いくつかの実施形態では、これは、ユーザが、撮像機器のビューファインダまたは同様の選択手段からターゲット物体を選択することを伴い得る。次に、奥行きトリガイベント機能は、ターゲット物体またはシーンの正確な(accurate)奥行きを測定するために、視差マッチングを適用し得る。上述したように、視差マッチングは、ステレオオプティックス(stereo optics)を含む、さまざまな方法によって実行され得、ここでは、奥行きは、(図1でより詳細に説明されるような)各オプティックスによって識別される差分から算出される。奥行きマッピングの他の方法は、構造化光(structred light)奥行きマッピングおよび/またはシェーディング奥行きマッピングを備え得る。視差マッチングと奥行き閾値とに基づいて、奥行きトリガイベントは、イベントをトリガし得る(たとえば、ターゲット物体または視野の写真をキャプチャする)。
[0021]上の方法によって決定されたような奥行きに基づいて、奥行きトリガイベント機能は、ターゲット物体が特定の奥行きにあるときに、または、識別されるシーンが、検出されるイベントを特定の奥行きにおいてまたはそれを超えて生り出すときに、イベント(たとえば、スナップショット)スナップショットをトリガし得る。たとえば、ターゲット画像が撮像機器に向かって走る車両であるとき、奥行きトリガイベント機能は、この車両が特定の奥行きを超えるときに(たとえば、車両が、カメラから20フィートにあるかまたはそれ以内にあるときに、なお、20フィートは特定の奥行きである)スナップショットを自動的にトリガし得る。代替的に、ユーザは、撮像機器によってモニタされるべきシーンを識別し得、特定の奥行きを確立し得、ここでは、撮像機器は、ターゲット物体がシーンに入るときにまたはシーンのターゲット物体が特定の奥行きにあるかまたはそれ以内にあるときにシーンの画像をキャプチャするであろう。さらなる例が下に提供され得る。いくつかの他の実施形態では、奥行きトリガイベント機能は、特定の奥行きにおいて他のイベントをトリガする、たとえば、特定の奥行きにおいてターゲット物体に焦点を合わせるか、特定の奥行きにおいてビデオを記録するか、特定の奥行きにおいてズーム機能をアクティブにするか、特定の奥行きにおいて外部イベントをトリガするように構成され得る。
[0022]図1は、ステレオカメラがターゲット物体の奥行きをどのように決定し得るかの例示的な図の例示を提供する。図1に示されるように、ステレオカメラのオプティックスは、オプティックス102aおよび102bに位置し得る。個々のオプティックス102aおよび102bとして示されているが、オプティックス102aおよび102bは、単一のカメラ(示されない)内の異なるレンズまたは他の光学構造を構成し得る。追加的に、図1は、前景の物体110と、人物112と、人物112と略同じ奥行きにある2つの物体114aおよび114bと、人物112の背景にある2つの木116aおよび116bと、シーンの遠い背景にある木118とを描写する。オプティックス102aおよび102bは、上述した物体の各々への焦点ライン120を有して示される。これらの焦点ラインは、オプティックス102aおよび102bについて異なる注視点(point of fixation)を表し得る。追加的に、距離122が、2つのオプティックス102aと102bとの間に示される。距離122は、ステレオカメラの奥行き算出または視差マッチングの範囲にインパクトを与え得る。たとえば、2つのオプティックス102aおよび102bの間隔が密な場合、両方のオプティックス102aおよび102bによるフレームキャプチャ内の物体の知覚される奥行きは、2つのオプティックス102aと102bとの間の距離122の間隔がさらに空いているときよりも限定されるであろう(たとえば、知覚される奥行きは、それ程遠くならないであろう)。
[0023]異なる有利な地点から物体またはエッジを見ることは、物体またはエッジを、異なるロケーションにあるように見えさせ得る。たとえば、オプティックス102aが人物112を見るとき、人物112は、同時にオプティックス102bによって見られる同一人物112とは異なるロケーションにいるように見られ得る。これは、2つのオプティックス102aおよび102bが異なる(または、異種の)ロケーションにあるためである。したがって、オプティックス102aおよび102bに依存して、ターゲット物体は、オプティックス102aおよび102bの位置に関連して、一方向にわずかにシフトされ得る。オプティックス102aと102bとの間の距離122と、オプティックス102aおよび102bにおける結果として得られる画像の観察された視差とを使用することで、ステレオカメラは、特定の注視点におけるターゲット物体の実効距離を決定する能力があり得る。
[0024]図2は、複数のカメラまたはオプティックス215a−215nにリンクされた画像プロセッサ220を含む構成要素のセットを有するデバイス200の1つの可能な実施形態の大まかなブロック図を例示する。画像プロセッサ220は、ワーキングメモリ205、メモリ230、およびデバイスプロセッサ250とも通信状態にあり得、デバイスプロセッサ250は次に、電子記憶モジュール210および電子ディスプレイ225と通信状態にあり得る。いくつかの実施形態では、図2に例示されるような2つの別個のプロセッサの代わりに、単一のプロセッサが使用され得る。いくつかの実施形態は、3つ以上のプロセッサを含み得る。いくつかの実施形態では、上述した構成要素のうちのいくつかが、デバイス200に含まれ得るか、上述されていない追加の構成要素が、デバイス200に含まれ得る。
[0025]デバイス200は、携帯電話、デジタルカメラ、タブレットコンピュータ、携帯情報端末、または同様のものであり得るか、あるいはその一部であり得る。本明細書で説明されるような奥行きトリガイベントシステムが利点をもたらすであろう多くのポータブルコンピューティングデバイスが存在する。デバイス200はまた、固定された(stationary)コンピューティングデバイス、または奥行きトリガイベントシステムが有利となるであろう任意のデバイスであり得る。デバイス200上で、複数のアプリケーションがユーザに利用可能であり得る。これらのアプリケーションは、従来の写真およびビデオアプリケーション、高ダイナミックレンジ撮像、パノラマ写真(photo)およびビデオ、あるいは3D画像または3Dビデオのような立体撮像を含み得る。
[0026]画像キャプチャデバイス200は、外部画像をキャプチャするためのカメラまたはオプティックス215a−215nを含む。各カメラまたはオプティックス215は、とりわけ、センサと、レンズシステムと、オートフォーカスアセンブリとを含み得る。概して、N個のカメラ215a−215nが使用され得、ここで、N≧2である。しかしながら、いくつかの実施形態は、1つの画像センサアセンブリだけを用い得、そして、カメラまたはオプティックス215a−215nが、本明細書で説明される奥行きトリガイベントシステムの実現に適した任意の数の画像センサアセンブリを備え得ることは理解されるであろう。所与の視野のより大きい奥行き決定能力を達成するために、カメラまたはオプティックスの数が増やされ得る。カメラまたはオプティックス215a−215nは、キャプチャされた画像を画像プロセッサ220に伝達するために、画像プロセッサ220に結合され得る。画像プロセッサ220またはデバイスプロセッサ250は、キャプチャされた画像を受け取り、それに応じて、その中にキャプチャされたターゲット物体の奥行きを決定するように構成され得る。いくつかの実施形態では、カメラまたはオプティックス215は、ターゲット物体の奥行きを決定するために使用される「予備の」画像をキャプチャし得る。いくつかの実施形態では、カメラまたはオプティックス215およびそれらに結合された処理機器は、画像をキャプチャして物体の奥行きを決定するのではなく、むしろ、実際に画像をキャプチャすることなく「ライブの」ビューから、視野内の物体の奥行きを決定し得る。
[0027]画像プロセッサ220は、高品質の画像を出力するために、ターゲット画像のN個の部分を備える、受け取った画像データに対してさまざまな処理動作を実行するように構成され得る。プロセッサ220は、汎用処理ユニット、または撮像アプリケーションのために特別に設計されたプロセッサであり得る。画像処理動作の例には、奥行きマッピング、奥行きマッチング、または奥行き決定動作が含まれる。これらの動作は、クロッピング、(たとえば、異なる解像度への)スケーリング、画像スティッチング(image stitching)、画像フォーマット変換、色補間、色処理、画像フィルタリング(たとえば、空間画像フィルタリング)、レンズアーティファクトまたは欠陥補正、レンズ光ロールオフ、またはビネット(vignette)によって引き起こされる光レベルの低減、および同様のものを実行する同じまたは異なるプロセッサによって実行され得る。プロセッサ220は、いくつかの実施形態では、複数のプロセッサを備え得る。特定の実施形態は、各画像センサ専用のプロセッサを有し得る。画像プロセッサ220は、1つ以上の専用の画像信号プロセッサ(ISP)またはプロセッサのソフトウェア実現であり得る。
[0028]示されるように、画像プロセッサ220は、メモリ230およびワーキングメモリ205に接続されている。例示される実施形態では、メモリ230は、キャプチャ制御モジュール235と、奥行き決定モジュール240と、オペレーティングシステム245と、オートフォーカスモジュール255とを格納する。いくつかの実施形態では、追加のモジュールが含まれ得、または、いくつかの実施形態では、より少ない数のモジュールが含まれ得る。これらのモジュールは、さまざまな画像処理およびデバイス管理タスクを実行するようにデバイス200の画像プロセッサ220を構成する命令を含む。ワーキングメモリ205は、メモリ230のモジュールに含まれるプロセッサ命令のワーキングセットを格納するために画像プロセッサ220によって使用され得る。代替的に、ワーキングメモリ205はまた、デバイス200の動作中に作成される動的なデータ(たとえば、奥行き決定のために使用されるデータ)を格納するために画像プロセッサ220によって使用され得る。外部デバイスまたはハードウェアへの追加のモジュールまたは接続は、この図には示されていないが、他の奥行きトリガオプションまたはアクションを提供するために存在し得る。
[0029]上述したように、画像プロセッサ220は、メモリ230に格納されている数個のモジュールによって構成され得る。キャプチャ制御モジュール235は、デバイス200の総合的な画像キャプチャ機能および奥行き決定機能を制御する命令を含み得る。たとえば、キャプチャ制御モジュール235は、カメラ/オプティックス215a−215nを使用してターゲット画像シーンの原画像データをキャプチャするように画像プロセッサ220を構成する命令を含み得る。次に、キャプチャ制御モジュール235は、カメラ/オプティックス215a−215nによってキャプチャされたN個の画像に対して奥行き決定技法を実行するために奥行き決定モジュール240を呼び出し、撮像プロセッサ220に奥行きマップまたは奥行き情報を出力し得る。キャプチャ制御モジュール235はまた、キャプチャされるべきシーンのプレビュー画像を出力するために、および、特定の時間間隔でまたは原画像データにおけるシーンが変化するときにプレビュー画像を更新するために、原画像データに対して奥行き決定動作を実行するために奥行き決定モジュール240を呼び出し得る。
[0030]奥行き決定モジュール240は、キャプチャされた画像データに対して、奥行き決定、奥行きマッチング、または奥行きマッピング技法を実行するように画像プロセッサ220を構成する命令を備え得る。たとえば、N個のカメラ/オプティックス215a−215nの各々は、各センサの視野に従ったターゲット画像のビューをキャプチャし得る。視野は、上述したように重複エリアおよび重複物体を共有し得る。最終出力のターゲット画像内の共有される物体の奥行きを決定するために、奥行き決定モジュール240は、各カメラ/オプティックスからのシーンに対して奥行き決定動作を実行するように画像プロセッサ220を構成し得る。この動作は、視差マッチングまたは任意の他の奥行き決定動作を含み得る。
[0031]オペレーティングシステムモジュール245は、デバイス200のワーキングメモリ205および処理リソースを管理するように画像プロセッサ220を構成する。たとえば、オペレーティングシステムモジュール245は、カメラ215a−215nのようなハードウェアリソースを管理するためのデバイスドライバを含み得る。したがって、いくつかの実施形態では、上述した画像処理モジュールに含まれる命令は、これらのハードウェアリソースと直接インタラクトしない場合があるが、代わりに、オペレーティングシステム構成要素245内に位置するAPIまたは標準的なサブルーチンを通してインタラクトし得る。次に、オペレーティングシステム245内の命令は、これらのハードウェア構成要素と直接インタラクトし得る。オペレーティングシステムモジュール245は、デバイスプロセッサ250と情報を共有するように画像プロセッサ220をさらに構成し得る。
[0032]オートフォーカスモジュール255は、たとえば、対応するオートフォーカスアセンブリの動き(movement)および位置決めを制御することで、カメラ215a−215nの各々の焦点位置を調整するように画像プロセッサ220を構成する命令を含むことができる。オートフォーカスモジュール255は、いくつかの実施形態では、焦点分析を実行し、焦点パラメータを自動的に決定するように画像プロセッサ220を構成する命令を含むことができ、いくつかの実施形態では、ユーザ入力された焦点コマンドに対して応答するように画像プロセッサ220を構成する命令を含むことができる。いくつかの実施形態では、アレイにおける各カメラのレンズシステムに、別々に焦点が合わせられ得る。いくつかの実施形態では、アレイにおける各カメラのレンズシステムに、グループとして焦点が合わせられ得る。いくつかの実施形態では、オートフォーカスモジュール255は、奥行き決定モジュール240からあるいはプロセッサ220または250のうちの1つからコマンドを受け取るように構成され得る。
[0033]デバイスプロセッサ250は、キャプチャされた画像またはキャプチャされた画像のプレビューを、ユーザに表示するようにディスプレイ225を制御するように構成され得る。ディスプレイ225は、撮像デバイス200に対して外付けであり得るか、撮像デバイス200の一部であり得る。ディスプレイ225はまた、画像をキャプチャする前の使用のためのプレビュー画像を表示するビューファインダを提供するように構成され得るか、ユーザによって直近にキャプチャされたまたはメモリに格納された、キャプチャされた画像を表示するように構成され得る。ディスプレイ225は、たとえば、LCDスクリーン、LEDスクリーン、または他のディスプレイ技術のようなパネルディスプレイを含み得、タッチ反応式技術を実現し得る。デバイスプロセッサ250はまた、ユーザから入力を受け取るように構成され得る。たとえば、ディスプレイ225はまた、タッチスクリーンとなるように構成され得、ゆえに、ユーザから入力を受け取るように構成され得る。ユーザは、タッチスクリーンディスプレイ225を使用して、プロセッサが奥行き決定モジュール240に提供し得る情報を入力し得る。たとえば、ユーザは、ディスプレイ225上に示される視野からターゲット物体を選択するためにタッチスクリーンを使用し得る。デバイスプロセッサ250は、その入力を受け取り、それを奥行き決定モジュール240に提供し得、それは、その入力を使用して、奥行き決定動作のための特定の物体を選択し得る。
[0034]デバイスプロセッサ250は、たとえば、キャプチャされた画像を表現するデータのようなデータを記憶モジュール210に書き込み得る。記憶モジュール210は、従来のディスクデバイスとしてグラフィカルに表されているが、当業者であれば、記憶モジュール210が任意の記憶媒体デバイスとして構成され得ることは理解するであろう。たとえば、記憶モジュール210は、フロッピー(登録商標)ディスクドライブ、ハードディスクドライブ、光学ディスクドライブまたは光磁気ディスクドライブ、あるいはFLASHメモリ、RAM、ROM、および/またはEEPROM(登録商標)のようなソリッドステートメモリ、等のディスクドライブを含み得る。記憶モジュール210はまた、複数のメモリユニットを含むことができ、メモリユニットのうちのいずれか1つは、画像キャプチャデバイス200内であうように構成され得るか、画像キャプチャデバイス200に対して外付けであり得る。たとえば、記憶モジュール210は、画像キャプチャデバイス200内に格納されたシステムプログラム命令を含むROMメモリを含み得る。記憶モジュール210はまた、カメラから取り外し可能である、キャプチャされた画像を格納するように構成されたメモリカードまたは高速メモリを含み得る。
[0035]図2は、プロセッサ、撮像センサ、およびメモリを含むために別個の構成要素を有するデバイスを描写しているが、当業者であれば、これらの別個の構成要素が、特定の設計目的を達成するさまざまな方法で組み合わされ得ることを認識するであろう。たとえば、代替的な実施形態では、コストを節約し、性能を向上させるために、メモリ構成要素がプロセッサ構成要素と組み合わされ得る。
[0036]追加的に、図2は、数個のモジュールを備えるメモリ構成要素230とワーキングメモリを備える別個のメモリ205とを含む多数のメモリ構成要素を例示しているが、当業者であれば、異なるメモリアーキテクチャを利用する数個の実施形態を認識するであろう。たとえば、設計は、メモリ230に含まれるモジュールを実現するプロセッサ命令の格納のために、ROMまたは静的RAMメモリを利用し得る。プロセッサ命令は、画像プロセッサ220による実行を容易にするために、RAMへとロードされ得る。たとえば、ワーキングメモリ205は、RAMメモリを備え得、ここでは、命令は、画像プロセッサ220による実行の前にワーキングメモリ205へとロードされる。
[0037]図3Aおよび3Bは、モーションキャプチャの使用事例において使用されている図2の画像キャプチャデバイスの実施形態を例示する。図3Aおよび3Bは、撮像機器がシーンの端から端まで(through the scene)パンしている間に、シーンにおいて、動いているターゲット物体をキャプチャするために使用される奥行きトリガイベント機能の例示的な実現を例示する。図3Aは、シーン300全体の3つのより小さい個々のフレーム302a−302c(または、焦点のポイント)を有するシーン300を示す。この図には示されていないが、描写されるようなフレーム302a−302cよりも大きいまたは小さいサイズの複数の追加のフレーム302がシーン300内に生成され得る。3つのフレーム302a、302b、および302cがシーン300内に示されており、図3Bではシーン300から切り離して示されている。追加的に、図3Bでは3つのヒストグラム304a−304cが描写されており、各ヒストグラム304a−304cは、個々のフレーム302a−302cのうちの1つに対応する。ヒストグラム304a−304cは、各ヒストグラムのx軸に沿って閾値奥行き305を示す。ヒストグラム304a−304cは各々、特定の視野における物体の算出された奥行きも示す。
[0038]ヒストグラム304a−304cのx軸は、関連する視野内の物体の算出された奥行きに対応し得る。x軸上の奥行き値は、撮像機器からのターゲット物体の距離に逆相関し得る。たとえば、x軸上の0.1に描写される物体は、視野の背景に対応し得る。ゆえに、x軸上のより低い値は、撮像機器からさらに遠くにある。y軸は、物体によって満たされるフレームの量またはフレームにおけるターゲット物体の強度を描写し得る。たとえば、フレーム全体を満たし得る背景は、フレームの一部だけを満たす物体よりも高い値をy軸上で有し得る。
[0039]依然として図3Bを参照すると、ヒストグラム304a−304cに示されるように、シーンの背景は、y軸上で0.8と1との間の充填量(fill)または密度(fill or density)を有し、x軸上で0と0.2との間の奥行きで示される。ヒストグラム304a−304cの各々上の第1のスパイク310は、背景(たとえば、シーン300を満たす木)に対応し得る。第1のスパイク310は、背景におけるキーポイントから蓄積されるデータ(たとえば、背景を構成する画素数)であって、最も遠い焦点位置にある(ゆえに、x軸に沿った奥行きは、「1」よりも「0」に近い)データを表す。追加的に、各ヒストグラム304a−304cは、0.2に設定された閾値を示す。ゆえに、奥行きトリガイベント機能は、0.2という特定の閾値奥行きよりも大きい(または、よりも小さい)奥行きが識別されると、機能を実行するように構成され得る。一定の奥行きを有する背景だけを有するフレーム302aおよび302bの場合、いずれのターゲット物体も識別されない、および/または、画像のキャプチャをトリガするまたは何らかの他のアクションをトリガするであろういずれのイベントも識別されない。追加的に、いずれの非ターゲット物体も、背景とは異なる奥行きを有するものと識別されない。フレーム302aおよび302bから分かるように、フレーム302aおよび302bによってキャプチャされたシーン300の一部は、一定の奥行きを有する背景の画像だけを含む。ゆえに、ヒストグラム304aおよび304bは、背景を表す第1のスパイク310だけを示す。しかしながら、フレーム302cは、一定の奥行きを有する背景の画像を、画像の前景にいる(または、少なくとも背景よりも小さい奥行きを有する)鳥の画像とともに含む。したがって、ヒストグラム304cは、背景の奥行きを表す第1のスパイク310を描写しつつ、y軸上に略0.5のピークの充填量または密度で、x軸上に略0.5の奥行きを有する第2のスパイク311も示す。この第2のスパイク311は、フレーム302cにおける鳥を表し得る。鳥の奥行きは、スパイク310によって表される背景の奥行きよりも小さいとして、第2のスパイク311によって示される(たとえば、第2のスパイク311は、x軸上で、第1のスパイク310よりも大きい値を有する)。したがって、フレーム302cにおける鳥の奥行きが0.2の閾値を上回るため、フレーム302cにおける鳥は、アクションを実行する、たとえば、フレーム302cをキャプチャするために奥行きトリガイベント機能をトリガし得る。いくつかの実施形態では、複数のアクションが、単一のトリガに起因し得る。たとえば、鳥がフレーム320cに入り、フレーム302cのキャプチャをトリガするとき、同じトリガは、キャプチャされるフレーム302cが、焦点が合った状態になる(たとえば、鳥に焦点を合わせる)ように、オートフォーカス機能も開始し得る。
[0040]ゆえに、ヒストグラム304a−304cに関連して、物体が、背景に関連した閾値305を越える(cross)と(たとえば、背景または撮像機器に関連した特定の奥行きに物体が達すると)、奥行きトリガイベント機能によってトリガされるアクションがアクティブになり得る。いくつかの実施形態では、閾値305は、ユーザによって手動的に設定され得る。いくつかの実施形態では、閾値305は、ある時間期間にわたった背景の奥行きに基づいて、または、任意の他のファクタに基づいて、撮像機器によって自動的に決定され得る。いくつかの実施形態では、閾値305は、奥行きが2つの閾値(たとえば、最小閾値と最大閾値)内にあるときにのみアクションがトリガされ得るように、最小閾値または最大閾値を表す複数の閾値またはある範囲の閾値(この図には示されない)を備え得る。
[0041]図4は、物体トラッキングの使用事例で使用される図2の画像キャプチャデバイスの実施形態を例示する。図4は、撮像機器は、固定されているか、動いているターゲット物体を追従するためにパンしているかのどちらかであるが、撮像機器の視野内の動いているターゲット物体をトラッキングするために使用される奥行きトリガイベント機能の例示的な実現を示す。図4の使用事例は、ターゲット物体が閾値を超えるまで、それをトラッキングし得、その時点で、視野の画像がキャプチャされ得るか、別のアクションが開始され得る。図4は、シーン400を示し、視野全体にわたって、動いているターゲット物体の5つの事例を描写する。描写されるように、ターゲット物体は、同じくシーン400を横に進んで(progressing across)示されているボールを追いかけて視野を走り抜けている犬である。シーン400全体にわたる犬の5つの異なる事例は、犬がシーン400を横切って左から右に移動し、撮像機器に近づく(たとえば、ボールおよび犬の奥行きは、撮像機器に関連して低減する)につれ、犬およびボールが漸進的により「焦点が合った状態」になることを示す。シーン400の下には、3つのヒストグラム404a−404cが示されている。
[0042]ヒストグラム304a−304cと同様に、ヒストグラム404a−404cは、x軸上の0と0.2との間に第1のスパイク410を描写する。3つのヒストグラム404a−404cの各々について、第1のスパイク410は、ピーク値がy軸上で0.8と1との間にある状態で、x軸上で略0.1においてピークを有する。図3Bにおける第1のスパイク310の説明と同様に、第1のスパイク410は、シーン400の背景に対応し得る。シーン400の背景の奥行きが、ターゲット物体(犬)のトラッキング全体にわたって略一定のままであるため、第1のスパイク410は、3つのヒストグラム404a−404cにわたって略一定である。追加的に、3つのヒストグラム404a−404cの各々は、x軸上の0.8において閾値405を描写する。
[0043]3つのヒストグラム404a−404cは各々、第2のスパイク411を描写し得る。第2のスパイク411は、犬がシーン400中を移動するときのそれの奥行きに対応し得る。たとえば、第1のヒストグラム404aが、描写され、背景を表す第1のスパイク410をx軸上の0.1に、犬を表す第2のスパイク411をx軸上の0.3に示す。これは、犬の焦点が最もズレているときの(たとえば、それがシーン400の最も左の点にあるときの)および犬が(シーン400の全体に関連して)撮像機器から最も離れているときの犬の第1の事例に対応し得る。矢印415は、犬の奥行きが減少していることを示し得る。
[0044]第2のヒストグラム404bは、シーン400中(through the scene 400)の犬のトラッキングにおける第2の点を表し得る。第2のヒストグラム404bは、x軸上の0.1で維持される第1のスパイク410を示すが、犬を表す第2のスパイク411は、第1のヒストグラム404aのx軸上の0.3から第2のヒストグラム404bのx軸上の略0.5に動いている。x軸上のこの増加した奥行き値は、犬が撮像機器に近づいてきたこと(たとえば、撮像デバイスに関連する低減された奥行きを有すること)を表し得る。犬の第2、第3、および第4の事例によって示されるように、ヒストグラム404aおよび404bのx軸上の0.3から0.5への第2のスパイク411の進行は、犬がより「焦点が合った状態」になってきており、撮像機器にさらに近づいていることに対応する。第3のヒストグラム404cは、シーン400中の犬のトラッキングにおける第3の点を表し得る。第3のヒストグラム404cでは、第1のスパイク410は、x軸に沿って0.1で維持され、第2のスパイク411は、第2のヒストグラム404bのx軸上の0.5から、x軸上の0.8にある閾値405を超えて、x軸に沿って略0.9に進んでいる。ヒストグラム404cは、犬が所望の奥行きにいることまたはそれを通過したことを表し得、画像が撮像システムによってキャプチャされる時点を表し得る。代替的に、撮像システムは、犬に焦点を合わせ得るか、ビデオまたはオーディオ記録を開始するか、任意の他のアクションを実行し得る。
[0045]図5は、衝突検出の使用事例で使用されるような図2の画像キャプチャデバイスの実施形態を例示する。図5は、撮像機器は固定されているか動いているかのどちらかであるが、別の物体との衝突をキャプチャまたは回避するために使用される奥行きトリガイベント機能の例示的な実現を示す。いくつかの実施形態では、図5の使用事例は、ターゲット物体(車)が撮像機器に近づくと(たとえば、車の奥行きが低減すると)それを識別し、車が撮像機器からの特定の奥行き(奥行き閾値に対応する)に達するまで車をトラッキングする。車が、特定の奥行き閾値に達すると、撮像機器は、撮像機器と衝突間近の車の画像をキャプチャし得るか、奥行き閾値を越える車に対する何らかの他の応答をアクティブにし得る。たとえば、撮像機器は、撮像機器がモバイルデバイス(たとえば、車またはバス)に取り付けられている場合、ブレーキングシステムをアクティブにするように構成され得る。いくつかの実施形態では、撮像機器は、たとえば、視覚または聴覚信号あるいは何らかの他の通信方法のような、車への警告をアクティブにするように構成され得る。
[0046]図5に示されるように、ターゲット物体は、対向車線において撮像機器に近づいている車であり得る。図5は、左から右に3つの画像502a−502cを描写しており、各画像502は、ターゲット画像が、画像502a−502cをキャプチャする撮像機器にだんだんと近づくに伴い進む。画像502aは、道路の中央線を越え始めたばかりであり、対向交通に入るターゲット物体(たとえば、車)を示す。画像502bは、大部分が道路の中央線を越えている(すなわち、大部分が撮像機器の車線にある)が依然として撮像機器から離れている車を示す。画像502cは、全体が撮像機器の車線にあり、撮像機器により一層近いターゲット物体を示す。3つの画像502a−502cの下には、3つのヒストグラム504a−504cがある。ヒストグラム504a−504cの各々は、3つの画像502a−502cのうちの1つに対応する。たとえば、ヒストグラム504aは、画像502aに対応し、ヒストグラム504bは、画像502bに対応し、ヒストグラム504cは、画像502cに対応する。
[0047]図3および4に関連して上述したように、3つのヒストグラム504a−504cは各々、2つのスパイクを描写する。第1のスパイク510は、撮像機器が位置しているまたは動いている移動車線の背景(または、ユーザまたは撮像機器によって決定されたような何らかの他の背景)を表し得る。第1のスパイク510は、x軸上の略0.1の奥行きにおいてy軸上に略0.9のピークを有し得る。この値0.1は、焦点が無限遠であることまたはそれに近いことを示し得る。第2のスパイク511は、3つの画像502a−502cを通して、移動している車を表し得る。たとえば、ヒストグラム504aでは、第2のスパイク511は、y軸に沿っては小さく(たとえば、略0.4のピーク)、x軸上では略0.3であるであろう。ヒストグラム504bでは、第1のスパイク510はx軸上で0.1のままであるが、第2のスパイク511は、y軸に沿って0.4の値を維持しつつもx軸に沿って0.5に動いていると示される。上述したように、矢印515は、x軸に沿った第2のスパイク511の動きを、それが撮像機器に向かう車の動きに対応するため、表し得る。画像502cは、撮像機器に最も近い点にある車を示す。したがって、ヒストグラム504cは、撮像機器に対するその最も近いロケーションに対応する、x軸に沿ったその最大ロケーションにある(略0.9にある)車に対応する第2のスパイク511を示す。3つのヒストグラム504a−504c上に示される閾値がx軸上の0.8に設定されたため、この閾値で起因するアクション(たとえば、ピクチャを撮ることまたはブレーキングシステムをアクティブにすること)は、ターゲット物体が閾値を満たしたまたは超えたときにアクティブになっているであろう。
[0048]いくつかの実施形態では、撮像システムは、第2のスパイク511が閾値を超える全期間またはその一部の間、アクションを実行またはアクティブにするように構成され得る。ゆえに、車が、特定の奥行き内を超えた(cross within)(たとえば、第2のスパイク511がx軸に沿って0.8の閾値を満たすまたは超えた)後、スパイク511がx軸上で0.8を上回る全時間期間の間、衝突を回避しようと試みるために、ブレーキングシステムがアクティブにされ得る。いくつかの実施形態では、奥行きトリガイベント機能は、視野における奥行きの変化率を検出するように構成され得、この奥行きの変化率を使用して、アクションをいつアクティブにするかを決定し得る。
[0049]図6は、特定の奥行きでの動き検出の使用事例で使用される図1の画像キャプチャデバイスの実施形態を例示する。図6は、保護エリアをモニタするように配置された撮像機器を使用して、保護エリア内の侵入者を検出またはキャプチャするために使用される奥行きトリガイベント機能の例示的な実現を示す。いくつかの実施形態では、図6の使用事例は、出入り口を通ってのターゲット物体の任意の侵入を識別し得るか、特定のアイテムをモニタし、特定のアイテムの周りのエリアへのターゲット物体の進入を識別するように配置され得る。ターゲット物体が撮像機器に近づくように撮像機器が配置されるとき、それが撮像機器に近づく(たとえば、ターゲット物体の奥行きが低減する)と奥行きトリガされ、ターゲット物体が(最小奥行き閾値に対応する)撮像機器からの特定の奥行きに達するまでターゲット物体をトラッキングする。ターゲット物体が特定の奥行きに達すると、撮像機器は、たとえば、ターゲット物体が撮像機器と衝突間近であるかまたはモニタされているエリアに侵入しているとき、ターゲット物体の画像をキャプチャし得るか、撮像機器は、奥行き閾値を越えるターゲット物体に対して何らかの他の応答をアクティブにし得る。たとえば、撮像機器は、警報をアクティブにするようにまたはセキュリティ会社と通信するように構成され得る。いくつかの実施形態では、撮像機器は、たとえば、視覚または聴覚信号あるいは何らかの他の通信方法のような、ターゲット物体への警告をアクティブにするように構成され得る。
[0050]図6は、いくつかの実施形態に係る、壁601によって形成される部屋を示す。壁601を有する部屋の中には、オプティックス603aおよび603bを有する撮像デバイスを備えるラップトップ602が示されている。いくつかの実施形態では、撮像デバイスのオプティックス603aおよび603bは、ウェブカムまたは他のカメラ内蔵ラップトップのオプティックスを備え得る。いくつかの実施形態では、撮像デバイスおよびオプティックス603aおよび603bは、単にラップトップ602に接続された外部デバイスを備え得る。いくつかの実施形態では、奥行きトリガ機能は、撮像デバイスがラップトップ602から離れているとき、オプティックス603aおよび603bを有する撮像デバイス内で完全に実現され得る。いくつかの他の実施形態では、奥行きトリガ機能は、ラップトップ601内で実現され得、ここでは、ラップトップ601は、外部撮像デバイスからターゲット物体の奥行きに関する情報を受信する。いくつかの実施形態では、ラップトップ601は、(内蔵または外部)撮像デバイスから受信した奥行き情報に応答してアクションを実行する能力のある任意のデバイス(たとえば、スマートフォン、スマートウォッチ、タブレット、等)に置き替えられ得る。
[0051]図6は、壁601における開口部として表される出入り口605を示す。侵入者610が、出入り口605の外側に示されている。追加的に、オプティックス603a−603bの視野の例示的なエリア615は、撮像デバイスのオプティックス603aおよび603bと出入り口605との間に形成されて示される。壁601によって形成される部屋の画像の下には、3つのヒストグラム604a−604cがある。3つのヒストグラム604a−604cは、撮像デバイスと出入り口605との間のエリア61のモニタリングにおける例示的な時間を示し得る。第1のヒストグラム604aは、出入り口605および出入り口の外側の(図には示されない)廊下だけが撮像デバイスのオプティックス603aおよび603bによって検出されるエリア615の奥行きマップを表し得る。ヒストグラム604aに示されるように、2つのスパイク620および621が存在する。第1のスパイク620は、廊下の奥行きを表す。廊下の奥行きが、x軸上の略0.1において、y軸上で略0.4のピークを有して示される。第2のスパイク621は、出入り口605の奥行きを表す。出入り口605の奥行きが、x軸上の略0.4において、y軸上で略0.8のピークを有して示される。追加的に、奥行き閾値625が、x軸上の略0.4においてヒストグラム604a中に示される。
[0052]第2のヒストグラム604bは、ラップトップ602と、」オプティックス603aおよび603bを有する撮像デバイスとを含む、壁601を有する部屋の図6に示される画像を表し得る。第1のヒストグラム604aに関連して上述した要素に加えて、第2のヒストグラム604bは、第3のスパイク622を備える。第3のスパイク622が、x軸上の0.2と0.3との間において、y軸上で0.3と0.4との間にピークを有して示される。ゆえに、第3のスパイク622は、廊下を表す第1のスパイク620と、出入り口605を表す第2のスパイク621との間に示される。第3のスパイク622は、侵入者606を表す。ゆえに、侵入者606が部屋600の出入り口605の外側にいると示されているため、侵入者606を表すスパイク622は、廊下を表すスパイク620と出入り口605を表すスパイク621との間に示される。
[0053]第3のヒストグラム604cは、侵入者が出入り口605を越えてエリア615に入るシナリオを表す。第3のヒストグラム604cが、3つのスパイク620、621、および622を備えて示される。ヒストグラム604aおよび604bに関連して上述したように、第3のヒストグラム604cは、同じピークを有し、x軸に沿って略同じロケーションにある第1のスパイク620および第2のスパイク621と、x軸に沿って同じ位置にある閾値625とを備える。追加的に、第3のヒストグラム604cは、第2のヒストグラム604bに関連して識別された第3のスパイク622をさらに備える。しかしながら、第2のヒストグラム604bとは異なり、侵入者606を表す第3のスパイク622は、x軸に沿って0.5と0.6との間において、第2のヒストグラム604bに関連して説明したものと同じピークを有して示される。ゆえに、侵入者606は、閾値625を過ぎていることで、出入り口605を越えているとして示される。侵入者606が、出入り口を越えてからエリア615に入ると、オプティックス603aおよび603bを有する撮像デバイスは、侵入者の写真をキャプチャするように構成され得るか、侵入者がエリア615内にいることを示すために警報または他のインジケータをアクティブにするように構成され得る。
[0054]図7は、奥行きトリガイベント機能を実現するための例示的な方法を具現化するフローチャートを例示する。図7のプロセス700は、撮像機器の視野内の物体の正確な奥行き決定を実行する能力のある撮像機器を備えるモバイルデバイスまたは任意の他の電子デバイスによって実現され得る。いくつかの実施形態では、上述したように、モバイルデバイスまたは他の電子デバイスは、ステレオオプティックカメラシステムまたは構造化光カメラシステムまたはシェーディングカメラシステム、あるいはターゲット物体の奥行きを決定する能力のある任意の他のタイプのカメラシステムを備え得る。プロセス700は、ブロック702から開始し得る。開始ブロック702は、方法700のブロック704に進み、ここでは、方法700は、撮像デバイスの視野における少なくとも1つの物体を識別する。いくつかの実施形態では、少なくとも1つの物体は、ユーザからの入力に少なくとも部分的に基づいて識別され得る。いくつかの実施形態では、少なくとも1つの物体は、デバイスが方法700を実行することで自動的に識別され得る。デバイスは、物体がフレームの大半とは異なる奥行きを有するとの決定に基づいて、または、物体がある期間にわたって視野でさまざまな奥行きを有することによって、または、物体が特定の時間中に視野に入ることによって、少なくとも1つの物体を自動的に識別し得る。少なくとも1つの物体が識別された後、方法700は、ブロック706に進む。
[0055]ブロック706において、方法700は、閾値奥行きレベルを決定する。いくつかの実施形態では、閾値奥行きレベルは、ユーザ入力によって決定され得、ここでは、ユーザは、閾値奥行きレベルを選択し得る。いくつかの実施形態では、閾値奥行きレベルは、ある範囲の閾値奥行きを備え得、その範囲内に、少なくとも1つの物体は入らなければならない。いくつかの実施形態では、閾値奥行きレベルまたは閾値奥行きの範囲は、デバイスが、履歴情報、デバイスからの最小奥行き、または任意の他の基準に少なくとも部分的に基づいて方法700を実行することで、決定され得る。1つ以上の閾値奥行きレベルが確立された後、方法は、ブロック708に進む。ブロック708において、視野内の少なくとも1つの物体の奥行きが、デバイスまたは背景に対して測定される。いくつかの実施形態では、少なくとも1つの物体の奥行きは、ステレオオプティック奥行き方法あるいは視差マッチングまたはマッピング方法を使用して測定され得る。いくつかの実施形態では、少なくとも1つの物体の奥行きは、たとえば、構造化光またはシェーディング方法といった他の奥行き測定方法を使用して測定され得る。他の実施形態では、デバイスまたは背景に関連して少なくとも1つの物体の奥行きを測定するために任意の他の奥行き測定方法が適用され得る。少なくとも1つの物体の奥行きが測定されると、方法700は、ブロック710に進む。
[0056]ブロック710において、方法700は、少なくとも1つの物体の測定された奥行きを、ブロック706において決定された閾値奥行きレベルと比較し、ブロック712に進む。ブロック712において、少なくとも1つの物体の測定された奥行きが、閾値奥行きレベルよりも小さい(たとえば、少なくとも1つの物体が、閾値奥行きレベルによって示される奥行きよりも、デバイスからさらに離れている)場合、方法700は、ブロック708に戻り、ブロック712において、測定された奥行きが閾値奥行きレベルよりも大きくなるまで測定ブロックおよび比較ブロック(ブロック708および710)を繰り返す。測定された奥行きが閾値奥行きレベルよりも大きい(たとえば、少なくとも1つの物体が閾値奥行きレベルよりもデバイスに近い)とき、方法は、ブロック714に進み得る。ブロック714において、方法700は、測定された奥行きが閾値奥行きレベルよりも大きいことに基づいてアクションをトリガし得る。たとえば、方法700は、図3A、3Bおよび4−6の使用事例に関連して上述したアクションの何れかをトリガし得る。いくつかの実施形態では、方法700は、任意の他の外部アクションをトリガし得る。
[0057]いくつかの実施形態では、撮像機器は、撮像機器によって生成される情報を処理する能力のあるデバイスへと一体化され得る。たとえば、デバイスは、カメラの視野内の物体の奥行きを生成され解釈する能力のあるステレオカメラまたは他のカメラであり得る。他の実施形態では、撮像機器(たとえば、視野のフレームをキャプチャする能力がある機器)は、処理機器(たとえば、任意のビデオまたは画像処理システムに接続された外部ウェブカムまたはカメラを有するラップトップ)から離れている可能性がある。追加的に、いくつかの実施形態では、図3A、3B、および4−6のスパイクの幅は、ターゲット物体に基づいて変動し得る。ターゲット物体が複数の奥行きを有する(たとえば、ターゲット物体が、撮像機器に関連してさまざまな奥行きを有する大きい物体である)場合、スパイクは、x軸に関連してより多くのエリアをカバーし得る。いくつかの実施形態では、スパイク(カバーされたエリア)のサイズは、ターゲット物体の任意の特性を示さない場合がある。
[0058]本明細書で使用される場合、「決定すること」という用語は、幅広いアクションを包含する。たとえば、「決定すること」は、算出すること、計算すること、処理すること、導出すること、調査すること、ルックアップすること(たとえば、表、データベース、または別のデータ構造をルックアップすること)、確定すること、等を含み得る。また、「決定すること」は、受信すること(たとえば、情報を受信すること)、アクセスすること(たとえば、メモリ内のデータにアクセスすること)、等を含み得る。また、「決定すること」は、解決すること、選択すること、選ぶこと、確立すること、等を含み得る。さらに、本明細書で使用される場合、「チャネル幅」は、特定の態様では、帯域幅を包含し得るか、帯域幅とも呼ばれ得る。
[0059]本明細書で使用される場合、項目のリスト「のうちの少なくとも1つ」を参照する表現は、単一のメンバを含む、それらの項目の任意の組み合わせを指す。例として、「a、b、またはcのうちの少なくとも1つ」は、a、b、c、a−b、a−c、b−c、およびa−b−cをカバーすることが意図される。
[0060]上述した方法のさまざまな動作は、さまざまなハードウェアおよび/またはソフトウェアの構成要素、回路、および/またはモジュールのような、これら動作を実行することが可能な任意の適切な手段によって実行され得る。一般に、図において例示された任意の動作は、これら動作を実行することが可能な対応する機能的な手段によって実行され得る。
[0061]本明細書で使用される場合、インターフェースという用語は、2つ以上のデバイスを互いに接続するように構成されたハードウェアまたはソフトウェアを指し得る。たとえば、インターフェースは、プロセッサまたはバスの一部であり得、デバイス間の情報またはデータの通信を可能にするように構成され得る。インターフェースは、チップまたは他のデバイスに一体化され得る。たとえば、いくつかの実施形態では、インターフェースは、デバイスから別のデバイスに情報または通信を受信するように構成された受信機を備え得る。(たとえば、プロセッサまたはバスの)インターフェースは、フロントエンドまたは別のデバイスによって処理される情報またはデータを受信し得、受信した情報を処理し得る。いくつかの実施形態では、インターフェースは、別のデバイスに情報またはデータを送信または通信するように構成された送信機を備え得る。ゆえに、インターフェースは、情報またはデータを送信し得るか、または(たとえば、バスを介した)送信に向けた出力のために情報またはデータを準備し得る。
[0062]本開示に関連して説明された実例となるさまざまな論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス(PLD)、ディスクリートゲートまたはトランジスタ論理、ディスクリートハードウェア構成要素、あるいは本明細書で説明された機能を実行するように設計されたそれらの任意の組み合わせで実現または実行され得る。汎用プロセッサは、マイクロプロセッサであり得るが、代替的に、プロセッサは、任意の市販のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンであり得る。プロセッサはまた、コンピューティングデバイスの組み合わせ、たとえば、DSPと、1つのマイクロプロセッサ、複数のマイクロプロセッサ、DSPコアに連結した1つ以上のマイクロプロセッサ、あるいは任意の他のそのような構成との組み合わせとして実現され得る。
[0063]1つ以上の態様では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで実現され得る。ソフトウェアで実現される場合、これら機能は、コンピュータ読取可能な媒体上で、1つ以上の命令またはコードとして、格納または送信されることができる。コンピュータ読取可能な媒体は、ある箇所から別の箇所へのコンピュータプログラム移送を容易にする任意の媒体を含むコンピュータ通信媒体およびコンピュータ記憶媒体の両方を含む。記憶媒体はコンピュータによりアクセスされることができる任意の利用可能な媒体であり得る。限定ではなく例として、このようなコンピュータ読取可能な媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスク記憶装置、磁気ディスク記憶装置または他の磁気記憶デバイス、あるいはデータ構造または命令の形式で所望のプログラムコードを格納または搬送するために使用されることができ、かつコンピュータによってアクセスされることができる任意の他の媒体を備え得る。また、任意の接続は厳密にはコンピュータ読取可能な媒体と称され得る。たとえば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、電波、およびマイクロ波のようなワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、この同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、電波、およびマイクロ波のようなワイヤレス技術は、媒体の定義に含まれる。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピーディスク、およびBlu-ray(登録商標)ディスクを含み、ここで、ディスク(disk)は通常、磁気的にデータを再生し、ディスク(disc)は、レーザーを用いて光学的にデータを再生する。ゆえに、いくつかの態様では、コンピュータ読取可能な媒体は、非一時的なコンピュータ読取可能な媒体(たとえば、有体媒体)を備え得る。加えて、いくつかの態様では、コンピュータ読取可能な媒体は、一時的なコンピュータ読取可能な媒体(たとえば、信号)を備え得る。上記の組み合わせもまた、コンピュータ読取可能な媒体の範囲内に含まれるべきである。
[0064]本明細書で開示された方法は、説明された方法を達成するための1つ以上のステップまたはアクションを備える。方法のステップおよび/またはアクションは、特許請求の範囲から逸脱することなく互いと置き換えられ得る。換言すると、ステップまたはアクションの特定の順序が明記されていない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲から逸脱することなく修正され得る。
[0065]説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで実現され得る。ソフトウェアにおいて実行される場合、これら機能は、1つ以上の命令として、コンピュータ読取可能な媒体上に格納され得る。記憶媒体は、コンピュータによりアクセスされることができる任意の利用可能な媒体であり得る。限定ではなく例として、このようなコンピュータ読取可能な媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスク記憶装置、磁気ディスク記憶装置または他の磁気記憶デバイス、あるいはデータ構造または命令の形式で所望のプログラムコードを格納または搬送するために使用されることができ、かつコンピュータによってアクセスされることができる任意の他の媒体を備え得る。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク、光ディスク、デジタル多用途ディスク(DVD)、フロッピーディスク、およびブルーレイディスクを含み、ディスク(disk)は、通常磁気的にデータを再生し、ディスク(disc)は、レーザーを用いて光学的にデータを再生する。
[0066]ゆえに、特定の態様は、本明細書で提示された動作を実行するためのコンピュータプログラム製品を備え得る。たとえば、そのようなコンピュータプログラム製品は、命令を格納(および/または、符号化)しているコンピュータ読取可能な媒体を備え得、これら命令は、本明細書で説明された動作を実行するために1つ以上のプロセッサによって実行可能である。特定の態様について、コンピュータプログラム製品は、パッケージ材料を含み得る。
[0067]ソフトウェアまたは命令はまた、伝送媒体上で送信され得る。たとえば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、電波、およびマイクロ波のようなワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、この同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、電波、およびマイクロ波のようなワイヤレス技術は、伝送媒体の定義に含まれる。
[0068]さらに、モジュールおよび/または本明細書で説明された方法および技法を実行するための他の適切な手段が、適宜ユーザ端末および/または基地局によってダウンロードされ得ること、および/または、それ以外の方法で取得され得ることは認識されるべきである。たとえば、このようなデバイスは、本明細書で説明された方法を実行するための手段の移送を容易にするためにサーバに結合され得る。代替的に、本明細書で説明されたさまざまな方法は、ユーザ端末および/または基地局が、デバイスへの記憶手段の結合または提供によりさまざまな方法を取得できるように、記憶手段(たとえば、RAM、ROM、コンパクトディスク(CD)またはフロッピーディスクのような物理的な記憶媒体、等)を介して提供され得る。さらに、本明細書で説明された方法および技法をデバイスに提供するための任意の他の適切な技法が利用され得る。
[0069]特許請求の範囲が上に例示されたとおりの構成および構成要素に限定されないことは理解されるべきである。さまざまな修正、変更、および変形が、特許請求の範囲から逸脱することなく、上述した方法および装置の配列、動作、および詳細に対してなされ得る。
[0070]前述の内容は本開示の態様を対象としているが、本開示の他のおよびさらなる態様が、それの基本的な範囲から逸脱することなく考案され得、それの範囲は、下の特許請求の範囲によって決定される。
[0070]前述の内容は本開示の態様を対象としているが、本開示の他のおよびさらなる態様が、それの基本的な範囲から逸脱することなく考案され得、それの範囲は、下の特許請求の範囲によって決定される。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
シーンをキャプチャするための方法であって、
撮像デバイスの視野における少なくとも1つの物体を識別することと、前記撮像デバイスは、前記視野の少なくとも1つの画像をキャプチャするように構成される、
閾値奥行きレベルを確立することと、
前記撮像デバイスに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定することと、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値レベルと比較することと、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記撮像デバイスを介して、前記視野における前記物体の画像をキャプチャすることと
を備える方法。
[C2]
前記視野内の前記少なくとも1つの物体の奥行きを前記測定することは、前記識別された少なくとも1つの物体に視差マッチングを適用することを備え、前記撮像デバイスは、ステレオオプティックスを備える、C1に記載の方法。
[C3]
前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定することをさらに備える、C2に記載の方法。
[C4]
前記撮像デバイスの前記視野における背景を識別することと、
前記背景に前記視差マッチングを適用することと、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定することと
をさらに備える、C1に記載の方法。
[C5]
前記撮像デバイスは、ステレオオプティックスカメラを備える、C1に記載の方法。
[C6]
前記撮像デバイスは、構造化光3Dスキャナを備える、C1に記載の方法。
[C7]
前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガすることをさらに備える、C1に記載の方法。
[C8]
前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、C7に記載の方法。
[C9]
前記画像は、前記視野内の前記物体の前記奥行きが閾値範囲内であるときにキャプチャされる、C1に記載の方法。
[C10]
ユーザからの入力を介して前記閾値レベルを確立することをさらに備える、C1に記載の方法。
[C11]
前記視野の前記測定された奥行きの平均に基づいて自動的に前記閾値レベルを確立することをさらに備える、C1に記載の方法。
[C12]
シーンをキャプチャするための装置であって、
視野における少なくとも1つの画像をキャプチャするように構成された撮像システムと、
前記撮像システムに動作可能に結合されたプロセッサと
を備え、前記プロセッサは、
前記視野における少なくとも1つの物体を識別することと、
閾値奥行きレベルを確立することと、
前記撮像システムに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定することと、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値奥行きレベルと比較することと、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記撮像システムを介して、前記視野における前記物体の画像をキャプチャすることと
を行うように構成される、装置。
[C13]
前記視野内の前記少なくとも1つの物体の奥行きを測定するように構成された前記処理することは、前記識別された少なくとも1つの物体に視差マッチングを適用するように構成された前記プロセッサを備え、前記撮像デバイスは、ステレオオプティックスを備える、C12に記載の装置。
[C14]
前記プロセッサは、前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定するようにさらに構成される、C13に記載の装置。
[C15]
前記プロセッサは、
前記撮像デバイスの前記視野における背景を識別することと、
前記背景に前記視差マッチングを適用することと、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定することと
を行うようにさらに構成される、C12に記載の装置。
[C16]
前記撮像デバイスは、ステレオオプティックスカメラを備える、C12に記載の装置。
[C17]
前記撮像デバイスは、構造化光3Dスキャナを備える、C12に記載の装置。
[C18]
前記プロセッサは、前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガするようにさらに構成される、C12に記載の装置。
[C19]
前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、C18に記載の装置。
[C20]
前記画像は、前記視野内の前記物体の前記奥行きが閾値範囲内であるときにキャプチャされる、C12に記載の装置。
[C21]
前記プロセッサは、ユーザからの入力を介して前記閾値レベルを確立するようにさらに構成される、C12に記載の装置。
[C22]
前記プロセッサは、前記視野の前記測定された奥行きの平均に基づいて自動的に前記閾値レベルを確立するようにさらに構成される、C12に記載の装置。
[C23]
シーンをキャプチャするための装置であって、
撮像デバイスの視野における少なくとも1つ物体を識別するための手段と、
閾値奥行きレベルを確立するための手段と、
前記撮像デバイスに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定するための手段と、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値レベルと比較するための手段と、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記視野における前記物体の画像をキャプチャするための手段と
を備える装置。
[C24]
奥行きを測定するための前記手段は、前記識別された少なくとも1つの物体に視差マッチングを適用するための手段を備え、前記撮像デバイスは、ステレオオプティックスを備える、C23に記載の装置。
[C25]
前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定するための手段をさらに備える、C24に記載の装置。
[C26]
前記撮像デバイスの前記視野における背景を識別するための手段と、
前記背景に前記視差マッチングを適用するための手段と、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定するための手段と
をさらに備える、C23に記載の装置。
[C27]
前記撮像デバイスは、ステレオオプティックスカメラを備える、C23に記載の装置。
[C28]
前記撮像デバイスは、構造化光3Dスキャナを備える、C23に記載の装置。
[C29]
前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガするための手段をさらに備える、C23に記載の装置。
[C30]
前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、C29に記載の装置。

Claims (30)

  1. シーンをキャプチャするための方法であって、
    撮像デバイスの視野における少なくとも1つの物体を識別することと、前記撮像デバイスは、前記視野の少なくとも1つの画像をキャプチャするように構成される、
    閾値奥行きレベルを確立することと、
    前記撮像デバイスに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定することと、
    前記少なくとも1つの物体の前記測定された奥行きを、前記閾値レベルと比較することと、
    前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記撮像デバイスを介して、前記視野における前記物体の画像をキャプチャすることと
    を備える方法。
  2. 前記視野内の前記少なくとも1つの物体の奥行きを前記測定することは、前記識別された少なくとも1つの物体に視差マッチングを適用することを備え、前記撮像デバイスは、ステレオオプティックスを備える、請求項1に記載の方法。
  3. 前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定することをさらに備える、請求項2に記載の方法。
  4. 前記撮像デバイスの前記視野における背景を識別することと、
    前記背景に前記視差マッチングを適用することと、
    前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定することと
    をさらに備える、請求項1に記載の方法。
  5. 前記撮像デバイスは、ステレオオプティックスカメラを備える、請求項1に記載の方法。
  6. 前記撮像デバイスは、構造化光3Dスキャナを備える、請求項1に記載の方法。
  7. 前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガすることをさらに備える、請求項1に記載の方法。
  8. 前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、請求項7に記載の方法。
  9. 前記画像は、前記視野内の前記物体の前記奥行きが閾値範囲内であるときにキャプチャされる、請求項1に記載の方法。
  10. ユーザからの入力を介して前記閾値レベルを確立することをさらに備える、請求項1に記載の方法。
  11. 前記視野の前記測定された奥行きの平均に基づいて自動的に前記閾値レベルを確立することをさらに備える、請求項1に記載の方法。
  12. シーンをキャプチャするための装置であって、
    視野における少なくとも1つの画像をキャプチャするように構成された撮像システムと、
    前記撮像システムに動作可能に結合されたプロセッサと
    を備え、前記プロセッサは、
    前記視野における少なくとも1つの物体を識別することと、
    閾値奥行きレベルを確立することと、
    前記撮像システムに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定することと、
    前記少なくとも1つの物体の前記測定された奥行きを、前記閾値奥行きレベルと比較することと、
    前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記撮像システムを介して、前記視野における前記物体の画像をキャプチャすることと
    を行うように構成される、装置。
  13. 前記視野内の前記少なくとも1つの物体の奥行きを測定するように構成された前記処理することは、前記識別された少なくとも1つの物体に視差マッチングを適用するように構成された前記プロセッサを備え、前記撮像デバイスは、ステレオオプティックスを備える、請求項12に記載の装置。
  14. 前記プロセッサは、前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定するようにさらに構成される、請求項13に記載の装置。
  15. 前記プロセッサは、
    前記撮像デバイスの前記視野における背景を識別することと、
    前記背景に前記視差マッチングを適用することと、
    前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定することと
    を行うようにさらに構成される、請求項12に記載の装置。
  16. 前記撮像デバイスは、ステレオオプティックスカメラを備える、請求項12に記載の装置。
  17. 前記撮像デバイスは、構造化光3Dスキャナを備える、請求項12に記載の装置。
  18. 前記プロセッサは、前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガするようにさらに構成される、請求項12に記載の装置。
  19. 前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、請求項18に記載の装置。
  20. 前記画像は、前記視野内の前記物体の前記奥行きが閾値範囲内であるときにキャプチャされる、請求項12に記載の装置。
  21. 前記プロセッサは、ユーザからの入力を介して前記閾値レベルを確立するようにさらに構成される、請求項12に記載の装置。
  22. 前記プロセッサは、前記視野の前記測定された奥行きの平均に基づいて自動的に前記閾値レベルを確立するようにさらに構成される、請求項12に記載の装置。
  23. シーンをキャプチャするための装置であって、
    撮像デバイスの視野における少なくとも1つ物体を識別するための手段と、
    閾値奥行きレベルを確立するための手段と、
    前記撮像デバイスに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定するための手段と、
    前記少なくとも1つの物体の前記測定された奥行きを、前記閾値レベルと比較するための手段と、
    前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記視野における前記物体の画像をキャプチャするための手段と
    を備える装置。
  24. 奥行きを測定するための前記手段は、前記識別された少なくとも1つの物体に視差マッチングを適用するための手段を備え、前記撮像デバイスは、ステレオオプティックスを備える、請求項23に記載の装置。
  25. 前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定するための手段をさらに備える、請求項24に記載の装置。
  26. 前記撮像デバイスの前記視野における背景を識別するための手段と、
    前記背景に前記視差マッチングを適用するための手段と、
    前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定するための手段と
    をさらに備える、請求項23に記載の装置。
  27. 前記撮像デバイスは、ステレオオプティックスカメラを備える、請求項23に記載の装置。
  28. 前記撮像デバイスは、構造化光3Dスキャナを備える、請求項23に記載の装置。
  29. 前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガするための手段をさらに備える、請求項23に記載の装置。
  30. 前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、請求項29に記載の装置。
JP2017537487A 2015-01-16 2015-12-17 撮像デバイスの視野における物体の奥行きによってトリガされるイベント Pending JP2018509030A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/598,791 US10277888B2 (en) 2015-01-16 2015-01-16 Depth triggered event feature
US14/598,791 2015-01-16
PCT/US2015/066301 WO2016114897A1 (en) 2015-01-16 2015-12-17 Event triggered by the depth of an object in the field of view of an imaging device

Publications (1)

Publication Number Publication Date
JP2018509030A true JP2018509030A (ja) 2018-03-29

Family

ID=55229822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017537487A Pending JP2018509030A (ja) 2015-01-16 2015-12-17 撮像デバイスの視野における物体の奥行きによってトリガされるイベント

Country Status (5)

Country Link
US (1) US10277888B2 (ja)
EP (1) EP3245616A1 (ja)
JP (1) JP2018509030A (ja)
CN (1) CN107111764B (ja)
WO (1) WO2016114897A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020255399A1 (ja) * 2019-06-21 2020-12-24

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018086133A1 (en) * 2016-11-14 2018-05-17 SZ DJI Technology Co., Ltd. Methods and systems for selective sensor fusion
CN110163976B (zh) * 2018-07-05 2024-02-06 腾讯数码(天津)有限公司 一种虚拟场景转换的方法、装置、终端设备及存储介质
CN109460077B (zh) * 2018-11-19 2022-05-17 深圳博为教育科技有限公司 一种自动跟踪方法、自动跟踪设备及自动跟踪系统
KR102040939B1 (ko) * 2019-07-15 2019-11-27 한화테크윈 주식회사 감시 시스템 및 그 동작 방법
US11836940B2 (en) * 2020-06-15 2023-12-05 Zebra Technologies Corporation Three-dimensional sensor acuity recovery assistance
US20220021822A1 (en) * 2020-07-14 2022-01-20 International Business Machines Corporation Guided multi-spectral inspection
US12003894B1 (en) * 2020-12-29 2024-06-04 Waymo Llc Systems, methods, and apparatus for event detection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334760A (ja) * 2006-06-16 2007-12-27 Auto Network Gijutsu Kenkyusho:Kk ドライブレコーダ
JP2010019423A (ja) * 2009-09-24 2010-01-28 Jtekt Corp 転がり軸受装置
JP2013127754A (ja) * 2011-12-19 2013-06-27 Fujitsu Ltd 記録装置、記録プログラム及び記録方法
US20140118486A1 (en) * 2009-11-19 2014-05-01 Robert Bosch Gmbh Rear-view multi-functional camera system with driving corridor monitoring features

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
DE60325536D1 (de) * 2002-09-20 2009-02-12 Nippon Telegraph & Telephone Vorrichtung zum Erzeugen eines pseudo-dreidimensionalen Bildes
US6956469B2 (en) 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection
CN101257641A (zh) * 2008-03-14 2008-09-03 清华大学 基于人机交互的平面视频转立体视频的方法
KR101547151B1 (ko) * 2008-12-26 2015-08-25 삼성전자주식회사 영상 처리 방법 및 장치
US8203602B2 (en) 2009-02-06 2012-06-19 Robert Bosch Gmbh Depth-aware blur kernel estimation method for iris deblurring
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
CN101877131A (zh) * 2009-04-28 2010-11-03 青岛海信数字多媒体技术国家重点实验室有限公司 一种目标识别方法、装置及目标识别系统
US8611604B2 (en) * 2009-06-03 2013-12-17 Chubu University Educational Foundation Object detection device
US8711198B2 (en) * 2009-06-04 2014-04-29 Hewlett-Packard Development Company, L.P. Video conference
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8027582B2 (en) * 2009-12-21 2011-09-27 Sony Corporation Autofocus with confidence measure
JPWO2011086636A1 (ja) 2010-01-13 2013-05-16 パナソニック株式会社 ステレオ画像用撮像装置、ステレオ画像用撮像方法、ステレオ画像表示装置、および、プログラム
US9171372B2 (en) * 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8760567B2 (en) 2010-12-21 2014-06-24 Samsung Electronics Co., Ltd. Photographing apparatus and method to reduce auto-focus time
US9237331B2 (en) 2011-01-18 2016-01-12 Disney Enterprises, Inc. Computational stereoscopic camera system
CN102075777B (zh) * 2011-01-26 2015-02-11 Tcl集团股份有限公司 一种基于运动对象的视频图像平面转立体处理方法
US9470778B2 (en) * 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
CN102855459B (zh) * 2011-06-30 2015-11-25 株式会社理光 用于特定前景物体的检测验证的方法和系统
US20130229485A1 (en) * 2011-08-30 2013-09-05 Nokia Corporation Apparatus, a Method and a Computer Program for Video Coding and Decoding
JP5821457B2 (ja) * 2011-09-20 2015-11-24 ソニー株式会社 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
WO2013090830A1 (en) * 2011-12-16 2013-06-20 University Of Southern California Autonomous pavement condition assessment
WO2013107931A1 (en) * 2012-01-19 2013-07-25 Nokia Corporation An apparatus, a method and a computer program for video coding and decoding
CN102622769B (zh) * 2012-03-19 2015-03-04 厦门大学 一种在动态场景下以深度为主导线索的多目标跟踪方法
KR101930235B1 (ko) 2012-05-15 2018-12-18 삼성전자 주식회사 디지털 이미지 안정화 방법, 장치 및 시스템
US9503645B2 (en) * 2012-05-24 2016-11-22 Mediatek Inc. Preview system for concurrently displaying multiple preview images generated based on input image generated by image capture apparatus and related preview method thereof
US9349207B2 (en) * 2012-05-31 2016-05-24 Samsung Electronics Co., Ltd. Apparatus and method for parsing human body image
CN102890791A (zh) * 2012-08-31 2013-01-23 浙江捷尚视觉科技有限公司 基于深度信息聚类的复杂场景人数统计方法
US10659763B2 (en) * 2012-10-09 2020-05-19 Cameron Pace Group Llc Stereo camera system with wide and narrow interocular distance cameras
CN102982557B (zh) * 2012-11-06 2015-03-25 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
WO2014165244A1 (en) * 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9633442B2 (en) * 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US10122993B2 (en) * 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
IN2013CH05313A (ja) * 2013-11-18 2015-05-29 Nokia Corp
US9407896B2 (en) * 2014-03-24 2016-08-02 Hong Kong Applied Science and Technology Research Institute Company, Limited Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions
US9524556B2 (en) * 2014-05-20 2016-12-20 Nokia Technologies Oy Method, apparatus and computer program product for depth estimation
CN104052992B (zh) * 2014-06-09 2018-02-27 联想(北京)有限公司 一种图像处理方法及电子设备
CN105519106B (zh) * 2014-06-20 2017-08-04 寰发股份有限公司 用于三维或多视图视频编码中基于深度的块分区模式的编码方法
CN104268851A (zh) * 2014-09-05 2015-01-07 浙江捷尚视觉科技股份有限公司 一种基于深度信息的atm自助营业厅行为分析方法
US9607394B2 (en) * 2014-11-20 2017-03-28 Lenovo (Beijing) Co., Ltd. Information processing method and electronic device
US9940717B2 (en) * 2014-12-23 2018-04-10 Intel Corporation Method and system of geometric camera self-calibration quality assessment
US9712809B2 (en) * 2015-05-22 2017-07-18 Intel Corporation Integrated digital camera platform with NIR apodization filter for enhanced depth sensing and image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334760A (ja) * 2006-06-16 2007-12-27 Auto Network Gijutsu Kenkyusho:Kk ドライブレコーダ
JP2010019423A (ja) * 2009-09-24 2010-01-28 Jtekt Corp 転がり軸受装置
US20140118486A1 (en) * 2009-11-19 2014-05-01 Robert Bosch Gmbh Rear-view multi-functional camera system with driving corridor monitoring features
JP2013127754A (ja) * 2011-12-19 2013-06-27 Fujitsu Ltd 記録装置、記録プログラム及び記録方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020255399A1 (ja) * 2019-06-21 2020-12-24

Also Published As

Publication number Publication date
CN107111764B (zh) 2021-07-16
CN107111764A (zh) 2017-08-29
EP3245616A1 (en) 2017-11-22
WO2016114897A1 (en) 2016-07-21
US20160212410A1 (en) 2016-07-21
US10277888B2 (en) 2019-04-30

Similar Documents

Publication Publication Date Title
JP2018509030A (ja) 撮像デバイスの視野における物体の奥行きによってトリガされるイベント
US10116922B2 (en) Method and system for automatic 3-D image creation
US11263751B2 (en) Method and apparatus for image segmentation using an event sensor
CN109922251B (zh) 快速抓拍的方法、装置及系统
US9813607B2 (en) Method and apparatus for image capture targeting
KR101172747B1 (ko) 열화상 좌표를 이용한 보안용 카메라 추적 감시 시스템 및 방법
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
US8983121B2 (en) Image processing apparatus and method thereof
US9396757B2 (en) Video remixing system
CN105744138B (zh) 快速对焦方法和电子设备
JP2018513992A (ja) 連続オートフォーカスのためのシステムおよび方法
JP2020031421A (ja) 複数のカメラからのビューを組み合わせる方法及びカメラシステム
US8406468B2 (en) Image capturing device and method for adjusting a position of a lens of the image capturing device
CN115760912A (zh) 运动目标跟踪方法、装置、设备及计算机可读存储介质
JP5693147B2 (ja) 撮影妨害検知方法、妨害検知装置及び監視カメラシステム
US11190670B2 (en) Method and a system for processing images based a tracked subject
CN114697528A (zh) 图像处理器、电子设备及对焦控制方法
US11659135B2 (en) Slow or fast motion video using depth information
US20240046426A1 (en) Noise removal for surveillance camera image by means of ai-based object recognition
CN115380524A (zh) 用于实时捕捉增强的媒体的方法和系统
CN118175416A (zh) 影像撷取系统及其方法
JP2023063765A (ja) 画像処理装置、画像処理方法、画像処理システム、およびプログラム
CN115174872A (zh) 一种监控方法及装置
JP2015109614A (ja) カメラシステム、制御装置およびその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170927

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200804