JP5871862B2 - 3d深度情報に基づいたイメージぼかし - Google Patents

3d深度情報に基づいたイメージぼかし Download PDF

Info

Publication number
JP5871862B2
JP5871862B2 JP2013140131A JP2013140131A JP5871862B2 JP 5871862 B2 JP5871862 B2 JP 5871862B2 JP 2013140131 A JP2013140131 A JP 2013140131A JP 2013140131 A JP2013140131 A JP 2013140131A JP 5871862 B2 JP5871862 B2 JP 5871862B2
Authority
JP
Japan
Prior art keywords
subject
image
value
blur
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013140131A
Other languages
English (en)
Other versions
JP2014014076A (ja
Inventor
パトリック キャンベル スコット
パトリック キャンベル スコット
チョウダリー アドスミリ バリニードゥ
チョウダリー アドスミリ バリニードゥ
Original Assignee
ゴープロ インコーポレイテッド
ゴープロ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ゴープロ インコーポレイテッド, ゴープロ インコーポレイテッド filed Critical ゴープロ インコーポレイテッド
Publication of JP2014014076A publication Critical patent/JP2014014076A/ja
Application granted granted Critical
Publication of JP5871862B2 publication Critical patent/JP5871862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

この開示は、一般的には光学系に関し、より詳細には、ぼかしフィルタを3Dカメラからの深度情報に基づいてイメージに適用して、浅い被写界深度のイメージをキャプチャするように構成された光学系の効果をシミュレートすることに関する。
デジタルカメラの人気が上昇する以前は、大抵の写真と映画は、アナログカメラによってフィルムにキャプチャされた。このようなアナログカメラのセンサは、一般にはデジタルカメラのイメージセンサよりも大きいことから、アナログカメラが被写体を適正にフィルム上に合焦させるために、より大きなレンズと光学系を必要とした。アナログカメラに関連する、より大きな光学系は、イメージの一部だけに焦点が合い、そのイメージの残りがぼやける、被写界深度が浅いイメージをキャプチャするように構成することができる。これらのより大きな光学系に当然に起きるぼけは、視る者の注意をイメージの合焦した単一の部分に惹きつけるために使用できることから、カメラの操作者に有用であった。例えば、カメラを、或るシーンの前景にいる俳優が、背景のぼやけた木々に対照して合焦するように構成することができた。
デジタルカメラのイメージセンサはフィルムの物理的な制約を被らないことから、デジタルイメージング技術が新たに進歩するに従い、デジタルセンサはしだいに小型化された。デジタルイメージセンサのより小さなサイズとそれらの関連する光学系がフィルムカメラよりも可搬性があって多用途のデジタルカメラの発展を可能としてきた一方で、より小さなセンササイズはまた、デジタルカメラが浅い被写界深度のイメージをキャプチャすることを妨げている。換言すると、小型デジタルカメラの光学系を構成して、視る者の注意をイメージの単一の部分に惹きつける同様の芸術的なぼけを達成することは困難である。
前処理において、ぼけをキャプチャイメージについてシミュレートする。3Dカメラから3Dイメージを受け取って、3Dイメージ中の深度情報を用いて、3Dイメージ中の複数の被写体の相対的な距離を判定する。一つの被写体を該イメージの主被写体として選び、該イメージ中の追加の被写体を識別する。識別した被写体に対して、3Dカメラと主被写体の間の距離、主被写体と追加の被写体の間の距離、ならびに、仮想焦点距離および仮想f値に基づきイメージぼけを加える。
開示する実施形態はその他の優位性と特徴を備えており、それらは、詳細な説明、添付の請求の範囲、及び、添付図(すなわち図面)から容易に明らかになるであろう。図面についての簡単な紹介は以下の通りである。
3Dカメラがキャプチャする、一実施形態に従った例示の3Dイメージを表わす図である。 図1Aのイメージ中に表される各被写体を視ている(viewing)ときに3Dカメラのセンサ面に発生する距離オフセットを一実施形態に従って表わす図である。 図1Aのイメージ中に表される各被写体を視ている(viewing)ときに3Dカメラのセンサ面に発生する距離オフセットを一実施形態に従って表わす図である。 図1Aのイメージ中に表される各被写体を視ている(viewing)ときに3Dカメラのセンサ面に発生する距離オフセットを一実施形態に従って表わす図である。 映画的なぼけを3Dイメージに加えるための、一実施形態に従ったシステムを表わすネットワーク図である。 一実施形態に従った、図2の映画的ぼかしモジュールの詳細図を表わすハイレベルブロック図である。 カメラと主被写体、追加の被写体との間の距離を一実施形態に従って表わす図である。 主被写体からの様々な距離におけるぼかしファクタの値を示す、一実施形態に従ったぼかし関数のグラフである。 一実施形態に従った、ぼやけたイメージを3Dカメラからの深度情報に基づいて発生する処理を示すフローチャートである。
図面及び以下の説明は、例示のためだけの好ましい実施形態に関するものである。留意すべきは、以下の説明から、本明細書中に開示される構造及び方法の別の形態を、特許請求の範囲の原理から逸脱することなく採用し得る実行可能な代替物として容易に認識できることである。
ここで、参照が幾つかの実施形態について詳細になされ、その例が添付図面に示される。どこででも実行可能な類似または同様の参照符号が図面中で用いられ、類似または同様の機能を表すことに注意されたい。図面は、開示するシステム(または方法)の実施形態を例示の目的だけのために示している。当業者は、以下の説明から、本明細書中に表された構造及び方法の別の形態を、本明細書中で説明する原理から逸脱することなく採用し得ることが容易に解るであろう。
構成の概観
大型の光学系を用いて浅い被写界深度のイメージをキャプチャしたときに発生するぼけは、コンピュータシステム上で稼動している映画的ぼかしモジュールによる前処理においてシミュレートすることができる。映画的ぼかしモジュールは3Dカメラがキャプチャした3次元(3D)イメージからの深度情報を解析して、3Dカメラと3Dイメージ中の様々な被写体との距離を判定する。映画的ぼかしモジュールはまた、そのイメージ中の被写体(objects)の一つを、そのイメージの主被写体(subject)として識別する。3Dイメージ中の被写体との距離を判定した後に、被写体と主被写体との距離に基づいてぼかしファクタが各被写体について計算され、ぼかしファクタは、各距離において被写体に適用されるぼかしフィルタの入力パラメータとして用いられる。このぼけはカメラの光学系においてではなく前処理において加えられるため、小型のイメージセンサ及び光学系を用いたポータブル3Dカメラを、元のイメージをキャプチャするために使用することもできる。
3Dカメラを、互いに平行に向けられ且つ同じ方向を向いた、独立した2台のカメラとして実施することもできる。この2台のカメラはわずかに異なる位置に配置されるため、このカメラがキャプチャした或る被写体の2つのイメージにおける位置には距離オフセットがあり、この距離オフセットを用いて被写体と3Dカメラとの間の距離を判定することができる。この場合、(当技術分野では視差(parallax)情報として知られている)このオフセットは被写体についての深度情報を表している。
一実施形態において、映画的ぼかしモジュールは2つのイメージを受け取り、オフセット情報を用いて、イメージを、その各レイヤがカメラから固定した距離間隔における被写体を含んでいる一連の深度レイヤに分割する(深度段階(depth step)と呼ぶ)。例えば、一つのレイヤは、カメラから2.4乃至2.5メートルの間の被写体を含んでいてよい。映画的ぼかしモジュールはまた、パターン認識とユーザ入力の組み合わせを用いて一つの被写体をイメージの主被写体として識別し、その主被写体を含むレイヤがサブジェクトレイヤに指定される。
サブジェクトレイヤが識別された後に、ぼかしファクタが各レイヤについて計算される。ぼかしファクタは、そのレイヤとサブジェクトレイヤとの間の距離、3Dカメラとサブジェクトレイヤとの間の距離、及び、ユーザが提供する仮想のf値及び仮想の焦点距離に基づいている。これにより、有益にも、浅い被写界深度のイメージをキャプチャするように構成された大型の光学系に相当する仮想のf値及び仮想の焦点距離をユーザが備えることが可能になる。ぼかしファクタを各レイヤについて計算した後に、ぼかしファクタに基づいて各レイヤにイメージぼけを加えて、個々のぼやけイメージレイヤが次いで合成されて単一のぼやけたイメージを作り出す。
本明細書中で用いる通り、3Dイメージとは、3Dカメラとイメージ中の被写体との間の距離を判定するために用いることができる3D深度情報を含んだイメージを言う。同じ様に、3Dカメラは3D深度情報をキャプチャすることができるカメラである。例えば、3Dカメラを、同じ方向に向けられた分離した2台のデジタルカメラとして、図1B乃至1Dを参照して説明されるように実施することもできる。
本明細書中で用いる通り、被写体は、カメラがイメージの一部としてキャプチャした物理エンティティである。被写体はカメラから様々な距離に位置することができ、及び/または、フレーム内で様々な位置(例えば、左側、中央、または右側)に位置することもできる。加えて、或るイメージにおける一つの被写体をそのイメージの主被写体として選んでもよい。本明細書中で用いる通り、イメージの主被写体は合焦したままであることを意味する被写体であり、そのイメージ中の他の被写体は追加の被写体である。
幾つかのイメージにおいて、視る者の注意を惹きつけるように主被写体を選ぶこともできる。例えば、背景の木々の前に女優を表現するイメージにおいて、女優を主被写体として、木々を追加の被写体としてもよい。別のものとして、主被写体を純粋に芸術的な理由で選んでもよい。例えば、前の例での女優が伸ばした腕に花を抱えており、体の残りは彼女の腕より後ろにあってカメラからさらに遠くに離れていると仮定する。ユーザは、女優よりむしろ花を意図的に主被写体として選ぶことで、女優に注意を惹きつけたいと思うであろう。ユーザは続いて、視る者の注意をぼやけた女優に惹きつける意図で、イメージぼけを女優に加えて花には加えないように映画的ぼかしモジュールを構成することもできる。
本明細書中で用いる通り、ぼかしファクタは、イメージ中の被写体に適用されるぼかしフィルタの強さを定義するパラメータである。ぼかしファクタは、図5に示されるぼかし関数などのぼかし関数で計算することもできる。ぼかし関数を構成して、カメラから同一距離にある主被写体とどの追加の被写体も主被写体として1のぼかしファクタを持つようにすることができ、このことは、イメージぼけが付加されることがないことを意味する。この場合、ぼかし関数を追加的に構成し、他の距離にある被写体が1よりも大きいぼかしファクタを持つようにすることができ、このことは、イメージぼけがそれらの被写体に付加され、浅い被写界深度のイメージの効果をシミュレートすることを意味する。

視差情報を用いて被写体の距離を判定すること
図1Aは、一実施形態に従った、3Dカメラがキャプチャすることのできる例示の3Dイメージ100である。図1Aの実施形態において、左側のサイクリスト104がイメージ100の主被写体である。イメージ100はまた、2つの追加の被写体102,106を含んでいる。ウサギ102はサイクリスト104より前方でイメージ100の右側にいて、木106はサイクリスト104より後ろの背景でイメージの中央にある。サイクリスト104がイメージ100の主被写体であるため、ユーザは、サイクリスト104に合焦してウサギ102と木106はぼやけているように被写界深度をシミュレートしたいと思うであろう。
図1B−1Dは、一実施形態に従った、図1Aの例示の3Dイメージ100における被写体102,104,106を視ている(viewing)ときに3Dカメラのセンサ面110A,110Bに発生する、相対的な水平距離オフセットを表わす図である。このオフセットは、3Dカメラと各被写体102,104,106との間の距離を計算するために引き続き使用することができる3D深度情報を表し、2個のセンサ110A,110Bにより撮られる2つのイメージの組み合わせが単一の3Dイメージを表す。
例示の3Dカメラが各イメージの左側に示されている。図1B−1Dに示された例示の3Dカメラは独立した2台のカメラ(左側カメラ108A及び右側カメラ108B)として実施され、各カメラ108A,108Bは自身のイメージセンサ110A,110Bと自身のレンズ108A,108Bを有する。追加のレンズやアパーチャなどの追加の光学コンポーネントは、簡明さのために図1B−1Dでは省略した。他の実施形態において、3Dカメラは、2つまたはそれよりも多いレンズが付いた単一のカメラ(例えばステレオカメラ)を含んでもよい。
図示した実施形態において、2台のカメラ112A,112Bが並んで同一の垂直高さに配置され、図1B−1Dはカメラ112A,112Bと被写体102,104,106のトップダウンビューを表している。他の実施形態では、カメラ112A,112Bを違ったように置くこともできる。例えば、第1のカメラ112Aを第2のカメラ112Bよりも上に配置することも、また、2台のカメラ112A,112Bを斜めに配置することもできる。カメラ112A,112Bの向きはまた、時間とともに変化してもよい。例えば、2台のカメラ112A,112Bがスノーボーダーのヘルメットに装着されているならば、カメラ112A,112Bの向きを、スノーボーダーが種々のスタントやトリックを実行するにつれて急激に変化させる。2台のカメラ112A,112Bが同一の方向に位置したままであってそのカメラ間の距離が分かっている限り、カメラ112A,112Bの向きが3D情報を精確にキャプチャするその能力に影響することはない。
図1Bは、図1Aのイメージ100中に表されたウサギ102についてのオフセットを表している。ウサギ102はイメージ100の右側にあるため、右手カメラ112Bの真っ直ぐ前方にあり、左手カメラ112Aの真っ直ぐ前方にはない。したがって、ウサギ102は右手センサ110Bの中央に現れ、左手センサ110Aの左側エッジに現れ、このことは、ウサギ102についてのオフセットがイメージセンサ110A,110Bの幅の半分だけスパンしていることを意味する。
図1Cは、図1Aのイメージ100中のサイクリスト104についてのオフセットを表している。サイクリスト104はイメージ100の左側にあるため、左手カメラ112Aの前方にあり、右手カメラ112Bに対し左側にある。この結果、サイクリスト104は左手センサ110Aの中央に現れ、右手センサ110Bの右側に現れる。サイクリスト104はカメラ112A,112Bからウサギ102よりも遠くに離れているため、左手および右手センサ110A,110B上のサイクリストの位置間のオフセットは、ウサギ102についてのオフセットよりも小さい。
図1Dは、木106についてのオフセットを表している。木106はイメージ100の中心にあり、左手センサ110Aの中心からわずかに左に現れ、右手センサ110Bの中心からわずかに右に現れる。木はカメラ112A,112Bからウサギ102およびサイクリスト104よりも遠くに離れているため、2個のイメージセンサ110A,110B上の木の位置間のオフセットは、2つのより近い被写体102,104についてのオフセットよりも小さい。
図1A−1Dを参照して説明した例は単に説明のためであり、対応する図面では特定の大きさを誇張して、3つの被写体102,104,106についての距離オフセットを強調している。ほとんどの状況において、2台のカメラ108A,108B間の距離は、3Dイメージにキャプチャされた実生活上の被写体のサイズよりも小さい。しかしながら、本明細書中で説明される、被写体の距離とそのイメージセンサ上での距離オフセットの間の関係に関する一般的な原理は、3Dカメラシステムとキャプチャされる被写体の相対的なサイズに関係なく応用が可能である。
概して、3Dカメラのセンサ上の被写体位置間のオフセットは、カメラとセンサとの間の距離が増大するにつれて減少し、オフセットを用いて、カメラとセンサとの間の距離を判定することができる。この距離を被写体距離(object distance)と呼ぶ。したがって、(当技術分野において視差情報として知られている)オフセットは、3Dカメラシステムが集めることのできる3D深度情報の一つの例である。視差情報を用いて被写体距離を判定する処理は測距(ranging)と呼ばれ、図3の距離計算機304を参照して詳細にされる。測距処理についてはまた、“Ranging Device and Ranging Module and Image-Capturing Device using the Ranging Device or the Ranging Module”と題する米国特許公開公報第2011/0140086号において説明されており、該公報は参照により全体として本明細書に組み込まれる。被写体距離およびオフセットについての本明細書中の残りの説明は簡潔のために視差情報を用いる実施形態に限定されているが、イメージ中の被写体間の距離および被写体とカメラとの間の距離(例えば、焦点距離(focus distance)、レーザ測距など)を判定する他のどのような好適な方法も用いることもできることに留意されたい。
例示のコンピューティング環境
図2は、一実施形態に従った、映画的なぼけを3Dイメージ100に加えるためのシステム200を表すネットワーク図である。システム200は、2台のカメラ202A,202B、ネットワーク216、および、コンピューティングシステム218を有する。図1A−1Dを参照して説明したように、2台のカメラ202A,202Bを用いて、イメージ中の被写体についての視差情報を、異なる2つのアングルからイメージをキャプチャすることによってキャプチャする。カメラ202A,202Bは互いに平行に配置され、或る分離距離だけ分離されて同一の方向に向けられる。このカメラ202A,202Bの平行配置を維持するために、剛性のあるメカニカルハウジング内に配置して互いの相対的な移動を防いでもよい。
各カメラ202は光学系204、イメージセンサ206、プロセッサ208、メモリ210、1つ以上のユーザ入力デバイス212、および、ネットワークモジュール214を有する。各カメラ202はまた、ディスプレイ、人工照明(例えばフラッシュ)、または三脚架などの追加の構成要素を含んでもよいが、これらの構成要素はシステム200のぼかし関数に重要ではなく、簡略化のために図2からは省略してある。
光学系204は、イメージをイメージセンサ上に合焦させるための光学構成要素を含んでいる。光学構成要素は、例えば、入射瞳の直径を変化させるためのアパーチャ、および、焦点距離(focal distance)を可変する1つ以上の可動レンズを含んでもよい。入射瞳の直径、焦点距離、および、光学系204の他の特性を、カメラの他の構成要素からの電気信号によって、または光学系上の機械的な制御に対するユーザの物理的な相互作用によって制御してもよい。
概して、カメラ202A,202Bの光学系204を含んだどのような光学系の構成も、2つのパラメータ、焦点距離およびf値によって特徴づけることもできる。焦点距離は、上でおよび本明細書の残りで説明するように、レンズと、レンズの平行光線(すなわち、レンズから本質的に無限遠にある被写体からの光線)に対する合焦点との距離である。f値は、本明細書中で用いるように、焦点距離と入射瞳の直径との比である。すなわち、焦点距離をf、入射瞳の直径をD、f値をf#とすると、f#=f/Dである。この式において、f値は入射瞳の直径に反比例することが解る。換言すると、より小さなf値はより大きな入射瞳の直径に相当する。当技術分野において知られているように、カメラがキャプチャする被写界深度は、カメラの光学系のf値を減少すること(すなわち、入射瞳のサイズを増大すること)によって、またはレンズの焦点距離を増大することによって、より浅くすることもできる。
光学系204には、その焦点距離の範囲およびf値を制限する機械的な制約がある。例えば、光学系204の軸方向の長さが、光学系204の焦点距離の最大値および最小値を確立する場合がある。同じ様に、アパーチャの設計が最大および最小の入射瞳直径を確立する場合があり、これにより、光学系のf値の範囲を制限することになる。加えて、カメラ202の視界は、光学系204の焦点距離およびイメージセンサ206の幅に依存する。
イメージセンサ206は、光学系204からの光学イメージを電子イメージに変換する電子部品である。イメージぼけが前処理において付け加えられるため、浅い被写界深度のイメージをキャプチャすることができる大型の光学系204およびイメージセンサ206の必要性は少ないであろう。したがって、小型化した光学系204およびイメージセンサ206を含む小型で可搬性のあるカメラ202A,202Bを用いて、映画的ぼかしモジュールによって使用される視差情報をキャプチャすることもできる。
プロセッサ208は、メモリ210にストアされた、コンピュータが読み取り可能な命令を実行するハードウエアデバイスである。プロセッサ208は、カメラの他の構成要素を実行された命令に基づいて制御する。例えば、プロセッサ208は、電子的な制御信号を光学系204に送ることも、またはネットワークモジュール214を用いてデータをネットワーク216上でコンピューティングシステム218または結合された他の何らかのデバイスに送ることもできる。
メモリ210は、プロセッサ208が読み取り可能な不揮発性の記憶媒体である。メモリ210は揮発性メモリ(例えばRAM)と不揮発性メモリ(例えば、フラッシュメモリ、ハードディスクなど)の組み合わせを含んでもよく、とりわけ、イメージセンサ208がキャプチャしたイメージデータおよびプロセッサ208が実行する読み取り可能な命令をストアするために用いることもできる。
ユーザ入力デバイス212は、ユーザがカメラの電子的機能と交信できるようにする。ユーザ入力デバイス212は、ボタン、ダイヤル、またはタッチスクリーンなどの物理的または電子的な入力デバイスのどのような組み合わせを含んでもよい。ユーザ入力デバイス212の例は、ビデオを記録することを開始するためまたは静止画像をキャプチャするための外部ボタン、タップツーフォーカス機能のついたタッチスクリーン、および、カメラ202のメニュー階層をナビゲートするためのダイヤル/ボタンの組み合わせを含む。加えて、ユーザ入力デバイス212は、無線でカメラ202と通信するリモコンなどの、リモートユーザ入力デバイスを含むこともできる。
ネットワークモジュール214は、コンピューティングシステム218または他のカメラ202などの他のデバイスと通信するために、データをネットワーク216上で送信しおよび受信する。ネットワークモジュール214は、特に、メモリ210に保存されたイメージを処理のためにコンピュータシステム218へ転送するために用いられる。別のものとして、ネットワークモジュール214を、イメージセンサ206がキャプチャしたイメージテータをリアルタイムでコンピューティングシステムに送る(すなわち、イメージデータをキャプチャするとすぐに送る)ように構成することもできる。
他の実施形態では、システム200が追加のまたはより少ないカメラ202を含んでもよい。例えば、3台目のカメラを、そのカメラが他の2台のカメラのブラインドスポットを視ることのできる位置に追加してもよい。別のものとして、2以上の光学系204およびイメージセンサ206を含む単一のカメラ202(例えばステレオカメラ)を用いて、キャプチャイメージにおける被写体の距離を判定するために用いられる視差情報をキャプチャすることもできる。この場合、2つの光学系204およびイメージセンサ206が平行に向けられ且つ同じ方向を向くように、単一のカメラ202のハウジングを構成してもよい。
ネットワーク206は、カメラ202およびコンピューティングシステム218を含む結合されたデバイスがデータを相互に交換できるようにする。ネットワーク206は、有線接続または無線技術の組み合わせを含むこともでき、IEEE 1397、Ethernet(登録商標) 802.11、またはBluetooth(登録商標)などの種々の接続標準およびプロトコルを使用することもできる。ネットワーク206はまた、インターネットを利用して、結合されたデバイス間でデータを交換することもでき、および、CDMA,3G,4Gまたはデジタル加入者回線(DSL)などのリンク技術を含むこともできる。別の実施形態では、ネットワーク216とネットワークモジュール214,224が省略され、イメージデータは、カメラ202からコンピューティングシステム218へ、不揮発性コンピュータ読み取り可能媒体(例えば、取り外し可能なフラッシュメモリカード)をカメラ202からコンピュータ218へ物理的に転送することによって転送される。
図2はまた、イメージデータをカメラ202から受け取って処理するコンピューティングシステム218の詳細図である。コンピューティングシステム218は、とりわけ、プロセッサ220、メモリ222、ネットワークモジュール224、ユーザ入力デバイス226、ディスプレイ228、および、映画的ぼかしモジュール230を含む。全体として、コンピューティングシステム218は、これらの構成要素220,222,224,226,228,230を含む、デスクトップコンピュータ、ポータブルコンピュータ(例えばラップトップ)、タブレットコンピュータ、スマートフォン、または同等のその他のカメラなど、どのような電子デバイスであってもよい。
カメラ202のプロセッサ208と同様、コンピューティングシステムにおけるプロセッサ220は、コンピュータが読み取り可能な命令を実行するハードウエアデバイスである。一個のプロセッサ220だけが描かれているが、コンピューティングシステム218は、種々タスク専用の複数のプロセッサ220(例えば、中央処理装置および独立したグラフィックプロセッサ)または並列で動作して同一タスクに対して動作する複数のプロセッサ220を含むこともできる。
メモリ222は、プロセッサ220が読み取り可能な不揮発性の記憶媒体である。カメラ202のメモリ210と同様に、コンピューティングシステム218のメモリ222は揮発性メモリ(例えばRAM)と不揮発性メモリ(例えば、ソリッドステートドライブ、ハードディスクドライブ、光学ディスク、取り外し可能フラッシュメモリなど)の組み合わせを含んでもよい。
ネットワークモジュール224は、ネットワーク216越しに、カメラ202を含む結合されたデバイスと通信する。ネットワークモジュール224を用いて、イメージデータをカメラ202から受け取ってもよい。イメージデータを受け取ると、ネットワークモジュール224はイメージデータを後でアクセスされるメモリ222にストアすることも、またはそのデータを直接、映画的ぼかしモジュール230に送ることもできる。ユーザ入力デバイス226は、コンピューティングシステム218のユーザからの入力を受け取る。ユーザ入力デバイス226は、例えば、キーボード、マウス、またはタッチスクリーンを含むこともできる。ディスプレイ228は、情報をユーザに示す可視出力デバイス(例えばモニタ)である。特に、ディスプレイ228は、カメラ202から受け取ったイメージおよび映画的ぼかしモジュール230が生成したぼけイメージを表示することもできる。
映画的ぼかしモジュール230は、カメラ222またはネットワークモジュール224から3Dイメージデータを受け取り、浅い被写界深度のイメージをキャプチャするように構成された大型の光学系の効果に近似する、部分的にぼやけたイメージを生成する。高いレベルで、映画的ぼかしモジュールは3D深度情報(例えば視差情報)を用いて、イメージ中の主被写体と追加の被写体の間の距離(“デフォーカス距離”と呼ばれる)を判定し、および、ぼかしフィルタを関連するデフォーカス距離に基づいて追加の被写体に適用する。映画的ぼかしモジュール230のこの機能については、図3を参照してさらに詳細に説明する。映画的ぼかしモジュール230をコンピューティングシステム218内の独立したエンティティとして表してあるが、モジュール230を、メモリにストアしたコンピュータ読み取り可能な命令として、独立したハードウエアモジュールとして、プロセッサに組み込んだハードウエアモジュールとして、またはそのどのような組み合わせとして実施してもよい。
図3は、一実施形態に従った、図2の映画的ぼかしモジュール230の詳細図を表わすハイレベルブロック図である。映画的ぼかしモジュール230は、主被写体識別モジュール302、距離計算機304、レイヤ発生器306、ぼかしファクタ計算機308、および、ぼかしフィルタ310を含む。主被写体識別モジュール302はパターン認識モジュール302Aおよびユーザ選択モジュール302Bを含み、ぼかしフィルタ310はぼかしスポット発生器310A、畳み込みモジュール310B、透明度モジュール310C、および、レイヤ合成モジュール310Dを含む。
主被写体識別モジュール302は3Dイメージを受け取り、様々な方法を用いて、イメージ中の一つの被写体をそのイメージの主被写体として識別する。パターン認識モジュール302Aは、パターン認識アルゴリズムを用いて、視る者が興味があるかもしれない被写体を識別する。例えば、パターン認識モジュール302Aは顔認識アルゴリズムを用いて、図1Aの例示のイメージ100におけるサイクリスト104の顔の特徴を識別する。
ユーザ選択モジュール302Bは、ユーザが或る被写体をマニュアルでイメージの主被写体として選択できるようにする。一実施形態では、ユーザ選択モジュール302Bはディスプレイ228上にイメージを表示し、ユーザがユーザ入力デバイス226を用いて、表示されたイメージ中の或る被写体を主被写体として識別できるようにする。例えば、パターン認識モジュール302Aがサイクリスト104の顔の特徴を認識することができない場合、ユーザはユーザ入力デバイス226を用いてサイクリスト104を選択することもできる。ユーザ選択モジュール302Bはこのユーザ入力を用い、サイクリスト104を主被写体として指定する。
パターン認識モジュール302Aおよびユーザ選択モジュール302Bは協働して動作し、3Dイメージのシーケンス(例えば3Dビデオの複数のフレーム)における主被写体を識別することもできる。例えば、ユーザ選択モジュール302Bを用いてビデオの特定のフレーム(例えば、キーフレームごと、固定した一秒間の間隔でなど)における主被写体をマニュアルで選択することもでき、一方、パターン認識モジュール302Aを用いて、ビデオフレーム中のユーザが選択した主被写体に類似している、ユーザがその主被写体を選択した各フレームに即座に続くパターンを識別する。
別のものとして、モジュール302Aおよび302Bのうち一つを省略してもよく、主被写体識別モジュール302が排他的に単一のモジュールに頼って、映画的ぼかしモジュール230の主被写体識別機能を実行してもよい。例えば、どのイメージについてもパターン認識モジュール302Aを用いるように主被写体識別モジュール302を構成することもできる。この構成により、多数のイメージについてなんら特筆すべきユーザ入力なしで主被写体識別処理を行うことかできる。別のものとして、ユーザ選択モジュール302Bを用いて、各イメージの主被写体をマニュアルで識別することもできる。この代替の構成は、ユーザが単に少数のイメージをキャプチャした場合、または、コンピュータリソースが限定されたコンピューティングシステム218上で映画的ぼかしモジュール230が動作している場合に有益であろう。加えて、主被写体識別モジュール302はまた、他のモジュールを追加でまたはパターン認識モジュール302Aおよびユーザ選択モジュール302Bに代えて含むこともできる。
距離計算機304は、3Dイメージ中の3D深度情報を解析して、3Dカメラと3Dイメージ中の被写体との間の距離(すなわち、被写体距離)を判定する。図1A乃至1Dを参照して説明した通り、3D深度情報を解析して被写体距離を判定する処理は「測距」と呼ばれる。一実施形態では、距離計算機304は2台のカメラ202A,202Bから2つのイメージを受け取り、このイメージについて、イメージ中の視差情報を解析することで測距する。とりわけ、距離計算機304は式V=(σ・f)/(s・d)を使用し、ここで、σは2台のカメラ202A,202Bの間の分離した距離、fはカメラの光学系204A,204Bの焦点距離、sは2個のイメージセンサ206A,206B上の被写体の位置の間の(例えば複数画素における)オフセット、dは2個のイメージセンサ206A,206B上の一画素の幅、Vは3Dカメラと測距されている被写体の間の距離である。
主被写体識別モジュール302がイメージの主被写体を識別した後で、距離計算機304を用いて、主被写体と各追加の被写体との間の距離を判定することもできる。この距離は”デフォーカス距離”と呼ばれ、主被写体距離(subject distance)(すなわち、3Dカメラと主被写体との間の距離、または、主被写体として識別される被写体の被写体距離)を追加の被写体の被写体距離(object distance)から減ずることによって計算することができる。デフォーカス距離は主被写体の前方(すなわち、3Dカメラと主被写体との間)の追加の被写体に対して負であり、主被写体の後方の(すなわち、3Dカメラから主被写体より遠く離れた)追加の被写体に対して正である。追加の被写体に対するデフォーカス距離をぼかしファクタ計算機308において用い、追加の被写体に対するぼかしファクタが計算される。
レイヤ発生器306は3Dイメージを一連の深度段階に分割し、被写体を含むレイヤを各段階で発生する。レイヤ発生器306は、距離計算機304で発生した被写体距離を用い、各深度段階の内容(content)を判定する。例えば、レイヤ発生器306は、2.4メートルと2.5メートルの間の被写体距離をもつすべての被写体を第1レイヤに割り当てることができ、2.5メートルと2.6メートルの間の被写体距離をもつすべての被写体を第2レイヤに割り当てること、などができる。この場合、第1レイヤは2.4−2.5メートルの深度段階に対応し、第2レイヤは2.5−2.6メートルの深度段階に対応する。レイヤを発生するために、レイヤ発生器306は透明な後景から始め、対応する深度段階からの被写体を透明な背景のトップに配置する。よって、被写体を含むレイヤの領域は、何らの被写体を含まないレイヤの領域が透明のままである間、不透明である。
レイヤを発生した後で、ぼかしファクタ計算機308とぼかしフィルタ310は協働し、ぼかしフィルタを各レイヤに適用する。レイヤ発生器306はまた、主被写体に対応するレイヤをサブジェクトレイヤとして識別し、サブジェクトレイヤにイメージぼけを加えないようにぼかしファクタ計算機308とぼかしフィルタ310を構成することもできる。
レイヤ発生器306は、レイヤの深度段階のサイズが3Dイメージの内容に依存して変化するように構成することもできる。例えば、図1Aの例示のイメージ100におけるウサギ102が2.5メートルの被写体距離をもち、草で囲まれていると仮定する。ウサギ102を含む深度段階はより小さい(例えば、2.45−2.50メートルおよび2.50−2.55メートル)とは云え、囲んでいる草の深度段階はより大きい(例えば、2.35−2.45メートルおよび2.55−2.65メートル)。深度段階のサイズを変更すると、視る者の注意を惹きそうな被写体の現実的なぼけ効果を依然発生しつつ、リソース使用の減少に到達することができる。
加えて、レイヤ発生器306はまた、何らの被写体を含まないレイヤ(例えば完全に透明なレイヤ)を省略してもよい。例えば、カメラ202A,202Bが第1のスキードライバーのヘルメットに装着されており、第1のスキードライバーが前景の第2のスキードライバーと背景の飛行機からなるイメージをキャプチャすると仮定する。第2のスキードライバーを主被写体として選んだ場合、飛行機だけがイメージ中のただ一つの追加の被写体になる。この場合、カメラと第2のスキードライバーとの間および第2のスキードライバーと飛行機との間の何もない空の深度段階は完全に空になるので、対応するレイヤは、意味のあるイメージデータを何ら含まないものになる。この場合、レイヤ発生器306は対応するレイヤを単に省略して、ぼかしファクタ計算機308とぼかしフィルタ310のリソースの使用を減少させる。
ぼかしファクタ計算機308は、レイヤ発生器306が発生した各イメージレイヤについてぼかしファクタを計算する。ぼかしファクタは、イメージレイヤに適用されるぼかしフィルタの強度を決定する。一実施形態では、イメージレイヤについてのぼかしファクタは次式で与えられる。
Figure 0005871862
この式において、fは仮想光学系(カメラ202A,202Bの光学系204A,204Bではない)の焦点距離、f#は同光学系のf値、Vは主被写体距離、ΔVはイメージレイヤに関連する深度段階のデフォーカス距離、βはぼかしファクタである。仮想光学系の焦点距離およびf値はユーザが選ぶこともでき、これにより、有益にも、選んだ被写界深度をもつイメージをもたらす焦点距離およびf値をユーザが選べるようになる。主被写体距離およびデフォーカス距離は距離計算機304によって計算される。この式は光学系の振る舞いを表している。言い換えると、ぼかしファクタは、デフォーカス距離に置かれた点光源(point source)を特定の焦点距離およびf値をもつ仮想光学系を通して視たときにイメージセンサに現れるぼかしスポットのサイズを表現している。したがって、この式は有益にも、カメラ202A,202Bの光学系204A,204Bと同一の焦点距離およびf値の制約によって制限されることのない仮想光学系の効果をシミュレートするために用いられる。
ぼかしフィルタ310は、レイヤ発生器306からイメージレイヤを受け取り、イメージレイヤにそのレイヤのぼかしファクタに基づいてぼかしフィルタを適用する。ぼかしスポット発生器310Aはぼかしファクタを使用してぼかしスポットを生成する。ぼかしファクタ計算機308に関して上述したように、ぼかしスポットはイメージの部分であり、この部分は、ユーザの特定の焦点距離およびf値を持つように構成された光学系を用いて、そのイメージの部分を占め且つイメージレイヤに対応するデフォーカス距離に位置する点光源を視た場合に、イメージセンサ206A,206B上に現れる。ぼかしスポット発生器310Aは、ぼかしファクタが1の値をもつ場合にインパルス関数を発生するように構成することもできる。この場合、1のぼかしファクタは、レイヤにどんなイメージぼけもぼかしフィルタにより追加させることはない。
一実施形態において、ぼかしスポット発生器310Aは、エアー円盤の形状を近似する、当技術分野で知られた通りのガウス関数を生成する。別の実施形態では、ぼかしスポット発生器310Aは、一様な円盤からなるぼかしスポットを生成する。さらに別の実施形態では、ぼかしスポット発生器310Aは、正五角形などの非円形形状を生成して非円形アパーチャの効果をシミュレートするように構成してもよい。しかしながら、ぼかしスポットの直径は、ぼかしスポットの形状とは関係なく、ぼかしファクタの値に正比例する。言い換えると、ぼかしスポットがガウス関数であろうと、一様な円盤であろうと、または五角形であろうと、ぼかしファクタが増大すればぼかしスポットの直径は増大する。
畳み込みモジュール310Bは、ぼかしスポットをイメージレイヤに畳み込んで、ぼやけイメージレイヤを作り出す。上述した通り、イメージレイヤは被写体を含む領域およびどんな被写体も含まない透明領域を含んでいる。したがって、ぼやけイメージレイヤは、ぼやけた被写体を含むぼやけた領域および透明のままである領域を含んでいる。畳み込み動作は、イメージぼけをイメージレイヤの透明領域に拡大させることもできる。よって、ぼやけイメージレイヤにおけるぼやけた領域は、被写体を含む、非ぼやけイメージレイヤにおける領域よりもわずかに面積が大きく、ぼやけイメージレイヤにおける透明領域は、非ぼやけイメージレイヤにおける透明領域よりもわずかに面積が小さい。
ぼかしスポットがインパルス関数である場合(例えばぼかしファクタが1の場合)、畳み込み動作はイメージレイヤに何らぼけを付加しない。コンピューティングシステム218上のリソース負荷を軽減するために、ぼかしスポットがインパルス関数であるときは畳み込み動作を実行しないように畳み込みモジュール310Bを構成してもよい。さらにリソース負荷を軽減するために、被写体を含むイメージレイヤの領域にだけぼかしスポットを畳み込むように畳み込みモジュール310Bを構成してもよい。例えば、3Dイメージについての一つのイメージレイヤがスキードライバーだけから構成されている場合、畳み込みモジュール310Bは、スキードライバーを含むイメージレイヤの領域にぼかしスポットを畳み込むだけで、そのレイヤの透明領域をスキップしてもよい。畳み込みモジュール310Bが実行する2次元畳み込み動作は当技術分野において知られており、この畳み込み動作の詳細な説明は簡単のために省略する。
透明度モジュール310Cは、ぼやけイメージレイヤの透明度を変化させて、ぼやけイメージレイヤ中のぼやけた被写体が他のイメージレイヤ中の被写体を邪魔するのを防ぐ。現実的なイメージぼけを生成するために、ぼかしスポットのサイズに比例してイメージレイヤの透明度が増大するように透明度モジュール310Cを構成することもできる。
一実施形態では、ぼかしスポット発生器310Aが不透明なぼかしスポットを生成し、透明度モジュール310Cは、透明度関数を畳み込みモジュール310Bが発生したぼやけイメージレイヤに適用する。ぼかしスポットは不透明であるため、各ぼやけイメージレイヤは、ぼやけた被写体を含む不透明領域およびどんな被写体も含まない透明領域を含む。この実施形態では、透明度モジュール310Cが不透明領域と隣接透明領域との間の境界エリアに透明度関数を適用して、現実的なイメージぼけをシミュレートする。例えば、透明度関数は大量の透明度を不透明領域の端部に適用でき、および、不透明領域の端部から遠く離れたポイントに加えられる透明度のレベルを減少させることができる。
別の実施形態では、ぼかしスポットがイメージレイヤに畳み込まれる前に、透明度モジュール310Cが透明度を計算してぼかしスポットに加える。例えば、ぼかしスポットがガウス関数である場合、中心ではぼかしスポットを不透明にし、中心から離れた距離では徐々に透明にするように透明度モジュール310Cを構成することもできる。
レイヤ合成モジュール310Dは、適当な透明度が加えられた後でぼやけイメージレイヤを受け取り、そのレイヤとイメージの他のぼやけレイヤとを合成し、これにより、ユーザの特定の焦点距離およびf値を持つように構成された仮想光学系で撮られたイメージと同一のぼけパターンを持った単一のイメージを生成する。
別の実施形態では、映画的ぼかしモジュールの全部または一部を、独立したコンピューティングシステム218内に実装する代わりにカメラ202A,202B上に実装してもよい。例えば、カメラ202A,202B上の対応するモジュールを主被写体識別モジュール302,距離計算機304,およびレイヤ発生器の機能を実行するように構成することもでき、映画的ぼかしモジュール230は、ぼかしファクタを計算することと各レイヤにぼかしフィルタを適用することを、カメラからイメージデータを受け取るとすぐに開始してもよい。映画的ぼかしモジュール230をカメラ202A,202B上に実装する場合は、図2に示したシステム200からコンピューティングシステム218を省略することもできる。しかしながら、カメラ202A,202Bがキャプチャした、ぼやけていないイメージデータを保存して、前処理においてぼかし処理をすることが好ましく、これは、ぼかし処理の間にイメージ情報が失われるためである。換言すると、カメラ202A,202Bが、イメージをキャプチャした直後であって元のイメージをストアする前にぼかしフィルタを適用する場合、元のぼやけていないイメージを再ストアして他の目的のために使用するための方法はない。
図4は、一実施形態に従って、3Dカメラ408と主被写体404、および、追加の被写体402、406との間の距離を表わす図である。図4に表された距離を用いて、各被写体402、404、406に対応するイメージレイヤについてぼかしファクタを計算する。第1の距離410(すなわち、主被写体距離)はカメラ408を主被写体404に対応するレイヤから隔てている。加えて、主被写体404を第1の追加のオブジェクトレイヤ402から隔てている第2の距離412(すなわち、デフォーカス距離)、および、主被写体404と第2の追加のオブジェクトレイヤ406との間の第3の距離416(すなわち、他のデフォーカス距離)が在る。
図4中の被写体のそれぞれは単一のレイヤの部分として表されているが、これら被写体の一つ以上が複数のレイヤを占めることも可能である。例えば、ウサギが10cmの深度を持つ場合には、ウサギは2.45−2.50mの深度段階に対応する第1のレイヤおよび2.50−2.55mの深度段階に対応する第2のレイヤを占めることができる。この場合、この被写体が占める各レイヤについて異なるデフォーカス距離および異なるぼかしファクタが存在する。加えて、草、茂み、ブッシュ、または他の被写体を図示された3つの被写体間において含むレイヤ402、404、406間にもイメージレイヤが在ってよいが、これら追加の被写体は簡単のために図4から省略してある。
図5は、一実施形態に従ったぼかし関数のグラフであり、図4に表されたデフォーカス距離における被写体502,506についてのぼかしファクタの値を示す。ぼかし関数510は、焦点距離(f)、f値(f#)、および、被写体距離(V)をパラメータとして受け取り、ぼかし関数510を用いて、デフォーカス距離(ΔV)に関連するイメージレイヤについてぼかしファクタ(β)を生成する。図3を参照して説明した通り、ぼかしファクタの一つの有益な例は式:
Figure 0005871862
である。
図5に表されたぼかし関数510が、この式のグラフである。図5において、このぼかし関数510がβ=1の値をΔV=0のデフォーカス距離において持ち、これはサイクリスト504の位置に対応すること、が解る。したがって、ぼかしフィルタ310は、どんなぼけもサイクリスト504を含むイメージレイヤに加えることがない。一方、非ゼロのデフォーカス距離ΔV=ΔVにウサギ502が存在し、ぼかし関数はβ=βの値を持ち、木は対応するβ=βのぼかし関数を持つデフォーカス距離ΔV=ΔVに存在する。ウサギ502および木506に対応するイメージレイヤのぼかしファクタは両方とも1よりも大きいので、ぼかしフィルタ510は、イメージぼけをこれら2つのレイヤに加える。
ぼかしフィルタ510はまた、透明度をウサギ502および木506に対応するイメージレイヤに加えることもできる。図3を参照して説明した通り、透明度を加えることは、3Dカメラ508から離れた被写体をぼけイメージが遮るのを防ぐため、有益である。例えば、ぼかしフィルタ510が透明度をウサギ502に加えて、ウサギ502のぼけイメージがサイクリスト504または木506を遮るのを防ぐこともできる。一実施形態においては、透明度のレベルはぼかし関数に比例し、そして、より大きなぼかしファクタに関連するイメージレイヤにおける被写体はより透明なエッジを持つ。
図5の実施形態におけるぼかし関数510は、カメラ508に向かって移動するときのより急峻な勾配で、移動してカメラ508から遠ざかるのと比較して増大することも解る。したがって、ウサギ502は、木506がより大きなデフォーカス距離に在ったとしても、木506よりも大きなぼかしファクタを持つ。図5に表されおよび上式によって定義されるぼかし関数510はカメラ508に対応するデフォーカス距離ΔV=−Vにおいて垂直な非対称性(vertical asymptote)を持つことが解る。
図4に戻って、イメージレイヤ402、404、406および図示されないどのレイヤも、各レイヤにぼかしフィルタが適用されおよび透明度が加えられた後で単一のぼけイメージに合成される。一実施形態においては、すべてのぼやけイメージレイヤを、それら全部が生成された後すぐに、一緒に合成してもよい。別のものとして、ぼやけイメージレイヤを一回で一つに合成してもよい。例えば、映画的ぼかしモジュール230は、サブジェクトレイヤ404を第1の追加のオブジェクトレイヤ402と合成し、イメージぼけを第2の追加のイメージレイヤ406に加えて、そして次いで、第2のぼやけレイヤ406を最初の2つのレイヤと合成することもできる。
3D深度情報を用いて映画的イメージぼけを加えること
図6は、一実施形態に従った、映画的ぼかしモジュール230を用いてぼやけイメージを3Dカメラからの深度情報に基づいて発生する処理を示すフローチャートである。この処理は、3Dカメラが複数の被写体についての3D深度情報を含む3Dイメージをキャプチャしたときに開始する(600)。図1B乃至1Dを参照して説明した通り、例示の3Dカメラを、同じ方向に向けられた分離した2台のカメラ108A、108Bとして実施することもできる。この場合、カメラの2個のイメージセンサ110A、118B上の被写体の位置間のオフセットが、被写体についての3D深度情報を表す。
キャプチャ3Dイメージはネットワーク216上をコンピューティングシステム218上の映画的ぼかしモジュール230へ転送され、主被写体識別モジュール302が3Dイメージ中の被写体の一つをイメージの主被写体として識別する。主被写体識別モジュール302により、パターン認識アルゴリズムとユーザ入力の組み合わせを用いて、イメージの主被写体を識別することもできる。主被写体識別モジュール302が3Dイメージの主被写体を識別すると(605)、距離計算機304が3Dイメージ中の3D深度情報を用い、3Dカメラと主被写体との間の第1の距離(すなわち、主被写体距離)を判定する(615)。図1Aに表された例示のイメージ100について、距離計算機304は2つのイメージにおけるサイクリストの位置間のオフセットを用いて、図4に表される主被写体距離420を計算する。
距離計算機304が被写体距離を判定すると(610)、レイヤ発生器306が3Dイメージを一連のイメージレイヤに分割し、距離計算機304は主被写体と第1の追加の被写体を含むイメージレイヤとの間の第2の距離(すなわち、そのレイヤのデフォーカス距離)を判定する(615)。デフォーカス距離を判定するために、距離計算機304ははじめに第1の追加の被写体についての3D深度情報を用いて3Dカメラと第1の追加の被写体との間の距離(すなわち、被写体の被写体距離)を計算する。次に、距離計算機304は主被写体距離を被写体距離から減算してそのレイヤのデフォーカス距離を求める。この結果、3Dカメラと主被写体との間のイメージレイヤは負のデフォーカス距離を有し、主被写体の後方のレイヤは正のデフォーカス距離を有する。
次に、コンピューティングデバイス218のユーザ入力デバイス226は、仮想の焦点距離および仮想のf値をユーザから受け取る。ぼかしファクタ計算機308は、仮想の焦点距離および仮想のf値を第1の距離(すなわち、主被写体距離)および第2の距離(すなわち、デフォーカス距離)と協働して用い、第1の追加の被写体に対応するイメージレイヤのためのぼかしファクタを計算する(625)。図3を参照して説明した通り、ぼかしファクタにより、イメージレイヤに適用されるぼかしフィルタの強度が決定される。
最後に、ぼかしフィルタは、イメージぼけをイメージレイヤにぼかしファクタの値に基づいて加える(630)。一実施形態において、ぼかしスポット発生器310Aがぼかしファクタに比例するサイズのぼかしスポットを生成し、畳み込みモジュール310Bがぼかしスポットをイメージレイヤに畳み込んでぼけイメージレイヤを生成する。ぼけ被写体がイメージ内でより遠い後方の被写体を遮るのを防ぐために、透明度モジュール310Cは、ぼかしスポットを透明にすることまたは畳み込み後に透明度をぼけイメージに加えることのいずれかにより、透明度をぼけイメージレイヤに追加する。
映画的ぼかしモジュール230が長い3Dイメージのシーケンス(例えば、3Dビデオの複数フレーム)を一度に受け取った場合は、図6に表された処理を、複数の3Dイメージについて平行して(in parallel)または順次に(in series)実施することもできる。言い換えると、シーケンス中の全ての3Dイメージを同時に処理することができ、シーケンス中のイメージを一度に処理でき、または、3Dイメージシーケンスを同時に処理される幾つかの3Dイメージのサブフレームに分割することができる。加えて、デフォーカス距離を判定するステップ(615)、ぼかしファクタを計算するステップ(625)、イメージぼけを加えるステップ(635)を典型的には3Dイメージの複数のイメージレイヤについて実行し、複数のぼけイメージレイヤを生成する。3Dイメージの複数のイメージレイヤはまた、平行して、順々に(in sequence)、またはこの2つの何らかの組み合わせで処理することもできる。
追加の構成の検討
開示の実施形態は、有益にも、大型の光学系を装備する伝統的なカメラを用いた浅い被写界深度のイメージを考慮している。浅い被写界深度は、ぼやけた背景および前景がユーザの注意をイメージの合焦した単一の主被写体に惹きつけることから、多くの状況において望ましい。通常、大型の光学系および大きなセンサ面を持つカメラは浅い被写界深度のイメージをキャプチャすることを要求される。しかしながら、浅い被写界深度に関連するイメージを前処理において発生することによって、元のイメージを3D深度情報をキャプチャすることのできるどんなカメラでもキャプチャすることができる。したがって、より小型の光学系およびイメージセンサを持つ3Dカメラを使用してもよい。
本明細書を通じて、複数のインスタンスが、記載された要素、動作、または構造をシングルインスタンスとして実装することもできる。1以上の方法の個々の動作が独立した動作として表され説明されているが、個々の動作を同時に実行してもよく、各動作を図示した順序で実行する必要はない。例示の構成において独立した要素として提供された構造および機能を、組み合わせた構造または要素として実施してもよい。同様に、単一の要素として提供された構造および機能を分離した複数要素として実施してもよい。これらのおよびその他の変形、修正、追加、ならびに改良は本発明の対象の範囲に含まれる。
本明細書では、特定の実施形態について、ロジックまたは多数の要素、モジュール、またはメカニズムを含むものとして説明した。モジュールは、ソフトウエアモジュール(例えば、マシン読み取り可能な媒体にまたは送信信号に組み込まれた符号)またはハードウエアモジュールのいずれか一方を構成すればよい。ハードウエアモジュールは特定の動作を実行可能な有形の装置であり、特定の方法で構成または配置することができる。例示の実施形態では、1以上のコンピュータシステム(例えば、スタンドアロン、クライアント、またはサーバコンピュータシステム)またはコンピュータシステム(例えば、プロセッサまたは一群のプロセッサ)の1以上のハードウエアモジュールを、ソフトウエア(例えば、アプリケーションまたはアプリケーションの一部)によって、本明細書中で説明した通りに特定の動作を実行するハードウエアモジュールとして構成することができる。
様々な実施形態において、ハードウエアモジュールを機械的にまたは電気的に実装することもできる。例えば、ハードウエアモジュールは専用回路または特定の動作を実行するために永続的に構成されるロジック(例えば、フィールドプログラマブルゲートアレー(FPGA)または特定用途向け集積回路、エーシック(ASIC)などの特定用途プロセッサ)を有することができる。ハードウエアモジュールはまた、特定の動作を実行するためにソフトウエアによって一時的に構成されるプログラム可能なロジックまたは回路(例えば、汎用プロセッサまたは他のプロセッサ内に包含されるなどを有することもできる。
また1以上のハードウエアモジュールが動作して、“クラウドコンピューティング”環境において関連のある動作の実行をサポートする、すなわち、“サース、Software as a Service”(SaaS)として動作することもできる。例えば、動作の少なくとも幾つかを一群のコンピュータ(複数プロセッサを含むマシンの例として)で実施でき、これらの動作はネットワーク(例えばインターネット)を通じてまたは1以上の適当なインターフェイス(例えばアプリケーションプログラムインターフェイス(API))を通じてアクセス可能である。
この明細書の幾つかの部分は、マシンメモリ(例えばコンピュータメモリ)内にビットすなわち2進デジタル信号としてストアされたデータに関するアルゴリズムまたは動作のシンボル表現の観点から提供されている。これらのアルゴリズムまたはシンボル表現は、データ処理技術分野における当業者が彼らの仕事の実質を同分野の他の当業者に伝えるために使用される技術の例である。本明細書中で用いた通り、”アルゴリズム”は自己矛盾のない動作のシーケンス,または所望の結果を導く類似の処理である。このコンテキストにおいて、アルゴリズムおよび動作は物理量の物理的取り扱いを包含する。必ずしもではなく典型的には、そのような量は、マシンによってストアされ、アクセスされ、転送され、組み合わせられ、比較され、または他の操作がされることが可能な電子的、磁気的、または光学信号の形をとることができる。
他に詳細に記載がなければ、“処理する (processing)”、“コンピューティング(computing)”、“計算する(calculating)”、“判定する(determining)”、“提供する(presenting)”、“表示する(displaying)”など、またはその種の他の用語を用いた本明細書の説明は、物理(例えば、電子、磁気、または光学)量として表されるデータを、1以上のメモリ(例えば、揮発性メモリ、不揮発性メモリ、またはこれらの組み合わせ)、レジスタ、または情報を受け取り、ストアし、送信し、または表示する他のマシン要素内で取り扱いまたは転送するマシン(例えばコンピュータ)の働きまたは処理を言う。
本明細書中で用いた通り、用語“有し(comprises)”、“有する(comprising)”、“含む(includes)”、“含んだ(including)”、“持つ(has)”、“持った(having)”など、またはこれらの他のどのような活用形も、排他的でない包含関係をカバーすることを意図している。例えば、要素のリストを含む処理、方法、品物、または装置は必ずしもそれら要素だけに限定されず、そのような処理、方法、品物、または装置に明白にリストされないすなわち固有の他の要素を含むことができる。さらに、それとは反対に明白に述べられていなければ、“または”は包含的な“または”を意味し、排他的な“または”を意味しない。例えば、条件Aまたは条件Bは次のどの一つによっても満足され:Aは真(またはpresentである)でありBは偽(またはpresentでない)である、Aは偽(またはpresentでない)でありBは真(またはpresentである)である、および、AとBの両方が真(またはpresentである)である。
この技術分野における当業者は、この開示を読んで、本明細書中に開示された原理を通じてイメージぼけを3D深度情報に基づいて加えるためのシステムおよび処理のためのさらなる追加の別の構造および機能の設計が解るであろう。したがって、特定の実施形態および応用について表しおよび説明したものの、開示した実施形態が本明細書中に開示されたそのものずばりの構造および要素に限定されないことを理解すべきである。この技術分野における当業者にとって明白な様々な修正、変更、および、変形を、本明細書中に開示した方法および装置の配置、動作、および、細部に、添付の請求の範囲に規定した精神および範囲から逸脱することなく実施してもよい。

Claims (23)

  1. イメージぼけを深度情報に基づいて加える方法において、
    3Dカメラがキャプチャした3Dイメージを受け取るステップであって、該3Dイメージが複数の被写体および該複数の被写体のそれぞれについての深度情報を有している、ステップと、
    前記複数の被写体のうちの一つを対象被写体として識別するステップと、
    前記3Dカメラと前記対象被写体との間の第1の距離(V)を、前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    前記対象被写体と前記複数の被写体のうちの第1の追加の被写体との間の第2の距離(ΔV)を、前記第1の追加の被写体に関連する前記深度情報および前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    仮想f値(f♯)および仮想焦点距離(f)を受け取るステップと、
    前記第1の追加の被写体のための第1のぼかしファクタ(β)を計算するステップであって、前記第1のぼかしファクタ(β)は第1の値の平方根に比例し、該第1の値は第2の値に定数を加算して得られ、該第2の値は第3の値に第4の値を乗算して得られ、該第3の値は前記第2の距離(ΔV)を第5の値で除算して得られ、該第5の値は前記第2の距離(ΔV)に前記第1の距離(V)にを加算して得られ、および、前記第4の値は、前記第1の距離(V)の値、前記仮想焦点距離(f)の値、および、前記仮想f値(f♯)の値で決定される、ステップと、
    前記第1の追加の被写体に対し、前記計算するステップで計算した前記第1のぼかしファクタ(β)に基づいて第1のイメージぼけを加えるステップと
    を有する方法。
  2. 請求項1に記載の方法において、
    前記3Dイメージが第1のイメージおよび第2のイメージを含み、該第1のイメージが第1のカメラによりキャプチャされおよび該第2のイメージが第2のカメラによりキャプチャされ、2台のカメラは分離距離だけ分離され、および、同一方向に向けられている、方法。
  3. 請求項2に記載の方法において、
    前記複数の被写体のそれぞれについての前記深度情報が、前記第1のイメージにおける前記被写体の位置と前記第2のイメージにおける前記被写体の位置との間のオフセットを含む、方法。
  4. 請求項1に記載の方法において、
    前記3Dイメージ中の前記複数の被写体のそれぞれについての前記深度情報が、前記複数の被写体のそれぞれについての視差情報を含む、方法。
  5. 請求項1に記載の方法において、前記対象被写体として識別するステップは、前記複数の被写体のうちの1つを前記対象被写体として識別するユーザ入力を受け取るステップを含む、方法。
  6. 請求項1に記載の方法において、前記第1の追加の被写体に対し前記第1のイメージぼけを加えるステップは、
    前記第1の追加の被写体に関連する被写体領域および透明領域を含むイメージレイヤを生成するステップと、
    ぼかしスポットを生成するステップであって、該ぼかしスポットのサイズが前記第1のぼかしファクタに基づいている、ステップと、
    前記ぼかしスポットを前記イメージレイヤに畳み込むステップであって、該畳み込み演算がぼけイメージレイヤを生成し、該ぼけイメージレイヤが、第1のぼけた追加の被写体を持つぼけた被写体領域および透明領域を有している、ステップと、
    透明度関数を、前記ぼけた被写体領域と前記透明領域との間の境界に適用するステップとを含む、方法。
  7. 請求項1に記載の方法において、さらに、
    前記対象被写体と前記複数の被写体のうちの第2の追加の被写体との間の第3の距離を、前記第2の追加の被写体に関連する前記深度情報および前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    前記第2の追加の被写体のための第2のぼかしファクタを計算するステップであって、該第2のぼかしファクタが、前記第1の距離、前記第3の距離、前記仮想f値、および、前記仮想焦点距離に基づいている、ステップと、
    前記第2の追加の被写体に対し、前記第2のぼかしファクタの値に基づいて第2のイメージぼけを加えるステップと
    を有する方法。
  8. 請求項7に記載の方法において、前記第1の追加の被写体は、前記3Dカメラへの距離が前記対象被写体よりも近く、前記対象被写体は、前記3Dカメラへの距離が前記第2の追加の被写体よりも近い、方法。
  9. イメージぼけを深度情報に基づいて加えるシステムであって、コンピュータプログラム命令をストアしおよびプロセッサにより実行するように構成された不揮発性コンピュータ可読媒体を含むシステムにおいて、該命令が、
    3Dカメラから3Dイメージを受け取るステップであって、該3Dイメージが、複数の被写体およびそれぞれの被写体に関連する深度情報を有している、ステップと、
    前記複数の被写体のうちの一つを対象被写体として識別するステップと、
    前記3Dカメラと前記対象被写体との間の第1の距離(V)を、前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    前記対象被写体と前記複数の被写体のうちの第1の追加の被写体との間の第2の距離(ΔV)を、前記第1の追加の被写体に関連する前記深度情報および前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    仮想f値(f♯)および仮想焦点距離(f)を受け取るステップと、
    前記第1の追加の被写体のための第1のぼかしファクタ(β)を計算するステップであって、前記第1のぼかしファクタ(β)は第1の値の平方根に比例し、該第1の値は第2の値に定数を加算して得られ、該第2の値は第3の値に第4の値を乗算して得られ、該第3の値は前記第2の距離(ΔV)を第5の値で除算して得られ、該第5の値は前記第2の距離(ΔV)に前記第1の距離(V)にを加算して得られ、および、前記第4の値は、前記第1の距離(V)の値、前記仮想焦点距離(f)の値、および、前記仮想f値(f♯)の値で決定される、ステップと、
    前記第1の追加の被写体に対し、前記計算するステップで計算した前記第1のぼかしファクタ(β)に基づいて第1のイメージぼけを加えるステップと
    に関し、並びに、
    前記システムが前記コンピュータプログラム命令を実行するように構成されたプロセッサを含む、システム。
  10. 請求項9に記載のシステムにおいて、前記3Dカメラが第1のカメラおよび第2のカメラを含み、該2台のカメラは分離距離だけ分離され、および、同一方向に向けられており、該2台のカメラのそれぞれがイメージセンサを備えている、システム。
  11. 請求項10に記載のシステムにおいて、前記3Dイメージ中の前記複数の被写体のそれぞれについての前記深度情報が、前記第1のカメラの前記イメージセンサに対する前記被写体の位置と前記第2のカメラの前記イメージセンサに対する前記被写体の位置との間のオフセットを含む、システム。
  12. 請求項9に記載のシステムにおいて、前記対象被写体として識別するステップは、前記複数の被写体のうちの1つを前記対象被写体として識別するユーザ入力を受け取るステップを含む、システム。
  13. 請求項9に記載のシステムにおいて、前記第1の追加の被写体に対し前記第1のイメージぼけを加えるステップは、
    前記第1の追加の被写体に関連する被写体領域および透明領域を含むイメージレイヤを生成するステップと、
    ぼかしスポットを生成するステップであって、該ぼかしスポットのサイズが前記第1のぼかしファクタに基づいている、ステップと、
    前記ぼかしスポットを前記イメージレイヤに畳み込むステップであって、該畳み込み演算がぼけイメージレイヤを生成し、該ぼけイメージレイヤが、第1のぼけた追加の被写体を持つぼけた被写体領域および透明領域を有している、ステップと、
    透明度関数を、前記ぼけた被写体領域と前記透明領域との間の境界に適用するステップとを含む、システム。
  14. 請求項9に記載のシステムにおいて、前記コンピュータ可読媒体がさらに、
    前記対象被写体と前記複数の被写体のうちの第2の追加の被写体との間の第3の距離を、前記第2の追加の被写体に関連する前記深度情報および前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    前記第2の追加の被写体のための第2のぼかしファクタを計算するステップであって、該第2のぼかしファクタが、前記第1の距離、前記第3の距離、前記仮想f値、および、前記仮想焦点距離に基づいている、ステップと、
    前記第2の追加の被写体に対し、前記第2のぼかしファクタに基づいて第2のイメージぼけを加えるステップと
    に関する命令を含むシステム。
  15. 請求項14に記載のシステムにおいて、前記第1の追加の被写体は、前記3Dカメラへの距離が前記対象被写体よりも近く、前記対象被写体は、前記3Dカメラへの距離が前記第2の追加の被写体よりも近い、システム。
  16. コンピュータプログラム命令をストアしおよびプロセッサにより実行するように構成された不揮発性のコンピュータ可読媒体において、該命令が、
    3Dカメラがキャプチャした3Dイメージを受け取るステップであって、該3Dイメージが複数の被写体および該複数の被写体のそれぞれについての深度情報を有している、ステップと、
    前記複数の被写体のうちの一つを対象被写体として識別するステップと、
    前記3Dカメラと前記対象被写体との間の第1の距離(V)を、前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    前記対象被写体と前記複数の被写体のうちの第1の追加の被写体との間の第2の距離(ΔV)を、前記第1の追加の被写体に関連する前記深度情報および前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    仮想f値(f♯)および仮想焦点距離(f)を受け取るステップと、
    前記第1の追加の被写体のための第1のぼかしファクタ(β)を計算するステップであって、前記第1のぼかしファクタ(β)は第1の値の平方根に比例し、該第1の値は第2の値に定数を加算して得られ、該第2の値は第3の値に第4の値を乗算して得られ、該第3の値は前記第2の距離(ΔV)を第5の値で除算して得られ、該第5の値は前記第2の距離(ΔV)に前記第1の距離(V)にを加算して得られ、および、前記第4の値は、前記第1の距離(V)の値、前記仮想焦点距離(f)の値、および、前記仮想f値(f♯)の値で決定される、ステップと、
    前記第1の追加の被写体に対し、前記計算するステップで計算した前記第1のぼかしファクタ(β)に基づいて第1のイメージぼけを加えるステップと
    に関するコンピュータ可読媒体。
  17. 請求項16に記載のコンピュータ可読媒体において、前記3Dイメージが第1のイメージおよび第2のイメージを含み、該第1のイメージが第1のカメラによりキャプチャされおよび該第2のイメージが第2のカメラによりキャプチャされ、2台のカメラは分離距離だけ分離され、および、同一方向に向けられている、コンピュータ可読媒体。
  18. 請求項17に記載のコンピュータ可読媒体において、前記3Dイメージ中の前記複数の被写体のそれぞれについての前記深度情報が、前記第1のイメージにおける前記被写体の位置と前記第2のイメージにおける前記被写体の位置との間のオフセットを含む、コンピュータ可読媒体。
  19. 請求項16に記載のコンピュータ可読媒体において、前記対象被写体として識別するステップは、前記複数の被写体のうちの1つを前記対象被写体として識別するユーザ入力を受け取るステップを含む、コンピュータ可読媒体。
  20. 請求項16に記載のコンピュータ可読媒体において、
    前記第1の追加の被写体に対し前記第1のイメージぼけを加えるステップは、
    前記第1の追加の被写体に関連する被写体領域および透明領域を含むイメージレイヤを生成するステップと、
    ぼかしスポットを生成するステップであって、該ぼかしスポットのサイズが前記第1のぼかしファクタに基づいている、ステップと、
    前記ぼかしスポットを前記イメージレイヤに畳み込むステップであって、該畳み込み演算がぼけイメージレイヤを生成し、該ぼけイメージレイヤが、第1のぼけた追加の被写体を持つぼけた被写体領域および透明領域を有している、ステップと、
    透明度関数を、前記ぼけた被写体領域と前記透明領域との間の境界に適用するステップとを含む、コンピュータ可読媒体。
  21. 請求項16に記載のコンピュータ可読媒体において、さらに、
    前記対象被写体と前記複数の被写体のうちの第2の追加の被写体との間の第3の距離を、前記第2の追加の被写体に関連する前記深度情報および前記対象被写体に関連する前記深度情報に基づいて判定するステップと、
    前記第2の追加の被写体のための第2のぼかしファクタを計算するステップであって、該第2のぼかしファクタが、前記第1の距離、前記第3の距離、前記仮想f値、および、前記仮想焦点距離に基づいている、ステップと、
    前記第2の追加の被写体に対し、前記第2のぼかしファクタの値に基づいて第2のイメージぼけを加えるステップと
    に関する命令を含む、コンピュータ可読媒体。
  22. 請求項21に記載のコンピュータ可読媒体において、前記第1の追加の被写体は、前記3Dカメラへの距離が前記対象被写体よりも近く、前記対象被写体は、前記3Dカメラへの距離が前記第2の追加の被写体よりも近い、コンピュータ可読媒体。
  23. イメージぼけを深度情報に基づいて加える方法において、
    カメラにより撮られたイメージを受け取るステップであって、該イメージが複数の被写体を有している、ステップと、
    前記複数の被写体のうちの一つを対象被写体として識別するステップと、
    前記カメラと前記対象被写体との間の第1の距離(V)を判定するステップと、
    前記対象被写体と前記複数の被写体のうちの第1の追加の被写体との間の第2の距離(ΔV)を判定するステップと、
    仮想f値(f♯)および仮想焦点距離(f)を受け取るステップと、
    前記第1の追加の被写体に対し第1のぼかしファクタ(β)に基づいて第1のイメージぼけを加えるステップであって、前記第1のぼかしファクタ(β)は第1の値の平方根に比例し、該第1の値は第2の値に定数を加算して得られ、該第2の値は第3の値に第4の値を乗算して得られ、該第3の値は前記第2の距離(ΔV)を第5の値で除算して得られ、該第5の値は前記第2の距離(ΔV)に前記第1の距離(V)にを加算して得られ、および、前記第4の値は、前記第1の距離(V)の値、前記仮想焦点距離(f)の値、および、前記仮想f値(f♯)の値で決定される、ステップと
    を有する方法。
JP2013140131A 2012-07-03 2013-07-03 3d深度情報に基づいたイメージぼかし Active JP5871862B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261667888P 2012-07-03 2012-07-03
US61/667,888 2012-07-03
US13/831,124 US9185387B2 (en) 2012-07-03 2013-03-14 Image blur based on 3D depth information
US13/831,124 2013-03-14

Publications (2)

Publication Number Publication Date
JP2014014076A JP2014014076A (ja) 2014-01-23
JP5871862B2 true JP5871862B2 (ja) 2016-03-01

Family

ID=48740823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013140131A Active JP5871862B2 (ja) 2012-07-03 2013-07-03 3d深度情報に基づいたイメージぼかし

Country Status (4)

Country Link
US (2) US9185387B2 (ja)
EP (1) EP2683169A3 (ja)
JP (1) JP5871862B2 (ja)
KR (1) KR101602394B1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160065943A1 (en) * 2014-09-03 2016-03-03 Samsung Electronics Co., Ltd. Method for displaying images and electronic device thereof
US9858649B2 (en) * 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
JP6271990B2 (ja) * 2013-01-31 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP6139713B2 (ja) * 2013-06-13 2017-05-31 コアフォトニクス リミテッド デュアルアパーチャズームデジタルカメラ
US20150116529A1 (en) * 2013-10-28 2015-04-30 Htc Corporation Automatic effect method for photography and electronic apparatus
JP6198590B2 (ja) * 2013-11-28 2017-09-20 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法
US9552633B2 (en) 2014-03-07 2017-01-24 Qualcomm Incorporated Depth aware enhancement for stereo video
CN103945210B (zh) * 2014-05-09 2015-08-05 长江水利委员会长江科学院 一种实现浅景深效果的多摄像头拍摄方法
KR102155094B1 (ko) * 2014-08-28 2020-09-11 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102244619B1 (ko) * 2014-09-30 2021-04-26 삼성전자 주식회사 가속 구조를 생성 및 탐색하는 방법
WO2016064893A1 (en) 2014-10-20 2016-04-28 Taser International, Inc. Systems and methods for distributed control
KR102251483B1 (ko) 2014-10-23 2021-05-14 삼성전자주식회사 영상을 처리하는 전자 장치 및 방법
KR101671391B1 (ko) * 2015-07-07 2016-11-02 한국과학기술연구원 레이어 블러 모델에 기반한 비디오 디블러링 방법, 이를 수행하기 위한 기록 매체 및 장치
US10192277B2 (en) 2015-07-14 2019-01-29 Axon Enterprise, Inc. Systems and methods for generating an audit trail for auditable devices
CN105354805B (zh) * 2015-10-26 2020-03-06 京东方科技集团股份有限公司 深度图像的去噪方法和去噪设备
US10613722B1 (en) * 2015-10-27 2020-04-07 Palantir Technologies Inc. Distorting a graph on a computer display to improve the computer's ability to display the graph to, and interact with, a user
FR3046228B1 (fr) * 2015-12-29 2018-01-05 Thales Procede de representation graphique tridimensionnelle d'une piste d'atterrissage sur un dispositif de visualisation d'aeronef
KR101829534B1 (ko) * 2016-05-25 2018-02-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 멀티 초점 이미지를 이용하는 깊이 추출 카메라 시스템 및 그 동작 방법
CN107613199B (zh) 2016-06-02 2020-03-13 Oppo广东移动通信有限公司 虚化照片生成方法、装置和移动终端
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
KR20180019806A (ko) * 2016-08-16 2018-02-27 삼성전자주식회사 종단 장치로부터 제공되는 부트 업 명령어에 기초하여 부팅 동작을 수행하도록 구성되는 전자 장치
JP6702148B2 (ja) * 2016-11-11 2020-05-27 株式会社デンソー 立体物認識装置
CN110663246B (zh) * 2017-05-24 2021-08-06 深圳市大疆创新科技有限公司 用于处理图像的方法和系统
CN107038681B (zh) * 2017-05-31 2020-01-10 Oppo广东移动通信有限公司 图像虚化方法、装置、计算机可读存储介质和计算机设备
CN107948500A (zh) * 2017-11-01 2018-04-20 广东欧珀移动通信有限公司 图像处理方法和装置
CN108024054B (zh) * 2017-11-01 2021-07-13 Oppo广东移动通信有限公司 图像处理方法、装置、设备及存储介质
CN108055452B (zh) 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
EP3486606A1 (de) * 2017-11-20 2019-05-22 Leica Geosystems AG Stereokamera und stereophotogrammetrisches verfahren
DK201870364A1 (en) 2018-05-07 2019-12-03 Apple Inc. MULTI-PARTICIPANT LIVE COMMUNICATION USER INTERFACE
CN108848367B (zh) * 2018-07-26 2020-08-07 宁波视睿迪光电有限公司 一种图像处理的方法、装置及移动终端
KR102525000B1 (ko) 2018-08-08 2023-04-24 삼성전자 주식회사 복수의 이미지들이 합성된 이미지를 깊이 정보에 기반하여 흐림 처리하는 전자 장치 및 상기 전자 장치의 구동 방법
WO2020036468A1 (ko) * 2018-08-16 2020-02-20 주식회사 날비컴퍼니 이미지에 보케 효과를 적용하는 방법 및 기록매체
US10699383B2 (en) 2018-08-27 2020-06-30 Nvidia Corp. Computational blur for varifocal displays
US11128792B2 (en) * 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US10810707B2 (en) * 2018-11-29 2020-10-20 Adobe Inc. Depth-of-field blur effects generating techniques
CN109767466B (zh) * 2019-01-10 2021-07-13 深圳看到科技有限公司 画面渲染方法、装置、终端及对应的存储介质
KR102597518B1 (ko) * 2019-02-20 2023-11-03 삼성전자주식회사 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
JP7431527B2 (ja) * 2019-08-07 2024-02-15 キヤノン株式会社 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム
CN110969589B (zh) * 2019-12-03 2023-06-02 重庆大学 基于多流注意对抗网络的动态场景模糊图像盲复原方法
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11812135B2 (en) 2021-09-24 2023-11-07 Apple Inc. Wide angle video conference
GB2620375A (en) * 2022-06-29 2024-01-10 Sony Interactive Entertainment Inc Visual perception assistance apparatus and method

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09181966A (ja) 1995-12-22 1997-07-11 Olympus Optical Co Ltd 画像処理方法及び装置
US6633685B1 (en) 1998-08-05 2003-10-14 Canon Kabushiki Kaisha Method, apparatus, and storage media for image processing
US7047201B2 (en) 2001-05-04 2006-05-16 Ssi Corporation Real-time control of playback rates in presentations
US7970240B1 (en) * 2001-12-17 2011-06-28 Google Inc. Method and apparatus for archiving and visualizing digital images
KR100866790B1 (ko) 2002-06-29 2008-11-04 삼성전자주식회사 인터렉티브 모드에서의 포커싱 방법 및 그 장치
JP4117616B2 (ja) 2003-07-28 2008-07-16 ソニー株式会社 編集システム、その制御方法及び編集装置
US20050108031A1 (en) 2003-11-17 2005-05-19 Grosvenor Edwin S. Method and system for transmitting, selling and brokering educational content in streamed video form
JP3915988B2 (ja) 2004-02-24 2007-05-16 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP4125252B2 (ja) 2004-03-02 2008-07-30 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
US7512886B1 (en) * 2004-04-15 2009-03-31 Magix Ag System and method of automatically aligning video scenes with an audio track
US8953908B2 (en) 2004-06-22 2015-02-10 Digimarc Corporation Metadata management and generation using perceptual features
JP4707368B2 (ja) 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
JP2006053694A (ja) 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
US20060080286A1 (en) 2004-08-31 2006-04-13 Flashpoint Technology, Inc. System and method for storing and accessing images based on position data associated therewith
US8774560B2 (en) 2005-01-11 2014-07-08 University Of Central Florida Research Foundation, Inc. System for manipulation, modification and editing of images via remote device
US7735101B2 (en) 2006-03-28 2010-06-08 Cisco Technology, Inc. System allowing users to embed comments at specific points in time into media presentation
JP4565115B2 (ja) 2006-08-30 2010-10-20 独立行政法人産業技術総合研究所 多焦点撮像装置
US20080123976A1 (en) 2006-09-22 2008-05-29 Reuters Limited Remote Picture Editing
US7885426B2 (en) * 2006-09-26 2011-02-08 Fuji Xerox Co., Ltd. Method and system for assessing copyright fees based on the content being copied
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
US7986867B2 (en) 2007-01-26 2011-07-26 Myspace, Inc. Video downloading and scrubbing system and method
US20090027499A1 (en) 2007-07-23 2009-01-29 David Henry Nicholl Portable multi-media surveillance device and method for delivering surveilled information
JP2009053748A (ja) 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
WO2009040538A1 (en) 2007-09-25 2009-04-02 British Telecommunications Public Limited Company Multimedia content assembling for viral marketing purposes
JP2009117974A (ja) 2007-11-02 2009-05-28 Fujifilm Corp 興味情報作成方法、装置およびシステム
US8180161B2 (en) 2007-12-03 2012-05-15 National University Corporation Hokkaido University Image classification device and image classification program
JP2009230822A (ja) 2008-03-24 2009-10-08 Sony Corp コンテンツ編集装置、コンテンツ編集方法及びプログラム
WO2010005380A1 (en) 2008-07-09 2010-01-14 Qunano Ab Nanostructured memory device
US8520979B2 (en) 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US20120014673A1 (en) * 2008-09-25 2012-01-19 Igruuv Pty Ltd Video and audio content system
KR101499498B1 (ko) 2008-10-08 2015-03-06 삼성전자주식회사 초고해상도 비디오 처리 장치 및 방법
US20100161720A1 (en) 2008-12-23 2010-06-24 Palm, Inc. System and method for providing content to a mobile device
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8412729B2 (en) 2009-04-22 2013-04-02 Genarts, Inc. Sharing of presets for visual effects or other computer-implemented effects
US8516101B2 (en) 2009-06-15 2013-08-20 Qualcomm Incorporated Resource management for a wireless device
US20120210205A1 (en) 2011-02-11 2012-08-16 Greg Sherwood System and method for using an application on a mobile device to transfer internet media content
JP5549230B2 (ja) 2010-01-13 2014-07-16 株式会社リコー 測距装置、測距用モジュール及びこれを用いた撮像装置
US20110206351A1 (en) 2010-02-25 2011-08-25 Tal Givoli Video processing system and a method for editing a video asset
JP5565001B2 (ja) 2010-03-04 2014-08-06 株式会社Jvcケンウッド 立体映像撮像装置、立体映像処理装置および立体映像撮像方法
JP4787905B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
US8606073B2 (en) 2010-05-12 2013-12-10 Woodman Labs, Inc. Broadcast management system
US8849879B2 (en) 2010-07-30 2014-09-30 Avaya Inc. System and method for aggregating and presenting tags
JP4865068B1 (ja) 2010-07-30 2012-02-01 株式会社東芝 録再装置及び録再装置のタグリスト生成方法及び録再装置の制御装置
US20140192238A1 (en) * 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
US8705866B2 (en) 2010-12-07 2014-04-22 Sony Corporation Region description and modeling for image subscene recognition
WO2012086120A1 (ja) 2010-12-24 2012-06-28 パナソニック株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
US9997196B2 (en) * 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US8954386B2 (en) 2011-03-22 2015-02-10 Microsoft Corporation Locally editing a remotely stored image
US20120283574A1 (en) 2011-05-06 2012-11-08 Park Sun Young Diagnosis Support System Providing Guidance to a User by Automated Retrieval of Similar Cancer Images with User Feedback
KR101797041B1 (ko) 2012-01-17 2017-12-13 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
US9041727B2 (en) 2012-03-06 2015-05-26 Apple Inc. User interface tools for selectively applying effects to image
US20130239051A1 (en) 2012-03-06 2013-09-12 Apple Inc. Non-destructive editing for a media editing application
US20130330019A1 (en) 2012-06-08 2013-12-12 Samsung Electronics Co., Ltd. Arrangement of image thumbnails in social image gallery
CN102768676B (zh) 2012-06-14 2014-03-12 腾讯科技(深圳)有限公司 一种格式未知文件的处理方法和装置
US9342376B2 (en) 2012-06-27 2016-05-17 Intel Corporation Method, system, and device for dynamic energy efficient job scheduling in a cloud computing environment
US20140152762A1 (en) 2012-06-28 2014-06-05 Nokia Corporation Method, apparatus and computer program product for processing media content
US20150156247A1 (en) 2012-09-13 2015-06-04 Google Inc. Client-Side Bulk Uploader
US8990328B1 (en) * 2012-10-02 2015-03-24 Amazon Technologies, Inc. Facilitating media streaming with social interaction
JP2014106637A (ja) 2012-11-26 2014-06-09 Sony Corp 情報処理装置および方法、並びにプログラム
US9307269B2 (en) 2013-03-14 2016-04-05 Google Inc. Determining interest levels in videos
KR102161230B1 (ko) 2013-05-28 2020-09-29 삼성전자주식회사 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치
US9542488B2 (en) * 2013-08-02 2017-01-10 Google Inc. Associating audio tracks with video content
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
WO2015083575A1 (ja) 2013-12-06 2015-06-11 シャープ株式会社 画像復号装置、画像符号化装置、および、符号化データ変換装置
EP3127322B1 (en) 2014-04-04 2019-05-08 Red.Com, Llc Video camera with capture modes
US10074013B2 (en) 2014-07-23 2018-09-11 Gopro, Inc. Scene and activity identification in video summary generation
US9418283B1 (en) 2014-08-20 2016-08-16 Amazon Technologies, Inc. Image processing using multiple aspect ratios
US20160094601A1 (en) 2014-09-30 2016-03-31 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US20160189752A1 (en) 2014-12-30 2016-06-30 Yaron Galant Constrained system real-time capture and editing of video
JP6455232B2 (ja) 2015-03-02 2019-01-23 株式会社リコー 画像処理システム、処理実行制御装置、画像形成出力制御装置、画像処理システムの制御プログラム、画像処理システムの制御方法

Also Published As

Publication number Publication date
KR101602394B1 (ko) 2016-03-10
JP2014014076A (ja) 2014-01-23
EP2683169A2 (en) 2014-01-08
US20140009585A1 (en) 2014-01-09
US20160029004A1 (en) 2016-01-28
KR20140004592A (ko) 2014-01-13
EP2683169A3 (en) 2017-04-12
US10015469B2 (en) 2018-07-03
US9185387B2 (en) 2015-11-10

Similar Documents

Publication Publication Date Title
JP5871862B2 (ja) 3d深度情報に基づいたイメージぼかし
US9900510B1 (en) Motion blur for light-field images
EP3101624B1 (en) Image processing method and image processing device
KR102480245B1 (ko) 패닝 샷들의 자동 생성
EP3134868B1 (en) Generation and use of a 3d radon image
CN104580878B (zh) 电子装置以及自动决定影像效果的方法
JP6750194B2 (ja) 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
CN109565551B (zh) 对齐于参考帧合成图像
CA3019936C (en) Three-dimensional, 360-degree virtual reality camera exposure control
US20220215568A1 (en) Depth Determination for Images Captured with a Moving Camera and Representing Moving Features
CN106657805A (zh) 运动中的拍摄方法及移动终端
CN108848367B (zh) 一种图像处理的方法、装置及移动终端
US20170262052A1 (en) Composing and realizing a viewer's interaction with digital media
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
CN107615744B (zh) 一种图像拍摄参数的确定方法及摄像装置
CN110213491B (zh) 一种对焦方法、装置及存储介质
CN105190229A (zh) 三维形状计测装置、三维形状计测方法及三维形状计测程序
CN105488780A (zh) 一种用于工业生产线的单目视觉测距追踪装置及其追踪方法
US11792511B2 (en) Camera system utilizing auxiliary image sensors
JP6157238B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6515978B2 (ja) 画像処理装置および画像処理方法
EP2590398B1 (en) Displaying of images with lighting on the basis of captured auxiliary images
Vail Explorations in Monocular Distance And Ranging (MODAR) Techniques for Real-World Applications
WO2021035095A2 (en) Camera system utilizing auxiliary image sensors
Edwards Signal Processing Leads a Photographic and Imaging Revolution [Special Reports]

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160112

R150 Certificate of patent or registration of utility model

Ref document number: 5871862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250