JP6404941B2 - 動きぼけを有する画像を取得するための方法および装置 - Google Patents

動きぼけを有する画像を取得するための方法および装置 Download PDF

Info

Publication number
JP6404941B2
JP6404941B2 JP2016562516A JP2016562516A JP6404941B2 JP 6404941 B2 JP6404941 B2 JP 6404941B2 JP 2016562516 A JP2016562516 A JP 2016562516A JP 2016562516 A JP2016562516 A JP 2016562516A JP 6404941 B2 JP6404941 B2 JP 6404941B2
Authority
JP
Japan
Prior art keywords
image
photo
photograph
background
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016562516A
Other languages
English (en)
Other versions
JP2017520135A (ja
Inventor
ハイセゲムス,ラファエル
ゴドン,マルク
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2017520135A publication Critical patent/JP2017520135A/ja
Application granted granted Critical
Publication of JP6404941B2 publication Critical patent/JP6404941B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明の分野は、写真撮影に関する。詳細な実施形態は、動きぼけを有する部分を含む画像を取得するための方法および装置、コンピュータプログラム、コントローラ、ならびに方法を実施するためのプログラムを符号化するデータ記憶デバイスに関する。
写真撮影では、静止画像において動作および速度の印象を与えるために、動きぼけがしばしば用いられる。しかしながら多くの場合、少数の、典型的には専門家の撮影者のみが、コントロールされた方法で動きぼけを写真に含めることがまさに可能なカメラ操作レベルおよび専門知識に到達する。
加えて、従来技術の技法を用いると、たとえばPhotoshop、GIMPなどを用いた写真の後処理によって納得のいく自然な動きぼけを導入することは難しく、時間がかかる。
http://en.wikipedia.org/wiki/High−dynamic−range_imaging
本発明の実施形態の目的は、経験の浅い撮影者が、コントロールされた方法で動きぼけを含む画像を取得できるようにすることである。より詳細には、本発明の実施形態の目的は、撮影者が動きぼけを自分の写真に創造的に用いるのを手助けすることである。
本発明の第1の態様によれば、動きぼけを有する部分を含む画像を取得するための方法が提供される。方法は、少なくとも物体および背景の第1、第2および第3の写真を撮影するように少なくとも1つのカメラを制御することと、最終画像を、前記第1、第2および第3の写真を用いて生成することとを備える。第1の写真は第1の露光時間で撮影され、第2の写真は第2の露光時間で撮影され、第3の写真は第3の露光時間で撮影される。第2の露光時間は、第1および第3の露光時間より長く、第2の写真が前記背景および/または前記物体のぼけ画像を含むようなものである。少なくとも1つのカメラを制御することは、第1、第2および第3の写真が決定された順序で撮影されるようなものである。この順序は必ずしも、第1、次いで第2、次いで第3ではなく、第1、第3、第2、または他の任意の順序でもよいことに留意されたい。第1、第2および第3の写真を用いて最終画像を生成することは、最終画像が、第2の写真のぼけ画像の少なくとも一部、ならびに第1および/または第3の写真から得られる部分を含むようなものである。
本発明の実施形態は、一連の少なくとも3枚の写真を組み合わせることであって、3枚の写真のうち2枚は比較的短い露光時間を有するが、一方これらの写真の1枚は比較的長い露光時間を有する、組み合わせることによって、一方では長い露光時間で撮影された写真のぼけ部分を含み、他方では残りの部分の鮮明な画像を含む改良された最終画像を生成することが可能となるという発明的洞察にとりわけ基づいている。
一実施形態では、少なくとも1つのカメラを制御することは、第1、第2および第3の写真が順々に撮影され、好ましくは後続の写真の撮影の間の時間が極力短くなるよう、これらの写真を撮影するように単一のカメラを制御することを備える。
一実施形態では、制御することは、第3の写真が第2の写真の後に撮影され、第2の写真が第1の写真の後に撮影されるように、少なくとも1つのカメラを制御することを備える。このようにして、第1および第3の写真によって、物体の位置および形状を決定することが可能になり、この情報を用いて、第2の写真におけるぼけ画像の位置および形状を決定することができる。好ましくは、第1の写真の撮影と第2の写真の撮影との間の時間、ならびに第2の写真の撮影と第3の写真の撮影との間の時間は、1/100秒より短く、より好ましくは1/300秒より短い。これらの値が、可視スペクトルの光線を用いて撮影される写真について典型的な値であることに留意されたい。異なる範囲が、たとえば赤外線、紫外線、レントゲン線、超音波、電磁スキャンなどを用いて取得される画像に適用され得ることを当業者は理解する。
好ましい実施形態では、第1および第3の露光時間は1/100秒より短く、好ましくは1/300秒より短い。このようにして、第1および第3の写真には、ほとんど動きぼけがない。第2の露光時間は、好ましくは1/80秒より長く、より好ましくは1/50秒より長く、最も好ましくは1/40秒より長い。この場合もやはり、これらの値が、可視スペクトルの光線を用いて撮影される写真について典型的なものであることを当業者は理解するであろう。これは比較的長い第2の露光時間に対応し、したがって、物体および/または背景が動いている場合、第2の写真が背景および/または物体のぼけ画像を含むことになる。好ましい実施形態では、第1および第3の露光時間は、第2の露光時間よりも少なくとも5倍、好ましくは少なくとも10倍短い。
好ましい実施形態では、最終画像を生成することが、第1および第3の写真を用いて、前記第1および前記第3の写真における物体の形状および位置を決定することと、第1および第3の写真における物体の位置および形状を用いて、ぼけ画像の少なくとも一部を第2の写真から分離することと、ぼけ画像の分離された少なくとも一部を、第1および/または第3の写真から得られる部分と結合して、最終画像を取得することとを備える。そのような実施形態では、第1および第3の写真における物体の位置および形状によって、第2の写真におけるぼけ画像の位置および形状を決定することが可能になり、その結果、ぼけ画像の少なくとも一部を、第1および第3の写真から得られる部分と結合して、位置合わせの問題を回避することができる。
本発明の実施形態では、第2の写真におけるぼけ画像が、物体のぼけ画像または背景のぼけ画像であってよいことに留意されたい。第1および第3の写真における物体の位置および形状を決定することにより、第2の写真における(任意選択的にぼけた)物体の輪郭を決定することができる。ぼけた物体の場合、この輪郭はぼけ画像の境界を形成する。ぼけた背景の場合、この輪郭は背景のぼけ画像の内側の境界に対応し、一方外側の境界は第2の写真の外側の境界となる。写真が2つ以上の物体を含む場合にも、同様の考察が当てはまる。
他の可能な実施形態では、制御することが、第1および第3の画像を第2の画像の前に撮影し、または第1および第3の画像を第2の画像の後に撮影するように少なくとも1つのカメラを制御することを備える。そのような実施形態では、第1および第3の画像を用いて、少なくとも1つのカメラに対する物体または背景の移動速度を決定することができる。次いで、この移動速度を用いて、第2の写真におけるぼけ画像の位置および形状を決定することができる。物体が第1および第3の画像の間で動いていない場合、移動速度はゼロとなり、ぼけ画像は第2の写真における背景画像となることに留意されたい。任意選択で、最終画像を生成することは、物体の非ぼけ画像を第1および/または第3の写真から取得することと、物体の非ぼけ画像を最終画像にオーバーレイすることとをさらに備えることができる。
好ましい実施形態によれば、最終画像を生成することが、第1および第3の写真を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を決定することと、決定された形状および位置を考慮して、第1および第3の写真から物体を除去することで、第1および第3の背景画像を生成することと、第1および第3の背景画像を結合して結合された背景画像を取得することと、決定された位置および形状を用いて、第2の写真における物体の任意選択的にぼけた画像の位置および形状を決定することと、第2の写真における任意選択的にぼけた画像の位置を考慮して、第2の写真の任意選択的にぼけた画像を結合された背景画像にオーバーレイすることとを備える。そのような実施形態は、第2の写真が動く物体のぼけ画像を安定した背景(stable background)と共に含む場合に、よい結果を与える。
他の実施形態によれば、最終画像を生成することが、第1および第3の写真を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を生成することと、決定された位置および形状を用いて、第2の写真における物体の任意選択的にぼけた画像の位置および形状を決定することと、第1および/または第3の写真における物体の決定された形状および位置を考慮して、第1および/または第3の写真から物体の非ぼけ画像を取得することと、第2の写真における物体の任意選択的にぼけた画像の位置を考慮して、物体の非ぼけ画像を第2の写真にオーバーレイすることとを備える。そのような実施形態は、第2の写真が背景のぼけ画像を含む場合に、よい結果を与える。
本発明の実施形態では、2つの最終画像、すなわち、上記で開示された第1の実施形態、たとえば安定した背景を有する動く物体に特に適した一実施形態による第1の最終画像、および上記で開示された第2の実施形態、たとえば動く背景に特に適した一実施形態による第2の最終画像を生成することができる。そして、ユーザに第1および第2の最終画像の両方を提示することができ、ユーザは最良のものを選択することができる。一代替的実施形態では、ユーザに、「動く物体」モードまたは「動く背景」モードを選択するための選択インターフェースを提示することができ、すると最終画像がそれに従って計算される。
本発明のさらなる態様によれば、コンピュータプログラムであって、プログラムがコンピュータ上で実行された場合に、上記で開示された実施形態のいずれか1つの実施形態のステップのいずれか1つによる方法を実施するためのコンピュータ実行可能命令を備える、コンピュータプログラムが提供される。
本発明のさらなる態様によれば、上記で開示された方法の実施形態のいずれか1つの実施形態の1つまたは複数のステップを実施するようにプログラムされた、コンピュータデバイスまたは他のハードウェアデバイスが提供される。他の態様によれば、上記で開示された方法の実施形態のいずれか1つの実施形態の1つまたは複数のステップを実施するために、機械可読かつ機械実行可能な形式にプログラムを符号化する、データ記憶デバイスが提供される。
他の態様によれば、少なくとも1つのカメラと、上記で開示されたデータ記憶デバイスの一実施形態とを備える、装置が提供される。
さらに他の態様によれば、コントローラが提供される。コントローラは、物体および背景の第1、第2および第3の写真を撮影するよう少なくとも1つのカメラを制御するように構成される。典型的には、物体および/または背景が少なくとも1つのカメラに対して動いている場合に、写真が撮影される。コントローラは、第1の写真を第1の露光時間で撮影し、第2の写真を第2の露光時間で撮影し、第3の写真を第3の露光時間で撮影するよう少なくとも1つのカメラを制御するようにさらに構成され、第2の露光時間が第1および第3の露光時間より長く、第2の画像が背景および/または物体のぼけ画像を、背景および/または物体が少なくとも1つのカメラに対して動いている場合に含むようにする。さらに、コントローラは、第1、第2および第3の写真が決定された順序で撮影されるよう、少なくとも1つのカメラを制御するように構成される。このようにして、どの写真がどの瞬間に撮影されるかが既知となる。
一実施形態では、コントローラは、第1、第2および第3の写真が順々に撮影されるよう、第1、第2および第3の写真を撮影するように単一のカメラを制御するように構成される。
一実施形態では、コントローラは、1/100秒より短く、好ましくは1/300秒より短い第1および第3の露光時間で第1および第3の写真を撮影し、1/80秒より長く、好ましくは1/50秒より長く、より好ましくは1/40秒より長い第2の露光時間で第2の写真を撮影するよう、少なくとも1つのカメラを制御するように構成される。
他の態様によれば、画像生成モジュールが提供される。画像生成モジュールは、第1、第2および第3の写真を受信し、第2の写真のぼけ画像の少なくとも一部、ならびに第1および/または第3の写真から得られる部分を含む最終画像を、第1、第2および第3の写真を用いて生成するように構成される。
一実施形態では、コントローラは、第1および第3の画像を第2の画像の前に撮影し、または第1および第3の画像を第2の画像の後に撮影するよう少なくとも1つのカメラを制御するように構成される。そして、画像生成モジュールは、第1および第3の画像を用いて、少なくとも1つのカメラに対する物体の移動速度を決定し、移動速度を用いて、第2の写真におけるぼけ画像の位置を決定するように構成することができる。
一実施形態では、画像生成モジュールは、第1および第3の写真を用いて、前記第1および前記第3の写真における物体の形状および位置を決定し、第1および第3の写真における物体の位置および形状を用いて、ぼけ画像の少なくとも一部を第2の写真から分離し、ぼけ画像の分離された少なくとも一部を、第1および/または第3の写真から得られる部分と結合して、最終画像を取得するように構成される。
一実施形態では、画像生成モジュールは、第1および第3の写真を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を決定し、第1および/または第3の写真における物体の決定された形状および/または位置を用いて、前記第1および/または第3の写真から背景画像を取得し、第1および第3の写真における決定された位置を用いて、第2の写真における物体の任意選択的にぼけた画像の位置を決定し、最終画像を取得するために、第2の写真における任意選択的にぼけた部分の位置を考慮して、第2の写真の任意選択的にぼけた画像を前記背景画像にオーバーレイするように構成される。
一実施形態では、画像生成モジュールが、第1および第3の写真を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を決定し、決定された形状および位置を考慮して、前記第1および前記第3の写真から物体を除去することで、第1および第3の背景画像を生成し、前記第1および第3の背景画像を結合して結合された背景画像を取得し、第1および第3の写真における決定された位置を用いて、第2の写真における物体の任意選択的にぼけた画像の位置を決定し、最終画像を取得するために、第2の写真における任意選択的にぼけた部分の位置を考慮して、第2の写真の任意選択的にぼけた画像を前記結合された背景画像にオーバーレイするように構成される。
一実施形態では、画像生成モジュールは、物体の非ぼけ画像を第1および/または第3の写真から取得し、物体の非ぼけ画像を最終画像にオーバーレイするようにさらに構成される。
一実施形態では、画像生成モジュールは、第1および第3の写真を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を生成し、前記第1および/または前記第3の写真から物体の非ぼけ画像を取得し、前記第1および第3の写真における決定された位置を用いて、第2の写真における物体の任意選択的にぼけた画像の位置を決定し、最終画像を取得するために、第2の写真における物体の任意選択的にぼけた画像の決定された位置を考慮して、物体の非ぼけ画像を第2の写真にオーバーレイするように構成される。
さらに他の態様によれば、少なくとも1つのカメラと、上記で開示された実施形態のいずれか1つによるコントローラと、任意選択で、上記で開示された実施形態のいずれか1つによる画像生成モジュールとを備える、装置が提供される。また、装置は、画像生成モジュールにより生成された最終画像を表示するように構成された表示デバイスを備えることができる。例示的実施形態では、装置は、適切に構成されたスマートフォン、適切に構成されたデジタルカメラ、少なくとも1つのカメラを有する適切に構成されたコンピュータなどとすることができる。さらに、装置は、ユーザが装置を操作できるように構成されたユーザインターフェースを含むことができる。ユーザインターフェースは、ユーザが装置を「動きぼけ有り写真」動作様式に設定できるように構成することができる。ユーザインターフェースは、装置が「動きぼけ有り写真」動作様式に設定された場合に、第1、第2および第3の写真の撮影を制御するようにコントローラをアクティブ化するボタンを備えることができる。ボタンは、たとえば、表示デバイスがタッチスクリーンを備える場合に、表示デバイス上に表示される仮想ボタンでもよく、または物理ボタンでもよい。
添付の図面は、本発明のデバイスの現在好ましい非限定的な例示的実施形態を示すために用いられる。添付の図面と併用して読まれた場合に、以下の詳細な説明から、本発明の特徴および目的の上記および他の利点がより明らかとなり、本発明がより良く理解されるであろう。
方法の第1の実施形態の略図である。 方法の第2の実施形態の略図である。 方法の第2の実施形態の略図である。 方法の第3の実施形態の略図である。 方法の第4の実施形態の略図である。 装置の一実施形態を示す図である。 方法の一実施形態を示すフローチャートである。 方法の生成ステップの一実施形態を示すフローチャートである。 方法の生成ステップの一実施形態を示すフローチャートである。 方法の生成ステップの一実施形態を示すフローチャートである。 方法の生成ステップの一実施形態を示すフローチャートである。
静止画像の中で、異なるタイプの動きぼけを区別することができる。
タイプ1−意図せず動いたカメラ、静止した風景および/または物体
典型的には、光条件が悪い場合に、このタイプの動きぼけが観測され得る。この場合、撮影者および/またはカメラは、十分な光を取り込めるように、より長いシャッター速度に切り替える必要がある。三脚に取り付けられていない場合、意図しないぼけ写真が得られるリスクが高い。
タイプ2−意図せず動いた物体、静止したカメラ
このタイプの動きぼけもまた、光条件が悪い場合に生じることがあり、撮影者および/またはカメラがより長いシャッター速度に切り替える必要がある。写真の撮影中に物体が動いた場合に、動きぼけが生じる。そのような状況では、三脚を用いても役に立たない。
タイプ3−ぼけた動く物体を有する鮮明な背景
このタイプのぼけは、典型的には、カメラを静止して保持する(手持ち)か、または三脚に取り付けて、比較的遅いシャッターと組み合わせて、故意に発生させる。カメラを三脚に取り付けることで、遅いシャッター速度を用いつつ、背景の意図しないぼけを回避することができる。しかしながら、ほとんどの趣味の撮影者は、三脚を常に持ち歩いているわけではない。また、三脚およびカメラを設置するのには時間がかかる。最悪な場合のシナリオでは、設置が終わったときには、写真を撮影する機会がなくなっている。
タイプ4−鮮明な動く物体およびぼけた背景
このタイプのぼけもまた、故意に発生させることができる。これは、比較的遅いシャッター速度と組み合わせて、物体が動いているのと同じ方向および同じ速度でカメラをパンすることで、実現される。これは、移動車両に乗っており、物体が車両内にある間に写真が撮影され、したがって物体はカメラに対しては動かないが、窓などから見える背景がカメラに対して動く場合にも実現することができる。理論的には、遅いシャッター速度に対応している任意のカメラを用いて、そのような写真を撮影することができる。しかしながら、実際には、このタイプの動きぼけ画像を撮影するためには、優れた運動および速度の感覚を有する経験のある撮影者である必要がある。経験の少ない撮影者の場合、(鮮明となることが意図される)動く物体までもが一部が動きぼけした写真になってしまう。
図1に、動きぼけを有する部分を含む写真を取得するための方法の第1の実施形態を示す。この実施形態は、限定された時間間隔、典型的には1秒未満の時間間隔内で同じ位置から撮影された3枚の写真11、12、13のシーケンスを用いる。カメラに対して比較的高速で動いている物体または背景について、この時間間隔は比較的短い場合があり、一方カメラに対して比較的低速で動いている物体または背景について、この時間間隔は比較的長い場合がある。図1に示された露光タイムラインは、3枚の後続の写真11、12、13を生成するためにシャッターが開閉された瞬間を示す。第1および第3の写真11、13は、動きぼけを回避するために短い露光時間T1、T3で撮影され、一方カメラに対して動く背景に(図1非図示、図3参照)、またはカメラに対して動く1つまたは複数の物体に動きぼけを導入する目的で、第2の写真12は長い露光時間T2で撮影される。後者は、図1に、トラックの形の1つの物体について示されている。第1の写真11では、トラックは位置P1にあり、第3の写真では、トラックは位置P3にある。第2の写真では、動くトラックによって、位置P1および位置P3の間で伸びる動きぼけ部分BPが生成される。
3枚の写真11、12、13が結合されて、1枚の意図的なぼけ画像が、コントロールされた方法で生成される。3枚の写真を結合することによって、方法の第1の実施形態は、画像のある部分は鮮明に見えるが、一方他の部分は動きぼけして見える画像の取得を容易にする。タイプ3の動きぼけについて、背景はより鮮明に見えるが、一方物体は動きぼけして見える。タイプ4の動きぼけについて、動く物体はより鮮明に見えるが、一方背景は動きぼけして見える。
3枚の写真11、12、13は、背景に対して(タイプ3)、または物体に対して(タイプ4)実質的に同じ位置から生成される。写真11、12、13は、同一のカメラによって、または異なるカメラによって同期された方法で、撮影することができる。
1枚の融合された画像を生成する目的で異なる画像を撮影する技法は、現在ハイエンドのカメラで一般的に利用可能なHDR写真撮影においても用いられており、たとえばhttp://en.wikipedia.org/wiki/High−dynamic−range_imagingを参照されたい。これらのカメラは、1秒の何分の1かで、異なる露光および/または絞りを用いて異なる画像を撮影する。このステップの後、カメラは自動的にこれらの画像を融合して、ハイダイナミックレンジ(HDR)を有する1枚の画像を合成する。しかしながら、HDR写真撮影は、動きぼけに対処することができず、趣味の撮影者が動きぼけを有する改良された画像を取得することができない。
より詳細には、第1の実施形態は、以下のステップを備えることができる。第1のステップは、3枚の後続の写真を自動的にキャプチャすることからなり、ここで第1の写真11および第3の写真13は高速露光、たとえば1/300秒未満の露光時間を有し、第2の写真12はたとえば1/40秒を超える低速露光を用いる。当業者は、露光時間について述べられた範囲が例にすぎないことに気づくであろう。特定の実施形態では、露光時間の値は異なってもよい。たとえば、第1/第3の写真がフラッシュ光で撮影される場合、これは1/60秒の露光時間で行うことができる。その場合、この撮影は、画像を「フリーズ」させるフラッシュの超短光パルス(1/1000秒程度)となる。また、科学的な写真、たとえば望遠鏡で撮影される写真を撮影する場合、第1および第3の写真の露光時間は、さらに長く、たとえば1/100秒より長いことがある。さらに、本発明の実施形態は、赤外線、紫外線、レントゲン線、電磁波、超音波などを用いて撮影される写真にも適用可能である。そのような写真を撮影するために、可視スペクトルでの写真用の露光時間と比べて大きく異なる露光時間が使用され得る。
3枚の写真11、12、13は、いずれも同じカメラによって生成されるか、または同じ場所にある異なる同期されたカメラにより生成される。第2のステップでは、動く物体の境界および場所(位置)が、第1の写真11および第3の写真13に基づいて決定される。これは、これらの写真11、13を、動く物体に関して位置合わせして、つなぎ合わせることで行うことができる。図示の例では、トラックの形状および位置P1、P3が決定される。第3のステップでは、第2の写真12における物体の露光領域が、第1の写真11および第3の写真13における物体の決定された場所P1、P3の補間に基づいて決定される。さらに開発された実施形態では、この決定は、第1の写真11および第2の写真12のキャプチャの間、ならびに第2の写真12および第3の写真13のキャプチャの間の短い時間ΔTを考慮することができる。実際には、T1、T2、T3およびΔTが既知の値であるので、物体が一定速度で動くと仮定すると、物体の露光領域の正確な位置および形状を決定することができる。実際にΔTは非常に短い場合があり、その場合、位置P1およびP3が露光領域の端を形成すると仮定することができる。物体がカメラに対して動いているか、または背景がカメラに対して動いているかにかかわらず、物体の決定された露光領域の知識を用いて、第2の写真12のぼけ部分BPを分離することができ、そのぼけ部分BPは、物体(図1図示)または背景(図1非図示、図3の以下の議論参照)にそれぞれ対応する。第4のステップでは、動きぼけを含む最終画像を得るために、この分離されたぼけ部分BPは、第1および第3の写真から得られる非ぼけ部分と結合される。物体が動いており背景が安定していると仮定される場合、ぼけ部分は、写真2の物体の露光領域に対応することがあり、非ぼけ部分は、第1および/または第3の写真から物体を除去することで得られる背景画像に対応することがある。物体が安定しており(または単に意図せず動いており)背景が動いている場合、ぼけ部分は、写真2の背景に対応することがあり、非ぼけ部分は、第1および/または第3の写真から抽出される物体の分離された画像に対応することがある。
図2および図3に、動きぼけを有する画像を取得するための方法の第2の実施形態を示す。この実施形態は、静止画用のカメラで実装することができる。カメラのメニューにおいて、ユーザは、「改良動きぼけ」設定を選択することができる。好ましい実施形態では、ユーザは、第2の写真の露光時間を、たとえば1/30秒、1/15秒などに指定することもできる。カメラは、写真を作成するようにトリガされた場合、3枚の写真11、12、13、図2のステップ101参照、または21、22、23、図3のステップ201参照、のシーケンスを自動的に開始する。
3枚の写真が撮影された場合、カメラは、2枚の最終画像20、27を生成することになり、以下を参照されたい。その後、ユーザは所望の最終画像を選択することができる。第1の最終画像については、カメラは安定した背景および動く物体を仮定し、一方第2の最終画像については、動く背景および安定した物体を仮定する。図2および図3の例は、3枚の写真の異なる組11、12、13および21、22、23に基づいて第1および第2の最終画像を生成することを示すが、一方実際には、もちろん、この写真の組は同一である。この例は、タイプ3の動きぼけについては、第1の最終画像の生成が良い結果をもたらし得るが、一方タイプ4の動きぼけについては、第2の最終画像の生成が良い結果をもたらし得ることを示す。
第1の融合された写真20を生成するための処理フローが図2に示されている。この処理フローでは、カメラは、動きぼけ物体を有する非ぼけ背景を仮定する。ステップ102において、第1の写真11および第3の写真13がつなぎ合わせられる。つなぎ合わせは、物体に基づいて行われる。動く物体を決定するために、オートフォーカスシステムからの情報を用いることができる。物体の正確な形状、すなわち境界線は、第1の写真および第3の写真を比較する、すなわちつなぎ合わせることで決定され、14を参照されたい。物体の分離された画像を取得するために、結果画像15において、つなぎ合わせ可能な領域が第1および第3の写真から抽出される。
任意選択のステップ103において、拡張された背景(extended background)が生成される。ステップ102で決定される第1および第3の写真における物体の場所P1、P3に基づいて、物体が第1および第3の写真11、13から除去され、それぞれ画像16および17となる。次いで、これら2枚の画像がつなぎ合わせられ、拡張された背景の画像18を形成する。この画像18において、通過物体による風景の隠蔽領域が最小限に削減される。拡張された背景の画像18を用いる代わりに、ΔTが典型的には非常に短いことを考慮して、第1の写真のみまたは第2の写真のみから抽出された背景画像を用いることも可能であることに留意すべきであり、請求項1についての上記の議論を参照されたい。
ステップ104において、第1の写真11および第3の写真13における動く物体の形状および場所に基づいて、第2の写真12をキャプチャするために露光が開いていた間に物体がいた場所を決定するために、線形補間が行われる。この情報に基づいて、第2の写真12における露光領域が決定される。露光領域は画像19に点線で描かれている。
ステップ105において、拡張された背景の画像18は、露光領域の位置(画像19)に応じて、第2の写真12のぼけ部分BPと結合される。これは、動きぼけを含む第1の最終画像20となり、ここでは撮影者により想像されたように、背景は完全に動きぼけがないが(高速露光でキャプチャされている)、一方物体は動きぼけしている(低速露光でキャプチャされている)。
図3に、第2の最終写真27のための処理フローを示す。この処理フローでは、カメラは、非ぼけ物体を有する動きぼけ背景を仮定する。ステップ202において、第1および第3の写真21、23がつなぎ合わせられる。つなぎ合わせは、物体に基づいて行われる。動く物体を決定するために、オートフォーカスシステムからの情報を用いることができる。次いで、物体の正確な形状が、2つの画像を比較(つなぎ合わせ)することで決定される。つなぎ合わせ可能な領域が2つの写真21、23から抽出されて、物体のその結果の分離された画像25が取得される。
ステップ203において、第1および第3の写真21、23における物体の形状および場所に基づいて、第2の写真22のために露光が開いていた間に物体がいた場所を決定するために、線形補間が行われる。この情報および物体の形状に基づいて、第2の写真22における露光領域が決定される。露光領域は画像26に点線で描かれている。理想的な場合では、カメラが物体と全く同じ速度で動いている場合、たとえば撮影者が電車内で人物の写真を、窓を通して見える動く背景と共に撮影する場合に、第1および第3の写真における物体の位置は変化していない。しかしながら、実際には物体の位置もわずかに変化している場合があり、第2の写真における物体の表現にわずかなぼけが生じる。
ステップ204において、画像25を、露光領域の位置(画像26)に応じて、オーバーレイとして第2の写真22上に配置する。これは第2の最終画像27となり、ここでは撮影者により想像されたように、物体は完全に動きぼけがないが(高速露光でキャプチャされている)、一方背景は動きぼけしている(低速露光でキャプチャされている)。
写真11、12、13または21、22、23および撮影者の意図(ぼけた背景を有するぼけのない物体、またはその逆)に応じて、2つの最終画像20、27の一方のみが思い通りとなり、すなわち期待された結果を与える。2つの最終画像20、27の生成後、撮影者は単に正しい画像を選択する。他方の写真は削除することができる。
図2および図3の実施形態の変形によれば、ユーザはまず、「タイプ3−動く物体、安定した背景」動きぼけ、または「タイプ4−安定した物体、動く背景」動きぼけを選択可能なインターフェースが提供され、すると図2の方法または図3の方法がユーザの選択に従って実施される。
他の変形では、図2の実施形態の方法を用いて、動きぼけ物体および非ぼけ背景を有する画像20を生成することができる。この画像20上に、物体(または物体の一部)の追加の鮮明な画像を重畳することができる。動く物体の鮮明な画像は、たとえばステップ102で得られる第1または第3の画像から生成することができる。
図4に、方法の第3の実施形態を示す。第3の実施形態では、第2の写真42が、第1および第3の写真41、43の後に撮影される。第1および第2の実施形態のように、第1および第3の写真41、43は短い露光時間T1、T3で撮影され、一方第2の写真42は長い露光時間T2で撮影される。第1および第3の写真41、43はそれぞれ時刻t1およびt2に撮影される。物体の第1の写真41および第3の写真43をつなぎ合わせることで、第1の写真41における物体と第3の写真43における物体との間の距離を計算することができる。時間差(t2−t1)と計算された距離とを用いて、物体の平均速度vを計算することができる。平均速度vを用いて、第2の写真を撮影するための露光の終了時間t4における物体の位置P4を決定することができる。第3の写真43および第2の写真42の間の時間ΔTは非常に短いことが仮定される場合、第2の写真を撮影するための露光の開始t3における物体の位置P3は、第3の写真43における物体の位置に等しいと仮定することができる。方法のそのような実施形態は、時刻t1および時刻t4の間にほぼ一定の速度で物体が動く限り、うまく機能する。
図4の実施形態では、図2のように、背景が安定しており物体が動いていると仮定される状況について、最終画像を得ることができるが、任意選択のステップ103が省略されるという違いがある。拡張された背景の画像18を用いる代わりに、第3の写真43の背景が最終画像で用いられ、第2の写真42から抽出される物体のぼけ画像BPを、第3の写真43上にオーバーレイすることができる。
第3の実施形態において、物体ではなく背景がカメラに対して動いているならば、図3の実施形態に従って計算される最終画像が良い結果を与えるであろう。そのような実施形態では、物体がカメラに対して大きくは動いていないので、物体の速度の計算を省略することができる。第2の実施形態に関しては、上記の2つの開示の方法を並列で実施して、ユーザに2つの最終画像を提示することができ、するとユーザは好みの最終画像を選択することができる。
図5に、第4の実施形態を示す。この第4の実施形態は、順々に撮影される5枚の写真51−55のシーケンスを用いる。第1の写真は短い露光時間T1で撮影され、第2の写真は長い露光時間T2で撮影され、第3の写真は短い露光時間T3で撮影され、第4の写真は長い露光時間T4で撮影され、第5の写真は短い露光時間T5で撮影される。第1、第2および第3の写真51−53に基づいて、図1、図2および図3に関して上記で開示された方法と同様に、第1の中間画像61を生成することができる。第3、第4および第5の写真53−55を用いて、やはり図1、図2および図3に関して上記で開示された方法と同様に、第2の中間画像62を生成することができる。次に、中間画像61および62を結合して最終画像63を取得することができる。そのような実施形態は、物体が直線的に動かない場合に有益な場合がある。物体が曲線に沿って動く場合、短いおよび長いシャッター露光時間を有する写真のシーケンスを用いることで、曲線は一連の直線運動によって近似することができる。したがって、物体のより複雑な運動についても、本発明の実施形態によって、動きぼけを含む最終画像を改良された様態で取得することができる。
図6に、装置の一実施形態を示す。装置600は、カメラ601、コントローラ602、画像生成モジュール603、および表示ユニット604を備える。カメラ601は、コントローラ602によって、一連の後続の写真I1、I2、I3をそれぞれ露光時間T1、T2、T3で撮影するように制御される。T1およびT3は短い露光時間であり、これらは写真I1およびI3にほとんど動きぼけが現れないように選択される。露光時間T2は比較的長い露光時間であり、これは写真I2内に動きぼけ部分を生成するように選択される。画像生成モジュール603は、第1、第2および第3の写真I1、I2、I3を用いて、第2の写真I2のぼけ部分の少なくとも一部、ならびに第1および/または第3の写真I1およびI3から得られる部分を含む最終画像を生成するように構成される。表示ユニット604は、生成された最終画像をユーザに表示するように構成される。画像生成モジュール603による最終画像の生成は、上記で開示された方法の実施形態のいずれか1つに従って実施することができる。また、画像生成モジュール603は、上記で開示された方法の異なる実施形態に従って複数の最終画像を生成するように構成することができ、すると表示ユニットは複数の最終画像を表示するように構成することができる。さらに、装置は、ユーザが装置を操作できるように構成されたユーザインターフェース605を含むことができる。ユーザインターフェース605は、ユーザが装置を「動きぼけ有り写真」動作様式に設定できるように構成することができる。ユーザインターフェース605は、装置が「動きぼけ有り写真」動作様式に設定された場合に、第1、第2および第3の写真の撮影を制御するようにコントローラ602をアクティブ化するボタンを備えることができる。ボタンは、たとえば、表示ユニット604がタッチスクリーンを備える場合に、表示ユニット604上に表示される仮想ボタンでもよく、または物理ボタン、たとえばデジタルカメラのボタンでもよい。
例示的実施形態では、装置600は、適切に構成されたスマートフォン、適切に構成されたデジタルカメラ、少なくとも1つのカメラを有する適切に構成されたコンピュータなどとすることができる。完全を期すために、コントローラ602は、別個のエンティティとして設けることができ、または装置の他のコンポーネントに統合することができることに留意されたい。同様に、画像生成モジュール603は、別個のエンティティとして設けることができ、または装置の他のコンポーネントに統合することができる。
図7に、動きぼけを有する部分を含む画像を取得するための方法の一実施形態を示す。第1のステップ710において、少なくとも1つのカメラが、物体および背景の第1、第2および第3の写真を決定された順序で撮影するように制御され、それによって、前記第1の写真が第1の露光時間T1で撮影され、前記第2の写真が第2の露光時間T2で撮影され、前記第3の写真が第3の露光時間T3で撮影されるようにし、前記第2の露光時間が前記第1および前記第3の露光時間より長く、それによって、前記第2の写真が背景および/または物体のぼけ画像を、前記物体および/または前記背景が前記少なくとも1つのカメラに対して動いている場合に含むようにする。第2のステップ720において、第2の写真の前記ぼけ画像の少なくとも一部、ならびに前記第1および/または第3の写真から得られる部分を含む最終画像が、第1、第2および第3の写真を用いて生成される。制御ステップ710は、第3の写真を第2の写真の後に撮影し、第2の写真を第1の写真の後に撮影するように、少なくとも1つのカメラを制御することを備えることができる。他の実施形態では、制御すること710は、第1および第3の画像を第2の画像の前に撮影し、または第1および第3の画像を第2の画像の後に撮影するように少なくとも1つのカメラを制御することを備えることができ、第1および第3の画像を用いて、少なくとも1つのカメラに対する物体の速度を決定し、速度を用いて、第2の写真におけるぼけ画像の位置を決定する。一例示的実施形態では、第1および第3の露光時間T1、T3は1/100秒より短く、第2の露光時間T2は1/80秒より長い。
図8に、最終画像を生成するために実施され得るステップの一例示的実施形態を詳細に示す。この実施形態では、最終画像を生成するためのステップ820は、第1および第3の写真801、803を用いて、第1および第3の写真における物体の形状および位置を決定するための第1のステップ821と、第1および第3の写真における物体の位置および形状を用いて、ぼけ画像の少なくとも一部を第2の写真802から分離するための第2のステップ823と、ぼけ画像の分離された少なくとも一部を、第1および/または第3の写真から得られる部分と結合して、最終画像を取得するための第3のステップ825とを備える。
図9に、最終画像を生成するために実施され得るステップの他の例示的実施形態を詳細に示す。この実施形態では、最終画像を生成するためのステップ920は、第1および第3の写真901、903を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を決定するための第1のステップ921と、第1および/または第3の写真における物体の決定された形状および/または位置を用いて、前記第1および/または第3の写真901、903から背景画像を取得するための第2のステップ922と、第1および第3の写真における決定された位置を用いて、第2の写真902における物体の任意選択的にぼけた画像の位置を決定するためのステップ923と、最終画像を取得するために、第2の写真における任意選択的にぼけた部分の位置を考慮して、第2の写真の任意選択的にぼけた画像を前記背景画像にオーバーレイするための最終ステップ925とを備える。
図10に、最終画像を生成するために実施され得るステップの他の例示的実施形態を詳細に示す。この実施形態では、最終画像を生成するためのステップ1020は、第1および第3の写真1001、1003を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を決定するための第1のステップ1021と、決定された形状および位置を考慮して、前記第1および前記第3の写真から物体を除去することで、第1および第3の背景画像を生成するための第2のステップ1022と、前記第1および第3の背景画像を結合して結合された背景画像を取得するための第3のステップ1024と、第1および第3の写真における決定された位置を用いて、第2の写真1002における物体の任意選択的にぼけた画像の位置を決定するためのステップ1023と、最終画像を取得するために、第2の写真における任意選択的にぼけた部分の位置を考慮して、第2の写真の任意選択的にぼけた画像を前記結合された背景画像にオーバーレイするための最終ステップ1025とを備える。
図11に、最終画像を生成するために実施され得るステップの他の例示的実施形態を詳細に示す。この実施形態では、最終画像を生成するためのステップ1120は、第1および第3の写真1101、1103を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を生成するための第1のステップ1121と、前記第1および/または前記第3の写真から物体の非ぼけ画像を取得するための第2のステップ1122と、前記第1および第3の写真における決定された位置を用いて、第2の写真1102における物体の任意選択的にぼけた画像の位置を決定するためのステップ1123と、最終画像を取得するために、第2の写真における物体の任意選択的にぼけた画像の決定された位置を考慮して、物体の非ぼけ画像を第2の写真にオーバーレイするための最終ステップ1125とを備える。
本発明の実施形態では、2つの最終画像、たとえば、安定した背景を有する動く物体に特に適した図9または図10の実施形態による第1の最終画像、および動く背景に特に適した図11の実施形態による第2の最終画像を生成することができる。そして、ユーザに第1および第2の最終画像の両方を提示することができ、ユーザは最良のものを選択することができる。一代替的実施形態では、ユーザに、「動く物体」モードまたは「動く背景」モードを選択するための選択インターフェースを提示することができ、すると最終画像がそれに従って計算される。そして、図6のユーザインターフェース605は、そのような選択インターフェースを備えることができる。
様々な上述の方法のステップが、プログラムされたコンピュータにより実行可能であることを当業者であれば容易に認識するであろう。本明細書では、いくつかの実施形態は、機械可読またはコンピュータ可読であり、機械実行可能またはコンピュータ実行可能な命令のプログラムであって、前記命令が前記上述の方法のステップの一部または全部を実施する、プログラムを符号化する、デジタルデータ記憶媒体などのプログラム記憶デバイスも含む意図がある。プログラム記憶デバイスは、たとえば、デジタルメモリ、磁気記憶媒体、たとえば磁気ディスクおよび磁気テープ、ハードドライブ、または光学的可読デジタルデータ記憶媒体とすることができる。また、実施形態は、上述の方法の前記ステップを実施するようにプログラムされたコンピュータを含む意図がある。
「コントローラ」または「モジュール」とラベル付けされた任意の機能ブロックを含む、図面に示された様々な要素の機能は、専用ハードウェアを用いて、ならびに適切なソフトウェアと関連してソフトウェアを実行可能なハードウェアを用いて提供することができる。これらの機能は、コントローラまたはプロセッサにより提供される場合、単一の専用コントローラ、単一の共有コントローラ、または一部を共有可能な複数の個別コントローラにより提供されてもよい。さらに、「プロセッサ」または「コントローラ」という用語の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に指すように解釈されるべきではなく、暗黙的に、限定はしないが、デジタルシグナルプロセッサ(DSP)ハードウェア、ネットワークプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ソフトウェアを記憶するための読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、および不揮発性ストレージを含むことができる。他のハードウェアも、従来型および/またはカスタム型にかかわらず、同様に含むことができる。同様に、図面に示されたいかなるスイッチも、概念的なものにすぎない。それらの機能は、プログラムロジックの動作を通じて、専用ロジックを通じて、プログラム制御および専用ロジックの相互作用を通じて、または手動でさえ実行することができ、特定の技法は、文脈からより具体的に理解されるように実装者により選択可能である。
本明細書のいかなるブロック図も、本発明の原理を具現化した例示的回路の概念図を表すことは当業者には理解されたい。同様に、いかなるフローチャート、フロー図、状態遷移図、疑似コードなども、コンピュータ可読媒体に実質的に表現可能であって、したがってコンピュータまたはプロセッサにより、そのようなコンピュータまたはプロセッサが明示的に示されていようといまいと、実行可能である様々な処理を表すことは理解されよう。
本発明の原理が上記で特定の実施形態に関して示されているが、この記述は、単なる例としてなされているにすぎず、添付の特許請求の範囲により決定される保護の範囲を限定するものとしてなされていないことは理解されたい。

Claims (16)

  1. 動きぼけを有する部分を含む画像を取得するための方法であって、
    少なくとも1つのカメラを、物体および背景の第1、第2および第3の写真を決定された順序で撮影するように、制御するステップと、
    カメラの制御により、前記第1の写真を第1の露光時間、前記第2の写真を第2の露光時間、前記第3の写真を第3の露光時間で、それぞれ撮影するステップと、
    前記第2の露光時間が前記第1および前記第3の露光時間より長くすることによって、前記第2の写真が背景および/または物体のぼけ画像を、前記物体および/または前記背景が前記少なくとも1つのカメラに対して動いている場合に含むように制御するステップと、
    前記第1、第2および第3の写真を用いて、第2の写真の前記ぼけ画像の少なくとも一部、ならびに前記第1および/または第3の写真から得られる部分を含む最終画像を生成するステップとを、
    備える方法。
  2. 前記決定された順序で撮影するように制御するステップは、
    第1、第2および第3の写真を1つずつ撮影するように単一のカメラを制御する、
    請求項1に記載の方法。
  3. 前記動いている場合に含むように制御するステップは、
    第1および第3の露光時間が1/100秒より短く、第2の露光時間が1/80秒より長い、
    請求項1または2に記載の方法。
  4. 前記最終画像を生成するステップは、
    第1および第3の写真を用いて、前記第1および前記第3の写真における物体の形状および位置を決定し、
    第1および第3の写真における物体の位置および形状を用いて、ぼけ画像の少なくとも一部を第2の写真から分離し、
    ぼけ画像の分離された少なくとも一部を、第1および/または第3の写真から得られる部分と結合して、最終画像を取得する、
    請求項1から3のいずれか一項に記載の方法。
  5. コンピュータプログラムであって、プログラムがコンピュータ上で実行された場合に、請求項1から4のいずれか一項に記載の方法を実施するためのコンピュータ実行可能命令を備える、コンピュータプログラム。
  6. 決定された順序で少なくとも1つのカメラで撮影された物体および背景の第1、第2および第3の写真を受信するように構成された画像生成モジュールであって、前記第1の写真が第1の露光時間で撮影され、前記第2の写真が第2の露光時間で撮影され、前記第3の写真が第3の露光時間で撮影され、前記第2の露光時間が前記第1および前記第3の露光時間より長く、それによって、前記第2の写真が背景および/または物体のぼけ画像を、前記物体および/または前記背景が前記少なくとも1つのカメラに対して動いている場合に含むようにし、
    前記画像生成モジュールが、第2の写真の前記ぼけ画像の少なくとも一部、ならびに前記第1および/または第3の写真から得られる部分を含む最終画像を、前記第1、第2および第3の写真を用いて生成するように構成された、画像生成モジュール。
  7. 第1および第3の写真を用いて前記第1および前記第3の写真における物体の形状および位置を決定し、
    第1および第3の写真における物体の位置および形状を用いて、ぼけ画像の少なくとも一部を第2の写真から分離し、
    け画像の分離された少なくとも一部を、第1および/または第3の写真から得られる部分と結合して最終画像を取得するように構成された、請求項6に記載の画像生成モジュール。
  8. 第1および第3の写真を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を決定し、
    第1および/または第3の写真における物体の決定された形状および/または位置を用いて、前記第1および/または第3の写真から背景画像を取得し、
    第1および第3の写真における決定された位置を用いて、第2の写真における物体の任意選択的にぼけた画像の位置を決定し、
    最終画像を取得するために、第2の写真における任意選択的にぼけた部分の位置を考慮して、第2の写真の任意選択的にぼけた画像を前記背景画像にオーバーレイするように構成された、請求項6また7に記載の画像生成モジュール。
  9. 第1および第3の写真を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を決定し、
    第1および第3の背景画像を生成するために、決定された形状および位置を考慮して、前記第1および前記第3の写真から物体を除去し、
    前記第1および第3の背景画像を結合して結合された背景画像を取得し、
    第1および第3の写真における決定された位置を用いて、第2の写真における物体の任意選択的にぼけた画像の位置を決定し、
    最終画像を取得するために、第2の写真における任意選択的にぼけた部分の位置を考慮して、第2の写真の任意選択的にぼけた画像を前記結合された背景画像にオーバーレイするように構成された、請求項6から8のいずれか一項に記載の画像生成モジュール。
  10. 前記第1および/または前記第3の写真から物体の非ぼけ画像を取得し、
    物体の非ぼけ画像を最終画像にオーバーレイする
    ように構成された、請求項6から9のいずれか一項に記載の画像生成モジュール。
  11. 第1および第3の写真を用いて、物体に基づくつなぎ合わせを用いることで物体の形状および位置を生成し、
    前記第1および/または前記第3の写真から物体の非ぼけ画像を取得し、
    前記第1および第3の写真における決定された位置を用いて、第2の写真における物体の任意選択的にぼけた画像の位置を決定し、
    最終画像を取得するために、第2の写真における物体の任意選択的にぼけた画像の決定された位置を考慮して、物体の非ぼけ画像を第2の写真にオーバーレイするように構成された、請求項6から10のいずれか一項に記載の画像生成モジュール。
  12. 少なくとも1つのカメラと、
    物体および背景の第1、第2および第3の写真を決定された順序で撮影するよう少なくとも1つのカメラを制御するように構成されたコントローラであって、制御することによって、前記第1の写真が第1の露光時間で撮影され、前記第2の写真が第2の露光時間で撮影され、前記第3の写真が第3の露光時間で撮影されるようにし、前記第2の露光時間が前記第1および前記第3の露光時間より長く、それによって、前記第2の写真が背景および/または物体のぼけ画像を、前記物体および/または前記背景が前記少なくとも1つのカメラに対して動いている場合に含むようにする、コントローラと、
    請求項6から11のいずれか一項に記載の画像生成モジュールと
    を備える、装置。
  13. コントローラが、第1、第2および第3の写真を1つずつ撮影するように単一のカメラを制御するように構成される、請求項12に記載の装置。
  14. コントローラが、1/100秒より短い第1および第3の露光時間で第1および第3の写真を撮影し、1/80秒より長い第2の露光時間で第2の写真を撮影するよう、少なくとも1つのカメラを制御するように構成された、請求項12または13に記載の装置。
  15. コントローラが、第2の写真の後に第3の写真を、第1の写真の後に第2の写真を撮影するように少なくとも1つのカメラを制御するように構成された、請求項12から14のいずれか一項に記載の装置。
  16. コントローラが、第1および第3の画像を第2の画像の前に撮影し、または第1および第3の画像を第2の画像の後に撮影するように少なくとも1つのカメラを制御するように構成され、
    第1および第3の画像を用いて、少なくとも1つのカメラに対する物体の速度を決定し、
    速度を用いて、第2の写真におけるぼけ画像の位置を決定する、請求項12から14のいずれか一項に記載の装置。
JP2016562516A 2014-04-14 2015-04-09 動きぼけを有する画像を取得するための方法および装置 Expired - Fee Related JP6404941B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14305544.0A EP2933999B1 (en) 2014-04-14 2014-04-14 Method and apparatus for obtaining an image with motion blur
EP14305544.0 2014-04-14
PCT/EP2015/057667 WO2015158590A1 (en) 2014-04-14 2015-04-09 Method and apparatus for obtaining an image with motion blur

Publications (2)

Publication Number Publication Date
JP2017520135A JP2017520135A (ja) 2017-07-20
JP6404941B2 true JP6404941B2 (ja) 2018-10-17

Family

ID=50639401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016562516A Expired - Fee Related JP6404941B2 (ja) 2014-04-14 2015-04-09 動きぼけを有する画像を取得するための方法および装置

Country Status (6)

Country Link
US (1) US10116879B2 (ja)
EP (1) EP2933999B1 (ja)
JP (1) JP6404941B2 (ja)
KR (1) KR101783196B1 (ja)
CN (1) CN106170976B (ja)
WO (1) WO2015158590A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9300834B2 (en) 2009-05-20 2016-03-29 Dacuda Ag Image processing for handheld scanner
US10298898B2 (en) 2013-08-31 2019-05-21 Ml Netherlands C.V. User feedback for real-time checking and improving quality of scanned image
EP3540683A1 (en) 2013-12-03 2019-09-18 ML Netherlands C.V. User feedback for real-time checking and improving quality of scanned image
EP3092790B1 (en) * 2014-01-07 2020-07-29 ML Netherlands C.V. Adaptive camera control for reducing motion blur during real-time image capture
WO2015104235A1 (en) 2014-01-07 2015-07-16 Dacuda Ag Dynamic updating of composite images
US10484561B2 (en) 2014-05-12 2019-11-19 Ml Netherlands C.V. Method and apparatus for scanning and printing a 3D object
WO2016173794A1 (en) * 2015-04-30 2016-11-03 Fotonation Limited A method and apparatus for producing a video stream
KR102584187B1 (ko) * 2016-03-30 2023-10-05 삼성전자주식회사 이미지를 처리하기 위한 전자 장치 및 방법
CN106454143A (zh) * 2016-08-31 2017-02-22 周民 一种动感照片的拍摄方法和终端
CN106791380B (zh) * 2016-12-06 2020-04-21 周民 一种动感照片的拍摄方法和装置
CN106851098A (zh) * 2017-01-20 2017-06-13 努比亚技术有限公司 一种图像处理方法及移动终端
WO2018157935A1 (en) * 2017-03-02 2018-09-07 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for ball impact localization
US10395345B2 (en) 2017-03-24 2019-08-27 Reald Inc. Applying different motion blur parameters to spatial frame regions within a sequence of image frames
CN106791456A (zh) * 2017-03-31 2017-05-31 联想(北京)有限公司 一种拍照方法及电子设备
CN106993134B (zh) * 2017-03-31 2020-01-07 努比亚技术有限公司 一种图像生成装置和方法、终端
US10948299B1 (en) * 2017-09-28 2021-03-16 Apple Inc. Relative inertial measurement system with visual correction
CN107820022A (zh) * 2017-10-30 2018-03-20 维沃移动通信有限公司 一种拍照方法及移动终端
CN116582741B (zh) * 2020-05-07 2023-11-28 华为技术有限公司 一种拍摄方法及设备
JP2023527695A (ja) 2020-05-11 2023-06-30 マジック リープ, インコーポレイテッド 3d環境の合成表現を算出するための算出上効率的方法
US11523055B1 (en) * 2020-05-29 2022-12-06 Humane, Inc. Super resolution/super field of view (FOV) digital photography
CN111866388B (zh) * 2020-07-29 2022-07-12 努比亚技术有限公司 一种多重曝光拍摄方法、设备及计算机可读存储介质
CN113923368B (zh) * 2021-11-25 2024-06-18 维沃移动通信有限公司 拍摄方法及装置
JP7545433B2 (ja) 2022-03-11 2024-09-04 ソフトバンク株式会社 画像処理装置、プログラム、画像処理システム、及び画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4154053B2 (ja) 1998-12-25 2008-09-24 キヤノン株式会社 画像記録・再生システム、画像記録装置及び画像再生装置
US7440634B2 (en) * 2003-06-17 2008-10-21 The Trustees Of Columbia University In The City Of New York Method for de-blurring images of moving objects
US8570389B2 (en) * 2004-07-22 2013-10-29 Broadcom Corporation Enhancing digital photography
JP2007074031A (ja) * 2005-09-02 2007-03-22 Canon Inc 撮像装置、及び、画像処理装置及び方法
JP4987355B2 (ja) * 2005-10-14 2012-07-25 京セラ株式会社 撮像装置および撮像方法
CN101504765B (zh) 2009-03-20 2011-06-08 东华大学 采用梯度融合技术的运动模糊图像序列的复原方法
US8228400B2 (en) * 2009-04-17 2012-07-24 Sony Corporation Generation of simulated long exposure images in response to multiple short exposures
JP5574792B2 (ja) 2010-04-13 2014-08-20 キヤノン株式会社 撮影装置
US8885978B2 (en) * 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
JP2012100000A (ja) 2010-11-01 2012-05-24 Olympus Corp 撮像装置、画像処理装置およびコンピュータプログラムプロダクト
KR101692401B1 (ko) * 2011-01-21 2017-01-03 삼성전자주식회사 영상 처리 방법 및 장치
US9196016B2 (en) * 2012-01-18 2015-11-24 Linkedin Corporation Systems and methods for improving video stutter in high resolution progressive video

Also Published As

Publication number Publication date
CN106170976B (zh) 2019-04-26
EP2933999A1 (en) 2015-10-21
KR101783196B1 (ko) 2017-09-29
US10116879B2 (en) 2018-10-30
US20170034429A1 (en) 2017-02-02
EP2933999B1 (en) 2018-02-21
CN106170976A (zh) 2016-11-30
KR20160144464A (ko) 2016-12-16
WO2015158590A1 (en) 2015-10-22
JP2017520135A (ja) 2017-07-20

Similar Documents

Publication Publication Date Title
JP6404941B2 (ja) 動きぼけを有する画像を取得するための方法および装置
US9049363B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
EP2242021A1 (en) Generation of simulated long exposure images in response to multiple short exposures
JP2008271241A5 (ja)
JP2010166289A (ja) 撮像装置及び画像処理方法並びにプログラム
US20150189142A1 (en) Electronic apparatus and method of capturing moving subject by using the same
JP5400486B2 (ja) 撮影装置および撮影方法
KR20120002834A (ko) 참조 영상을 제공하는 촬상장치 및 그의 참조 영상 제공방법
JP2015204470A (ja) 撮像装置およびその制御方法ならびにプログラム
JP6909669B2 (ja) 画像処理装置および画像処理方法
JP6242428B2 (ja) 撮影装置および撮影方法
JP7378963B2 (ja) 画像処理装置、画像処理方法、及び、コンピュータプログラム
JP7395258B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2019036885A (ja) 画像処理装置および画像処理方法
TW201722137A (zh) 產生包含物體移動軌跡的相片的方法及相關攝影裝置
JP7395259B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP7378962B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP5925275B2 (ja) 撮影装置および撮影方法
JP5816733B2 (ja) 撮影装置および撮影方法
JP5816732B2 (ja) 撮影装置および撮影方法
JP6013574B2 (ja) 撮影装置および撮影方法
JP5637645B2 (ja) 撮影装置および撮影方法
JP5347624B2 (ja) 撮像装置、撮像装置の画像処理方法及び画像処理プログラム
JP5734348B2 (ja) 撮像装置
JP2016009991A (ja) 画像処理装置、カメラおよび画像処理プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180913

R150 Certificate of patent or registration of utility model

Ref document number: 6404941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees