JP5757592B2 - 超解像画像を生成する方法,装置,コンピュータプログラム製品 - Google Patents

超解像画像を生成する方法,装置,コンピュータプログラム製品 Download PDF

Info

Publication number
JP5757592B2
JP5757592B2 JP2013239501A JP2013239501A JP5757592B2 JP 5757592 B2 JP5757592 B2 JP 5757592B2 JP 2013239501 A JP2013239501 A JP 2013239501A JP 2013239501 A JP2013239501 A JP 2013239501A JP 5757592 B2 JP5757592 B2 JP 5757592B2
Authority
JP
Japan
Prior art keywords
image
region
resolution
super
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013239501A
Other languages
English (en)
Other versions
JP2014112834A (ja
Inventor
エス ヴィー バサヴァラジャ
エス ヴィー バサヴァラジャ
ゴーパール プトラヤ グルラージ
ゴーパール プトラヤ グルラージ
ウリヤーラ ミトゥン
ウリヤーラ ミトゥン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2014112834A publication Critical patent/JP2014112834A/ja
Application granted granted Critical
Publication of JP5757592B2 publication Critical patent/JP5757592B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

多くの実装形態が、一般的に、超解像イメージを生成する方法,装置,コンピュータプログラム製品に関する。
背景
カメラや携帯電話などの様々な電子機器が、景色を撮影して画像を得るために用いられている。以前からあるカメラにおいては、画像の解像度はカメラに搭載されているセンサの画像と同じである。従って、高解像度の画像を得るには、対応する解像度のセンサが必要である。他に、ライトフィールドカメラというものも存在し、これは、1回の操作で景色の画像を複数撮影する。このカメラは、撮影後において、画像の中のオブジェクトに焦点合わせを行うことができる。しかし、このようなカメラは、撮影された画像の解像度が貧弱であるという制限を有している。これは、画像の細かい部分を記録するセンサが、複数の画像により共有されているからである。多くの例示的なシナリオにおいて、ライトフィールドカメラにより撮影された画像の解像度が、"超解像"技術によって改良される。
いくつかの実施形態の摘要
例示的実施形態の多くの捉え方が、請求項に提示されている。
第1の側面によれば、ライトフィールド画像の受け取りを支援することと;前記ライトフィールド画像の一つ又は複数の深度レベルを決定することと;前記ライトフィールド画像から複数の画像を生成することと;前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定することと;前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行うことと;を含む、方法が提供される。
第1の側面によれば、少なくとも一つのプロセッサと、コンピュータプログラムコードを含む少なくとも一つのメモリとを備える装置であって、前記少なくとも一つのメモリ及び前記コンピュータプログラムコードは、前記少なくとも一つのプロセッサを用いて、前記装置に少なくとも:ライトフィールド画像の受け取りを支援することと;前記ライトフィールド画像の一つ又は複数の深度レベルを決定することと;前記ライトフィールド画像から複数の画像を生成することと;前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定することと;前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行うことと;を行わせるように構成される、装置が提供される。
第3の側面によれば、少なくとも一つのコンピュータ読み取り可能な記憶媒体を備えるコンピュータプログラム製品であって、前記コンピュータ読み取り可能な記憶媒体が、一つ又は複数のプロセッサにより実行される時に、装置に少なくとも:ライトフィールド画像の受け取りを支援することと;前記ライトフィールド画像の一つ又は複数の深度レベルを決定することと;前記ライトフィールド画像から複数の画像を生成することと;前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定することと;前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行うことと;を実行させる命令セットを備える、コンピュータプログラム製品が提供される。
第4の側面によれば、ライトフィールド画像の受け取りを支援する手段と;前記ライトフィールド画像の一つ又は複数の深度レベルを決定する手段と;前記ライトフィールド画像から複数の画像を生成する手段と;前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定する手段と;前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行う手段と;を備える装置が提供される。
第5の側面によれば、装置により実行されると該装置に、ライトフィールド画像の受け取りを支援することと;前記ライトフィールド画像の一つ又は複数の深度レベルを決定することと;前記ライトフィールド画像から複数の画像を生成することと;前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定することと;前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行うことと;を実行させるように構成される、コンピュータプログラムが提供される。
添付の図面には、多くの実施形態が例示されている。これらは例示を目的とするものであって、限定の目的のためのものではない。
ある例示的実施形態に従うデバイスを描いたものである。 ある例示的実施形態に従う、超解像画像を生成する装置を描いたものである。 ある例示的実施形態に従うライトフィールド画像を表したものである。 ある実施形態に従う深度マップ(depth map)の例示的な表現であり、ライトフィールド画像中の深度(depth)のレベルを表現している。 図5A−Cはそれぞれ、ある例示的実施形態に従い、ライトフィールド画像から生成された複数の画像を例示的に表したものである。 ある例示的実施形態に従って、超解像画像を例示的に表したものである。 ある例示的実施形態に従う、超解像画像を生成する例示的方法のフローチャートを描いたものである。 別の例示的実施形態に従う、超解像画像を生成する例示的方法のフローチャートを描いたものである。
詳細な説明
図1−8を参照することにより、例示的実施形態及びそれらが秘める効果を理解することができるだろう。
図1は、ある例示的実施形態に従うデバイス100を描いたものである。ただ、この図に描かれ以下に説明されるデバイス100は、様々な実施形態から利益を受けうるデバイスの一つのタイプを単に例示するに過ぎず、従って、実施形態の範囲を限定するもの捉えてはならない。また、デバイス100に関連して以下に説明される要素のうち少なくともいずれかは任意的要素であり、従って、例示的実施形態によっては、図1の例示的実施形態に関連して説明されている要素よりも多くの要素を有する場合や少ない要素しか有さない場合、異なる要素を有する場合がある。デバイス100は多くのタイプの携帯電子機器であることができる。例えばPDAやポケットベル、携帯テレビ、ゲーム機器、携帯電話、例えばラップトップコンピュータや携帯型コンピュータ、デスクトップコンピュータなど全てのタイプのコンピュータ、カメラ、音楽/ビデオプレーヤー、ラジオ、GPSデバイス、メディアプレーヤー、携帯型デジタル支援装置、これらいずれかの組み合わせ、その他のタイプの通信機器であることができる。
デバイス100は、送信機104及び受信機106と協働するアンテナ(または複数のアンテナ)102を備えてもよい。デバイス100はさらに、送信機104及び受信機106との間で信号を提供したり信号を受信したりするような、コントローラ108のような装置を備えてもよい。この信号は、利用可能なセルラシステムの無線インタフェース規格に従うシグナリング情報を含んでいてもよく、及び/又は、ユーザの音声や受信したデータ、ユーザが生成したデータなどを含んでいてもよい。これに関してデバイス100は、一つ又は複数の無線インタフェース規格や通信プロトコル、変調タイプ、アクセスタイプによって動作する能力を有していてもよい。例ではあるが、デバイス100は、第一世代、第2世代、第3世代、第4世代、及び同様の通信プロトコルのうちいずれか一つ以上で動作することが可能であってもよい。例えばデバイス100は、第2世代(2G)の無線通信プロトコルであるIS−136(時分割多重アクセス(TDMA)やGSM(global system for mobile communication)、IS−95(符号分割多重アクセス(CDMA)に従って動作する能力を有していてもよく、第3世代(3G)の通信プロトコルであるE−UTRAN()やCDMA2000、WCDMA、TD−SCDMAに従って動作する能力を有していてもよく、3.9Gの無線通信プロトコルであるE−UTRAN(evolved− universal terrestrial radio access network)や第4世代(4G)の無線通信プロトコルなどのような規格に従って動作する能力を有していてもよい。代替的に又は追加的に、デバイス100はセルラ方式ではない通信メカニズムに従って動作する能力を有していてもよい。例えば、インターネットやローカルエリアネットワーク、ワイドエリアネットワークのようなコンピュータネットワークや、Bluetooth(登録商標)ネットワークやZigBee(登録商標)ネットワーク、IEEE(Institute of Electric and Electronic Engineers)802.11xネットワークのような金りょり無線通信ネットワーク、公衆交換電話網(PSTN)のような有線電話ネットワークのような通信メカニズムに従って動作する能力を有していてもよい。
コントローラ108は、とりわけ、デバイス100の音声や論理機能を実装する回路を有していてもよいことは理解されたい。例えばコントローラ108は、1つ又は複数のデジタルシグナルプロセッサ装置、1つ又は複数のマイクロプロセッサ装置、1つ又は複数のデジタルシグナルプロセッサを有する1つ又は複数のプロセッサ、デジタルシグナルプロセッサを有さない1つ又は複数のプロセッサ、1つ又は複数の特定目的コンピュータチップ、1つ又は複数のFPGA(field−programmable gate array)、1つ又は複数のASIC(application−specific integrated circuit)、1つ又は複数のコンピュータ、様々なA/DコンバータやD/Aコンバータ、及び/又はその他のサポート回路を備えていてもよい。デバイス100の信号及び情報処理機能は、それぞれの能力に従って、これらのデバイスの中に割り当てられている。コントローラ108は、変調及び送信を行う前に、畳み込み的な符号化や、メッセージおよびデータのインタリーブを行う機能を有していてもよい。コントローラ108は、さらに音声符号器やデータモデムを内蔵していてもよい。さらに、コントローラ108は、メモリに記録されていてもよい一つ又は複数のソフトウェアプログラムを実行する能力を含んでいてもよい。例えばコントローラ108は、標準的に用いられているWebブラウザのような通信プログラムを実行する能力を有していてもよい。そのような通信プログラムは、デバイス100がWebコンテンツを送受信することを可能とする。そのようなWebコンテンツには、WAP(Wireless Application Protocol)やHTTP(Hypertext Transfer Protocol )位置ベースのコンテンツなどに従う位置ベースのコンテンツやその他のWebページコンテンツなどがある。ある例示的実施形態において、コントローラ108は、デュアルコアプロセッサのようなマルチコアプロセッサとして具現化されてもよい。コントローラ108にはいくつのプロセッサが含まれていてもよい。
デバイス100はまた、出力デバイスであるリンガ110や、イヤホン又はスピーカ112や、マイクロホン114、ディスプレイ116、および、ユーザ入力インタフェースを備えていてもよく、これら全てはコントローラ108に接続されていてもよい。ユーザ入力インタフェースはデバイス100がデータを受信することを可能にし、またデバイス100がデータを受信することを可能にするデバイスをいくつ備えていてもよい。そのようなデバイスには、例えばキーパッド118やタッチディスプレイ、マイクロホン、またその他の入力デバイスが存在する。キーパッド118を含む実施形態において、キーパッド118は、0−9の数字キーや関連するキー(#,*)、その他デバイス100を操作するためのハードキーやソフトキーを有していてもよい。代替的又は追加的に、キーパッド118は、一般的なQWERTY配列のキーパッドを備えていてもよい。キーパッド118はまた、それぞれ機能に関連付けられた多くのソフトキーを備えていてもよい。それに加えて、又は代替的に、デバイス100は、ジョイスティックまたはユーザ入力インタフェースのようなインタフェースデバイスを備えてもよい。さらにデバイス100は、デバイス100を動作させるために使用される様々な回路に電源を供給し、また検知可能な出力としての機械的な振動を提供する、振動バッテリパックのようなバッテリ120を備えてもよい。
ある例示的実施形態において、デバイス100は、カメラモジュールやビデオモジュール、及び/又はオーディオモジュールのようなメディアキャプチャ要素を備えてもよい。メディアキャプチャ要素はコントローラ108と通信する。メディアキャプチャ要素は、画像や動画及び/又は音声をキャプチャして格納したり表示したり送信したりする如何なる手段であってもよい。メディアキャプチャ要素がカメラモジュール122である例示的実施形態では、カメラモジュール122は、キャプチャしたイメージからデジタル画像ファイルを形成しうるデジタルカメラを備えてもよい。カメラモジュール122は、レンズその他の光学部品のような全てのハードウェアや、キャプチャしたイメージからデジタル画像ファイルを作成するソフトウェアを含む。別の例では、カメラモジュール122は画像を取得するために必要なハードウェアを備えるが、デバイス100の記憶装置が、コントローラ108によって実行されることにより、キャプチャしたイメージからデジタル画像ファイルを作成するための命令を、ソフトウェアの形態として格納する。ある例示的実施形態においては、カメラモジュール122はさらに、コントローラ108が画像データを処理することを支援するコプロセッサのような処理要素や、画像データを圧縮したり伸張したりするエンコーダーやデコーダーを備えていてもよい。エンコーダーやデコーダーは、JPEG標準やその他のフォーマットに従ってエンコードやデコードを行ってもよい。動画に関しては、エンコーダーやデコーダーは、例えばH.261, H.262/MPEG-2, H.263, H.264, H.264/MPEG-4, MPEG-4のような標準規格をいくつ利用することができてもよい。ある場合では、カメラモジュール122はライブイメージをディスプレイ116に供給することができてもよい。さらに、実施形態によっては、ディスプレイ116はデバイス100の一方の側面に搭載され、カメラモジュール122はそれとは反対側に設けられるレンズを備えていてもよい。それによって、カメラモジュール122がデバイス100の一方の側で画像を撮影し、そのイメージを、デバイス100の別の側に位置しているユーザに表示することができてもよい。
デバイス100はユーザ識別モジュール(UIM)124を備えていてもよい。UIM124は、プロセッサを内蔵するメモリデバイスである。UIM124には、例えば、加入者識別モジュール(SIM)や、UICCカード、USIM、R−UIM、及びその他のタイプのスマートカードが含まれる。UIM124は通常、加入者に関する情報要素を格納する。UIM124に加えてデバイス100はメモリを備えていてもよい。例えばデバイス100は、データの一時的な保管のためのキャッシュ領域を備えるランダムアクセスメモリ(RAM)のような揮発性メモリ126を備えてもよい。デバイス100は、内蔵の及び/又は着脱可能な不揮発性メモリ128を備えていてもよい。不揮発性メモリ128には、EEPROM(Electrically Erasable Programmable Read-Only Memory)やフラッシュメモリ、ハードディスクドライブのようなものも含まれる。これらのメモリは、デバイス100の機能を実装するためにデバイス100に使用されるいかなる数の情報片やプログラム、データを格納してもよい。
図2は、例示的実施形態に従って、ライトフィールドカメラでキャプチャしたイメージから、一つ又は複数の超解像画像を生成する装置200を描いたものである。装置200は、例えば、図1のデバイス100によって採用されることができる。しかし、装置200は、携帯式又は固定式に関わらず、その他の様々なデバイスによって採用されることができてもよいことは注意されたい。従って、実施形態は、図1のデバイス100のようなデバイスへの応用に限られないことに注意されたい。場合によっては、実施形態は、複数のデバイスの組み合わせによって利用されうる。そのような複数のデバイスには、例えば上にリストされたものが含まれる。多くの実施形態が、(例えばデバイス100やデバイスの組み合わせのような)単一のデバイスとして具現化される。さらに、以下に記述されるデバイスや要素は必ず必要であるというものではなくともよく、従って実施形態によっては、これらのうちいくつかが省略されてもよい。
装置200は少なくとも一つのプロセッサ202及び少なくとも一つのメモリ204を備える。又はこれらと通信できるようにされている。少なくとも一つのメモリ204は、これらに限られるわけではないが、揮発性メモリ及び/又は不揮発性メモリを含む。揮発性メモリの例には、ランダムアクセスメモリやダイナミック・ランダムアクセスメモリ、スタティック・ランダムアクセスメモリのようなものが含まれる。また、これらに限定されない。不揮発性メモリの例には、ハードディスクや磁気テープ、光ディスク、プログラム可能なリードオンリーメモリ、プログラムを消去可能なリードオンリーメモリ、電気的に消去可能なプログラム可能リードオンリーメモリ、フラッシュメモリのようなものがある。様々な例示的実施形態に従う多くの機能を装置200が実行することを可能にするべく、メモリ204は、情報やデータ、ファイル、アプリケーション、命令および同様のものを格納するように構成されてもよい。例えばメモリ204は、プロセッサ202によって処理するために、メディアコンテンツを含む入力データをバッファするように構成されてもよい。さらに又は代替的に、メモリ204は、プロセッサ202により実行される命令を格納するように構成されてもよい。
プロセッサ202の例には、コントローラ108が含まれてもよい。プロセッサ202は非常に多くの方法で具現化されることができる。プロセッサ202は、マルチコアプロセッサやシングルコアプロセッサ、これらの組み合わせとして具現化されてもよい。例えばプロセッサ202は、一つ又は複数の様々な処理手段として具現化されてもよい。そのような処理手段には例えば、コプロセッサやマイクロプロセッサ、コントローラ、デジタルシグナルプロセッサ(DSP)、DSP搭載型又は非搭載型の処理回路、その他様々な処理デバイスが含まれる。また、そのような処理デバイスには、例えば、ASIC(application specific integrated circuit)やFPGA(field programmable gate array)、マイクロコントローラーユニット(MCU)、ハードウェアアクセラレータ、特定目的コンピュータチップなどが存在する。ある例示的実施形態において、マルチコアプロセッサは、メモリ204に格納された命令を実行するように構成されてもよい。またはプロセッサは、自身がアクセス可能な命令を実行するように構成されてもよい。代替的又は追加的に、プロセッサ202は、ハードコードされた機能を実行するように構成されていてもよい。このように、ハードウェアにより構成されるかソフトウェアによる手法により構成されるか、またはこれらの組み合わせにより構成されるかに関わらず、プロセッサ202は、様々な実施形態に従う処理を遂行する能力を有する要素を表す。たとえば、そのような処理を遂行する能力を有するように、回路中に物理的に具現化された要素を表す。例えば、プロセッサ202が2つまたはそれ以上のASICやFPGAのようなものにより具現化されるとき、プロセッサ202は、本明細書により説明される処理を遂行するために特別に構成されたハードウェアと考えられうる。または、別の実施形態では、プロセッサ202はソフトウェア命令を実行する実行機器として具現化される。そのような命令は、実行されることにより、プロセッサ202を、本明細書に記載されるアルゴリズム又は処理を遂行するように構成しうる。しかし、ある場合では、プロセッサ202は、たとえば移動端末やネットワークデバイス等の特定の装置のプロセッサである場合もある。その場合、そのような装置は、本明細書に記載されるアルゴリズム又は処理を実行するための命令によりプロセッサ202を構成することにより、実施形態を取り入れるように構成される。プロセッサ202はとりわけ、その動作をサポートするクロックや算術演算ユニット(ALU)、ロジックゲートを備える。
ユーザインタフェース206は、プロセッサ202と通信する。ユーザインタフェース206は、それに限られるわけではないが、入力インタフェース及び/又は出力ユーザインタフェースを含む。入力インタフェースはユーザ入力を表す情報を受け取るように構成される。出力ユーザインタフェースは音声や視覚、メカニカル、その他の出力及び/又はフィードバックをユーザに提供する。入力インタフェースの例は、これらに限られるわけではないが、例えばキーボードやマウス、ジョイスティック、キーパッド、タッチスクリーン、ソフトキー等を含んでもよい。出力インタフェースの例は、これらに限られるわけではないが、例えばLEDディスプレイやTFTディスプレイのような表示装置、液晶ディスプレイ、AMOLEDディスプレイ、マイクロホン、スピーカー、リンガ、バイブレータを含んでもよい。ある例示的実施形態において、ユーザインタフェース206は、他のデバイスや要素もさることながら、特に、スピーカー、マイクロホン、ディスプレイ、キーボード、タッチスクリーンのようなもののいずれか又は全てを含んでもよい。これに関してプロセッサ202は、例えば、スピーカーやリンガ、ディスプレイ等の一つ又は複数のユーザインタフェース206の要素の少なくともいずれかを制御するように構成されるユーザインタフェース回路を備えていてもよい。プロセッサ202及び/又はプロセッサ202を含むユーザインタフェース回路は、コンピュータプログラム命令を通じて、ユーザインタフェース206の一つ又は複数の要素の一つ又は複数の機能を制御するように構成されてもよい。そのようなコンピュータプログラム命令は、例えば、例えば少なくとも一つのメモリ204など、プロセッサ202がアクセス可能なメモリに格納される、ソフトウェアやファームウェアであることができる。
装置200の例には電子機器が含まれてもよい。電子機器の例には、通信機器や、通信機能を有するメディアキャプチャデバイス、コンピュータデバイス等がある。電子機器の例には、携帯電話やPDA等も含まれる。電子機器の例には、ラップトップコンピュータやパーソナルコンピュータ等も含まれる。ある実施形態において、かかる電子機器は、例えばUI206のようなユーザインタフェースやユーザインタフェースソフトウェアを有していてもよい。ユーザインタフェースはユーザインタフェース回路を備えていることができる。またユーザインタフェースソフトウェアは、電子機器の少なくとも一つの機能をユーザがディスプレイを使って制御することを支援するように構成されたり、ユーザ入力に応答するように構成されたりすることができる。ある例示的実施形態において、上記電子機器は、電子機器のユーザインタフェースの少なくとも一部分を表示するように構成される表示回路を備えていてもよい。ディスプレイ及び表示回路は、上記電子機器の少なくとも一つの機能をユーザが制御することを支援するように構成されてもよい。
ある例示的実施形態において、上記電子機器は送受信機を含めるように具現化されてもよい。この送受信機はソフトウェアに従って動作する如何なるデバイスや回路であってもよく、又は、ハードウェアとして実装されてもよく、又はハードウェア及びソフトウェアの組み合わせとして実装されてもよい。例えば、ソフトウェアの制御の下で動作するプロセッサ202や、本明細書で説明される処理を実行するように特に構成されたASICやFPGAとして具現化されるプロセッサ202、またはこれらの組み合わせなど、装置又は回路に送受信機の機能を実行させるように作られる如何なる構成でもよい。送受信機はメディアコンテンツを受信するように構成されてもよい。メディアコンテンツの例としては、オーディオコンテンツやビデオコンテンツ、及びこれらの組み合わせなどがある。
ある例示的実施形態において、上記電子機器は、イメージセンサ208などのイメージセンサを備えていてもよい。イメージセンサ208は.プロセッサ202や装置200のその他の要素と共に動作してもよい。イメージセンサ208は、画像処理回路や画像処理ソフトウェアとともに動作してもよく、デジタル画像をキャプチャしたり、ビデオなどのグラフィックメディアファイルを作成するように構成されたりしてもよい。イメージセンサ208及びその他の回路は、一緒になって、デバイス100のカメラモジュール122の例とされてもよい。イメージセンサ208は、その他の要素と共に、ライトフィールド画像をキャプチャするように構成されてもよい。
これらの要素(202−208)は、超解像画像生成するために、集中型回路システム(centralized circuit system)210を介して互いに通信してもよい。集中型回路システム210は、とりわけ、装置200の要素202−208が互いに通信できるように構成される様々なデバイスであってもよい。ある実施形態では、上記集中型回路システム210は、マザーボードやメインボード、システムボード、ロジックボードのような、集中型のプリント基板(PCB)であってもよい。集中型回路システム210はまた、その他のプリント基板アセンブリ(PCA)や通信チャンネルメディアを含んでいてもよい。
ある例示的実施形態において、プロセッサ200は、メモリ204のコンテンツと共に、及び場合によっては本明細書に説明されるその他の要素と共に、ライトフィールド画像を受け取ることを装置200に支援させるように構成される。ある例示的実施形態において、装置200はライトフィールド画像をキャプチャするように構成されてもよい。別の例示的実施形態においては、ライトフィールド画像はあらかじめ記録されて装置200に格納されていてもよく、又は、装置200が外部のソースから受信するものであってもよい。ある例示的実施形態において、装置200は、DVDやコンパクトディスク(CD)、フラッシュドライブ、メモリーカードのような外部ストレージメディアからライトフィールド画像を受け取るようにされてもよく、又は、インターネットやBluetooth(登録商標)のような外部の記憶場所からそれを受け取るようにされてもよい。様々な例示的実施形態において、「ライトフィールド画像」との語句は、同一のシーンについての複数のビューの情報を含む撮影画像を表す。撮影されたライトフィールド画像からは、それぞれ視差(パララックス)が少しずつ異なる複数の画像が生成されてもよい。例えば、ライトフィールド画像は、シーンの広い角度範囲(様々な視点)をカバーする。ある例示的なシナリオによれば、ライトフィールド画像から生成される様々な画像は、低解像度の入力画像となってもよく、このような入力画像の解像度が超解像処理によって改善されてもよい。ある例において、ライトフィールド画像はライトフィールドカメラによって撮影されてもよい。ライトフィールドカメラの例には、シーンについての四次元ライトフィールド情報を撮影するためにマイクロレンズ・アレイを用いるPlenopticカメラやマスクカメラ(mask based camera)が存在する。なおこの例は網羅的なものではない。ある例示的実施形態において、装置200は、ライトフィールドカメラを備えるメディアキャプチャデバイスの例であってもよい。または、装置200は、ライトフィールドカメラと、ライトフィールド画像を撮影するためのその他の要素とを備えていてもよい。
ある例示的実施形態において、プロセッサ200は、メモリ204のコンテンツと共に、及び場合によっては本明細書に説明されるその他の要素と共に、ライトフィールド画像の一つ又は複数の深度レベルを装置200に決定させるように構成される。ある例示的実施形態において、装置200は、ライトフィールド画像の一つ又は複数の深度レベルに関する深度マップを決定するようにされる。ある例において、ライトフィールド画像は、一つ又は複数のオブジェクトに対応する一つ又は複数の深度レベルを有していてもよい。例えば、現実のシーンにおいて、オブジェクトA,B,Cが異なる深度にあり、これらのオブジェクトがPlenopticカメラによってライトフィールド画像を生成すべく撮影されるとする。ある例示的実施形態では、ライトフィールド画像に対応する現実のシーンにおける深度レベルに基づいて、オブジェクトA,B,Cのために深度マップが生成されてもよい。
ある例示的実施形態において、プロセッサ200は、メモリ204のコンテンツと共に、及び場合によっては本明細書に説明されるその他の要素と共に、装置200に、ライトフィールド画像から複数の画像を生成させるように構成される。ある例示的実施形態において、単一のライトフィールド画像から複数の画像を生成することは、それぞれ少しずつ異なる視差によって撮影された画像を表すような複数の画像を生成することであってもよい。例えば、単一のライトフィールド画像(I)から、複数の画像(I1,I2,...In)が生成されてもよい。
ある例示的実施形態において、プロセッサ200は、メモリ204のコンテンツと共に、及び場合によっては本明細書に説明されるその他の要素と共に、上記複数の画像のうちのあるものと、残りの一つ又は複数の画像との間の一つ又は複数の深度レベルに対応する、一つ又は複数のレジストレーション・マトリクスを装置200に決定させるように構成されてもよい。ある例においては、深度レベルごとに、2つの画像の間に、対応するレジストレーション・マトリクスが生成されてもよい。例えば、ライトフィールド画像(I)の深度マップに3つの深度レベル(d1,d2,d3)がある場合、深度レベル(d1,d2,d3)に対応して、画像(I1,I2,...In)の全ての組み合わせに対して、3つのレジストレーション・マトリクスが生成されてもよい。例えば、画像I1とI2との間には、深度レベルd1に対応してレジストレーション・マトリクスRd1(I1,I2)が生成され、深度レベルd2に対応してレジストレーション・マトリクスRd2(I1,I2)が生成され、深度レベルd3に対応してレジストレーション・マトリクスRd3(I1,I2)が生成されてもよい。
ある例示的実施形態においては、全ての画像に対して、当該画像と残りの画像との間に、一つ又は複数の深度レベルに対応してレジストレーション・マトリクスが決定されてもよい。ある例では、装置200は、ある画像(例えばI2)と、それ以外の画像(例えば残りの画像I1,I3,...InのうちI3)その間に深度レベル(例えばd1)に対応してレジストレーション・マトリクスを決定するようにされるが、それは、画像(I2)中の当該深度レベルに関連する領域及びその他の画像(I3)中の当該深度レベルに関連する領域を選択することによりなされてもよい。例えば、深度レベルd1に対応して、画像(I2)からは領域r(I2,d1)が選択され、画像(I3)からは領域r(I3,d1)が選択されてもよい。
ある例示的実施形態において、装置200は、選択された領域r(I2,d1)やr(I3,d1)の中で、複数の特徴点を決定するようにされる。この画像特徴点の例には、コーナー(角部;corner)、フレーム中の一つ又は複数のオブジェクトのエッジ、SIFT(Scale Invariant Feature Transform)特徴量、画像の背景や前景のようなROIが含まれる。また、これら以外の特徴点も存在する。ある例示的実施形態において、装置200は、特定の深度レベルに関連してある画像(I2)から選択された領域の特徴点と、当該深度レベルに関連して残りの別の画像(I3)から選択された領域の特徴点との間の一致の度合いに基づいて、当該深度レベルのためのレジストレーション・マトリクスを計算するようにされる。例えば、ある例示的実施形態においては、深度レベルd1に関する領域r(I2,d1)中の特徴点と領域r(I3,d1)中の特徴点との間の一致の度合いが計算されてもよい。ある例示的実施形態では、この一致の度合いに基づいて、レジストレーション・マトリクスRd1(I2,I3)が計算されてもよい。ある例示的実施形態では、深度レベルd2に関連して領域r(I2,d2)及びr(I3,d2)中の特徴点間の一致度が計算され、また、深度レベルd3に関連して領域r(I2,d3)及びr(I3,d3)中の特徴点間の一致度が計算されてもよい。ある例示的実施形態では、領域r(I2,d2)及びr(I3,d2)中の特徴点間の一致度に基づいてレジストレーション・マトリクスRd2(I2,I3)が計算され、領域r(I2,d3)及びr(I3,d3)中の特徴点間の一致度に基づいてレジストレーション・マトリクスRd3(I2,I3)が計算されてもよい。
ある例示的実施形態において、装置200は、ある画像の超解像画像を生成すべく、一つ又は複数のレジストレーション・マトリクスに基づいて、当該画像及び一つ又は複数の残りの画像の超解像化を行うようにされる。例えば、複数の深度レベルに対応して複数のレジストレーション・マトリクスが生成される。ある例示的実施形態において、一つ又は複数の残りの画像を使った特定の画像の超解像化は、当該画像と一つ又は複数の残りの画像との間の複数の深度レベルに関して決定された複数のレジストレーション・マトリクスに基づいて、実行される。例えば、ある例示的実施形態において、特定の画像I1の超解像画像は、特定の深度レベルに対応するレジストレーション・マトリクスに基づき、画像I1の当該深度レベルに関する領域および残りの画像の当該深度レベルに関する領域の超解像化を実行することに基づいて、生成されてもよい。ある例示的実施形態では、各深度レベルについて、ある画像の当該深度レベル対応する領域および残りの画像の当該深度レベルに対応する領域に対して、超解像化が実行される。ある例示的実施形態では、ある画像の超解像画像は、当該画像に関連する各深度レベルについて超解像化を行うことに基づいて生成される。
超解像画像の生成に関するいくつかの実施形態を、図3−6を参照してさらに説明する。なお、図3−6は例示的実施形態を一つ又は複数示すだけであり、様々な例示的実施形態の範囲を限定するものと受けとってはならない。
図3は、ある例示的実施形態に従うライトフィールド画像300を表したものである。ある例示的実施形態において、ライトフィールド画像300は、装置200のような装置によって撮影されたものであってもよい。例えば、装置200は、ライトフィールド画像を撮影することのできるメディアキャプチャデバイスを備えていてもよい。代替的に又は追加的に、ライトフィールド画像300は、あらかじめ記録されて装置200に格納されていてもよく、又は、装置200が外部のソースから受信するものであってもよい。図2を参照して説明したように、ライトフィールド画像300は、同一のシーンについての複数のビューの情報を含む撮影画像であってもよい。
ある例示的実施形態においては、処理手段は、ライトフィールド画像の受信を支援するように構成されてもよい。処理手段の例にはプロセッサ202が含まれてもよい。プロセッサ202は、コントローラ108の例であってもよい。ある実施形態において、処理手段は、ライトフィールド画像を撮影する能力を有するメディアキャプチャデバイスに通信可能に組み合わされてもよい。
図4は、ある実施形態に従う深度マップ(depth map)の例示的な表現であり、ライトフィールド画像中の深度(depth)のレベルを表現している。図4には深度マップ400が示されている。この深度マップはライトフィールド画像300から生成されたものである。例示的な表現において、深度マップ400は、一つ又は複数の深度レベルに対応した領域を含む。例えば、深度マップ400は、ABCDEAで囲まれた領域410、EFGEで囲まれた領域420、GHICDEFGで囲まれた領域430を有する。これらはそれぞれ、深度レベルd1、d2、d3に対応する。ある例では、ライトフィールド画像300に関係するシーンにおいて、領域410に存在する一つ又は複数のオブジェクトは、領域420又は430に存在する一つ又は複数のオブジェクトとは、異なる深度レベルを有している。
ある例示的実施形態において、装置200のような装置は、ライトフィールド画像300から深度マップ400を決定するようにされる。ある例示的実施形態においては、処理手段か、ライトフィールド画像300から深度マップ400を決定するようにされる。処理手段の例にはプロセッサ202が含まれてもよい。プロセッサ202は、コントローラ108の例であってもよい。
図5A−Cは、ある例示的実施形態に従い、ライトフィールド画像から生成された複数の画像を表したものである。例えば、図5A−Cは、それぞれ、ライトフィールド画像300から生成された画像510、520、530を表している。様々な例示的実施形態において、装置200は、画像510、520、530を、これらがそれぞれ同じシーンの異なるビューを表すように生成するようにされる。例えば、画像510、520、530は、それぞれ、同じシーンの少しずつ異なるビューを表す。ある例において、画像510、520、530の間には、少しずつ異なる視差(パララックス)が存在していてもよい。この視差は、画像510、520、530を、それぞれ異なった位置(あるいは異なった角度)から撮影したもののように見せている。ある例示的実施形態において、ライトフィールド画像300から生成されたこれらの画像510、520、530は、低い解像度しか有していない。これらの画像の解像度は、超解像化処理によって改善されてもよく、それによって対応する超解像画像が生成されてもよい。
ある例において、画像510の超解像画像は、画像520及び530を用いた画像510の超解像化によって生成されてもよい。ここで、それぞれ異なる深度レベルに対応する画像510の各領域についての超解像化は、画像520及び530の対応する領域と共に行われる。例えば、図5の例において、画像510は、ABCDEAで囲まれた領域512、EFGEで囲まれた領域524、GHICDEFGで囲まれた領域516を有し、これらはそれぞれ深度レベルd1、d2、d3に対応している。画像520は、A'B'C'D'E'A'で囲まれた領域522、E'F'G'E'で囲まれた領域524、G'H'I'C'D'E'F'G'で囲まれた領域526を有し、これらはそれぞれ深度レベルd1、d2、d3に対応している。画像530は、A"B"C"D"E"A"で囲まれた領域532、E"F"G"E"で囲まれた領域534、G"H"I"C"D"E"F"G"で囲まれた領域536を有し、これらはそれぞれ深度レベルd1、d2、d3に対応している。
ある例示的実施形態において、装置200は、深度レベルd1、d2、d3に対応して、画像510,画像520,画像530との間のレジストレーション・マトリクスを個別に決定することにより、画像を510の超解像画像を生成するようにされる。ある例示的実施形態において、装置200は、領域512と522との間のレジストレーション・マトリクスと、領域512と513との間のレジストレーション・マトリクスとに基づいて、領域522及び532を使って領域512の超解像化を行うことにより、画像510の超解像画像を生成するようにされる。
ある例示的実施形態において、2つの画像(例えば画像510及び520)の間の深度レベルに対応するレジストレーション・マトリクスは、当該深度レベルに関連して両方の画像から選択された領域から複数の特徴点を決定し、これらの画像の間の特徴点の一致度を探ることにより、決定されてもよい。ある例示的実施形態において、選択された領域の特徴点は、Harrisのコーナー検出法、SUSAN(Smallest Univalue Segment Assymilating Nucleus)オペレータ、SIFT(Scale−Invariant Feature Transform)、FAST(Features from Accelerated Segment Test)、WangとBradyによるHarrisのコーナー検出法のようなオペレータ(手法)によって、選択されてもよい。なおここに挙げた手法は例に過ぎず、手法を限定するものではない。ある例示的実施形態において、特徴点の間の一致度は、RANSAC(Random Sample Consensus)法のようなスキームにより決定されてもよい。なおRANSAC法は例に過ぎず、手法を限定するものではない。例えば、RANSACのレジストレーション・アルゴリズムは、両方の画像の選択された領域の特徴点について適用され、これら両方の画像の領域間のレジストレーション・マトリクスを決定するために用いられてもよい。ある例示的実施形態において、RANSACアルゴリズムから得られるレジストレーション・マトリクスは、ホモグラフィ(Homography)またはその他の変換行列であってもよい。
図6は、ある例示的実施形態に従って、超解像画像を例示的に表したものである。例えば、図6は、図5に示される画像510の超解像画像である画像600を示している。ある例において、画像600の領域610は、領域522及び532を用いた領域512の超解像化により生成された超解像領域である。ここで領域522及び532は、領域512に対応する画像以外の画像において同じ深度レベル(d1)に対応する領域である。なお領域610は、深度レベルd1の対応するレジストレーション・マトリクスを用いて、領域522及び532の一方又は両方を用いて領域512を超解像化することにより生成されてもよい。例えば、領域610は、領域512と522の間のレジストレーション・マトリクスを用いて領域512及び522の超解像化を実行することと、領域512と532の間のレジストレーション・マトリクスを用いて領域512及び532の超解像化を実行することと、の一方又は両方から構築されてもよい。ある例において、領域620は、領域514と524の間のレジストレーション・マトリクスを用いて領域514及び524の超解像化を実行することと、領域514と534の間のレジストレーション・マトリクスを用いて領域514及び534の超解像化を実行することと、の一方又は両方から構築されてもよい。ある例において、領域630は、領域516と526の間のレジストレーション・マトリクスを用いて領域516及び526の超解像化を実行することと、領域516と536の間のレジストレーション・マトリクスを用いて領域516及び536の超解像化を実行することと、の一方又は両方から構築されてもよい。なお、図3−6の例示的実施形態において、超解像画像600は、画像510、520、530の3つのみから生成されるように示されているが、このような表し方は、簡単な説明を提供するためのものに過ぎない。多くの例示的実施形態の実際の実装例においては、ライトフィールド画像から生成される複数の画像のうちの1つの超解像画像は、その画像を残りの画像の3つ以上と共に超解像化を行うことにより、作成されてもよい。例えば、一つのライトフィールド画像から、各々異なるビューを持つ画像が全部で20個生成されるとき、そのうちの一つの画像の超解像画像は、各深度レベルに対応する複数のレジストレーション・マトリクスに基づいて、当該画像を残りの19個と共に超解像化することにより、生成されてもよい。
ある例示的実施形態において、異なる画像の領域の超解像化は、その領域の解像度を改善するために適当な如何なる超解像化技術を用いて実行してもよい。ある例示的実施形態において、2つの領域間の超解像化は、SR(Super Resolving)再構成法に基づいて行われてもよい。SR再構成法の例は、等間隔補間法(uniform interpolation method)や不等間隔補間法(non-uniform interpolation method)、逆投影法(Back Projection Method)などを含む。なお、これは例を網羅的に示したものではない。図3−6を比較すると、画像300に比べて画像600はよく解像しており、解像度がかなり改善されていることがわかる。
ある例における、ある画像とその超解像画像のピーク信号対雑音比(PSNR)及び構造的類似性指標(Structural Similarity Measure;SSIM)が、ケース1とケース2の2つの場合について、表1に示されている。
表1において、ケース1のPSNRおよびSSIMは、少なくとも一つの例示的実施形態に対応する値を示し、ケース2のPSNRおよびSSIMは、画像の超解像化を行わない技術に対応する値、すなわち画像中の深度レベルに対応するレジストレーション・マトリクスに基づく超解像化を行わない技術に対応する値を示している。この例において、(例えば、少なくとも一つの実施例である)ケース1は、(深度レベルに基づいてレジストレーション・マトリクスが決定されなかった)ケース2に比べて、PSNRおよびSSIMが良いことがわかる。
図7は、別の例示的実施形態に従い、ライトフィールド画像から超解像画像を生成する例示的方法700のフローチャートを描いたものである。ライトフィールド画像の例は、同一のシーンについての複数のビューの情報を含む画像のような撮影画像を含む。この例は網羅的なものではない。この画像からは、それぞれ視差(パララックス)が少しずつ異なる複数の画像が生成されてもよい。フローチャートに描かれる方法700は、例えば、図2の装置200によって実行されてもよい。
方法700のブロック705はライトフィールド画像の受け取りを進めることを含む。図2を参照して説明したように、ライトフィールド画像は、ライトフィールドカメラを有するメディアキャプチャデバイスから取り込まれてもよいし、DVDやコンパクトディスク(CD)、フラッシュドライブ、メモリーカードのような外部ソースから取り込まれてもよいし、インターネットやBluetooth(登録商標)のような外部の保存場所から受信してもよい。
ブロック710において、方法700は、ライトフィールド画像の一つ又は複数の深度レベルを決定することを含む。例えば、ライトフィールド画像が3つのオブジェクトを含み、これらのうち一つ又は複数のオブジェクトは、ライトフィールド画像に対応する現実のシーンにおいて、他のオブジェクトに比して異なる深度を有してもよい。ある例示的実施形態において、ライトフィールド画像の一つ又は複数の深度レベルに対応する深度マップが決定されてもよい。ブロック715において、方法700は、ライトフィールド画像から複数の画像を生成することを含む。ある例示的実施形態において、これら複数の画像の各々は、それぞれライトフィールド画像により撮影されているシーンの少しずつ異なるビューを表してもよい。
720において、方法700は、上記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定することを含む。例えば、ライトフィールド画像に3つの深度レベルが存在する場合、すなわち上記複数の画像のうちの2つの画像のペアには、ペアによって3つの深度レベルが存在する場合、これら3つの深度レベルに対応して3つのレジストレーション・マトリクスが生成されてもよい。725において、方法700は、ある画像の超解像画像を生成すべく、一つ又は複数のレジストレーション・マトリクスに基づいて、当該画像及び一つ又は複数の残りの画像の超解像化を行うことを含む。図2を参照して説明したように、ある画像の超解像化を残りの画像と共に行うことは、その画像と残りの画像との間の深度レベルについて決定されたレジストレーション・マトリクスを用いて行われる。ある例示的実施形態において、ある画像の超解像化は、残りの画像のいくつかまたは全てと共に行われてもよい。
図8は、別の例示的実施形態に従う、超解像画像を生成する例示的方法800のフローチャートを描いたものである。これらのフローチャートに描かれる方法は、例えば、図2の装置200によって実行されてもよい。フローチャートの処理及びフローチャートの処理の組み合わせは様々な手段によって実施されることに留意されたい。そのような手段には、例えばハードウェアやファームウェア、プロセッサ、回路網、及び/又はソフトウェアの実行に関連付けられるデバイスが含まれる。また当該ソフトウェアは一つ又は複数のコンピュータプログラム命令を含む。例えば、様々な実施形態に関して説明された一つ又は複数の処理は、コンピュータプログラム命令によって具現化されてもよい。ある例示的実施形態では、多くの実施形態で説明された上記の処理を具現化するコンピュータプログラム命令は、装置の少なくとも一つのメモリデバイスに格納されてもよく、装置の少なくとも一つのプロセッサにより実行されてもよい。このようなコンピュータプログラム命令は、コンピュータや、プログラム可能な装置(例えばハードウェア)にロードされて機械を構成する。すなわち、命令がロードされたコンピュータ又はプログラム可能な装置は、一つ又は複数のフローチャートにより特定される機能を実装するための手段を具現化する。これらのコンピュータプログラム命令はコンピュータ読み取り可能な記憶メモリ(すなわち搬送波や電磁波信号のような送信媒体ではない媒体))に格納されてもよく、固有の方法でコンピュータ又はその他のプログラム可能な装置を機能させるべく命令してもよい。すなわち、コンピュータ読み取り可能なメモリに格納される命令は、実行されることにより、一つ又は複数のフローチャートのブロックにより特定される機能を実装する製品を形成する。コンピュータプログラム命令はコンピュータ又はその他のプログラム可能な装置にロードされ、一連の動作を前記コンピュータ又はその他のプログラム可能な装置で実行させることにより、コンピュータ実装プロセスを生成する。すなわち、コンピュータ又はその他のプログラム可能な装置で命令が実行されることにより、フローチャートで特定される処理を提供する。方法に関する処理は装置200の助けを借りて説明される。しかし、方法に関する処理は、他の如何なる装置を用いて説明されたり実施されたりしてもよい。
方法800のブロック805はライトフィールド画像の受け取りを進めることを含む。ブロック810において、方法800は、ライトフィールド画像の一つ又は複数の深度レベルを決定することを含む。例えば、ライトフィールド画像が3つのオブジェクトを含み、これらのうち一つ又は複数のオブジェクトは、ライトフィールド画像に対応する現実のシーンにおいて、他のオブジェクトに比して異なる深度を有してもよい。ある例示的実施形態において、ライトフィールド画像の一つ又は複数の深度レベルに対応する深度マップが決定されてもよい。ブロック815において、方法800は、ライトフィールド画像から複数の画像を生成することを含む。ある例示的実施形態において、これら複数の画像の各々は、それぞれライトフィールド画像により撮影されているシーンの少しずつ異なるビューを表してもよい。ある例示的実施形態において、ブロック810及び815は如何なる順序で実行されてもよい。例えばブロック815は、ブロック810と同時的に実行されてもよいし、その前に又は後に実行されてもよい。
820において、方法800は、複数の画像のうちの一つを選択することを含む。例えば、画像I1、I2、I3のうちから画像I1が選択される。ある例示的実施形態においては、超解像画像が生成されるべき画像が選択される。825において、ライトフィールド画像に含まれる一つ又は複数の深度レベルのうちの一つが選択される。例えば、深度レベルd1、d2、d3のうちから深度レベルd1が選択される。
830において、方法800は、ある画像からその深度レベルに関連する領域を選択すると共に、一つ又は複数の残りの画像からも、その深度レベルに関連する領域を選択することを含む。例えば、画像I1から深度レベルd1に関連する領域(例えばr(I1,d1)が選択され、画像I2からも深度レベルd1に関連する領域(例えばr(I2,d1)が選択され、画像I3からも深度レベルd1に関連する領域(例えばr(I3,d1)が選択される。835において、方法800は、ある画像中の選択された領域内で複数の特徴点を決定すると共に、一つ又は複数の残りの画像の選択された領域内でも複数の特徴点を決定することを含む。例えば、画像I1中の選択された領域内で複数の特徴点を決定すると共に、画像I2,I3の選択された領域内でも複数の特徴点を決定する。
840において、選択された深度レベルd1に関して、ある画像から選択された領域内の複数の特徴点と、一つ又は複数の残りの画像から選択された領域内の複数の特徴との間の一致度に基づいて、レジストレーション・マトリクスが計算される。例えば、選択された深度レベルd1について、画像I1とI2とからレジストレーション・マトリクス(例えばRd1(I1,I2))が計算される。ある例示的実施形態において、レジストレーション・マトリクスRd1(I1,I2)は、領域r(I1,d1)と領域r(I2,d1)との特徴点の一致度に基づいて計算される。この例において、レジストレーション・マトリクスRd1(I1,I3))は、選択された深度レベルd1についての画像I1とI2の特徴点の一致度に基づいて計算される。ある例示的実施形態において、レジストレーション・マトリクスRd1(I1,I3)は、領域r(I1,d1)と領域r(I3,d1)との特徴点の一致度に基づいて計算される。
845において、全ての深度レベルが選択されたかどうかがチェックされる。例えば、全ての深度レベルが選択されていなかったとしたら、ブロック825の処理が実行され、次の深度レベルが選択される。例えば、次の深度レベルd2が選択され、ブロック830−840の処理が実行されることにより、深度レベルd2について画像I1とI2との間にレジストレーション・マトリクスRd2(I1,I2)が計算され、深度レベルd2について画像I1とI3との間にレジストレーション・マトリクスRd2(I1,I3)が計算される。ある例示的実施形態において、ステップ845におけるチェックに基づいて、ブロック825の処理が実行され、次の深度レベルが選択される。例えば、次の深度レベルd3が選択され、ブロック830−840の処理が実行されることにより、深度レベルd3について画像I1とI2との間にレジストレーション・マトリクスRd3(I1,I2)が計算され、深度レベルd3について画像I1とI3との間にレジストレーション・マトリクスRd3(I1,I3)が計算される。ある例において、全てのレジストレーション・マトリクスRd1(I1,I2),Rd1(I1,I3),Rd2(I1,I2),Rd2(I1,I3),Rd3(I1,I2),Rd3(I1,I3)のうちのいくつかが計算される。
845において、全ての深度レベルが選択されたことがチェックされる。例えば、深度レベルd1、d2、d3についてのレジストレーション・マトリクスが計算されると、方法はブロック850に進む。なお、実施形態によっては、いくつかの深度レベルについてレジストレーション・マトリクスが計算されていなくても、方法800はブロック850に進む場合もある。
850において、方法800は、ある画像中の各深度レベルに関連する各領域と、一つ又は複数の残りの画像中の各深度レベルに関連する各領域との超解像化を、深度レベルに対応するレジストレーション・マトリクスに基づいて実行する。例えば、領域r(I1,d1)の超解像化は領域r(I2,d1)及びr(I3,d3)と共に行われ、領域r(I1,d2)の超解像化は領域r(I2,d2)及びr(I3,d2)と共に行われ、領域r(I1,d3)の超解像化は領域r(I2,d3)及びr(I3,d3)と共に行われる。ここで、領域r(I2,d1)及びr(I3,d3)と共に行われる領域r(I1,d1)の超解像化は、レジストレーション・マトリクスRd1(I1,I2)およびRd1(I1,I3)に基づいて行われることに注意されたい。同様に、領域r(I2,d2)及びr(I3,d2)と共に行われる領域r(I1,d2)の超解像化は、レジストレーション・マトリクスRd2(I1,I2)およびRd2(I1,I3)にそれぞれ基づいて行われ、領域r(I2,d3)及びr(I3,d3)と共に行われる領域r(I1,d3)の超解像化は、レジストレーション・マトリクスRd3(I1,I2)およびRd3(I1,I3)にそれぞれ基づいて行われる。ある例示的実施形態において、2つの領域間の超解像化は、SR(Super Resolving)再構成アルゴリズムに基づいて行われてもよい。
855において、方法800は、画像の超解像画像を生成する。この超解像画像は、当該画像の全ての深度レベルに関連する領域を、一つ又は複数の残りの画像と共に超解像化することに基づいて生成される。例えば、領域r(I1,d1)、r(I1,d2)、r(I1,d3)の超解像化は、残りの画像I2、I3の対応する領域を用いて(ステップ850で)行われるので、画像I1の超解像画像は、領域r(I1,d1)、r(I1,d2)、r(I1,d3)の超解像化に基づいて生成される。方法800の処理を実行することにより、例えば、ブロック820で画像I2を選択することにより、画像I2の超解像画像が生成されてもよいことも注意されたい。同様に、ブロック820で画像I3を選択することにより、画像I3の超解像画像が生成されてもよい。
図8の方法800の説明を容易にするために、いくつかの処理は、他のステップとは区別可能なステップとして、特定の処理順序を有するものとして説明されてきた。しかし、このような実装形態は単に例に過ぎず、実装形態を限定するものではない。いくつかの処理は統合されて単一の処理として実行されてもよく、また、いくつかの処理は本明細書に例示された順序とは異なる順序で実行されうる。さらに、方法800のいくつかの処理は、自動的に実行される。そのような処理には実質的にユーザは関わらない。方法800の別の処理は、マニュアル又は半自動的に実行されてもよい。そのような処理には、一つ又は複数のユーザインタフェースを介してユーザが操作ことを含む。
本明細書で開示された一つ又は複数の例示的実施形態の技術的効果は、ライトフィールド画像から超解像画像を生成することである。ただしこのことは、請求項に係る発明の範囲や解釈、応用をいかようにも限定するものではない。様々な具現化形態が、深度を考慮した画像の超解像化の方法を提供している。ここでは、異なる深度レベルに対して様々なレジストレーション・マトリクスが用いられる。様々な具現化形態において、各深度レベルの領域の超解像化を個別に行うために、深度レベルに応じたレジストレーション・マトリクスが用いられる。このような画像の超解像化は、エラーに見えるようなジャギーや空間ボケ(spatial blur)を減らしうる。このようなジャギーや空間ボケは、2つの低解像度の画像の間のレジストレーション・マトリクスであって、画像中のオブジェクトの深度レベルを考慮しないで計算されるレジストレーション・マトリクスを1つだけしか用いない場合には、見えてしまうものである。
上述の様々な実施形態は、ソフトウェアやハードウェア、アプリケーションロジック、又はこれらの結合として実装されうる。ソフトウェアやアプリケーションロジック、ハードウェアは、少なくとも一つのメモリ、少なくとも一つのプロセッサ、装置、コンピュータプログラムを用いた製品に存在していてもよい。ある例示的実施形態においては、アプリケーションロジック、ソフトウェア、または命令セットは、コンピュータ読み取り可能な標準的な媒体のいずれかに保持される。本明細書の文脈において"コンピュータ読み取り可能なメディア"は触ることが可能なメディアや手段であって、命令を実行するコンピュータのようなシステムや装置、デバイスによって又はそれと共に使用される命令を、含むことや格納すること、通信すること、伝達すること、送信することのいずれかが可能な如何なるメディアや手段であってもよい。上記コンピュータの例には、図1及び/又は図2に関連して説明され描かれている装置がある。コンピュータ読み取り可能なメディアはコンピュータ読み取り可能な記憶媒体を備えてもよい。それは、コンピュータのような、命令を実行するシステムや装置、デバイスによってまたはそれと共に使用される命令を含むか格納しうる、如何なるメディアや手段であってもよい。
それが望ましい場合は、本明細書で説明された様々な機能の少なくとも一部は、異なる順番で実行されてもよいし、同時に実行されてもよい。さらに、それが望ましい場合は、上述の一つ又は複数の機能はオプションであってもよいし、または統合されてもよい。
具現化形態の様々な側面が独立請求項に提示されているが、その他の側面には、請求項に明示的に提示されている組み合わせ以外にも、説明された実施形態及び/又は従属請求項に含まれる特徴を、独立請求項の特徴と組み合わせたものも含まれる。
本発明のいくつかの例示的実施形態を説明してきたが、これらの説明は限定的な意味に捉えられるべきではないことは注意されたい。それよりも、添付の特許請求の範囲に定義される開示の範囲を逸脱することなしに、様々な変形や修正が存在する。

Claims (24)

  1. ライトフィールド画像の受け取りを支援することと;
    前記ライトフィールド画像の一つ又は複数の深度レベルを決定することと;
    前記ライトフィールド画像から複数の画像を生成することと;
    前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定すること、ただし、前記一つ又は複数のレジストレーション・マトリクスを決定することは、前記ある画像中から前記深度レベルに関連する第1の領域を選択すると共に、前記一つ又は複数の残りの画像の前記いずれかからも、該深度レベルに関連する第2の領域を選択することであって、前記第1の領域及び第2の領域は多角形形状を有する、前記第1の領域及び第2の領域を選択することを含み、前記レジストレーション・マトリクスは、前記第1の領域及び第2の領域の間の変換を含む、前記決定することと;
    前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を前記深度レベルに応じて行うことと;
    を含む、方法。
  2. 前記ある画像と、前記一つ又は複数の残りの画像のうちのいずれかとの間の一つ又は複数の深度レベルのいずれかに対応して、前記一つ又は複数のレジストレーション・マトリクスのいずれかを決定することは:
    前記第1の領域内で複数の第1の特徴点を決定すると共に、前記第2の領域内で複数の第2の特徴点を決定することと;
    前記複数の第1の特徴点と前記複数の第2の特徴点との一致度に基づいて、前記レジストレーション・マトリクスを計算することと;
    を含む、請求項1に記載の方法。
  3. 前記ある画像の超解像化を行うことは:
    前記ある画像の一つ又は複数の深度レベルに関する領域及び前記一つ又は複数の残りの画像の前記一つ又は複数の深度レベルに関する領域の超解像化を、前記一つ又は複数の深度レベルに対応する前記レジストレーション・マトリクスに基づいて行うことと;
    前記ある画像の前記一つ又は複数の深度レベルに関する前記領域の超解像化を前記一つ又は複数の残りの画像の対応する領域と共に行うことに基づいて、前記超解像画像を生成することと;
    を含む、請求項1又は2に記載の方法。
  4. 前記超解像化はSR再構成アルゴリズムに基づいて行われる、請求項1又は3に記載の方法。
  5. 前記ライトフィールド画像の前記一つ又は複数の深度レベルに関する深度マップを決定することを含む、請求項1に記載の方法。
  6. 前記一つ又は複数のレジストレーション・マトリクスは、RANSACアルゴリズムによって決定される、請求項1から3のいずれかに記載の方法。
  7. 前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行うことは、不等間隔補間法を実行することを含む、請求項1又は3に記載の方法。
  8. 前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行うことは、逆投影法を実行することを含む、請求項1又は3に記載の方法。
  9. 前記超解像画像は前記ある画像よりも高い解像度を有する、請求項1から8のいずれかに記載の方法。
  10. 少なくとも一つのプロセッサと;
    コンピュータプログラムコードを含む少なくとも一つのメモリとを備える装置であって、前記少なくとも一つのメモリ及び前記コンピュータプログラムコードは、前記少なくとも一つのプロセッサを用いて、前記装置に少なくとも:
    ライトフィールド画像の受け取りを支援することと;
    前記ライトフィールド画像の一つ又は複数の深度レベルを決定することと;
    前記ライトフィールド画像から複数の画像を生成することと;
    前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定すること、ただし、前記一つ又は複数のレジストレーション・マトリクスを決定することは、前記ある画像中から前記深度レベルに関連する第1の領域を選択すると共に、前記一つ又は複数の残りの画像の前記いずれかからも、該深度レベルに関連する第2の領域を選択することであって、前記第1の領域及び第2の領域は多角形形状を有する、前記第1の領域及び第2の領域を選択することを含み、前記レジストレーション・マトリクスは、前記第1の領域及び第2の領域の間の変換を含む、前記決定することと;
    前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を前記深度レベルに応じて行うことと;
    を行わせるように構成される、装置。
  11. 請求項10に記載の装置であって、前記ある画像と、前記一つ又は複数の残りの画像のうちのいずれかとの間の一つ又は複数の深度レベルのいずれかに対応して、前記一つ又は複数のレジストレーション・マトリクスのいずれかを決定することのために、前記装置は少なくとも部分的に:
    前記第1の領域内で複数の第1の特徴点を決定すると共に、前記第2の領域内で複数の第2の特徴点を決定することと;
    前記複数の第1の特徴点と、前記複数の第2の特徴点との一致度に基づいて、前記レジストレーション・マトリクスを計算することと;
    を行うようにされる、装置。
  12. 請求項10又は11に記載の装置であって、前記ある画像の超解像化を行うために、該装置は少なくとも部分的に:
    前記ある画像の一つ又は複数の深度レベルに関する領域及び前記一つ又は複数の残りの画像の前記一つ又は複数の深度レベルに関する領域の超解像化を、前記一つ又は複数の深度レベルに対応する前記レジストレーション・マトリクスに基づいて行うことと;
    前記ある画像の前記一つ又は複数の深度レベルに関する前記領域の超解像化を前記一つ又は複数の残りの画像の対応する領域と共に行うことに基づいて、前記超解像画像を生成することと;
    を行うようにされる、装置。
  13. 前記超解像化はSR再構成アルゴリズムに基づいて行われる、請求項10又は12に記載の装置。
  14. 前記ライトフィールド画像の前記一つ又は複数の深度レベルに関する深度マップを決定することを少なくとも部分的に行うようにされる、請求項10に記載の装置。
  15. 前記一つ又は複数のレジストレーション・マトリクスは、RANSACアルゴリズムによって決定される、請求項10から12のいずれかに記載の装置。
  16. 前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行うことために、不等間隔補間法を少なくとも部分的に実行するようにされる、請求項10又は12に記載の装置。
  17. 前記ある画像及び前記一つ又は複数の残りの画像の超解像化を行うことために、逆投影法を少なくとも部分的に実行するようにされる、請求項10又は12に記載の装置。
  18. 前記超解像画像は前記ある画像よりも高い解像度を有する、請求項10から17のいずれかに記載の装置。
  19. 電子機器として構成される請求項10に記載の装置であって:
    前記電子機器の少なくとも一つの機能をディスプレイを通じてユーザが制御することを容易にするように、かつユーザ入力に応答するように構成される、ユーザインタフェース回路およびユーザインタフェースソフトウェアと;
    前記電子機器のユーザインタフェースの少なくとも一部を表示するよう構成される表示回路と;を備え、前記ディスプレイ及び前記表示回路は、上記電子機器の少なくとも一つの機能をユーザが制御することを支援するように構成される、装置。
  20. 前記ライトフィールド画像をキャプチャするように構成される少なくとも一つのイメージセンサを備える、請求項19に記載の装置。
  21. 前記電子機器が携帯電話として構成される、請求項19に記載の装置。
  22. 少なくとも一つのコンピュータ読み取り可能な記憶媒体を備える製品であって、前記コンピュータ読み取り可能な記憶媒体が、一つ又は複数のプロセッサにより実行される時に、装置に少なくとも:
    ライトフィールド画像の受け取りを支援することと;
    前記ライトフィールド画像の一つ又は複数の深度レベルを決定することと;
    前記ライトフィールド画像から複数の画像を生成することと;
    前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定すること、ただし、前記一つ又は複数のレジストレーション・マトリクスを決定することは、前記ある画像中から前記深度レベルに関連する第1の領域を選択すると共に、前記一つ又は複数の残りの画像の前記いずれかからも、該深度レベルに関連する第2の領域を選択することであって、前記第1の領域及び第2の領域は多角形形状を有する、前記第1の領域及び第2の領域を選択することを含み、前記レジストレーション・マトリクスは、前記第1の領域及び第2の領域の間の変換を含む、前記決定することと;
    前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を前記深度レベルに応じて行うことと;
    を実行させる命令セットを備える、製品。
  23. ライトフィールド画像の受け取りを支援する手段と;
    前記ライトフィールド画像の一つ又は複数の深度レベルを決定する手段と;
    前記ライトフィールド画像から複数の画像を生成する手段と;
    前記複数の画像のある画像と一つ又は複数の残りの画像との間の一つ又は複数の深度レベルに対応して一つ又は複数のレジストレーション・マトリクスを決定する手段、ただし、前記一つ又は複数のレジストレーション・マトリクスを決定する手段は、前記ある画像中から前記深度レベルに関連する第1の領域を選択すると共に、前記一つ又は複数の残りの画像の前記いずれかからも、該深度レベルに関連する第2の領域を選択することであって、前記第1の領域及び第2の領域は多角形形状を有する、前記第1の領域及び第2の領域を選択することを含み、前記レジストレーション・マトリクスは、前記第1の領域及び第2の領域の間の変換を含む、前記決定する手段と;
    前記ある画像の超解像画像を生成すべく、前記一つ又は複数のレジストレーション・マトリクスに基づいて、前記ある画像及び前記一つ又は複数の残りの画像の超解像化を前記深度レベルに応じて行う手段と;
    を備える装置。
  24. 装置の処理手段により実行されると、前記装置に請求項1から9のいずれかに記載の方法を実行させるように構成されるプログラム命令を備える、コンピュータプログラム。
JP2013239501A 2012-11-26 2013-11-20 超解像画像を生成する方法,装置,コンピュータプログラム製品 Expired - Fee Related JP5757592B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN4922/CHE/2012 2012-11-26
IN4922CH2012 2012-11-26

Publications (2)

Publication Number Publication Date
JP2014112834A JP2014112834A (ja) 2014-06-19
JP5757592B2 true JP5757592B2 (ja) 2015-07-29

Family

ID=49726450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013239501A Expired - Fee Related JP5757592B2 (ja) 2012-11-26 2013-11-20 超解像画像を生成する方法,装置,コンピュータプログラム製品

Country Status (4)

Country Link
US (1) US9245315B2 (ja)
EP (1) EP2736011B1 (ja)
JP (1) JP5757592B2 (ja)
CN (1) CN103838568B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104243823B (zh) * 2014-09-15 2018-02-13 北京智谷技术服务有限公司 光场采集控制方法和装置、光场采集设备
JP6297965B2 (ja) * 2014-11-11 2018-03-20 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2016083666A1 (en) * 2014-11-27 2016-06-02 Nokia Corporation Method, apparatus and computer program product for generating super-resolved images
US10531071B2 (en) * 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
CN104778659A (zh) * 2015-04-15 2015-07-15 杭州电子科技大学 基于深度学习的单帧图像超分辨率重建方法
US10148873B2 (en) * 2015-12-22 2018-12-04 Mitsubishi Electric Research Laboratories, Inc. Method and system for motion adaptive fusion of optical images and depth maps acquired by cameras and depth sensors
US10366480B2 (en) 2016-07-01 2019-07-30 Analytical Mechanics Associates, Inc. Super-resolution systems and methods
CN108074218B (zh) * 2017-12-29 2021-02-23 清华大学 基于光场采集装置的图像超分辨率方法及装置
CN108376409B (zh) * 2018-02-24 2020-12-01 首都师范大学 一种光场图像配准方法及系统
CN111630840B (zh) * 2018-08-23 2021-12-03 深圳配天智能技术研究院有限公司 一种超分辨图像的获取方法及获取装置、图像传感器
CN111507900A (zh) * 2020-04-09 2020-08-07 上海云从汇临人工智能科技有限公司 一种图像处理方法、系统、机器可读介质及设备
CN115393406B (zh) * 2022-08-17 2024-05-10 中船智控科技(武汉)有限公司 一种基于孪生卷积网络的图像配准方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7199793B2 (en) 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing
US8666196B2 (en) * 2005-01-19 2014-03-04 The United States Of America As Represented By The Secretary Of The Army System and method for super-resolution imaging from a sequence of color filter array (CFA) low-resolution images
CN101300520B (zh) 2005-11-02 2012-11-14 皇家飞利浦电子股份有限公司 用于3维显示的光学系统
US20100103175A1 (en) 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
US7872796B2 (en) * 2007-01-25 2011-01-18 Adobe Systems Incorporated Light field microscope with lenslet array
JP2008294741A (ja) 2007-05-24 2008-12-04 Olympus Corp 撮像システム
US8290358B1 (en) * 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
US8520736B2 (en) * 2009-04-14 2013-08-27 Fastvdo, Llc Real-time superresolution and video transmission
JP5310402B2 (ja) 2009-09-02 2013-10-09 日本電気株式会社 画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム
US8502909B2 (en) 2009-10-19 2013-08-06 Pixar Super light-field lens
US8542933B2 (en) * 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
CN102595171B (zh) * 2012-02-03 2014-05-14 浙江工商大学 一种多通道空时编码孔径的动态光场成像方法和成像系统
EP2888720B1 (en) * 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
WO2014043641A1 (en) * 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images

Also Published As

Publication number Publication date
CN103838568B (zh) 2017-07-11
US20140147050A1 (en) 2014-05-29
EP2736011B1 (en) 2019-04-24
US9245315B2 (en) 2016-01-26
CN103838568A (zh) 2014-06-04
JP2014112834A (ja) 2014-06-19
EP2736011A1 (en) 2014-05-28

Similar Documents

Publication Publication Date Title
JP5757592B2 (ja) 超解像画像を生成する方法,装置,コンピュータプログラム製品
US9692959B2 (en) Image processing apparatus and method
US10003743B2 (en) Method, apparatus and computer program product for image refocusing for light-field images
US20180025478A1 (en) Electronic device for processing image
US9153054B2 (en) Method, apparatus and computer program product for processing of images and compression values
US9478036B2 (en) Method, apparatus and computer program product for disparity estimation of plenoptic images
KR102149463B1 (ko) 이미지를 처리하기 위한 전자 장치 및 방법
US8520967B2 (en) Methods and apparatuses for facilitating generation images and editing of multiframe images
KR20160021813A (ko) 사용자―선택 관심 영역을 초고도로 분해하기 위한 시스템들 및 방법들
US9398217B2 (en) Video stabilization using padded margin pixels
JP2017537403A (ja) 超解像画像を生成するための方法、装置およびコンピュータ・プログラム・プロダクト
US9147226B2 (en) Method, apparatus and computer program product for processing of images
CN110111241B (zh) 用于生成动态图像的方法和装置
CN103826064A (zh) 图像处理方法、装置及手持电子设备
US20170351932A1 (en) Method, apparatus and computer program product for blur estimation
US10257417B2 (en) Method and apparatus for generating panoramic images
US20140028878A1 (en) Method, apparatus and computer program product for processing of multimedia content
US8823820B2 (en) Methods and apparatuses for capturing an image
WO2013144437A2 (en) Method, apparatus and computer program product for generating panorama images
JP6155349B2 (ja) デコンボリューション画像において色収差を減じる方法、装置及びコンピュータプログラム製品
US9691127B2 (en) Method, apparatus and computer program product for alignment of images

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150528

R150 Certificate of patent or registration of utility model

Ref document number: 5757592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees