JP2005354124A - 複数の低画素密度画像からの高画素密度画像の生成 - Google Patents

複数の低画素密度画像からの高画素密度画像の生成 Download PDF

Info

Publication number
JP2005354124A
JP2005354124A JP2004169294A JP2004169294A JP2005354124A JP 2005354124 A JP2005354124 A JP 2005354124A JP 2004169294 A JP2004169294 A JP 2004169294A JP 2004169294 A JP2004169294 A JP 2004169294A JP 2005354124 A JP2005354124 A JP 2005354124A
Authority
JP
Japan
Prior art keywords
image
area
region
resolution
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004169294A
Other languages
English (en)
Inventor
Masashi Aiiso
政司 相磯
Junichiro Shinozaki
順一郎 篠▲崎▼
Fumiaki Mukoyama
文昭 向山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004169294A priority Critical patent/JP2005354124A/ja
Publication of JP2005354124A publication Critical patent/JP2005354124A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 複数の画像を合成して画素密度のより高い画像を生成する場合に、処理時間が過剰に長くなることを防止することができる技術を提供することを目的とする。
【解決手段】 画素密度が比較的低い低解像度画像から、画素密度が比較的高い高解像度画像を生成する際に、高解像度画像が表す画像の領域となるべき領域を重点領域と非重点領域とを含む複数の領域に区分し、重点領域における高解像度画像の画素値を、2以上の第1の枚数の低解像度画像を用いて決定するとともに、非重点領域における高解像度画像の画素値を、第1の枚数よりも少ない第2の枚数の低解像度画像を用いて決定する。
【選択図】 図8

Description

本発明は、画素の密度が低い複数の画像から画素の密度が高い画像を生成する技術に関するものである。
デジタルビデオカメラ等で撮影された動画像は、動画像の1シーンを表現する静止画像の生成にも利用されている。動画像は静止画像(フレーム画像とも呼ぶ)を表すフレーム画像データを複数含んでいる。ここで、複数のフレーム画像を重ね合わせて合成することによって、フレーム画像データよりも画素の密度の高い静止画像データを生成する処理(高解像度化処理とも呼ばれる)が用いられている(例えば、特許文献1参照)。
特開2000−244851号公報
ところが、複数のフレーム画像データを合成して画素密度の高い1つの静止画像データを生成する場合には、合成処理に用いられるデータ量が多くなるので、処理時間が長くなる場合があった。なお、このような問題は、動画像を用いて静止画像を生成する場合に限らず、静止画像を表す静止画像データを複数用いて画素密度のより高い静止画像データを生成する場合に共通する問題であった。
本発明は、上述した従来の課題を解決するためになされたものであり、複数の画像を合成して画素密度のより高い画像を生成する場合に、処理時間が過剰に長くなることを防止することができる技術を提供することを目的とする。
上記課題の少なくとも一部を解決するために、この発明による画像処理装置は、画素密度が比較的低い低解像度画像から、画素密度が比較的高い高解像度画像を生成する画像処理装置であって、前記高解像度画像が表す画像の領域となるべき領域を重点領域と非重点領域とを含む複数の領域に区分する領域区分部と、前記重点領域における前記高解像度画像の画素値を、2以上の第1の枚数の前記低解像度画像を用いて決定するとともに、前記非重点領域における前記高解像度画像の画素値を、前記第1の枚数よりも少ない第2の枚数の前記低解像度画像を用いて決定する高解像度化処理部と、を備える。
この画像処理装置によれば、高解像度画像が表す画像の領域が重点領域と非重点領域とを含む複数の領域に区分され、さらに、非重点領域の画素値が重点領域の画素値と比べて少ない枚数の低解像度画像を用いて決定されるので、複数の画像を合成して画素密度のより高い画像を生成する場合に、処理時間が過剰に長くなることを防止することができる技術を提供することを目的とする。
上記画像処理装置において、前記複数の領域は、さらに、前記重点領域を囲む遷移領域を含み、前記高解像度化処理部は、前記遷移領域における前記高解像度画像の各画素の画素値を、前記第1の枚数の前記低解像度画像を用いて決定した第1の画素値に第1の重みを付した値と、前記第2の枚数の前記低解像度画像を用いて決定した第2の画素値に第2の重みを付した値と、を加算することによって決定し、前記第1の重みは前記画素の位置が前記重点領域に近いほど大きく、さらに、前記第2の重みは前記画素の位置が前記重点領域に近いほど小さくてもよい。
この構成によれば、重点領域と非重点領域との間において、高解像度画像の画素値の決定に用いられる低解像度画像の枚数が急激に変化することによって領域の境界が目立つことを抑制することができる。
上記画像処理装置において、前記複数の領域は、さらに、前記重点領域を囲む遷移領域を含み、前記高解像度化処理部は、前記遷移領域における前記高解像度画像の画素値を、前記第1の枚数よりも少なく、かつ、前記第2の枚数よりも多い枚数の前記低解像度画像を用いて決定してもよい。
この構成によれば、重点領域と非重点領域との間において、高解像度画像の画素値の決定に用いられる低解像度画像の枚数が急激に変化することによって領域の境界が目立つことを抑制することができる。
上記画像処理装置において、前記領域区分部は、前記遷移領域を、さらに、前記重点領域の周囲を順に取り囲む複数の部分遷移領域に区分し、前記高解像度化処理部が前記部分遷移領域の画素値の決定に用いる前記低解像度画像の枚数は、前記部分遷移領域毎に異なっているとともに、前記重点領域に近い部分遷移領域ほど大きいことが好ましい。
この構成によれば、重点領域と非重点領域との間において、画素値決定に用いられる低解像度画像の枚数が急変して領域の境界が目立つことを適切に抑制することができる。
上記各画像処理装置において、前記領域区分部は、前記領域の区分をユーザの指示に従って決定するユーザ指定モードを有していてもよい。
この構成によれば、領域の区分をユーザの好みに適したものとすることが可能となる。
上記各画像処理装置において、前記領域区分部は、前記領域の区分を、前記複数の低解像度画像間における同じ位置の輝度差に基づいて決定する輝度差決定モードを有していてもよい。
この構成によれば、領域の区分を輝度差に応じた適切なものとすることが可能となる。
上記各画像処理装置において、前記複数の低解像度画像の少なくとも一部には、前記低解像度画像における撮影時の合焦位置に関する合焦位置情報が関連付けられており、前記領域区分部は、前記領域の区分を前記合焦位置情報に基づいて決定する合焦位置決定モードを有していてもよい。
この構成によれば、領域の区分を合焦位置情報に応じた適切なものとすることが可能となる。
上記各画像処理装置において、前記高解像度化処理部は、前記第1の枚数の前記低解像度画像の中から、前記高解像度画像の前記重点領域を表す部分の画像の形状が互いに類似している低解像度画像を選択して用いることによって前記重点領域の画素値を決定することが好ましい。
この構成によれば、重点領域が表す画像が過剰にぼやけることを防止することができる。
なお、本発明は種々の形態で実現することが可能であり、例えば、画像処理方法および画像処理装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体等の形態で実現することができる。
次に、この発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
B.第2実施例:
C.第3実施例:
D.第4実施例:
E.第5実施例:
F.第6実施例:
G.変形例:
A.第1実施例:
図1は、本発明の一実施例としての画像処理システムの構成を示す説明図である。この画像処理システムは、デジタルカメラ100とコンピュータ200とを備えている。また、コンピュータ200には、ディスプレイ220とマウス230とキーボード240とが接続されている。ディスプレイ220は、動画像や後述する操作表示画面を表示するための出力装置として機能する。マウス230とキーボード240とは、ユーザからの入力を受け付けるための入力装置として機能する。
コンピュータ200は、データ処理部210を備えている。第1実施例では、データ処理部210は、デジタルカメラ100から動画像データを受け取り、動画像の1シーンを表すとともに画素密度の高い(解像度の高い)高解像度静止画像データを生成する。なお、本実施例では、動画像データは、ノンインターレース方式の静止画像を表すフレーム画像データの集合であることとしている。
図2は、第1実施例におけるデータ処理部210の内部構成を示すブロック図である。第1実施例のデータ処理部210は、フレーム画像選択部212と、領域区分部214と、補正量推定部216と、高解像度化処理部218と、を備えている。データ処理部210はCPUとメモリとを有しており、コンピュータプログラムを実行することによって各構成要素の機能を実現する。
データ処理部210が実行するコンピュータプログラムは、コンピュータ読み取り可能な記録媒体に記録された形態で供給され得る。このような記録媒体としては、フレキシブルディスクやCD−ROM、光磁気ディスク、ICカード、ROMカートリッジ、パンチカード、バーコードなどの符号が印刷された印刷物、コンピュータの内部記憶装置(RAMやROMなどのメモリ)および外部記憶装置等の、コンピュータが読み取り可能な種々の媒体を利用できる。なお、データ処理部210の機能の一部、または、全部をハードウェアによって実現してもよい。
図3は、データ処理部210の操作表示画面300を示す説明図である。この操作表示画面300はディスプレイ220(図1)に表示される。ユーザは、マウス230とキーボード240とを用いることによって、この操作表示画面300を操作することができる。
この操作表示画面300は、動画像を表示するための画像表示領域310と、動画像の再生状態を制御するための再生ボタン320と一時停止ボタン322とを有している。図3の例では、飛行機が飛んでいる様子を表す動画像が表示されている。さらに、操作表示画面300は、動画像データから高解像度静止画像データを生成させるための鮮明化ボタン330と部分鮮明化ボタン332とを有している。動画像の再生を一時停止させると、その時に表示していたフレーム画像(以下「基準フレーム画像」と呼ぶ)が画像表示領域310に表示され続ける。この状態で、鮮明化ボタン330、または、部分鮮明化ボタン332を操作すると、基準フレーム画像を表す高解像度静止画像データを生成する処理が実行される。このように、ユーザは、一時停止ボタン322を操作することによって、高解像度静止画像データを生成するための画像(シーン)を決定することができる。
ユーザが、鮮明化ボタン330を操作すると、データ処理部210(図2)は、動画像データに含まれる複数のフレーム画像を用いて高解像度静止画像データを生成する処理を実行する。この処理は、複数のフレーム画像を各フレーム画像の被写体が重なるように重ね合わせることによって画素密度のより高い高解像度静止画像データを生成するものであり、種々の周知の処理を用いることができる。
一方、ユーザが、部分鮮明化ボタン332を操作すると、データ処理部210は、画像領域を複数の領域に区分して高解像度化を行う処理を実行する。図4は、このような高解像度化処理の手順を示すフローチャートである。ステップS100では、フレーム画像選択部212(図2)が、高解像度静止画像データの生成に用いる複数のフレーム画像(以下「原画像」とも呼ぶ)を選択する。図5には、選択されたフレーム画像が示されている。第1実施例では、フレーム画像選択部212は、基準フレーム画像F0を先頭として時系列に沿って並ぶ4つのフレーム画像F0〜F3を選択する。以下、基準フレーム画像F0とは異なる他のフレーム画像F1〜F3を「対象フレーム画像」と呼ぶ。
次のステップS110では、領域区分部214(図2)が、基準フレーム画像を重点領域と非重点領域とに区分する。図5には、領域区分部214が領域を区分する様子が示されている。第1実施例では、領域区分部214は、フレーム画像間の輝度の差分に基づいて自動的に重点領域EAを設定する。具体的には、領域区分部214は、まず、基準フレーム画像F0と対象フレーム画像F1とのそれぞれを複数のブロックに分割する。図5の例では、30のブロック(縦方向に5分割、横方向に6分割)に分割している。これらのブロックは、全てのフレーム画像に共通するものである。次に、領域区分部214は、各ブロックに含まれる画素の画素値を用いて、各ブロック毎に輝度値に平均値を算出し、さらに、同じ位置のブロック同士の平均輝度値を比較する。ここで、領域区分部214は、平均輝度値の差分が差分しきい値よりも大きいブロックを重点領域EAとして採用する。図5の例では、移動する飛行機APを表すブロックが重点領域EAとして採用されている(採用されたブロックが2重線で囲まれて示されている)。領域区分部214は、他の対象フレーム画像F2、F3と、基準フレーム画像F0との組み合わせについても、同様に、輝度差の大きなブロックを重点領域EAとして採用する。
この重点領域EAについては、以下のように説明することができる。飛行機等の動きのある被写体を表すブロックでは、被写体の動きに応じて輝度が変化する可能性が高い。一方、動画像を撮影する際には、ユーザは、動きのあるものを主な被写体として撮影する場合が多い。従って、輝度差の大きなブロックを重点領域EAとして選択すれば、主な被写体を表す可能性の高い領域を重点領域EAとして用いることができる。なお、輝度差を比較する差分しきい値は、予め実験的に決定しておけばよい。
なお、図5の例では、基準フレーム画像と対象フレーム画像との組み合わせに拘わらず、同じブロックが選択されているが、動画像によっては、組み合わせ毎に選択されるブロックが異なる可能性もある。この場合には、選択された全てのブロックを重点領域EAとして採用してもよく、この代わりに、全ての組み合わせに共通するブロックのみを重点領域EAとして採用してもよい。また、ブロックの数は30に限らず、より少ない数を採用してもよく、より多い数を採用してもよい。さらに、各ブロック毎に比較する値としては、輝度値の平均値の代わりに累積値を用いてもよく、一般に、各ブロック毎の輝度値の代表値であればよい。また、各画素の画素値が輝度値を含まない表色系(例えば、RGB表色系)で表されている場合には、輝度値を含む表色系(例えば、YCbCr表色系)に変換することによって輝度値を得ることができる。
重点領域EAが決まると、領域区分部214は、残りの領域を非重点領域NAとして選択する。このようにして領域の区分が決まると、次のステップS120(図4)に移行する。
ステップS120では、データ処理部210(図2)は、部分高解像度化処理を実行する。図6は、部分高解像度化処理の手順を示すフローチャートである。ステップS200では、補正量推定部216が、各対象フレーム画像F1〜F3毎に、基準フレーム画像F0に対する相対位置(以下「位置補正量」とも呼ぶ)を決定する。図7は、相対位置を決定する様子を示す説明図である。図7には、基準フレーム画像F0上に対象フレーム画像F1を重ね合わせた様子が示されている。基準フレーム画像F0は実線で示され、対象フレーム画像F1は破線で示されている。ここで、対象フレーム画像F1は、基準フレーム画像F0に対する相対位置に重ねられている。
この相対位置は、基準フレーム画像F0の重点領域EAが表す撮像対象が重なるように決定される。図7の例では、重点領域EAが表現する飛行機APが重なるように、2つのフレーム画像F0、F1間の相対位置が決定される。補正量推定部216は、このような相対位置を、画像のパターンマッチングや特徴点追跡、勾配法等の種々の周知の方法を用いて決定することができる。例えば、補正量推定部216は、重ね合わせたい2つの画像のそれぞれから、撮像対象を表す線(例えば、輪郭線)の端点や分岐点等の特徴点を抽出し、得られた特徴点が重なるように相対位置を決定すればよい。この際、補正量推定部216は、基準フレーム画像F0の重点領域EAと、対象フレーム画像F1の対象重点領域F1EAと、を用いて相対位置を決定することができる。ここで、対象重点領域F1EAは対象フレーム画像F1における重点領域であり、基準フレーム画像F0の重点領域EAと同じ画素位置と同じ大きさとを有する領域である。また、補正量推定部216は、上述した種々の方法を用いることによって、1画素未満の大きさの精度で相対位置を決定することができる。なお、相対位置は、例えば、並進方向のズレ量(u、v)と、回転方向のズレ量(δ)と、の組み合わせを用いて表すことができる。
補正量推定部216は、他の対象フレーム画像F2、F3についても、同様に、相対位置を算出する。各対象フレーム画像F1〜F3の相対位置が算出されたら、次のステップS210(図6)では、高解像度化処理部218(図2)が、重点領域EAを対象とした高解像度化処理を実行する。図8は、高解像度化処理部218が、各フレーム画像F0〜F3から、高解像度静止画像Gを生成する様子を示す説明図である。第1実施例では、基準フレーム画像F0が表す画像の範囲と高解像度静止画像Gが表す画像の範囲とは同じである。ただし、高解像度静止画像Gを表す高解像度静止画像データは、基準フレーム画像F0を表す基準フレーム画像データと比べて、画素密度(画素数)が多くなっている。ここで、高解像度静止画像データの画素密度(画素数)は、ユーザが指定することとしてもよく、また、予め設定されていても良い。例えば、基準フレーム画像データの画素密度に対する縦横の倍率をユーザが指定することとしてもよい。このような倍率としては、2倍や3倍といった整数に限らず、1.5倍等の任意の値を採用することができる。
ステップS210では、高解像度化処理部218は、高解像度静止画像Gの重点領域GEA内の画素の画素値を決定する。この重点領域GEAは、ステップS110(図4)で区分された重点領域EAと同じ画像を表す領域である。高解像度化処理部218は、重点領域GEA内の画素の画素値を、4つのフレーム画像F0〜F3の画素値を用いて決定する。
対象フレーム画像F1には、補正済重点領域F1MEAが示されている。この補正済重点領域F1MEAは、対象フレーム画像F1を、対象フレーム画像F1の相対位置(u1、v1、δ1)に従って基準フレーム画像F0上に重ね合わせた場合に、基準フレーム画像F0の重点領域EAと一致する領域である。従って、対象フレーム画像F1の補正済重点領域F1MEA内の画素が、重点領域GEAが表す撮像対象と同じ撮像対象を表すこととなる。この際、補正済重点領域F1MEAの各画素が重点領域GEA内のどの位置を表しているか(以下「再現画素位置」と呼ぶ)は、相対位置(u1、v1、δ1)に従って決まる。同様に、対象フレーム画像F2、F3にも、補正済重点領域F2MEA、F3MEAが示されている。補正済重点領域F2MEAは、F2の相対位置(u2、v2、δ2)に従って決まる領域であり、補正済重点領域F3MEAは、F3の相対位置(u3、v3、δ3)に従って決まる領域である。これらの補正済重点領域F2MEA、F3MEA内の画素が重点領域GEAを表すこととなる。
このように、高解像度静止画像Gの重点領域GEA内の撮像対象は、4つの領域EA、F1MEA、F2MEA、F3MEAによって表されている。換言すれば、各領域EA、F1MEA、F2MEA、F3MEAを各フレーム画像の相対位置に従って位置補正して重点領域GEA上に重ね合わせれば、各領域EA、F1MEA、F2MEA、F3MEAが表す画像がほとんどぴったり重なることとなる。
高解像度化処理部218は、このように重点領域GEA上に重ねることが可能な4つの領域EA、F1MEA、F2MEA、F3MEAの画素の画素値を用いて重点領域GEA内の画素の画素値を決定する。この際、高解像度化処理部218は、種々の方法を用いることによって画素値を決定することができる。例えば、4つの領域EA、F1MEA、F2MEA、F3MEAの各画素の内の、再現画素位置が重点領域GEAの注目画素に最も近い所定数(例えば、4つ)の画素の画素値を補間することによって、その注目画素の画素値を決定してもよい。この際、再現画素位置と注目画素との距離を重みとして用いることが好ましい。また、4つのフレーム画像F0〜F3の中から注目画素毎に1つのフレーム画像を選択し、選択したフレーム画像にバイ・リニア法等の周知の補間処理を適用して注目画素の画素値を決定してもよい。この際、再現画素位置が注目画素に最も近い画素を有するフレーム画像を選択すればよい。
重点領域GEA内の各画素の画素値が決定されたら、次のステップS220(図6)では、高解像度化処理部218は、高解像度静止画像Gの非重点領域GNA内の画素の画素値を決定する。この非重点領域GNAは、重点領域GEA以外の残りの領域であり、基準フレーム画像F0の非重点領域NAと同じ画像を表す領域である。第1実施例では、高解像度化処理部218は、基準フレーム画像F0に周知のバイ・キュービック法を適用することによって、非重点領域GNA内の画素の画素値を決定する。また、バイ・キュービック法に限らず、バイ・リニア法、または、ニアレストネイバ法等、種々の補間方法を適用することが可能である。
高解像度静止画像G内の全ての画素の画素値が決定されたら、次のステップS130(図4)では、高解像度化処理部218は、高解像度静止画像Gを表す高解像度静止画像データを生成する。
図9は、高解像度静止画像データの生成後に表示されるデータ処理部210の操作表示画面302を示す説明図である。この操作表示画面302は、図3の操作表示画面300と同じ画像表示領域310を有している。この画像表示領域310には、生成された高解像度静止画像Gが表示されている。また、操作表示画面302は、戻るボタン340と、プリントボタン342と、保存ボタン344とを有している。ユーザが戻るボタン340を操作すると、データ処理部210による処理が最初の状態に戻る。ユーザがプリントボタン342を操作すると、高解像度静止画像Gがコンピュータ200に接続されたプリンタ(図示せず)によって印刷される。ユーザが保存ボタン344を操作すると、高解像度静止画像データを格納する画像データファイルが、コンピュータ200の図示しないメモリ(例えば、HDDやRAM)に保存される。
このように、第1実施例では、高解像度静止画像Gを重点領域GEAと非重点領域GNAとに区分し、非重点領域GNA内の画素の画素値を、重点領域GEA内の画素よりも少ない数のフレーム画像を用いて決定している。従って、高解像度静止画像データを生成するための処理時間を大幅に短縮することが可能となる。
また、第1実施例では、フレーム画像選択部212は、輝度差の大きなブロックを重点領域GEAとして採用しているので、ユーザが着目している可能性の高い撮像対象を表す領域を重点領域GEAとして採用することができる。その結果、ユーザが着目している可能性の高い撮像対象を鮮明に表す高解像度静止画像データを生成することができる。
なお、重点領域GEA内の画素値の決定に用いるフレーム画像の数(以下「重点フレーム画像数」と呼ぶ)は、4以外の任意の数に設定することが可能である。いずれの場合も、フレーム画像選択部212は、画素値の決定に必要な数のフレーム画像を選択すればよい。また、高解像度静止画像データの生成に用いる複数のフレーム画像としては、時系列に沿った順番が基準フレーム画像よりも前であるフレーム画像を用いることとしてもよい。
さらに、非重点領域GNA内の画素値の決定に用いるフレーム画像の数(以下「非重点フレーム画像数」と呼ぶ)を1よりも大きな数に設定してもよい。この場合には、重点領域GEAと同様に、補正量推定部216(図2)が、フレーム画像毎に、基準フレーム画像F0の非重点領域NAが表す撮像対象が重なるような相対位置を算出し、さらに、高解像度化処理部218が、重点領域GEAと同様の方法に従って、非重点領域GNA内の画素の画素値を決定すればよい。但し、非重点フレーム画像数は、重点フレーム画像数よりも少ないことが好ましい。
なお、第1実施例では、高解像度静止画像Gが表す画像の範囲と基準フレーム画像F0が表す画像の範囲とが同じである。従って、図4のステップS110では、領域区分部214は、高解像度静止画像Gが表す画像領域を重点領域GEAと非重点領域GNAとに区分しているということができる。
B.第2実施例:
図10は、第2実施例における高解像度静止画像Gを生成する処理を示す説明図である。図8に示した第1実施例との差異は、重点領域GEAと非重点領域GNAとの間に遷移領域GTAが設けられている点だけである。
図10(A)には、領域区分部214(図2)が区分した3つの領域GEA、GTA、GNAが示されている。重点領域GEAは、上述した第1実施例と同様に決定される。遷移領域GTAは、重点領域GEAの周囲を取り囲むように決定される。さらに、領域区分部214は、重点領域GEAと遷移領域GTAとを除いた残りの領域を非重点領域GNAとして区分する。その結果、遷移領域GTAは、重点領域GEAと非重点領域GNAとの間に設けられることとなる。
図10(B)は、高解像度静止画像G内の画素位置と、高解像度化処理部218が画素値の決定に用いるフレーム画像の数(以下「使用フレーム画像数」と呼ぶ)と、の関係を示すグラフである。このグラフは、線分L上の画素位置に対する使用フレーム画像数を示している。この線分Lは、図10(A)に示すように、重点領域GEAから遷移領域GTAを経て非重点領域GNAに至る線分である。
図10(B)に示すように、第2実施例では、重点領域GEA内の画素に対しては、4つのフレーム画像F0〜F3を用いることとしている。また、非重点領域GNA内の画素に対しては、1つのフレーム画像F0を用いることとしている。これらの使用フレーム画像数は、上述の第1実施例と同じである。
ところで、遷移領域GTAは、領域区分部214によって、さらに、内遷移領域GTAaと外遷移領域GTAbとに区分されている。内遷移領域GTAaは、重点領域GEAに比較的近い領域であり、外遷移領域GTAbは、重点領域GEAに比較的遠い領域である。また、内遷移領域GTAa内の画素に対しては、3つのフレーム画像F0〜F2を用いることとしている。さらに、外遷移領域GTAb内の画素に対しては、2つのフレーム画像F0、F1を用いることとしている。なお、使用フレーム画像数が2以上の領域では、高解像度化処理部218は、重点領域GEAと同様に指定された数のフレーム画像を用いて画素値を算出する。
図10(C)には、高解像度静止画像Gの4つの領域GEA、GTAa、GTAb、GNAと、各領域に用いられるフレーム画像と、が示されている。内遷移領域GTAaは、重点領域GEAを囲み、さらに、外遷移領域GTAbは、内遷移領域GTAaと重点領域GEAとを囲んでいる。このように、遷移領域GTAは、重点領域GEAの周囲を順番に囲む2つの領域GTAa、GTAbに区分されている。ここで、各領域GTa、GTbの使用フレーム画像数(3、2)は、重点フレーム画像数(4つ)よりも小さく、かつ、非重点フレーム画像数(1つ)よりも大きな値に設定されている。さらに、各領域GTa、GTbの使用フレーム画像数(3、2)は、重点領域GEAに近い領域ほど大きくなるように設定されている。
このように、第2実施例では、重点領域GEAから非重点領域GNAに向かって、使用フレーム画像数が複数の段階を経て減少する。その結果、区分された領域の境界における使用フレーム画像数の変化が過剰に大きくなることが防止されるので、領域の境界が過剰に目立つことを防止することができる。
なお、遷移領域GTAを決定する方法としては、重点領域GEAを取り囲む領域を求める任意の方法を採用することができる。例えば、重点領域GEAとの最短距離が所定のしきい値内の範囲を遷移領域GTAとして採用してもよい。また、重点領域GEAを、その重心を中心として所定の倍率(例えば、1.2倍)で拡大することによって拡大領域を求め、この拡大領域から重点領域GEAを除いた残りの領域を遷移領域GTAとして採用してもよい。
また、図10の例では、遷移領域GTAを、さらに2つの領域に区分していたが、遷移領域GTAを区分しないこととしてもよい。この場合には、遷移領域GTA内の全ての画素に対して同じ使用フレーム画像数が適用される。但し、遷移領域GTAを、重点領域GEAの周囲を順に取り囲む複数の領域に区分し(以下、「部分遷移領域」と呼ぶ)、各部分遷移領域の使用フレーム画像数を、重点領域GEAに近い領域ほど大きくなるように設定することが好ましい。なお、遷移領域GTAを複数の領域に区分する方法としては、遷移領域GTAを決定する方法と同様に、種々の方法を採用することができる。
また、第2実施例のように遷移領域GTAを用いる場合には、補正量推定部216は、重点領域GEAと遷移領域GTAとを合わせた画像を表す画素を用いて相対位置を算出することが好ましい。
C.第3実施例:
図11は、第3実施例における高解像度静止画像Gを生成する処理を示す説明図である。上述した第2実施例との差異は、遷移領域GTA内の画素の画素値が、2種類の画素値の混合値で表されている点だけである。第3実施例では、高解像度化処理部218(図2)は、遷移領域GTA内の画素の画素値を、以下の(1)式に従って決定する。
画素値 = r×重点方法画素値 + (1−r)×非重点方法画素値 ...(1)
ここで、重点方法画素値とは、重点領域GEAと同じ方法を用いて得られる画素値である。第3実施例では、重点領域GEA内の画素値を4つのフレーム画像F0〜F1を用いて決定することとしている。従って、重点方法画素値は、4つのフレーム画像F0〜F1を用いて決定された画素値である。一方、非重点方法画素値とは、非重点領域GNAと同じ方法を用いて得られる画素値である。第3実施例では、非重点領域GNAの画素値を1つのフレーム画像F0を用いて決定することとしている。従って、非重点方法画素値は、1つのフレーム画像F0を用いて決定された画素値である。また、rは荷重である。この荷重rは、重点領域GEAとの最短距離に応じて決まる値である。
図11は、高解像度静止画像G内の画素位置と、荷重rと、の関係を示すグラフである。横軸は、図10(B)のグラフと同じである。縦軸は荷重rを示している。重点領域GEA内においては、荷重rは1.0に設定されている。また、非重点領域GNA内においては、荷重rは0.0に設定されている。遷移領域GTA内においては、荷重rは、重点領域GEAに近いほど大きくなるように、1.0から0.0まで連続的に変化している。
このように、第3実施例では、重点領域GEAから非重点領域GNAへ向かって、重点方法画素値の重み(r)が連続的に減少し、その代わりに、非重点方法画素値の重み(1−r)が連続的に増加する。その結果、重点領域GEAと非重点領域GNAとの間で領域の境界が過剰に目立つことを防止することができる。
なお、荷重rの形式としては、重点領域GEAに近いほど大きな値を定める任意の形式を採用することができる。例えば、荷重rが、重点領域GEAとの最短距離の増加に伴って減少する形式を採用してもよい。また、遷移領域GTA内における最短距離の一部の範囲において荷重rが一定値であってもよく、また、最短距離の変化に対して荷重rが不連続的に変化してもよい。また、最短距離に応じて値が変化する形式に限らず、例えば、図10(C)の例と同様に、遷移領域GTAを、重点領域GEAの周囲を順に取り囲む複数の部分遷移領域に区分し、各部分遷移領域の荷重rを、重点領域GEAに近い領域ほど大きくなるように設定する形式を採用してもよい。
D.第4実施例:
図12は、重点領域を決定するための操作表示画面304を示す説明図である。図5に示す第1実施例との差異は、領域区分部214が、領域の区分を自動的に決定する動作モードに加えて、ユーザが重点領域を決定することができる動作モードを有している点だけである。この操作表示画面304は、領域区分部214(図2)が領域を区分する際に(図4:ステップS110)、ディスプレイ220(図1)に表示される。
この操作表示画面304は、図3の操作表示画面300と同じ画像表示領域310を有している。この画像表示領域310には、基準フレーム画像が表示されている。また、操作表示画面304は、重点領域を指定するためのボタン350〜356を有している。自動ボタン350は、上述した第1実施例と同様に、領域区分部214(図2)が自動的に重点領域を決定するためのボタンである。他のボタン352〜356は、ユーザが重点領域を指定するためのボタンである。例えば、ユーザが楕円ボタン354を操作すると、ユーザは、画像表示領域310を操作することによって楕円状の重点領域を指定することができる。図12の例では、ユーザによって指定された重点領域EAdが画像表示領域310に示されている。この状態でユーザがOKボタン360を操作すると、領域区分部214は、操作表示画面304に対して設定されたユーザの指示を受け取り、受け取ったユーザの指示で指定された重点領域EAdに従って、基準フレーム画像を複数の領域に区分する(図4:ステップS110)。以後、データ処理部210は、ステップS120以下の処理を実行する。
このように、第4実施例では、ユーザが重点領域を指定することができるので、ユーザの好みの撮像対象を鮮明に表す高解像度静止画像データを生成することができる。
なお、図12の例では、操作表示画面304には、楕円ボタン354に加えて、矩形の重点領域を指定するための矩形ボタン352と、多角形の重点領域を指定するための多角形ボタン356と、が設けられている。ただし、ユーザが指定する重点領域の形と大きさとは、これらとは異なる任意のものを採用することができる。
また、操作表示画面304の画像表示領域310には、予め、領域区分部214が自動的に設定した重点領域を表示することとしてもよい。さらに、ユーザが画像表示領域310を操作することによって重点領域を修正することができることとしてもよい。
E.第5実施例:
図13は、第5実施例において、複数のフレーム画像F0a〜F3aから、高解像度静止画像Gaを生成する様子を示す説明図である。図8に示す第1実施例との差異は、所定の複数(重点フレーム画像数)のフレーム画像F0a〜F3aの中から、重点領域GEAaを表す部分の画像の形状が互いに類似しているもののみを選択して用いる点だけである。
これらのフレーム画像F0a〜F3aは、人物を表す画像である。基準フレーム画像F0aでは、人物を表す領域が、重点領域EAaとして区分されている。また、各対象フレーム画像F1a〜F3aには、補正済重点領域F1MEAa〜F3MEAaが示されている。これらの補正済重点領域F1MEAa〜F3MEAaは、各対象フレーム画像の相対位置(u1a、v1a、δ1a〜u3a、v3a、δ3a)に従って決まる領域であり、重点領域EAaと同様に人物を表す領域である。ただし、4つ目のフレーム画像F3aでは、人物の顔の向きが、他のフレーム画像F0a〜F3aと比べて変わっている。その結果、これら4つの領域EAa、F1MEAa、F2MEAa、F3MEAaの画素の画素値を用いて重点領域GEAa内の画素の画素値を決定すると、形状が異なる画像が合成されるので、重点領域GEAaの画像がぼやけてしまう可能性がある。
そこで、第5実施例では、高解像度化処理部218(図2)は、3つの補正済重点領域F1MEAa〜F3MEAaの中から、基準フレーム画像F0aの重点領域EAaと画像の形状が類似しているものを選択する。高解像度化処理部218は、このような画像の形状を、画像のパターンマッチングや特徴点の位置関係を比較する方法等の種々の周知の方法を用いて比較することができる。例えば、重点領域EAaと補正済重点領域F1MEAaとを比較する場合には、まず、補正済重点領域F1MEAaを、対象フレーム画像F1aの相対位置(u1、v1、δ1)に従って位置補正を行い、重点領域EAa上に重ね合わせる。次に、各領域EAa、F1MEAaから特徴点を抽出し、抽出した特徴点の位置のズレが所定値よりも小さい場合に類似しているものと判断すればよい。ここで、特徴点が複数ある場合には、位置のズレの累積値を用いて判断してもよい。
このようにして、重点領域GEAa(重点領域EAa)を表す領域の画像の形状が互いに類似しているフレーム画像を選択したら、高解像度化処理部218は、重点領域GEAa内の画素値を、選択したフレーム画像のみを用いて決定する。その結果、重点領域GEAaが表す画像がぼやけてしまうことを抑制することができる。図13の例では、基準フレーム画像F0aと、2つの対象フレーム画像F1a、F2aとが用いられている。このように、この実施例では、選択されたフレーム画像には基準フレーム画像F0が含まれている。
なお、図10に示す実施例のように遷移領域を設けて使用フレーム画像数を複数の段階を経て変化させる場合には、各領域の使用フレーム画像数を、実際に重点領域GEAの画素値の算出に用いるフレーム画像数(修正後の重点フレーム画像数)に従って修正すればよい。また、図11に示す実施例のように、重点方法画素値と非重点方法画素値とを用いる場合には、重点方法画素値を、実際に重点領域GEAの画素値の算出に用いるフレーム画像を用いて決定すればよい。
F.第6実施例:
図14は、第6実施例における重点領域を決定する様子を示す説明図である。図5に示す第1実施例との差異は、領域区分部214が、フレーム画像に関連付けられた合焦位置に基づいて重点領域を決定する点だけである。
本実施例では、デジタルカメラ100は、動画像データと、撮影情報と、を含む動画像データファイルを生成する機能を有している。撮影情報は、デジタルカメラ100で動画像データを生成したときの種々の条件や設定値を含んでいる。本実施例では、撮影情報に、フレーム画像内における合焦位置が含まれている。合焦位置とは、フレーム画像内において、撮像時に焦点が合っていた位置を意味している。図14には、このような合焦位置が関連付けられたフレーム画像の一例が示されている。図14の例では、木と花とを表す基準フレーム画像F0e上に、複数の合焦位置候補FPが重ねて示されている。これらの合焦位置候補FPは、デジタルカメラ100に予め設定されているものである。ここで、黒く塗りつぶされている合焦位置候補FPは、撮影時に焦点が合っていた合焦位置候補FPを示している。この静止画像F0eでは、花に焦点が合っている。デジタルカメラ100は、撮影時にこのような合焦位置を各フレーム画像毎に検出し、撮影情報として動画像データファイルに格納する。
このような合焦位置が関連付けられたフレーム画像を用いる場合には、領域区分部214(図2)は、合焦位置を用いて重点領域を決定することができる。本実施例では、領域区分部214は、基準フレーム画像F0eを図5の例と同様に複数のブロックに分割し、さらに、合焦位置を含むブロックと合焦位置に接しているブロックとを重点領域EAeとして選択する。図14の例では、花を表すブロックが重点領域EAeとして選択されている。
この重点領域EAeについては、以下のように説明することができる。合焦位置は、ユーザがデジタルカメラ100を操作することによって、フレーム画像内の任意の位置に設定可能である。すなわち、合焦位置は、ユーザが着目している撮像対象を表す位置を示す可能性が高い。従って、合焦位置に近いブロックを重点領域として採用すれば、ユーザが着目している可能性の高い撮像対象を表す領域を重点領域として採用することができる。その結果、ユーザが着目している可能性の高い撮像対象を鮮明に表す高解像度静止画像データを生成することができる。
なお、合焦位置に基づいて重点領域を決定する方法としては、合焦位置を含むブロックと合焦位置に接しているブロックとを選択する方法に限らず、他の種々の方法を採用することができる。例えば、基準フレーム画像の内の合焦位置との最短距離が合焦しきい値以下である範囲を重点領域として採用してもよい。ここで、合焦しきい値を予め実験的に決定しておいてもよく、また、ユーザが合焦しきい値を指定することとしてもよい。なお、合焦位置に基づいて重点領域を決定する方法としては、一般に、合焦位置を含む一部の領域を採用する任意の方法を採用することができる。
なお、本実施例では、領域区分部214は、基準フレーム画像の合焦位置のみを用いて重点領域を決定することとしたが、この代わりに、複数のフレーム画像(基準フレーム画像と対象フレーム画像)のそれぞれに関連付けられた全ての合焦位置を用いることとしてもよく、また、複数のフレーム画像の全てに共通する合焦位置のみを用いることとしてもよい。
また、デジタルカメラ100に、撮像情報としてフレーム画像内における被写体位置を記録する機能を実現させてもよい。ここで、被写体位置とは、撮像する際にユーザがデジタルカメラ100に対して設定した静止画像内の被写体の位置を意味している。このような被写体位置が関連付けられたフレーム画像を用いる場合には、領域区分部214は、合焦位置を用いる場合と同様に、被写体位置を用いて重点領域を決定することができる。
G.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
変形例1:
上述の各実施例では、高解像度静止画像が基準フレーム画像と同じであったが、異なっていても良い。例えば、図12の例でユーザが重点領域EAdを指定するのと同様に、ユーザが基準フレーム画像F0を見ながら高解像度静止画像として用いる領域(以下「高解像度静止画像領域」と呼ぶ)を任意に指定することとしてもよい。この場合も、領域区分部214(図2)がユーザの指示を受け取って領域を区分することとすればよい。
ここで、領域区分部214がユーザの指示を受け取る際に、複数の原画像(例えば、フレーム画像F0〜F4)を重ね合わせた重畳画像を操作表示画面に表示することとしてもよい。この際、補正量推定部216が、各原画像の全体を用いて決定した相対位置(以下「全体相対位置」と呼ぶ)を用いて位置補正すればよい。特に、フレーム画像間においてデジタルカメラ100の向き(撮影範囲)が大きく変化している場合には、各フレーム画像における共通の撮像対象を表す部分の大きさが小さくなる傾向がある。このような場合には、全てのフレーム画像(原画像)が透けて見えるように重ね合わされた重畳画像を表示すれば、ユーザは、複数のフレーム画像(原画像)が重なる領域を容易に高解像度静止画像領域として指定することができる。
変形例2:
領域を区分する方法としては、上述した各実施例の方法に限らず、他の任意の方法を採用することが可能である。例えば、領域区分部214(図2)が、高解像度静止画像Gの中央に位置する所定の一部の領域を重点領域GEAとして用いることとしてもよい。こうすれば、画像中央に位置する撮像対象を鮮明に表す高解像度静止画像データを生成することができる。
また、上述の各実施例において、領域区分部214(図2)が自動的に重点領域を選択する場合には、互いに離れた複数の領域が重点領域として選択される可能性がある。このような場合には、補正量推定部216が各重点領域毎に相対位置を算出し、高解像度化処理部218が各重点領域毎に画素値を決定すればよい。これは、ユーザが複数の領域を重点領域として指定する場合も同じである。一方、領域区分部214が、選択された複数の領域の中の1つの領域を重点領域として採用することとしてもよい。例えば、複数の領域の中の面積が最も大きい領域を重点領域として採用してもよい。いずれの場合も、重点領域と非重点領域とは、連続する複数の画素が連結した領域であることが好ましい。
変形例3:
上述した各実施例では、画像処理として高解像度化処理のみを行っていたが、これに加えて他の種類の画質調整処理を実行してもよい。例えば、高解像度静止画像データに対して、コントラスト調整処理や、明るさ調整や、シャープネス調整処理等を行ってもよい。ここで、重点領域GEAと非重点領域GNAとで、処理の程度が異なることが好ましい。例えば、重点領域GEAに対して、非重点領域GNAと比べて、よりコントラストを強くするコントラスト調整を実行してもよく、より明るさを高める明るさ調整を実行してもよく、よりシャープネスを強調するシャープネス調整を実行してもよい。こうすれば、重点領域GEAが表す撮像対象をより目立たせることができる。
変形例4:
上述の各実施例では、動画像データはノンインターレース方式のフレーム画像データで構成されていたが、本発明は、インターレース方式の動画像データにも適用することができる。この場合には、奇数番目の走査線の画像データから構成される奇数フィールドの静止画像データと、偶数番目の走査線の画像データから構成される偶数フィールドの静止画像データと、から生成される静止画像データ(1画面分の全走査線を含む画像を表す)をフレーム画像データ(原画像)として用いることができる。
変形例5:
上述の各実施例では、データ処理部210は、高解像度静止画像の生成に用いる静止画像(「原画像」とも呼ぶ)として、動画像から抽出した複数のフレーム画像を用いているが、このような原画像としては、同じ撮像対象を表す部分を互いに含む任意の複数の静止画像を用いることができる。例えば、デジタルスチルカメラで連写することによって生成した複数の独立した静止画像を原画像として用いてもよい。この場合も、データ処理部210(図2)は、複数の静止画像の中の1つを基準原画像(第1実施例における「基準フレーム画像」に相当する)として用い、他の所定数の静止画像を対象原画像(第1実施例における「対象フレーム画像」に相当する)として用いることによって、上述の各実施例と同様に高解像度静止画像を生成することができる。
変形例6:
上述の各実施例では、データ処理部210が原画像(例えば、動画像や静止画像)をデジタルカメラ100から受け取ることとしたが、他の種々の装置から受け取ることとしてもよい。例えば、DVD−ROM等の光ディスクメディアや、コンピュータ200に設けられたハードディスクや、携帯用メモリ等から受け取ることとしてもよい。
変形例7:
上述の各実施例において、画像生成装置(例えば、デジタルカメラ)、または、画像出力装置(例えば、プリンタやモニタ)が、データ処理部210の機能の一部、または、全部を実行する構成としてもよい。
変形例8:
上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。
本発明の一実施例としての画像処理システムの構成を示す説明図。 第1実施例におけるデータ処理部210の内部構成を示すブロック図。 データ処理部210の操作表示画面300を示す説明図。 高解像度化処理の手順を示すフローチャート。 領域区分部214が領域を区分する様子を示す説明図。 部分高解像度化処理の手順を示すフローチャート。 相対位置を決定する様子を示す説明図。 高解像度静止画像Gを生成する様子を示す説明図。 高解像度静止画像データ生成後に表示される操作表示画面302を示す説明図。 第2実施例における高解像度静止画像Gを生成する処理を示す説明図。 第3実施例における高解像度静止画像Gを生成する処理を示す説明図。 重点領域を決定するための操作表示画面304を示す説明図。 第5実施例における高解像度静止画像Gaを生成する様子を示す説明図。 第6実施例における重点領域を決定する様子を示す説明図。
符号の説明
100...デジタルカメラ
200...コンピュータ
210...データ処理部
212...フレーム画像選択部
214...領域区分部
216...補正量推定部
218...高解像度化処理部
220...ディスプレイ
230...マウス
240...キーボード
300、302、304...操作表示画面
310...画像表示領域
320...再生ボタン
322...一時停止ボタン
330...鮮明化ボタン
332...部分鮮明化ボタン
340...戻るボタン
342...プリントボタン
344...保存ボタン
350...自動ボタン
352...矩形ボタン
354...楕円ボタン
356...多角形ボタン
360...OKボタン
210(図2)...データ処理部
AP...飛行機
EA、EAa、EAd、EAe、GEA、GEAa...重点領域
NA、NAa、GNA、GNAa...非重点領域
G、Ga...高解像度静止画像
GTA...遷移領域
GTAa...内遷移領域
GTAb...外遷移領域
F0、F0a、F0e...基準フレーム画像
F1、F2、F3、F1a、F2a、F3a...対象フレーム画像
F1EA...対象重点領域
F1MEA、F2MEA、F3MEA...補正済重点領域
L...線分
FP...合焦位置候補

Claims (10)

  1. 画素密度が比較的低い低解像度画像から、画素密度が比較的高い高解像度画像を生成する画像処理装置であって、
    前記高解像度画像が表す画像の領域となるべき領域を重点領域と非重点領域とを含む複数の領域に区分する領域区分部と、
    前記重点領域における前記高解像度画像の画素値を、2以上の第1の枚数の前記低解像度画像を用いて決定するとともに、前記非重点領域における前記高解像度画像の画素値を、前記第1の枚数よりも少ない第2の枚数の前記低解像度画像を用いて決定する高解像度化処理部と、
    を備える、画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記複数の領域は、さらに、前記重点領域を囲む遷移領域を含み、
    前記高解像度化処理部は、前記遷移領域における前記高解像度画像の各画素の画素値を、前記第1の枚数の前記低解像度画像を用いて決定した第1の画素値に第1の重みを付した値と、前記第2の枚数の前記低解像度画像を用いて決定した第2の画素値に第2の重みを付した値と、を加算することによって決定し、
    前記第1の重みは前記画素の位置が前記重点領域に近いほど大きく、さらに、前記第2の重みは前記画素の位置が前記重点領域に近いほど小さい、
    画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記複数の領域は、さらに、前記重点領域を囲む遷移領域を含み、
    前記高解像度化処理部は、前記遷移領域における前記高解像度画像の画素値を、前記第1の枚数よりも少なく、かつ、前記第2の枚数よりも多い枚数の前記低解像度画像を用いて決定する、
    画像処理装置。
  4. 請求項3に記載の画像処理装置であって、
    前記領域区分部は、前記遷移領域を、さらに、前記重点領域の周囲を順に取り囲む複数の部分遷移領域に区分し、
    前記高解像度化処理部が前記部分遷移領域の画素値の決定に用いる前記低解像度画像の枚数は、前記部分遷移領域毎に異なっているとともに、前記重点領域に近い部分遷移領域ほど大きいことを特徴とする、
    画像処理装置。
  5. 請求項1ないし請求項4のいずれかに記載の画像処理装置であって、
    前記領域区分部は、前記領域の区分をユーザの指示に従って決定するユーザ指定モードを有する、画像処理装置。
  6. 請求項1ないし請求項5のいずれかに記載の画像処理装置であって、
    前記領域区分部は、前記領域の区分を、前記複数の低解像度画像間における同じ位置の輝度差に基づいて決定する輝度差決定モードを有する、画像処理装置。
  7. 請求項1ないし請求項6のいずれかに記載の画像処理装置であって、
    前記複数の低解像度画像の少なくとも一部には、前記低解像度画像における撮影時の合焦位置に関する合焦位置情報が関連付けられており、
    前記領域区分部は、前記領域の区分を前記合焦位置情報に基づいて決定する合焦位置決定モードを有する、画像処理装置。
  8. 請求項1ないし請求項7のいずれかに記載の画像処理装置であって、
    前記高解像度化処理部は、前記第1の枚数の前記低解像度画像の中から、前記高解像度画像の前記重点領域を表す部分の画像の形状が互いに類似している低解像度画像を選択して用いることによって前記重点領域の画素値を決定する、画像処理装置。
  9. 画素密度が比較的低い低解像度画像から、画素密度が比較的高い高解像度画像を生成する画像処理方法であって、
    (a)前記高解像度画像が表す画像の領域となるべき領域を重点領域と非重点領域とを含む複数の領域に区分する工程と、
    (b)前記重点領域における前記高解像度画像の画素値を、2以上の第1の枚数の前記低解像度画像を用いて決定するとともに、前記非重点領域における前記高解像度画像の画素値を、前記第1の枚数よりも少ない第2の枚数の前記低解像度画像を用いて決定する工程と、
    を備える、画像処理方法。
  10. 画素密度が比較的低い低解像度画像から、画素密度が比較的高い高解像度画像を生成する画像処理をコンピュータに実行させるためのコンピュータプログラムであって、
    (a)前記高解像度画像が表す画像の領域となるべき領域を重点領域と非重点領域とを含む複数の領域に区分する機能と、
    (b)前記重点領域における前記高解像度画像の画素値を、2以上の第1の枚数の前記低解像度画像を用いて決定するとともに、前記非重点領域における前記高解像度画像の画素値を、前記第1の枚数よりも少ない第2の枚数の前記低解像度画像を用いて決定する機能と、
    をコンピュータに実現させるコンピュータプログラム。
JP2004169294A 2004-06-08 2004-06-08 複数の低画素密度画像からの高画素密度画像の生成 Pending JP2005354124A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004169294A JP2005354124A (ja) 2004-06-08 2004-06-08 複数の低画素密度画像からの高画素密度画像の生成

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004169294A JP2005354124A (ja) 2004-06-08 2004-06-08 複数の低画素密度画像からの高画素密度画像の生成

Publications (1)

Publication Number Publication Date
JP2005354124A true JP2005354124A (ja) 2005-12-22

Family

ID=35588247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004169294A Pending JP2005354124A (ja) 2004-06-08 2004-06-08 複数の低画素密度画像からの高画素密度画像の生成

Country Status (1)

Country Link
JP (1) JP2005354124A (ja)

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274213A (ja) * 2006-03-30 2007-10-18 Canon Inc 画像処理装置及び方法、及び撮像装置
JP2008276302A (ja) * 2007-04-25 2008-11-13 Toshiba Corp 情報処理装置、画像処理方法および画像処理プログラム
JP2009020704A (ja) * 2007-07-12 2009-01-29 Seiko Epson Corp 画像処理装置、画像処理方法及び印刷装置
WO2009139341A1 (ja) * 2008-05-13 2009-11-19 シャープ株式会社 映像情報処理装置
JP2010219574A (ja) * 2009-03-12 2010-09-30 Ricoh Co Ltd 画像合成装置、及び画像合成プログラム
JP2011210253A (ja) * 2010-03-11 2011-10-20 Panasonic Corp 画像処理方法、画像処理装置、集積回路およびプログラム
JP2012056162A (ja) * 2010-09-08 2012-03-22 Ricoh Co Ltd 画像形成装置
US8285080B2 (en) 2008-07-09 2012-10-09 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US8416469B2 (en) 2008-12-26 2013-04-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method and computer program
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
JP5587322B2 (ja) * 2009-08-24 2014-09-10 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9179092B2 (en) 2009-09-22 2015-11-03 Samsung Electronics Co., Ltd. System and method producing high definition video from low definition video
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9536166B2 (en) 2011-09-28 2017-01-03 Kip Peli P1 Lp Systems and methods for decoding image files containing depth maps stored as metadata
US9576369B2 (en) 2008-05-20 2017-02-21 Fotonation Cayman Limited Systems and methods for generating depth maps using images captured by camera arrays incorporating cameras having different fields of view
US9706132B2 (en) 2012-05-01 2017-07-11 Fotonation Cayman Limited Camera modules patterned with pi filter groups
US9733486B2 (en) 2013-03-13 2017-08-15 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9743051B2 (en) 2013-02-24 2017-08-22 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9749568B2 (en) 2012-11-13 2017-08-29 Fotonation Cayman Limited Systems and methods for array camera focal plane control
US9749547B2 (en) 2008-05-20 2017-08-29 Fotonation Cayman Limited Capturing and processing of images using camera array incorperating Bayer cameras having different fields of view
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US9794476B2 (en) 2011-09-19 2017-10-17 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US9800859B2 (en) 2013-03-15 2017-10-24 Fotonation Cayman Limited Systems and methods for estimating depth using stereo array cameras
US9807382B2 (en) 2012-06-28 2017-10-31 Fotonation Cayman Limited Systems and methods for detecting defective camera arrays and optic arrays
US9858673B2 (en) 2012-08-21 2018-01-02 Fotonation Cayman Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9924092B2 (en) 2013-11-07 2018-03-20 Fotonation Cayman Limited Array cameras incorporating independently aligned lens stacks
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9955070B2 (en) 2013-03-15 2018-04-24 Fotonation Cayman Limited Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9986224B2 (en) 2013-03-10 2018-05-29 Fotonation Cayman Limited System and methods for calibration of an array camera
US10009538B2 (en) 2013-02-21 2018-06-26 Fotonation Cayman Limited Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10127682B2 (en) 2013-03-13 2018-11-13 Fotonation Limited System and methods for calibration of an array camera
US10218889B2 (en) 2011-05-11 2019-02-26 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US10261219B2 (en) 2012-06-30 2019-04-16 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
US10366472B2 (en) 2010-12-14 2019-07-30 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US10390005B2 (en) 2012-09-28 2019-08-20 Fotonation Limited Generating images from light fields utilizing virtual viewpoints
US10412314B2 (en) 2013-03-14 2019-09-10 Fotonation Limited Systems and methods for photometric normalization in array cameras
US10455168B2 (en) 2010-05-12 2019-10-22 Fotonation Limited Imager array interfaces
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
JP2021192111A (ja) * 2008-12-19 2021-12-16 株式会社半導体エネルギー研究所 表示装置の駆動方法
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects

Cited By (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274213A (ja) * 2006-03-30 2007-10-18 Canon Inc 画像処理装置及び方法、及び撮像装置
JP4597087B2 (ja) * 2006-03-30 2010-12-15 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
JP2008276302A (ja) * 2007-04-25 2008-11-13 Toshiba Corp 情報処理装置、画像処理方法および画像処理プログラム
JP2009020704A (ja) * 2007-07-12 2009-01-29 Seiko Epson Corp 画像処理装置、画像処理方法及び印刷装置
JPWO2009139341A1 (ja) * 2008-05-13 2011-09-22 シャープ株式会社 映像情報処理装置
WO2009139341A1 (ja) * 2008-05-13 2009-11-19 シャープ株式会社 映像情報処理装置
JP2013150353A (ja) * 2008-05-13 2013-08-01 Sharp Corp 映像情報処理装置
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US9749547B2 (en) 2008-05-20 2017-08-29 Fotonation Cayman Limited Capturing and processing of images using camera array incorperating Bayer cameras having different fields of view
US9712759B2 (en) 2008-05-20 2017-07-18 Fotonation Cayman Limited Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras
US11412158B2 (en) 2008-05-20 2022-08-09 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US9576369B2 (en) 2008-05-20 2017-02-21 Fotonation Cayman Limited Systems and methods for generating depth maps using images captured by camera arrays incorporating cameras having different fields of view
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10027901B2 (en) 2008-05-20 2018-07-17 Fotonation Cayman Limited Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras
US8285080B2 (en) 2008-07-09 2012-10-09 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2021192111A (ja) * 2008-12-19 2021-12-16 株式会社半導体エネルギー研究所 表示装置の駆動方法
US11899311B2 (en) 2008-12-19 2024-02-13 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US11543700B2 (en) 2008-12-19 2023-01-03 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US8416469B2 (en) 2008-12-26 2013-04-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method and computer program
JP2010219574A (ja) * 2009-03-12 2010-09-30 Ricoh Co Ltd 画像合成装置、及び画像合成プログラム
JP5587322B2 (ja) * 2009-08-24 2014-09-10 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9179092B2 (en) 2009-09-22 2015-11-03 Samsung Electronics Co., Ltd. System and method producing high definition video from low definition video
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
JP2011210253A (ja) * 2010-03-11 2011-10-20 Panasonic Corp 画像処理方法、画像処理装置、集積回路およびプログラム
US10455168B2 (en) 2010-05-12 2019-10-22 Fotonation Limited Imager array interfaces
JP2012056162A (ja) * 2010-09-08 2012-03-22 Ricoh Co Ltd 画像形成装置
US11875475B2 (en) 2010-12-14 2024-01-16 Adeia Imaging Llc Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11423513B2 (en) 2010-12-14 2022-08-23 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US10366472B2 (en) 2010-12-14 2019-07-30 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US10218889B2 (en) 2011-05-11 2019-02-26 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US10742861B2 (en) 2011-05-11 2020-08-11 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US9794476B2 (en) 2011-09-19 2017-10-17 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US10375302B2 (en) 2011-09-19 2019-08-06 Fotonation Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US9536166B2 (en) 2011-09-28 2017-01-03 Kip Peli P1 Lp Systems and methods for decoding image files containing depth maps stored as metadata
US10430682B2 (en) 2011-09-28 2019-10-01 Fotonation Limited Systems and methods for decoding image files containing depth maps stored as metadata
US9811753B2 (en) 2011-09-28 2017-11-07 Fotonation Cayman Limited Systems and methods for encoding light field image files
US10275676B2 (en) 2011-09-28 2019-04-30 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US10984276B2 (en) 2011-09-28 2021-04-20 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US10019816B2 (en) 2011-09-28 2018-07-10 Fotonation Cayman Limited Systems and methods for decoding image files containing depth maps stored as metadata
US11729365B2 (en) 2011-09-28 2023-08-15 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata
US20180197035A1 (en) 2011-09-28 2018-07-12 Fotonation Cayman Limited Systems and Methods for Encoding Image Files Containing Depth Maps Stored as Metadata
US9754422B2 (en) 2012-02-21 2017-09-05 Fotonation Cayman Limited Systems and method for performing depth based image editing
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing
US9706132B2 (en) 2012-05-01 2017-07-11 Fotonation Cayman Limited Camera modules patterned with pi filter groups
US10334241B2 (en) 2012-06-28 2019-06-25 Fotonation Limited Systems and methods for detecting defective camera arrays and optic arrays
US9807382B2 (en) 2012-06-28 2017-10-31 Fotonation Cayman Limited Systems and methods for detecting defective camera arrays and optic arrays
US10261219B2 (en) 2012-06-30 2019-04-16 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US11022725B2 (en) 2012-06-30 2021-06-01 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US10380752B2 (en) 2012-08-21 2019-08-13 Fotonation Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9858673B2 (en) 2012-08-21 2018-01-02 Fotonation Cayman Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
EP2888698A4 (en) * 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
US9813616B2 (en) 2012-08-23 2017-11-07 Fotonation Cayman Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US10462362B2 (en) 2012-08-23 2019-10-29 Fotonation Limited Feature based high resolution motion estimation from low resolution images captured using an array source
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US10390005B2 (en) 2012-09-28 2019-08-20 Fotonation Limited Generating images from light fields utilizing virtual viewpoints
US9749568B2 (en) 2012-11-13 2017-08-29 Fotonation Cayman Limited Systems and methods for array camera focal plane control
US10009538B2 (en) 2013-02-21 2018-06-26 Fotonation Cayman Limited Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9743051B2 (en) 2013-02-24 2017-08-22 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9774831B2 (en) 2013-02-24 2017-09-26 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US11272161B2 (en) 2013-03-10 2022-03-08 Fotonation Limited System and methods for calibration of an array camera
US9986224B2 (en) 2013-03-10 2018-05-29 Fotonation Cayman Limited System and methods for calibration of an array camera
US11570423B2 (en) 2013-03-10 2023-01-31 Adeia Imaging Llc System and methods for calibration of an array camera
US10958892B2 (en) 2013-03-10 2021-03-23 Fotonation Limited System and methods for calibration of an array camera
US10225543B2 (en) 2013-03-10 2019-03-05 Fotonation Limited System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9800856B2 (en) 2013-03-13 2017-10-24 Fotonation Cayman Limited Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US10127682B2 (en) 2013-03-13 2018-11-13 Fotonation Limited System and methods for calibration of an array camera
US9733486B2 (en) 2013-03-13 2017-08-15 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US10412314B2 (en) 2013-03-14 2019-09-10 Fotonation Limited Systems and methods for photometric normalization in array cameras
US10547772B2 (en) 2013-03-14 2020-01-28 Fotonation Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10542208B2 (en) 2013-03-15 2020-01-21 Fotonation Limited Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9955070B2 (en) 2013-03-15 2018-04-24 Fotonation Cayman Limited Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10455218B2 (en) 2013-03-15 2019-10-22 Fotonation Limited Systems and methods for estimating depth using stereo array cameras
US10638099B2 (en) 2013-03-15 2020-04-28 Fotonation Limited Extended color processing on pelican array cameras
US10674138B2 (en) 2013-03-15 2020-06-02 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
US9800859B2 (en) 2013-03-15 2017-10-24 Fotonation Cayman Limited Systems and methods for estimating depth using stereo array cameras
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US10540806B2 (en) 2013-09-27 2020-01-21 Fotonation Limited Systems and methods for depth-assisted perspective distortion correction
US9924092B2 (en) 2013-11-07 2018-03-20 Fotonation Cayman Limited Array cameras incorporating independently aligned lens stacks
US10767981B2 (en) 2013-11-18 2020-09-08 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US11486698B2 (en) 2013-11-18 2022-11-01 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10708492B2 (en) 2013-11-26 2020-07-07 Fotonation Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9813617B2 (en) 2013-11-26 2017-11-07 Fotonation Cayman Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10574905B2 (en) 2014-03-07 2020-02-25 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US11546576B2 (en) 2014-09-29 2023-01-03 Adeia Imaging Llc Systems and methods for dynamic calibration of array cameras
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10818026B2 (en) 2017-08-21 2020-10-27 Fotonation Limited Systems and methods for hybrid depth regularization
US11562498B2 (en) 2017-08-21 2023-01-24 Adela Imaging LLC Systems and methods for hybrid depth regularization
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11842495B2 (en) 2019-11-30 2023-12-12 Intrinsic Innovation Llc Systems and methods for transparent object segmentation using polarization cues
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11683594B2 (en) 2021-04-15 2023-06-20 Intrinsic Innovation Llc Systems and methods for camera exposure control
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Similar Documents

Publication Publication Date Title
JP2005354124A (ja) 複数の低画素密度画像からの高画素密度画像の生成
JP4120677B2 (ja) 複数のフレーム画像からの静止画像の生成
US20160277677A1 (en) Image processing device and method, and program
CN108463994B (zh) 图像处理装置、图像处理方法和存储介质
EP2525561A1 (en) Data-generating device, data-generating method, data-generating program, and recording medium
JP2005130443A (ja) 低解像度の複数の画像に基づく高解像度の画像の生成
JP2009031854A (ja) 画像処理装置、画像処理方法、および、コンピュータプログラム
JP2007151080A (ja) 画像処理装置及び画像処理方法
JP4428159B2 (ja) 画像データ生成装置、画質補正装置、画像データ生成方法および画質補正方法
JP4360177B2 (ja) 静止画像生成装置、静止画像生成方法、静止画像生成プログラム、および静止画像生成プログラムを記録した記録媒体
JP2006221221A (ja) 複数の低解像度画像を用いた高解像度画像の生成
JP4788827B2 (ja) 複数のフレーム画像データに基づく静止画像データの生成処理
JP2005246662A (ja) 画像の出力に用いる出力装置に適した画像データの生成
JP4292995B2 (ja) 動画中の特定シーンの静止画の生成
JP6056511B2 (ja) 画像処理装置、方法、及びプログラム、並びに撮像装置
JP6332864B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2006033232A (ja) 画像処理装置
JP2005157847A (ja) 画像処理装置および処理方法
JP2013126123A (ja) 画像処理装置、撮像装置及び画像処理方法
JP4529397B2 (ja) 複数のフレーム画像データに基づく静止画像データの生成処理
JP2005275765A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2008263657A (ja) 画像処理装置、サムネイル動画作成方法及びサムネイル動画作成プログラム
JP4419500B2 (ja) 静止画像生成装置、静止画像生成方法、静止画像生成プログラム、および静止画像生成プログラムを記録した記録媒体
JP2005129996A (ja) 低解像度の複数の画像に基づく高解像度の画像生成の効率向上
JP2006020137A (ja) 画像処理装置及び推奨度表示方法