JP2009010823A - 画像処理装置および画像処理方法、記録媒体、並びに、プログラム - Google Patents

画像処理装置および画像処理方法、記録媒体、並びに、プログラム Download PDF

Info

Publication number
JP2009010823A
JP2009010823A JP2007171674A JP2007171674A JP2009010823A JP 2009010823 A JP2009010823 A JP 2009010823A JP 2007171674 A JP2007171674 A JP 2007171674A JP 2007171674 A JP2007171674 A JP 2007171674A JP 2009010823 A JP2009010823 A JP 2009010823A
Authority
JP
Japan
Prior art keywords
image data
value
frame
moving image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007171674A
Other languages
English (en)
Inventor
Seiji Kobayashi
誠司 小林
Tomoshi Okuda
知史 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007171674A priority Critical patent/JP2009010823A/ja
Publication of JP2009010823A publication Critical patent/JP2009010823A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

【課題】高フレームレートの撮像データのノイズを低減する。
【解決手段】平滑化処理部261−1乃至261−4は、入力RAWデータのランダムノイズを低減するために空間フィルタ処理を行い、フィルタリング後のデータを静止領域判定処理部262に供給する。静止領域判定処理部262は、平滑化されノイズが低減された連続する4フレーム分のRAWデータを受け取り、各フレーム間での画素値の差を計算することにより静止領域を判定し、判定結果を加算処理部263に供給する。加算処理部263は、撮像素子22による撮像のフレームレートにおいて連続する4フレームの平滑化されていないRAWデータの入力を受け、静止領域判定処理部262による静止領域の判定結果を基に、必要に応じて、4つの入力RAWデータのうちの少なくとも一部を加算処理することにより、適応的なノイズ低減を実現する。本発明は、撮像装置に適用できる。
【選択図】図18

Description

本発明は、画像処理装置および画像処理方法、記録媒体、並びに、プログラムに関し、特に、高速なフレームレートで動画像を撮像する場合に用いて好適な、画像処理装置および画像処理方法、記録媒体、並びに、プログラムに関する。
近年、通常のビデオフレームレート(60フレーム毎秒、50フレーム毎秒、または24フレーム毎秒など)よりも高速な撮像を行うことを可能にした高速度撮像装置が広く用いられるようになってきている。
高フレームレートにおける撮像および記録を実現するために、例えば、1フレーム内において固体撮像素子から読み出す画素数を少なくし、後段の処理速度を上げることなく高速度撮像を実現することができるようにした高速度撮像装置がある。このような高速度撮像装置では、標準ビデオ信号の1フレーム内に画像数を減少させた複数のフレーム画像を貼り合わせるようにして記録する技術(例えば、特許文献1参照)や、専用の圧縮方式や画像フォーマットを用いて半導体メモリに記録する技術(例えば、特許文献2参照)が用いられている。
特開平8−88833号公報
特開2006−319513号公報
また、固体撮像素子を高速に駆動して出力した撮像データをそのまま半導体メモリに記録することにより高速度撮像を実現する高速度撮像装置がある。このような高速度撮像装置では、固体撮像素子から出力される撮像データが非常に高速になり、後段の信号処理が間に合わないため、非圧縮のRAWデータをそのまま記録しているものが多い。このような高速度撮像装置は、主に工業試験用として市販されている。
そして、また、1フレームの画像を空間的に分割し、それぞれの領域を並列処理することにより高速度撮像を実現する高速度撮像装置がある。このような高速度撮像装置には、固体撮像素子から水平ライン単位で出力を分配し、並列処理を行う技術(例えば、特許文献3参照)や、入射した光をプリズムにより分光して、複数の固体撮像素子に供給し、それらの固体撮像素子の出力信号を並列処理する技術(例えば、特許文献4参照)が用いられている。
特開平1−286586号公報
特開平5−316402号公報
ところで、高速撮像可能な撮像装置では、固体撮像素子による露光時間がフレームレートに応じて短くなるため、感度が低下し、ノイズの影響を受けやすい。撮像装置におけるノイズ低減方法としては、1フレーム内で空間的なノイズ低減フィルタを施す方法が知られている。しかしながら、この方法では、空間解像度の低下を伴うという問題がある。
一方、例えば、フレームメモリを持ち、時間的な循環フィルタ処理を行う撮像装置が提案されている(例えば、特許文献5参照)。
特開2005−175864号公報
しかしながら、固体撮像素子からの読み出し画素数を減少させてしまった場合、高い空間解像度を得ることが出来ない。また、複数フレームを貼り合わせた画像を記録すると、再生時に画像変換処理が必要となってしまい、処理が複雑になってしまう。
また、固体撮像素子を高速に駆動して出力した撮像データをそのまま半導体メモリに記録することにより高速度撮像を実現した場合、高解像度、かつ高フレームレートの撮像が可能であるが、固体撮像素子から出力される撮像データが非常に高速になるため、記録装置として半導体メモリを使わざるを得ない。しかしながら、撮像装置に搭載できる半導体メモリの容量には限界があるため、長時間の記録が困難であった。
また、高速な画像処理を行うために空間的に画像を分割して並列に処理を行えば、高解像度、かつ高フレームレートの画像を長時間記録することが可能である。しかしながら、分割記録された各画像データは水平方向、または垂直方向に短冊状、または矩形領域状に分割された画像であるため、再生時にこれらの画像を合成処理する必要があり、処理が複雑となってしまう。また、分割記録された各画像は、実際のフレームの空間的な一部を記録したものであるため、分割記録された各画像を個別に再生することは無意味であった。換言すれば、分割記録された各画像データは、そのままで利用することはできないデータとなってしまっていた。
また、ノイズの低減のために、上述した特許文献5の技術を適用した場合、高速な画像データを処理する場合には、加算処理などの処理に時間がかかってしまうため、処理が間に合わなくなったり、高速な処理を行うことが可能な高価な演算部を用いる必要が生じてしまっていた。
本発明はこのような状況に鑑みてなされたものであり、高解像度、かつ高フレームレートで撮像された画像を、容易に処理することができるようにするとともに、簡易な回路構成で、時間加算によるノイズ低減処理を行うことにより、画質向上を実現する撮像装置を提供するものである。
本発明の一側面の画像処理装置は、第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データを処理する画像処理装置であって、N系列の前記動画像データのうちの任意の2つ以上の系列における所定の画素位置の画素値の差分値を算出する算出手段と、前記算出手段により算出された差分値に基づいて、前記動画像データのうちの動きの少ない部分を検出し、加算平均処理を行うノイズ低減処理手段とを備える。
前記算出手段には、N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における所定の画素位置の画素値の差分値であるN−1個の第1の値を算出する第1の算出手段と、N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出する第2の算出手段とを備えさせるようにすることができ、前記ノイズ低減処理手段は、前記第1の算出手段により算出された前記第1の値、および、前記第2の算出手段により算出された前記第2の値に基づいて、前記動画像データのうちの動きの少ない部分を検出し、加算平均処理を行わせるようにすることができる。
前記ノイズ低減処理手段には、前記第2の算出手段により算出された前記第2の値が所定の閾値よりも小さかった場合、N系列の前記動画像データの所定の画素位置における画素値の加算平均値を、N系列の前記動画像データの所定の画素位置における画素値として出力させるようにすることができ、前記第2の算出手段により算出された前記第2の値が所定の閾値よりも大きかった場合、前記第1の算出手段により算出された前記第1の値のいずれかが所定の閾値よりも小さければ、前記第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値を、前記第1の値を算出するために用いた系列の所定の画素位置における画素値として出力させるようにすることができ、前記第1の算出手段により算出されたあるフレームに対して算出される前記第1の値の全てが所定の閾値よりも大きければ、前記第1の値を算出するために用いた系列の所定の画素位置における入力された画素値を出力させるようにすることができる。
N系列の前記動画像データをフレーム内平滑化するN個の平滑化処理手段を更に備えさせるようにすることができ、前記第1の算出手段および前記第2の算出手段には、N個の前記平滑化処理手段により平滑化された画素値を用いて、前記第1の値および前記第2の値を算出させるようにすることができる。
第1のレートの撮像データを得る撮像手段と、前記撮像手段により撮像された前記第1のレートの撮像データを、フレーム単位で分配し、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データに分割するデータ分割手段とを更に備えさせるようにすることができ、前記第1の算出手段および前記第2の算出手段には、前記分割手段により分割されたN系列の前記動画像データを用いて、前記第1の値および前記第2の値を算出させるようにすることができる。
前記ノイズ低減処理手段により処理されたN系列の前記動画像データを出力する出力手段を更に備えさせるようにすることができ、前記出力手段には、出力される動画像データのレートに基づいて、N系列の前記動画像データのうちのいずれか1系統のみを出力させるか、または、N系列の前記動画像データのうちの少なくとも一部をフレーム合成し出力させるようにすることができる。
前記ノイズ低減処理手段により処理されたN系列の前記動画像データを記録する記録手段を更に備えさせるようにすることができ、前記出力手段には、前記記録手段に記録された前記N系列の前記動画像データのうちの少なくとも一部を出力させるようにすることができる。
前記記録手段には、N個備えられるか、または、N個の領域に分割され、前記ノイズ低減処理手段により処理されたN系列の前記動画像データをそれぞれ記録させるようにすることができる。
前記第2のレートは、60フレーム毎秒であるものとすることができる。
前記第2のレートは、50フレーム毎秒であるものとすることができる。
前記第2のレートは、24フレーム毎秒であるものとすることができる。
前記N系列は、4系列であるものとすることができる。
前記N系列は、2系列であるものとすることができる。
前記第1のレートは、240フレーム毎秒であるものとすることができる。
前記ノイズ低減処理手段により処理されたN系列の前記動画像データを記録する記録手段を更に備えさせるようにすることができる。
前記記録手段には、N個備えられるか、または、N個の領域に分割され、前記ノイズ低減処理手段により処理されたN系列の前記動画像データをそれぞれ記録させるようにすることができる。
前記ノイズ低減処理手段により処理されたN系列の前記動画像データを符号化する符号化手段を更に備えさせるようにすることができ、前記記録手段には、前記符号化手段により符号化されたN系列の前記動画像データを記録させるようにすることができる。
前記符号化手段により符号化されて前記記録手段により記録されたN系列の前記動画像データを復号する復号手段と、前記復号手段により復号されたN系列の前記動画像データを出力する出力手段とを更に備えさせるようにすることができ、前記復号手段には、出力される動画像データのレートに基づいて、N系列の前記動画像データのうちのいずれか1系統のみを復号するか、または、N系列の前記動画像データのうちの少なくとも一部を復号させるようにすることができ、前記出力手段には、出力される動画像データのレートに基づいて、前記復号手段により復号されたN系列の前記動画像データのうちのいずれか1系統を出力させるか、または、N系列の前記動画像データのうちの少なくとも一部をフレーム合成させ、出力させるようにすることができる。
本発明の一側面の画像処理方法は、第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データを処理する画像処理装置の画像処理方法であって、N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における、所定の画素位置の画素値の差分値であるN−1個の第1の値を算出し、N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出し、算出された前記第2の値が所定の閾値よりも小さかった場合、N系列の前記動画像データの所定の画素位置における画素値の加算平均値を、N系列の前記動画像データの所定の画素位置における画素値として出力し、前記第2の値が所定の閾値よりも大きく、かつ、前記第1の値のいずれかが所定の閾値よりも小さい場合、前記第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値を、前記第1の値を算出するために用いた系列の所定の画素位置における画素値として出力し、前記第2の値が所定の閾値よりも大きく、かつ、あるフレームに対して算出される前記第1の値の全てが所定の閾値よりも大きい場合、前記第1の値を算出するために用いた系列の所定の画素位置における入力された画素値を出力するステップを含む。
本発明の一側面のプログラムは、第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データの処理をコンピュータに実行させるためのプログラムであって、N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における、所定の画素位置の画素値の差分値であるN−1個の第1の値を算出し、N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出し、算出された前記第2の値が所定の閾値よりも小さかった場合、N系列の前記動画像データの所定の画素位置における画素値の加算平均値を、N系列の前記動画像データの所定の画素位置における画素値として出力し、前記第2の値が所定の閾値よりも大きく、かつ、前記第1の値のいずれかが所定の閾値よりも小さい場合、前記第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値を、前記第1の値を算出するために用いた系列の所定の画素位置における画素値として出力し、前記第2の値が所定の閾値よりも大きく、かつ、あるフレームに対して算出される前記第1の値の全てが所定の閾値よりも大きい場合、前記第1の値を算出するために用いた系列の所定の画素位置における入力された画素値を出力するステップを含む処理をコンピュータに実行させる。
本発明の一側面においては、第1のレートの動画像データがフレーム単位でN分割されて生成された、第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データを処理するために、N系列の動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における、所定の画素位置の画素値の差分値であるN−1個の第1の値が算出され、N系列の動画像データの所定の画素位置における画素値の差分値の総和である第2の値が算出され、算出された第2の値が所定の閾値よりも小さかった場合、N系列の動画像データの所定の画素位置における画素値の加算平均値が、N系列の動画像データの所定の画素位置における画素値として出力され、第2の値が所定の閾値よりも大きく、かつ、第1の値のいずれかが所定の閾値よりも小さい場合、第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値が、第1の値を算出するために用いた系列の所定の画素位置における画素値として出力され、第2の値が所定の閾値よりも大きく、かつ、あるフレームに対して算出される第1の値の全てが所定の閾値よりも大きい場合、第1の値を算出するために用いた系列の所定の画素位置における入力された画素値が出力される。
ネットワークや伝送路とは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークや伝送路を介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。
また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、即ち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであっても良い。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであっても良い。
撮像装置や画像変換処理装置などの画像処理装置は、独立した装置であっても良いし、情報処理装置や記録再生装置などのうちの画像処理を行うブロックであっても良い。
以上のように、本発明の一側面によれば、画像を必要に応じて変換して出力することができ、特に、連続するフレーム間での動きの有無に基づいて、加算平均によりノイズを除去することができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の一側面の画像処理装置は、第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データを処理する画像処理装置であって、N系列の前記動画像データのうちの任意の2つ以上の系列における所定の画素位置の画素値の差分値を算出する算出手段(例えば、図22の第1の差分(dN)検出部281、第2の差分(dN+1)検出部282、第3の差分(dN+2)検出部283、および、図22の差分(dall)検出部284)と、前記算出手段により算出された差分値に基づいて、前記動画像データのうちの動きの少ない部分を検出し、加算平均処理を行うノイズ低減処理手段(例えば、図18の加算処理部263および図22の閾値処理部285)とを備える。
前記算出手段は、N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における所定の画素位置の画素値の差分値であるN−1個の第1の値を算出する第1の算出手段(例えば、図22の第1の差分(dN)検出部281、第2の差分(dN+1)検出部282、および、第3の差分(dN+2)検出部283)と、N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出する第2の算出手段(例えば、図22の差分(dall)検出部284)とを備えることができ、前記ノイズ低減処理手段は、前記第1の算出手段により算出された前記第1の値、および、前記第2の算出手段により算出された前記第2の値に基づいて、前記動画像データのうちの動きの少ない部分を検出し、加算平均処理を行うことができる。
N系列の前記動画像データをフレーム内平滑化するN個の平滑化処理手段(例えば、図18の平滑化処理部261)を更に備えることができ、前記第1の算出手段および前記第2の算出手段は、N個の前記平滑化処理手段により平滑化された画素値を用いて、前記第1の値および前記第2の値を算出することができる。
第1のレートの撮像データを得る撮像手段(例えば、図16の撮像素子22または図23の撮像素子121乃至123)と、前記撮像手段により撮像された前記第1のレートの撮像データを、フレーム単位で分配し、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データに分割するデータ分割手段(例えば、図16のメモリ制御部23または図23のメモリ制御部124)とを更に備えることができ、前記第1の算出手段および前記第2の算出手段は、前記分割手段により分割されたN系列の前記動画像データを用いて、前記第1の値および前記第2の値を算出することができる。
前記ノイズ低減処理手段により処理されたN系列の前記動画像データを出力する出力手段(例えば、図16または図23のビデオ出力部26)を更に備えることができ、前記出力手段は、出力される動画像データのレートに基づいて、N系列の前記動画像データのうちのいずれか1系統のみを出力するか、または、N系列の前記動画像データのうちの少なくとも一部をフレーム合成し出力することができる。
前記ノイズ低減処理手段により処理されたN系列の前記動画像データを記録する記録手段(例えば、図16または図23の記録部29)を更に備えることができ、前記出力手段は、前記記録手段に記録された前記N系列の前記動画像データのうちの少なくとも一部を出力することができる。
前記ノイズ低減処理手段により処理されたN系列の前記動画像データを記録する記録手段(例えば、図16または図23の記録部29)を更に備えることができる。
前記ノイズ低減処理手段により処理されたN系列の前記動画像データを符号化する符号化手段(例えば、図16または図23のコーデック部28)を更に備えることができ、前記記録手段は、前記符号化手段により符号化されたN系列の前記動画像データを記録することができる。
前記符号化手段により符号化されて前記記録手段により記録されたN系列の前記動画像データを復号する復号手段(例えば、図16または図23のコーデック部28)と、前記復号手段により復号されたN系列の前記動画像データを出力する出力手段(例えば、図16または図23のビデオ出力部)とを更に備えることができ、前記復号手段は、出力される動画像データのレートに基づいて、N系列の前記動画像データのうちのいずれか1系統のみを復号するか、または、N系列の前記動画像データのうちの少なくとも一部を復号することができ、前記出力手段は、出力される動画像データのレートに基づいて、前記復号手段により復号されたN系列の前記動画像データのうちのいずれか1系統を出力するか、または、N系列の前記動画像データのうちの少なくとも一部をフレーム合成し、出力することができる。
本発明の一側面の画像処理方法は、第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データを処理する画像処理装置の画像処理方法であって、N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における、所定の画素位置の画素値の差分値であるN−1個の第1の値を算出し(例えば、図25のステップS151乃至ステップS153の処理)、N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出し(例えば、図25のステップS154の処理)、算出された前記第2の値が所定の閾値よりも小さかった場合、N系列の前記動画像データの所定の画素位置における画素値の加算平均値を、N系列の前記動画像データの所定の画素位置における画素値として出力し(例えば、図25のステップS156の処理)、前記第2の値が所定の閾値よりも大きく、かつ、前記第1の値のいずれかが所定の閾値よりも小さい場合、前記第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値を、前記第1の値を算出するために用いた系列の所定の画素位置における画素値として出力し(例えば、図25のステップS158、S161、S163、S166、S168、または、S171の処理)、前記第2の値が所定の閾値よりも大きく、かつ、あるフレームに対して算出される前記第1の値の全てが所定の閾値よりも大きい場合、前記第1の値を算出するために用いた系列の所定の画素位置における入力された画素値を出力する(例えば、図25のステップS159、S164、S169、または、S172の処理)ステップを含む。
本発明の一側面のプログラムは、第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データの処理をコンピュータに実行させるためのプログラムであって、N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における、所定の画素位置の画素値の差分値であるN−1個の第1の値を算出し(例えば、図25のステップS151乃至ステップS153の処理)、N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出し(例えば、図25のステップS154の処理)、算出された前記第2の値が所定の閾値よりも小さかった場合、N系列の前記動画像データの所定の画素位置における画素値の加算平均値を、N系列の前記動画像データの所定の画素位置における画素値として出力し(例えば、図25のステップS156の処理)、前記第2の値が所定の閾値よりも大きく、かつ、前記第1の値のいずれかが所定の閾値よりも小さい場合、前記第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値を、前記第1の値を算出するために用いた系列の所定の画素位置における画素値として出力し(例えば、図25のステップS158、S161、S163、S166、S168、または、S171の処理)、前記第2の値が所定の閾値よりも大きく、かつ、あるフレームに対して算出される前記第1の値の全てが所定の閾値よりも大きい場合、前記第1の値を算出するために用いた系列の所定の画素位置における入力された画素値を出力する(例えば、図25のステップS159、S164、S169、または、S172の処理)ステップを含む処理をコンピュータに実行させる。
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した撮像装置1の構成を示すブロック図である。
撮像装置1は、カメラ制御部11、撮像光学系21、撮像素子22、メモリ制御部23、フレームメモリ24、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4、ビデオ出力部26、ファインダ出力部27、#1コーデック部28−1、#2コーデック部28−2、#3コーデック部28−3、および、#4コーデック部28−4、並びに、#1記録部29−1、#2記録部29−2、#3記録部29−3、および、#4記録部29−4を含んで構成されている。
カメラ制御部11は、撮像装置1の処理全体を制御するものである。
撮像装置1は、メカニカルシャッタ、レンズなどの撮像光学系21を介して入射される光を撮像素子22で受光する。撮像素子22は、高解像度(ここでは、例えば、HD解像度)、かつ、高フレームレート(ここでは、例えば、240フレーム毎秒、すなわち、240Hzとする)の撮像を行うことができる固体撮像素子であり、図示しないAD変換器を介してデジタル変換された撮像データ、すなわち、図中aで示される撮像素子出力データを出力する。ここで、AD変換器は、撮像素子22がCMOS型固体撮像素子である場合などにおいては、素子上に実装されていてもよいし、または、撮像素子22がCMOS型固体撮像素子以外の固体撮像素子であるときなどにおいては、撮像素子22の外部に配置されているものであってもよい。また、図1を用いて説明する撮像装置1の撮像素子22は、受光面に、画素ごとに異なる波長域を透過するカラーフィルタを持つ単板カラー方式の固体撮像素子である。
撮像素子22から出力される撮像データは、単板カラー方式の固体撮像素子により出力される、所謂RAWデータであるため、図2に示すようなベイヤー(Bayer)配列に従った色配列の画素データで構成され、メモリ制御部23に供給される。そして、メモリ制御部23において、複数の画素データが、一度にフレームメモリ24と授受可能な1ブロック(例えば、複数個の画素データをまとめた64ビットや128ビットなどの所定の量のデータや、1ラインのデータなど)単位にまとめられて、フレームメモリ24に記憶される。メモリ制御部23は、撮像素子22から入力される撮像データをフレームメモリ24へ書き込むのと同時に、フレームメモリ24から過去フレームの撮像データを読み出し、図中b乃至eで示されるビデオ画像データとして、1フレームごとに、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4へ同時に出力する。
撮像素子22からメモリ制御部23に入力される撮像データ、すなわち、図中aで示される撮像素子出力データが、HD解像度、240フレーム毎秒の撮像データであるとき、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4には、HD解像度、60フレーム毎秒の撮像データである、図中b乃至eで示されるビデオ画像データが出力される。ここで、フレームメモリ24は、少なくとも8フレーム分の撮像データを記憶する容量を有している。メモリ制御部23の動作の詳細については、図3、および、図4を参照して後述する。
#1カメラ信号処理部25−1は、メモリ制御部23から出力されるHD解像度、60フレーム毎秒の撮像データ(RAWデータ)を取得し、信号処理を行って、信号処理後のビデオ信号を、#1コーデック部28−1およびファインダ出力部27に出力する。#2カメラ信号処理部25−2は、メモリ制御部23から出力されるHD解像度、60フレーム毎秒の撮像データを取得し、信号処理を行って、信号処理後のビデオ信号を、#2コーデック部28−2に出力する。#3カメラ信号処理部25−3は、メモリ制御部23から出力されるHD解像度、60フレーム毎秒の撮像データを取得し、信号処理を行って、信号処理後のビデオ信号を、#3コーデック部28−3に出力する。#4カメラ信号処理部25−4は、メモリ制御部23から出力されるHD解像度、60フレーム毎秒の撮像データを取得し、信号処理を行って、信号処理後のビデオ信号を#4コーデック部28−4に出力する。
以下の説明においては、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4を個々に区別する必要がない場合、単に、カメラ信号処理部25と称する。カメラ信号処理部25は、一般的な60フレーム毎秒の撮像データを処理するので、撮像装置1においては、240フレーム毎秒の撮像データを処理する能力を有する高速な信号処理部を用いる必要はない。カメラ信号処理部25の更に詳細な構成については、図5を参照して後述する。
#1コーデック部28−1は、#1カメラ信号処理部25−1から出力されるビデオ信号を取得し、画像符号化処理を行う。#2コーデック部28−2は、#2カメラ信号処理部25−2から出力されるビデオ信号を取得し、画像符号化処理を行う。#3コーデック部28−3は、#3カメラ信号処理部25−3から出力されるビデオ信号を取得し、画像符号化処理を行う。#4コーデック部28−4は、#4カメラ信号処理部25−4から出力されるビデオ信号を取得し、画像符号化処理を行う。
#1コーデック部28−1は、画像符号化後のストリーム画像データを、#1記録部29−1に出力する。#2コーデック部28−2は、画像符号化後のストリーム画像データを、#2記録部29−2に出力する。#3コーデック部28−3は、画像符号化後のストリーム画像データを、#3記録部29−3に出力する。#4コーデック部28−4は、画像符号化後のストリーム画像データを、#4記録部29−4に出力する。
更に、#1コーデック部28−1は、#1記録部29−1から圧縮符号化されたストリーム画像データを取得し、復号して、図中fで示される復号後のビデオ画像データを、ビデオ出力部26に出力するとともに、同様にして、復号後のビデオ画像データを、ファインダ出力部27に出力する。#2コーデック部28−2は、#2記録部29−2から圧縮符号化されたストリーム画像データを取得し、復号して、図中gで示される復号後のビデオ画像データを、ビデオ出力部26に出力する。#3コーデック部28−3は、#3記録部29−3から圧縮符号化されたストリーム画像データを取得し、復号して、図中hで示される復号後のビデオ画像データを、ビデオ出力部26に出力する。#4コーデック部28−4は、#4記録部29−4から圧縮符号化されたストリー画像データを取得し、復号して、図中iで示される復号後のビデオ画像データを、ビデオ出力部26に出力する。
ここで、#1コーデック部28−1、#2コーデック部28−2、#3コーデック部28−3、および、#4コーデック部28−4が実行する画像符号化処理としては、フレーム内圧縮を行うJPEG2000 CODECや、フレーム間圧縮を行うMPEG2やH.264 CODECなどが用いられる。以下の説明においては、#1コーデック部28−1、#2コーデック部28−2、#3コーデック部28−3、および、#4コーデック部28−4を個々に区別する必要がない場合、単に、コーデック部28と称する。コーデック部28は、一般的な60フレーム毎秒のデータを処理するので、撮像装置1においては、240フレーム毎秒のデータを処理する能力を有する高速なコーデック部を用いる必要はない。また、ここでは、コーデック部28が符号化および復号を行うものとして説明したが、コーデック部28に代わって、デコーダおよびエンコーダをそれぞれ個別に設けてもよいことは言うまでもない。
#1記録部29−1、#2記録部29−2、#3記録部29−3、および、#4記録部29−4は、コーデック部28からそれぞれ出力される圧縮符号化された、60フレーム毎秒のストリーム画像データを取得して記録する。すなわち、#1記録部29−1、#2記録部29−2、#3記録部29−3、および、#4記録部29−4は、それぞれがHD解像度、60フレーム毎秒のビデオ信号の圧縮符号化されたストリーム画像データを記録する。
図1においては、#1記録部29−1、#2記録部29−2、#3記録部29−3、および、#4記録部29−4を、それぞれ独立した記録部として記載しているが、#1記録部29−1、#2記録部29−2、#3記録部29−3、および、#4記録部29−4は、1つの記録部の異なる記憶領域を示すものであってもよい。以下の説明においては、#1記録部29−1、#2記録部29−2、#3記録部29−3、および、#4記録部29−4を個々に区別する必要がない場合、単に、記録部29と称する。記録部29には、例えば、光ディスクなどのリムーバブルメディアが装着されたドライブ、ハードディスクドライブ、または、半導体メモリなどを用いることができる。
ファインダ出力部27は、#1カメラ信号処理部25−1または#1コーデック部28−1から出力されるビデオ信号を受け取り、ファインダで表示可能な信号に変換する。図示しないファインダは、撮影中の画像または再生出力中の画像を確認するための表示部であり、撮像装置1に内蔵されていても、外部に備えられていても良く、例えば、ビデオ信号(YCbCr4:2:2)を表示する液晶表示装置により構成される。ファインダの解像度は、通常HD解像度よりも低いことが多く、また、同様にフレームレートが低いこともあり、ファインダ出力部27は、ファインダの解像度に合わせて解像度変換処理を行ったり、フレームレートの変換処理を行う。さらに、ファインダの入力信号がRGB信号である場合には、#1カメラ信号処理部25−1において色空間変換処理を行う前の、γ変換後の画像信号を、ファインダ出力部27が直接取得する構成にしても構わない。
ビデオ出力部26は、カメラ信号処理部25から信号処理後のビデオ信号を取得するか、または、コーデック部28から復号後の再生画像データを取得し、必要に応じてフレーム合成を行って、所定のフレームレートのビデオ信号を生成し、図中kで示されるビデオ出力として、所定のフレームレートのビデオ信号を、例えば、外部の記録装置や表示装置、または、所定の信号伝送路などに出力する。
撮像装置1における出力されるビデオ画像データのフレーム合成の詳細については、図6および図7を用いて後述する。
次に、図3を参照して、撮像装置1における撮像画像と、処理および記録される画像フレームの関係について説明する。
撮像装置1の撮像素子22は、ここでは、HD解像度、240フレーム毎秒の撮像を行うものとして説明する。従って、図1において図中aで示された撮像素子出力データは、HD解像度の画像データが時間方向に毎秒240枚出力されるものである。図2においては、撮像素子出力データaとして、Nフレーム乃至(N+11)フレームの12フレームが撮像素子22から出力される場合のフレーム分配を示す。
撮像素子出力データaは、上述したように、メモリ制御部23により、一時的にフレームメモリ24に記憶される。撮像素子22からNフレーム目が出力される時刻t1のタイミングにおいて、少なくとも8フレーム分の記録容量を有するフレームメモリ24には、(N−4)フレーム乃至(N−1)フレームの4フレーム分の画像データが保持されている。撮像素子22から出力された、Nフレーム、(N+1)フレーム、(N+2)フレーム、(N+3)フレームの4フレーム分の画像データがフレームメモリ24に順次供給されて記録される時刻t2までの間、具体的には、4/240秒の間に、メモリ制御部23は、フレームメモリ24に記憶された(N−4)フレーム乃至(N−1)フレームの4フレーム分の画像データを、並列的に読み出して、(N−4)フレーム目を#1カメラ信号処理部25−1に、(N−3)フレーム目を#2カメラ信号処理部25−2に、(N−2)フレーム目を#3カメラ信号処理部25−3に、(N−1)フレーム目を#4カメラ信号処理部25−4に分配する。
そして、撮像素子22から(N+4)フレーム目が出力される時刻t2のタイミングにおいて、フレームメモリ24には、Nフレーム乃至(N+3)フレームの4フレーム分の画像データが保持されている。撮像素子22から出力された、(N+4)フレーム、(N+5)フレーム、(N+6)フレーム、(N+7)フレームの4フレーム分の画像データがフレームメモリ24に順次供給されて記録される時刻t3までの間、具体的には、4/240秒の間に、メモリ制御部23は、フレームメモリ24に記憶されたNフレーム乃至(N+3)フレームの4フレーム分の画像データを、並列的に読み出して、Nフレーム目を#1カメラ信号処理部25−1に、(N+1)フレーム目を#2カメラ信号処理部25−2に、(N+2)フレーム目を#3カメラ信号処理部25−3に、(N+3)フレーム目を#4カメラ信号処理部25−4に分配する。
続いて、撮像素子22から(N+8)フレーム目が出力される時刻t3のタイミングにおいて、フレームメモリ24には、(N+4)フレーム乃至(N+7)フレームの4フレーム分の画像データが保持されている。撮像素子22から出力された、(N+8)フレーム、(N+9)フレーム、(N+10)フレーム、(N+11)フレームの4フレーム分の画像データがフレームメモリ24に順次供給されて記録されるまでの間、具体的には、4/240秒の間に、メモリ制御部23は、フレームメモリ24に記憶された(N+4)フレーム乃至(N+7)フレームの4フレーム分の画像データを、並列的に読み出して、(N+4)フレーム目を#1カメラ信号処理部25−1に、(N+5)フレーム目を#2カメラ信号処理部25−2に、(N+6)フレーム目を#3カメラ信号処理部25−3に、(N+7)フレーム目を#4カメラ信号処理部25−4に分配する。
すなわち、撮像素子22から供給される撮像素子出力データaは、4フレーム遅延してフレームメモリ24から読み出されてカメラ信号処理部25のいずれかに供給される。フレームメモリ24から読み出されるビデオ画像データb乃至eのそれぞれは、撮像素子出力データaに対してフレームレートが1/4となっており、例えば撮像素子出力データaがHD解像度、240フレーム毎秒の画像データであるとき、ビデオ画像データb乃至eのそれぞれは、HD解像度、60フレーム毎秒の画像データである。
次に、図4を参照して、撮像装置1における撮像画像フレームと、処理および記録される画像フレームの入出力タイミングについて説明する。
図1に示した撮像素子出力データaには、それぞれの撮像画像フレームを構成する画素データに加えて、それぞれのフレームに対応して、各フレームの先頭を表す同期信号である垂直同期信号A、フレームを構成する水平ラインごとに発生する水平同期信号、および、イネーブル信号が含まれている。ここで、撮像素子出力データaが、HD解像度、240フレーム毎秒であるとき、垂直同期信号Aは、1/240秒ごとにアクティブになる信号である。画素データは、1フレーム期間(1/240秒)内にブランキング期間も含めた全画素データ(たとえば2200画素×1125ラインの画素)が時系列に並んだ信号である。
そして、撮像素子出力データaは、順次フレームメモリ24に供給されて記憶され、その記憶処理と並行して、既にフレームメモリ24に記憶されていたビデオ画像データが4フレーム分並列して、すなわち、所定の読み出し単位ごとに交互に読み出される。並列して読み出されるビデオ画像データb乃至eは、上述したように、HD解像度、60フレーム毎秒の画像データである。読み出し単位は、例えば、フレームメモリ24に1回アクセスするごとに授受可能なデータ量に基づいて決められるものであり、例えば、所定ビット数のデータや、画像1フレーム内の1ライン、または、所定の複数ラインのデータであるものとすることができる。
#1カメラ信号処理部25−1に供給されるビデオ画像データbの先頭を示す同期信号である垂直同期信号B−1は、1/60秒ごとにアクティブになる信号である。ビデオ画像データbを構成する画素データは、ブランキング期間を含めた全画素データ(たとえば2200画素×1125ラインの画素)が1フレーム期間(1/60秒)内に時系列に並んだ信号である。
以下、同様に、#2カメラ信号処理部25−2に供給されるビデオ画像データcの先頭を示す同期信号である垂直同期信号B−2は、1/60秒ごとにアクティブになる信号である。ビデオ画像データcを構成する画素データは、ブランキング期間を含めた全画素データ(たとえば2200画素×1125ラインの画素)が1フレーム期間(1/60秒)内に時系列に並んだ信号である。そして、#3カメラ信号処理部25−3に供給されるビデオ画像データdの先頭を示す同期信号である垂直同期信号B−3は、1/60秒ごとにアクティブになる信号である。ビデオ画像データdを構成する画素データは、ブランキング期間を含めた全画素データ(たとえば2200画素×1125ラインの画素)が1フレーム期間(1/60秒)内に時系列に並んだ信号である。また、#4カメラ信号処理部25−4に供給されるビデオ画像データeの先頭を示す同期信号である垂直同期信号B−4は、1/60秒ごとにアクティブになる信号である。ビデオ画像データeを構成する画素データは、ブランキング期間を含めた全画素データ(たとえば2200画素×1125ラインの画素)が1フレーム期間(1/60秒)内に時系列に並んだ信号である。
メモリ制御部23の処理によりフレームメモリ24から読み出されたビデオ画像データb乃至eは、それぞれが、HD解像度、60フレーム毎秒のビデオ画像データとして、独立に処理または表示することが可能なものであり、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4のうちの対応するものに供給されて処理される。
図5は、カメラ信号処理部25の詳細な構成を示すブロック図である。
WB(white balance)補正部51は、RAWデータの各色成分のバランスを補正し、無彩色の領域において赤成分(R)、緑成分(G)、青成分(B)の輝度値が等しくなるようなホワイトバランス調整を行う。
RGB補間同時化処理部52は、各画素においてR,G,Bのいずれかの色成分しか持たないRAWデータに対して、周囲の画素データからの補間処理、すなわち、所謂デモザイク処理を行い、各画素において全ての色成分が揃った画素データとして出力する。例えば、図2に示されるベイヤー配列を有する撮像データにおいて、画素位置(x=2、y=2)の画素B22はB成分しか持たないため、周囲画素を用いた補間処理によりR成分とG成分を生成し、それぞれR22、G22として出力する。撮像データとしてR成分のみの存在する画素(たとえばx=1、y=1)についても、G成分のみが存在する画素(たとえばx=2、y=1)についても同様である。
マトリクス処理部53は、3×3行列を用いた色補正処理回路である。この処理により、撮像素子の色空間、および撮影環境によって左右される色バランスを、本来の信号規格に合わせた色空間に近づける。
ガンマ(γ)補正部54は、入出力の階調数に応じたルックアップテーブル処理によりビデオ信号規格に従ったガンマ補正処理を行う。
色空間変換部55は、RGB色空間による画素データをYCbCr色空間に変換する。ここで、変換後の色空間は、ビデオ信号の標準化規格で定められているものであり、例えばHDTV規格はITU-R.BT709で規定されている。さらに、色空間変換部55は、色差信号Cb、Crについては縮退処理を行い、4:2:2フォーマットに変換してから変換後のビデオ信号(YCbCr4:2:2)を出力する。
このようにして、カメラ信号処理部25のそれぞれからは、HD解像度、60フレーム毎秒のビデオ信号(YCbCr4:2:2)が出力される。
カメラ信号処理部25により処理されたビデオ画像データが、圧縮符号化されたのち、記録部29に記録される場合、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4により処理されたビデオ画像データが、#1コーデック部28−1、#2コーデック部28−2、#3コーデック部28−3、および、#4コーデック部28−4のうちのそれぞれ対応するものに供給されて、圧縮符号化され、圧縮符号化されているストリーム画像データが、#1記録部29−1、#2記録部29−2、#3記録部29−3、および、#4記録部29−4にそれぞれ供給されて、記録される。
そして、記録部29に記録された圧縮符号化されたストリーム画像データが再生出力される場合、カメラ制御部11は、ビデオ出力部26から出力されるビデオ画像データのフレームレートに基づいて、所定の記録部29から圧縮符号化データを読み出して、コーデック部28により復号させ、ビデオ出力部26に供給させる。ビデオ出力部26は、供給された復号後のビデオ画像データに対して必要に応じてフレーム合成を行い、生成されたビデオ画像データをビデオ出力kとして外部に供給する。
また、撮像された映像をそのまま出力する場合においても、カメラ制御部11は、ビデオ出力部26から出力されるビデオ画像データのフレームレートに基づいて、所定のカメラ信号処理部25から処理後のビデオ画像データをビデオ出力部26に供給させる。ビデオ出力部26は、供給されたビデオ画像データのフレーム合成を行い、生成されたビデオ画像データをビデオ出力kとして外部に供給する。
記録部29に記録されていた圧縮符号化されたストリーム画像データを再生する場合を例として、出力フレームレートとフレーム合成について、図6および図7を用いて説明する。
記録部29のそれぞれには、高解像度(ここではHD解像度)、かつ高フレームレート(ここでは240フレーム毎秒)の動画像がフレーム単位で4分割された後、圧縮符号化されて生成されたストリーム画像データが記録されている。換言すれば、記録部29のそれぞれに記録されているストリーム画像データは、それぞれがHD解像度、60フレーム毎秒の動画像であり、かつ、240フレーム毎秒に撮像画像を基準として時間的に1フレームずつずれている。具体的には、#1記録部29−1に記録されているストリーム画像データは、240フレーム毎秒の動画像のうち、4枚に1枚を抜き出した60フレーム毎秒の動画像であり、#2記録部29−2に記録されているストリーム画像データは、#1記録部29−1に記録されているストリーム画像データよりも時間的に1フレーム遅延した60フレーム毎秒の画像データとなっており、同様に、#3記録部29−3に記録されているストリーム画像データは、#1記録部29−1に記録されているストリーム画像データよりも時間的に2フレーム遅延した60フレーム毎秒の画像データとなっており、#4記録部29−4に記録されているストリーム画像データは、#1記録部29−1に記録されているストリーム画像データよりも時間的に3フレーム遅延した60フレーム毎秒の画像データとなっている。
記録部29に記録された圧縮符号化データが再生出力される場合、カメラ制御部11からの制御により、記録されているストリーム画像データが指定されたフレームから順次読み出されて、コーデック部28のうちの対応するものにより復号されて再生される。
図6は、240フレーム毎秒のビデオ画像データが出力される場合のフレーム合成を示している。
240フレーム毎秒出力の再生動作が指令された場合、カメラ制御部11は、記録部29のそれぞれを制御し、記録されている圧縮符号化されたストリーム画像データを指定の開始フレームから読み出させる。再生された4つのストリーム画像データは、それぞれ、コーデック部28において復号され、HD解像度、60フレーム毎秒であって、それぞれが1/240秒ずつ、すなわち、240フレーム毎秒のビデオ画像データにおける1フレーム分ずれている4つのビデオ画像データf乃至iが、ビデオ出力部26に入力される。
ビデオ出力部26は、4つのビデオ画像データf乃至iを図示しないフレームメモリに一時記憶し、HD解像度、240フレーム毎秒のフレームレートとなるように並べて、図6に示すフレーム順、すなわち、240フレーム毎秒の撮像時と同一のフレーム順にて読出しを行い、ビデオ信号として出力する。図6においてフレーム順を示すN,N+1,N+2・・・は、240フレーム毎秒のビデオ画像データにおける場合のフレーム順を示す。すなわち、図6においてフレーム順を示すN,N+1,N+2・・・は、図3を用いて説明した、撮像された240フレーム毎秒のビデオ画像データにおける場合のフレーム順と基本的に同様にして、1/240秒だけずれたフレームの並び順を示すものである。
具体的には、#1コーデック部28−1からビデオ画像データfのNフレーム目が出力され、#2コーデック部28−2からビデオ画像データgの(N+1)フレーム目が出力され、#3コーデック部28−3からビデオ画像データhの(N+2)フレーム目が出力され、#4コーデック部28−4からビデオ画像データiの(N+3)フレーム目が出力され、ビデオ出力部26に供給される。そして、ビデオ出力部26は、Nフレーム目から(N+3)フレーム目までの4フレームを図示しないフレームメモリに保持する。
そして、次に、#1コーデック部28−1からビデオ画像データfの(N+4)フレーム目が出力され、#2コーデック部28−2からビデオ画像データgの(N+5)フレーム目が出力され、#3コーデック部28−3からビデオ画像データhの(N+6)フレーム目が出力され、#4コーデック部28−4からビデオ画像データiの(N+7)フレーム目が出力され、ビデオ出力部26に供給される。ビデオ出力部26は、(N+4)フレーム目から(N+7)フレーム目までの4フレームを図示しないフレームメモリに保持するとともに、既にフレームメモリに保持されているNフレーム目から(N+3)フレーム目までの4フレームをフレーム順に並べて、ビデオ出力kとして出力する。すなわち、ビデオ出力kは、ビデオ画像データg乃至iの、ビデオ出力部26への供給開始タイミングに対して少なくとも4フレーム分遅れて出力されている。
このようにして、ビデオ出力部26から出力されるビデオ信号kは、HD解像度、240フレーム毎秒での画像表示が可能である。このようにすることにより、撮像装置1により撮像された動画像は、複雑な処理を行うことなく、例えば、60フレーム毎秒などの通常フレームレートに比較して、高速な動画像表示を実現することが出来る。
ここで、ビデオ出力部26からは、HD解像度、240フレーム毎秒のビデオ信号を、広帯域な1系統のビデオ伝送路で出力するものとして説明したが、ビデオ出力部26は、出力されるビデオ信号kを取得する図示しない表示装置の仕様に合わせて、フレーム合成する前の、4系統のHD解像度、60フレーム毎秒のビデオ信号を、4系統のビデオ伝送路を介して図示しない表示部に出力するものとしても良い。このようにした場合、4系統のHD解像度、60フレーム毎秒のビデオ信号を取得する表示装置において、4系統のHD解像度60フレーム毎秒の入力ビデオ信号からHD解像度240フレーム毎秒のビデオ信号を生成するためのフレーム合成を、図6を用いて説明した場合と同様に実行する必要がある。また、この場合には、ビデオ出力部26は、フレーム合成をせずに、HD解像度、60フレーム毎秒のビデオ画像データf乃至iをそのまま4系統のビデオ信号として出力すれば良い。
次に、図7を参照して、120フレーム毎秒での再生動作について説明する。
例えば、表示装置が120フレーム毎秒までしか対応していない、または、ビデオ信号の伝送路が120フレーム毎秒までしか対応していないなどの理由により、HD解像度120フレーム毎秒のビデオ信号出力を行う場合、カメラ制御部11は、記録部29のうち、記録されている圧縮符号化されたストリーム画像データが240フレーム毎秒の動画フレームにおける2フレーム分ずれている2つの記録部29から、記録されている圧縮符号化されたストリーム画像データをコーデック部28に供給させる。再生された2つのストリーム画像データは、それぞれ、コーデック部28において復号される。そして、HD解像度、60フレーム毎秒であって、それぞれのビデオ画像データが、2/240秒ずつ、すなわち、240フレーム毎秒のビデオ画像データにおける2フレーム分それぞれずれている2つのビデオ画像データfおよびビデオ画像データh(または、ビデオ画像データgおよびビデオ画像データi)が、ビデオ出力部26に入力される。
ビデオ出力部26は、2つのビデオ画像データfおよびビデオ画像データhを図示しないフレームメモリに一時記憶し、HD解像度、120フレーム毎秒のフレームレートとなるように並べて、図7に示すフレーム順にて読出しを行い、ビデオ信号として出力する。図7においても、フレーム順を示すN,N+2,N+4・・・は、240フレーム毎秒のビデオ画像データにおける場合のフレーム順を示す。すなわち、フレーム合成されたビデオ画像データのフレーム順は、N,N+2,N+4・・・であるので、フレーム合成後のビデオ画像データは、240フレーム毎秒のビデオ画像データを1/2間引きした120フレーム毎秒のビデオ画像データとなる。
このようにして、ビデオ出力部26からは、複雑な処理を行うことなく、HD解像度、240フレーム毎秒での画像表示が可能なビデオ出力kのみならず、HD解像度、120フレーム毎秒での画像表示が可能なビデオ出力kを出力することが可能である。このようにすることにより、撮像装置1は、容易に複数のフレームレートのビデオ画像データを生成して出力することができる。
ここで、ビデオ出力部26からは、出力されるビデオ信号kを取得する図示しない表示装置の仕様に合わせて、HD解像度、120フレーム毎秒のビデオ信号を、広帯域な1系統のビデオ伝送路で出力するものとして説明したが、ビデオ出力部26は、例えば、2系統のHD解像度、60フレーム毎秒のビデオ信号を、2系統のビデオ伝送路を介して図示しない表示部に出力するものとしても良い。このようにした場合、2系統のHD解像度、60フレーム毎秒のビデオ信号を取得する表示装置において、2系統のHD解像度60フレーム毎秒の入力ビデオ信号からHD解像度120フレーム毎秒のビデオ信号を生成するためのフレーム合成を、図7を用いて説明した場合と同様に実行する必要がある。また、この場合には、ビデオ出力部26は、フレーム合成をせずに、HD解像度、60フレーム毎秒のビデオ画像データfおよびビデオ画像データhをそのまま2系統のビデオ信号として出力すれば良い。
図示は省略するが、さらに、表示装置が通常のフレームレートである60フレーム毎秒しか対応しない場合、または、伝送路が60フレーム毎秒しか対応しない場合などにおいては、カメラ制御部11は、記録部29のうちのいずれか1つから圧縮符号化されたストリーム画像データが読み出されて、コーデック部28のうちの対応するものにおいて復号され、60フレーム毎秒のビデオ画像データがビデオ出力部26に供給されるように、各部を制御する。ビデオ出力部26は、供給されたHD解像度60フレーム毎秒のビデオ画像データを出力する。
このようにして、撮像装置1においては、高解像度、かつ高フレームレートでの撮像を行い、撮像された動画像をフレーム単位で分割し、分割後のデータに対して並列処理を行うことにより、動画像データの画像処理、コーデック、または記録処理は、通常フレームレート(例えば、撮像が240フレーム毎秒であるのに対して、60フレーム毎秒)で実行することができ、再生時には、複雑な処理を行うことなく、複数の出力フレームレートでビデオデータを出力することが可能となる。
また、撮像画像が図示しないファインダに出力されて表示される場合、#1カメラ信号処理部25−1により処理された画像データが、ファインダ出力部27に出力される。さらに、ビデオ出力される画像データが図示しないファインダに出力されて表示される場合、#1コーデック部28−1により復号された画像データが、ファインダ出力部27に出力される。換言すれば、ファインダに出力される画像データのフレームレートは、60フレーム毎秒である。
これに対して、例えば、ファインダが120フレーム毎秒のフレームレートの動画像の表示能力を有している場合、#1カメラ信号処理部25−1により処理された画像データに加えて#3カメラ信号処理部25−3により処理された画像データがファインダ出力部27に出力されるか、または、#1コーデック部28−1により復号された画像データに加えて#3コーデック部28−3により復号された画像データがファインダ出力部27に出力されて、フレーム合成されて出力されるようにしても良い。
また、ファインダが240フレーム毎秒のフレームレートの動画像の表示能力を有している場合、カメラ制御部11の制御により、カメラ信号処理部25の全てから処理後の60フレーム毎秒の4つのビデオ画像データがビデオ出力部26に供給されるか、記録部29のうちの全てから圧縮符号化されたストリーム画像データが読み出されて、コーデック部28のそれぞれにおいて復号され、60フレーム毎秒の4つのビデオ画像データがビデオ出力部26に供給されて、フレーム合成されて表示させるようにしてもよいことは言うまでもない。
また、撮像され処理された画像データが、一旦圧縮されて記録されることなく外部に出力される場合、出力されるビデオ画像データのフレームレートに基づいて、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4のうちの所定のカメラ信号処理部25により処理されたビデオ画像データがビデオ出力部26に供給される。
具体的には、出力されるビデオ画像データのフレームレートが240フレーム毎秒である場合、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4の全てからビデオ画像データがビデオ出力部26に供給される。そして、出力されるビデオ画像データのフレームレートが120フレーム毎秒である場合、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4のうち、処理するフレームが240フレーム毎秒の動画フレームにおける2フレーム分ずれている2つのカメラ信号処理部25からビデオ画像データがビデオ出力部26に供給される。また、出力されるビデオ画像データのフレームレートが60フレーム毎秒である場合、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4のうちのいずれか1つからビデオ画像データがビデオ出力部26に供給される。
上述した撮像装置1においては、一般的に動画像を撮像する場合に広く用いられる60フレーム毎秒の4倍の240フレーム毎秒で、動画像を撮像し、撮像された動画像データを4つにフレームごとに分割して、4系統の60フレーム毎秒の動画像データを生成して、各種処理を行い、60フレーム毎秒、120フレーム毎秒、または、240フレーム毎秒の動画像を再生可能なようになされているが、撮像のフレームレートや、撮像された動画像データの分割数は、これ以外のものであってもかまわないことはいうまでもない。
具体的には、例えば、240フレーム毎秒で撮像した動画像を2分割や3分割するようにしても良いし、120フレーム毎秒で撮像した動画像を2分割や3分割するようにしても良い。また、200フレーム毎秒で撮像した動画像を4分割したり、100フレーム毎秒で撮像した動画像を2分割するようにしても良いし、96フレーム毎秒で撮像した動画像を4分割したり、48フレーム毎秒で撮像した動画像を2分割するようにしても良い。
このとき、分割された各系統の動画像データが、例えば、60フレーム毎秒、50フレーム毎秒、または、24フレーム毎秒など、一般的に動画像を撮像する場合に広く用いられているフレームレートであると、例えば、信号処理やコーデックに必要な回路等に汎用品を用いることができ、コストを抑制することができるので好適である。しかしながら、分割された各系統の動画像データのフレームレートは、これ以外の値であってもかまわない。
また、ここでは、分割された各系統のフレームレートが等しい場合を例として説明したが、分割された各系統のフレームレートが異なっていてもよいことは言うまでもない。例えば、240フレーム毎秒で撮像した動画像を、120フレーム毎秒の1系統と、60フレーム毎秒の2系統に分割するようにしても良い。
なお、記録部29の容量が大きく、かつ、記録レートが高速な場合や、コーデックによる画像の劣化を防ぎたい場合など、コーデック部28を省略し、圧縮符号化しないビデオ画像データを記録部29に記録するようにしても良いことは言うまでもない。
このように、撮像装置1は、例えば、60フレーム毎秒、50フレーム毎秒、または、24フレーム毎秒など、一般的に動画像を撮像する場合に広く用いられているフレームレートのN倍(ここでは4倍)のフレームレートで撮像した画像データを、フレーム単位で、時間方向にN分割することにより、高フレームレートのビデオ画像データを、N個の通常のフレームレートにおける画像データとして処理したり記録することができ、更に、複雑な処理を行うことなく、複数のフレームレートで動画像データを出力することができる。
また、撮像装置1は、撮像素子22として、受光面に画素ごとに異なる波長域を透過するカラーフィルタを持つ単板カラー方式の固体撮像素子を有していたが、撮像方法は、これ以外の方式であっても良いことはいうまでもない。例えば、単板カラー方式ではなく、三板式の撮像装置においても、本発明は適用可能である。
図9は、固体撮像素子を3つ使用する三板式の撮像装置101の構成を示すブロック図である。
なお、図1の撮像装置1と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、撮像装置101は、カメラ制御部11に代わってカメラ制御部111が設けられ、撮像素子22に代わって、撮像素子121乃至123が設けられ、メモリ制御部23に代わってメモリ制御部124が設けられ、フレームメモリ24に代わってフレームメモリ125が設けられ、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4に代わって、#1カメラ信号処理部126−1、#2カメラ信号処理部126−2、#3カメラ信号処理部126−3、および、#4カメラ信号処理部126−4が設けられ、新たに、撮像光学系21を介して入射される光を分光するダイクロイックプリズム120が備えられている以外は、図1を用いて説明した撮像装置1と基本的に同様の構成を有するものである。
以下の説明においては、#1カメラ信号処理部126−1、#2カメラ信号処理部126−2、#3カメラ信号処理部126−3、および、#4カメラ信号処理部126−4を個々に区別する必要がない場合、単に、カメラ信号処理部126と称する。
カメラ制御部111は、撮像装置101の各部の動作を制御する。
撮像素子121、122、および123は、撮像光学系21を介して入射され、ダイクロイックプリズム120より赤色成分(R)、緑色成分(G)、および、青色成分(B)に分光された光を受光する。ここで、撮像素子121は、赤色成分(R)を中心とした波長域の光を受光し、撮像素子122は、緑色成分(G)を中心とした波長域の光を受光し、撮像素子123は、青色成分(B)を中心とした波長域の光を受光するものとする。
メモリ制御部124は、カメラ制御部111の制御に基づいて、撮像素子121、122、および123から供給された、RGBそれぞれの色成分を中心とした波長域に対応する撮像データを、3色で1フレームとしてフレームメモリ125に供給するとともに、フレームメモリ125に記録されている、3色で1フレームの撮像データの4フレーム分を、図3および図4を用いて説明した場合と同様の処理によりフレーム単位で分割し、カメラ信号処理部126にそれぞれ供給する。フレームメモリ125は、少なくとも、RGB3色で1フレームの撮像データを8フレーム分保持することが可能な記憶容量を有する。
したがって、三板式の撮像素子を用いて撮像を行う撮像装置101では、各画素位置においてR,G,Bのそれぞれの撮像データが得られているため、カメラ信号処理部126のそれぞれにおいては、RGB補間同時化処理を行う必要がない。
カメラ信号処理部126の構成を図9に示す。
なお、図5のカメラ信号処理部25と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、カメラ信号処理部126は、RGB補間同時化処理部52が省略され、WB補正部51に代わってWB補正部151が設けられている以外は、図5のカメラ信号処理部25と基本的に同様の構成を有するものである。
WB補正部151は、各画素ごとにR,G,Bが揃った画像信号の供給を受け、各画素毎にR,G,B間での色バランス調整を行い、調整後の画像信号(R,G,B)をマトリクス処理部53に供給する。マトリクス処理以降の信号処理については、図5を用いて説明したカメラ信号処理部25と基本的に同様である。
このように、撮像装置101においても、一般的に動画像を撮像する場合に広く用いられる60フレーム毎秒の4倍の240フレーム毎秒で、動画像を撮像し、撮像された動画像データを4つにフレームごとに分割して、4系統の60フレーム毎秒の動画像データを生成して、各種処理を行い、60フレーム毎秒、120フレーム毎秒、または、240フレーム毎秒の動画像を再生可能なようになされているが、撮像のフレームレートや、撮像された動画像データの分割数は、これ以外のものであってもかまわないことはいうまでもない。
具体的には、例えば、240フレーム毎秒で撮像した動画像を2分割や3分割するようにしても良いし、120フレーム毎秒で撮像した動画像を2分割や3分割するようにしても良い。また、200フレーム毎秒で撮像した動画像を4分割したり、100フレーム毎秒で撮像した動画像を2分割するようにしても良いし、96フレーム毎秒で撮像した動画像を4分割したり、48フレーム毎秒で撮像した動画像を2分割するようにしても良い。
このとき、分割された各系統の動画像データが、例えば、60フレーム毎秒、50フレーム毎秒、または、24フレーム毎秒など、一般的に動画像を撮像する場合に広く用いられているフレームレートであると、例えば、信号処理やコーデックに必要な回路等に汎用品を用いることができ、コストを抑制することができるので好適である。しかしながら、分割された各系統の動画像データのフレームレートは、これ以外の値であってもかまわない。
また、ここでも、分割された各系統のフレームレートが等しい場合を例として説明したが、分割された各系統のフレームレートが異なっていてもよいことは言うまでもない。例えば、240フレーム毎秒で撮像した動画像を、120フレーム毎秒の1系統と、60フレーム毎秒の2系統に分割するようにしても良い。
なお、撮像装置101においても、記録部29の容量が大きく、かつ、記録レートが高速な場合や、コーデックによる画像の劣化を防ぎたい場合など、コーデック部28を省略し、圧縮符号化しないビデオ画像データを記録部29に記録するようにしても良いことは言うまでもない。
このように、撮像装置101も、撮像装置1と同様に、例えば、60フレーム毎秒、50フレーム毎秒、または、24フレーム毎秒など、一般的に動画像を撮像する場合に広く用いられているフレームレートのN倍(ここでは4倍)のフレームレートで撮像した画像データを、フレーム単位で、時間方向にN分割することにより、高フレームレートのビデオ信号を、N個の通常のフレームレートにおける画像データとして処理したり記録することができ、更に、複雑な処理を行うことなく、複数のフレームレートで動画像データを出力することができる。
次に、図10のフローチャートを参照して、撮像装置1または撮像装置101が実行する、撮像・記録・出力処理について説明する。
なお、図10のフローチャートにおいては、撮像・記録・出力のそれぞれの処理を、分かりやすくするために、個別のステップで説明しているが、これらの処理は、撮像装置1または撮像装置101において、並列的に実行することが可能であることは言うまでもない。
ステップS1において、カメラ制御部11またはカメラ制御部111は、図示しない操作入力部などから、動画像の撮像開始が指令されたか否かを判断する。ステップS1において、動画像の撮像開始が指令されていないと判断された場合、処理は、後述するステップS13に進む。
ステップS1において、動画像の撮像開始が指令されたと判断された場合、ステップS2において、カメラ制御部11またはカメラ制御部111は、撮像処理を実行するために、各部を制御する。
具体的には、カメラ制御部11は、撮像光学系21を制御して、撮像される画像に対応する光を撮像素子22に入射させる。撮像素子22は、カメラ制御部11の制御に基づいて、高解像度(ここでは、例えば、HD解像度)、かつ、高フレームレート(ここでは、例えば、240フレーム毎秒、すなわち、240Hzとする)で、図2に示すようなベイヤー(Bayer)配列に従った色配列の画素データで構成される画像信号を取得し、メモリ制御部23に供給する。また、カメラ制御部111は、撮像光学系21を制御して、撮像される画像に対応する光をダイクロイックプリズム120により赤色成分(R)、緑色成分(G)、および、青色成分(B)に分光させた後、撮像素子121乃至123にそれぞれ入射させる。撮像素子121乃至123は、カメラ制御部111の制御に基づいて、高解像度(ここでは、例えば、HD解像度)、かつ、高フレームレート(ここでは、例えば、240フレーム毎秒、すなわち、240Hzとする)で、RGBそれぞれの色成分の波長域に対応する光を受光することにより画像信号を取得し、メモリ制御部23に供給する。
ステップS3において、カメラ制御部11またはカメラ制御部111は、撮像データを分割する処理を開始または継続するために各部を制御する。
具体的には、カメラ制御部11またはカメラ制御部111の制御に基づいて、メモリ制御部23またはメモリ制御部124は、図3および図4を用いて説明したように、撮像素子22、または、撮像素子121、122、および123から供給された撮像データをフレーム単位で分割し、カメラ信号処理部25またはカメラ信号処理部126にそれぞれ供給する。
ステップS4において、カメラ信号処理部25またはカメラ信号処理部126は、カメラ制御部11またはカメラ制御部111の制御に基づいて、信号処理を実行する。
具体的には、カメラ信号処理部25は、図5を用いて説明したように、供給されたRAWデータのホワイトバランスを補正し、RGB補間同時化、すなわち、デモザイク処理を実行し、マトリクス処理およびγ補正を行った後、色空間変換を行って、生成されたHD解像度、60フレーム毎秒のビデオ信号(YCbCr4:2:2)を出力する。また、カメラ信号処理部126は、図9を用いて説明したように、RGBそれぞれの成分により構成される画像データのホワイトバランスを補正し、マトリクス処理およびγ補正を行った後、色空間変換を行って、生成されたHD解像度、60フレーム毎秒のビデオ信号(YCbCr4:2:2)を出力する。
ステップS5において、カメラ制御部11またはカメラ制御部111は、撮像中の画像の、ファインダへの出力が指令されているか否かを判断する。
ステップS5において、ファインダへの出力が指令されていると判断された場合、ステップS6において、カメラ制御部11またはカメラ制御部111は、信号処理されたビデオデータをファインダに出力する処理を制御する。
具体的には、ファインダ出力部27は、カメラ制御部11またはカメラ制御部111の制御に基づいて、#1カメラ信号処理部25−1または#1カメラ信号処理部126−1から出力されるビデオ信号を取得し、ファインダで表示可能な信号に変換した後、図示しないファインダに出力して60フレーム毎秒のフレームレートの動画像を表示させる。
なお、ファインダの入力信号がRGB信号である場合には、#1カメラ信号処理部25−1または#1カメラ信号処理部126−1において色空間変換処理を行う前のRGB信号を、ファインダ出力部27が直接取得する構成にしても構わない。また、ファインダが表示可能な動画像のフレームレートが、例えば、120フレーム毎秒のフレームレートであるとき、ファインダ出力部27は、#1カメラ信号処理部25−1および#3カメラ信号処理部25−3、または、#1カメラ信号処理部126−1および#3カメラ信号処理部126−3(もしくは、#2カメラ信号処理部25−2および#4カメラ信号処理部25−4、または、#2カメラ信号処理部126−2および4カメラ信号処理部126−4)から出力されるビデオ信号を取得し、フレーム合成して、図示しないファインダに出力するようにしても良いし、ファインダが表示可能な動画像のフレームレートが、例えば、240フレーム毎秒のフレームレートであるとき、ファインダ出力部27は、カメラ信号処理部25の全て、または、カメラ信号処理部126の全てから出力されるビデオ信号を取得し、フレーム合成して、図示しないファインダに出力するようにしても良い。
ステップS5において、ファインダへの出力が指令されていないと判断された場合、または、ステップS6の処理の終了後、ステップS7において、カメラ制御部11またはカメラ制御部111は、撮像中の画像のビデオ出力が指令されているか否かを判断する。
ステップS7において、撮像中の画像のビデオ出力が指令されていると判断された場合、ステップS8において、カメラ制御部11またはカメラ制御部111は、ビデオ出力処理を開始する。
具体的には、ビデオ出力部26は、カメラ制御部11またはカメラ制御部111の制御に基づいて、カメラ信号処理部25またはカメラ信号処理部126から信号処理後のビデオ信号を取得し、必要に応じてフレーム合成を行って所定のフレームレートのビデオ信号を生成し、図中kで示されるビデオ出力として、例えば、外部の記録装置や表示装置、または、所定の信号伝送路などに出力する。
このとき、ビデオ出力部26は、カメラ制御部11またはカメラ制御部111の制御に基づいて、出力されるビデオ信号のフレームレートに基づいたビデオデータをカメラ信号処理部25またはカメラ信号処理部126から取得してフレーム合成を行う。
具体的には、フレームレート60フレーム毎秒の動画像データが出力される場合、カメラ信号処理部25またはカメラ信号処理部126のうちのいずれか1つから、処理後の60フレーム毎秒のビデオ画像データがビデオ出力部26に供給されて、ビデオ出力部26に供給される。ビデオ出力部26は、供給された60フレーム毎秒のビデオ画像データを出力する。
また、フレームレート120フレーム毎秒の動画像データが出力される場合、カメラ信号処理部25またはカメラ信号処理部126のうち、処理するフレームが240フレーム毎秒の動画フレームにおける2フレーム分ずれている2つのカメラ信号処理部25から、処理後の60フレーム毎秒の2系統のビデオ画像データがビデオ出力部26に供給される。ビデオ出力部26は、図7を用いて説明したように、供給された60フレーム毎秒の2系統のビデオ画像データが1フレームずつ交互に配置されるようにフレーム合成を行って、合成されたビデオ画像データを出力する。
また、フレームレート240フレーム毎秒の動画像データが出力される場合、カメラ信号処理部25またはカメラ信号処理部126の全てから、処理後の60フレーム毎秒の4系統のビデオ画像データがビデオ出力部26に供給される。ビデオ出力部26は、図6を用いて説明したように、供給された60フレーム毎秒の4系統のビデオ画像データが1フレームずつ順次配置されるようにフレーム合成を行って、合成されたビデオ画像データを出力する。
ステップS7において、ビデオ出力が指令されていないと判断された場合、または、ステップS8の処理の終了後、ステップS9において、カメラ制御部11またはカメラ制御部111は、撮像データの記録が指令されているか否かを判断する。
ステップS9において、撮像データの記録が指令されていると判断された場合、ステップS10において、コーデック部28は、カメラ制御部11またはカメラ制御部111の制御に基づいて、カメラ信号処理部25またはカメラ信号処理部126から供給された信号処理済みのビデオ画像データの符号化処理を実行する。
ステップS11において、コーデック部28は、圧縮符号化されたストリーム画像データを記録部29に供給して記録させる。
ステップS9において、撮像データの記録が指令されていないと判断された場合、または、ステップS11の処理の終了後、ステップS12において、カメラ制御部11またはカメラ制御部111は、動画像の撮像終了が指令されたか否かを判断する。ステップS12において、動画像の撮像終了が指令されていないと判断された場合、処理は、ステップS2に戻り、それ以降の処理が繰り返される。
ステップS1において、動画像の撮像開始が指令されていないと判断された場合、または、ステップS12において、動画像の撮像終了が指令されたと判断された場合、ステップS13において、カメラ制御部11またはカメラ制御部111は、記録部29に記録された動画像の再生出力が指令されたか否かを判断する。
ステップS13において、記録部29に記録された動画像の再生出力が指令されたと判断された場合、ステップS14において、カメラ制御部11またはカメラ制御部111は、ビデオ出力処理を開始する。
具体的には、ビデオ出力部26は、図6および図7を用いて説明したように、カメラ制御部11またはカメラ制御部111の制御に基づいて、コーデック部28から復号後の再生画像データを取得し、必要に応じてフレーム合成を行って所定のフレームレートのビデオ信号を生成し、図中kで示されるビデオ出力として、例えば、外部の記録装置や表示装置、または、所定の信号伝送路などに出力する。
このとき、ビデオ出力部26は、カメラ制御部11またはカメラ制御部111の制御に基づいて、出力されるビデオ信号のフレームレートに基づいたビデオデータをコーデック部28から取得してフレーム合成を行う。
具体的には、フレームレート60フレーム毎秒の動画像データが出力される場合、記録部29のうちのいずれか1つから、圧縮符号化されたストリーム画像データが読み出されて、コーデック部28のうちの対応するものにおいて復号され、60フレーム毎秒のビデオ画像データがビデオ出力部26に供給される。ビデオ出力部26は、供給された60フレーム毎秒のビデオ画像データを出力する。
また、フレームレート120フレーム毎秒の動画像データが出力される場合、記録部29のうち記録されている圧縮符号化されたストリーム画像データが240フレーム毎秒の動画フレームにおける2フレーム分ずれている2つの記録部29から、圧縮符号化されたストリーム画像データが読み出されて、コーデック部28のうちの対応するものにおいて復号され、60フレーム毎秒の2つのビデオ画像データがビデオ出力部26に供給される。ビデオ出力部26は、図7を用いて説明したように、供給された60フレーム毎秒の2つのビデオ画像データが1フレームずつ交互に配置されるようにフレーム合成を行って、合成されたビデオ画像データを出力する。
また、フレームレート240フレーム毎秒の動画像データが出力される場合、記録部29のうちの全てから、圧縮符号化されたストリーム画像データが読み出されて、コーデック部28のそれぞれにおいて復号され、60フレーム毎秒の4つのビデオ画像データがビデオ出力部26に供給される。ビデオ出力部26は、図6を用いて説明したように、供給された60フレーム毎秒の4つのビデオ画像データが1フレームずつ順次配置されるようにフレーム合成を行って、合成されたビデオ画像データを出力する。
さらに、再生出力される動画像のファインダ出力が指令されているとき、ファインダ出力部27は、カメラ制御部11またはカメラ制御部111の制御に基づいて、#1コーデック部28−1から出力されるビデオ信号を受け取り、ファインダで表示可能な信号に変換した後、図示しないファインダに出力して60フレーム毎秒のフレームレートの動画像を表示させる。
ステップS15において、カメラ制御部11またはカメラ制御部111は、記録された動画像の再生出力終了が指令されたか否かを判断する。ステップS15において、記録された動画像の再生出力終了が指令されていないと判断された場合、処理は、ステップS14に戻り、それ以降の処理が繰り返される。
ステップS13において、記録された動画像の再生出力が指令されていないと判断された場合、または、ステップS15において、記録された動画像の再生出力終了が指令されたと判断された場合、処理が終了される。
このような処理により、撮像装置1または撮像装置101においては、フレームレートの高い動画が撮像されて、撮像されたデータがフレーム単位で分割されることにより、複雑な処理や高速な信号処理回路を用いることなく、フレームレートの高い動画像データに対して、信号処理や符号化が施されて、記録される。
更に、ファインダの表示能力に合致したフレームレートが撮像されるフレームレートよりも遅くても、複雑な処理を行うことなく、ファインダの表示能力に合致したフレームレートで撮像された動画をファインダに表示させることができる。また、要求される出力データのフレームレートが、記録されているデータのフレームレートと異なる場合であっても、複雑な処理を行うことなく、所定のフレームレートのデータを出力することが可能となる。
次に、図11および図12のフローチャートを参照して、撮像装置1または撮像装置101において実行される、撮像データ分割処理について説明する。
ステップS41において、カメラ制御部11またはカメラ制御部111は、メモリ制御部23からフレームメモリ24に、または、メモリ制御部124からフレームメモリ125に書き込まれる撮像データの書き込み開始アドレスを設定する。
ステップS42において、カメラ制御部11またはカメラ制御部111は、メモリ制御部23からフレームメモリ24への、または、メモリ制御部124からフレームメモリ125への撮像データのブロック書き込みを開始または継続する。ここでブロックとは、フレームメモリ24またはフレームメモリ125に一度アクセスすることにより授受可能なデータ単位であり、ここでは1ライン分の画素データとする。
ステップS43において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125に4フレームの撮像データが書き込まれたか否かを判断する。ステップS43において、4フレームの撮像データが書き込まれていないと判断された場合、処理は、ステップS42に戻り、それ以降の処理が繰り返される。
ステップS43において、4フレームの撮像データが書き込まれたと判断された場合、ステップS44において、カメラ制御部11またはカメラ制御部111は、フレームメモリ125から読み出される撮像データの読み出し開始アドレスを4フレーム分設定する。ここでは、フレームメモリ24またはフレームメモリ125から読み出される撮像データの読み出し開始アドレスは、フレームメモリ24またはフレームメモリ125に書き込まれている4フレームの撮像データのそれぞれのフレームの先頭アドレスと一致する。すなわち、ステップS41または後述するステップS46の処理により設定された書き込み開始アドレスに基づいてフレームメモリ24またはフレームメモリ125へ書き込まれた4フレーム分の撮像データが、並列して順次読み出されるように、4フレーム分の撮像データの読み出し開始アドレスが設定される。
ステップS45において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125から読み出された撮像データの供給先を決めるために用いられるカウンタCの値を初期化する。
ステップS46において、カメラ制御部11またはカメラ制御部111は、メモリ制御部23からフレームメモリ24に、または、メモリ制御部124からフレームメモリ125に次に書き込まれる撮像データの書き込み開始アドレスを設定する。ステップS46においては、現在フレームメモリ24またはフレームメモリ125に書き込まれている4フレーム分の撮像データの記録領域とは異なる領域に、新たな4フレーム分の撮像データを書き込むための書き込み開始アドレスが設定される。
ステップS47において、カメラ制御部11またはカメラ制御部111は、ステップS46において設定された書き込みアドレス、または、後述する処理においてインクリメントされる書き込みアドレスの値に基づいて、メモリ制御部23からフレームメモリ24への、または、メモリ制御部124からフレームメモリ125への撮像データのブロック書き込みを開始または継続する。
ステップS48において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125から読み出された撮像データの供給先を決めるために用いられるカウンタCの値が、C=0であるか否かを判断する。
ステップS48において、カウンタCの値がC=0であると判断された場合、ステップS49において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125に書き込まれている、すなわち、読み出しアドレスが設定されている4フレームの撮像データのうちの時間的に一番早いフレームの読み出しアドレスに基づいて、フレームメモリ24からメモリ制御部23へ、または、フレームメモリ125からメモリ制御部124へ、撮像データをブロック読み出しさせる。メモリ制御部23またはメモリ制御部124は、カメラ制御部11またはカメラ制御部111の制御に基づいて、読み込まれた1ブロックの撮像データを、#1カメラ信号処理部25−1に、または、#1カメラ信号処理部126−1に供給し、処理は、ステップS55に進む。
ステップS48において、カウンタCの値がC=0ではないと判断された場合、ステップS50において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125から読み出された撮像データの供給先を決めるために用いられるカウンタCの値が、C=1であるか否かを判断する。
ステップS50において、カウンタCの値がC=1であると判断された場合、ステップS51において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125に書き込まれている、すなわち、読み出しアドレスが設定されている4フレームの撮像データのうちの時間的に2番目に早いフレームの読み出しアドレスに基づいて、フレームメモリ24からメモリ制御部23へ、または、フレームメモリ125からメモリ制御部124へ、撮像データをブロック読み出しさせる。メモリ制御部23またはメモリ制御部124は、カメラ制御部11またはカメラ制御部111の制御に基づいて、読み込まれた1ブロックの撮像データを、#2カメラ信号処理部25−2に、または、#2カメラ信号処理部126−2に供給し、処理は、ステップS55に進む。
ステップS50において、カウンタCの値がC=1ではないと判断された場合、ステップS52において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125から読み出された撮像データの供給先を決めるために用いられるカウンタCの値が、C=2であるか否かを判断する。
ステップS52において、カウンタCの値がC=2であると判断された場合、ステップS53において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125に書き込まれている、すなわち、読み出しアドレスが設定されている4フレームの撮像データのうちの時間的に3番目に早いフレームの読み出しアドレスに基づいて、フレームメモリ24からメモリ制御部23へ、または、フレームメモリ125からメモリ制御部124へ、撮像データをブロック読み出しさせる。メモリ制御部23またはメモリ制御部124は、カメラ制御部11またはカメラ制御部111の制御に基づいて、読み込まれた1ブロックの撮像データを、#3カメラ信号処理部25−3に、または、#3カメラ信号処理部126−3に供給し、処理は、ステップS55に進む。
ステップS52において、カウンタCの値がC=2ではないと判断された場合、カウンタCの値は、C=3であるので、ステップS54において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125に書き込まれている、すなわち、読み出しアドレスが設定されている4フレームの撮像データのうちの時間的に最も遅いフレームの読み出しアドレスに基づいて、フレームメモリ24からメモリ制御部23へ、または、フレームメモリ125からメモリ制御部124へ、撮像データをブロック読み出しさせる。メモリ制御部23またはメモリ制御部124は、カメラ制御部11またはカメラ制御部111の制御に基づいて、読み込まれた1ブロックの撮像データを、#4カメラ信号処理部25−4に、または、#4カメラ信号処理部126−4に供給し、処理は、ステップS55に進む。
ステップS49、ステップS51、ステップS53、または、ステップS54の処理の終了後、ステップS55において、カメラ制御部11またはカメラ制御部111は、フレームメモリ24またはフレームメモリ125から読み出された撮像データの供給先を決めるために用いられるカウンタCの値をインクリメントする。ここで、カウンタCの値が3であるとき、カウンタCは0に初期化される。
ステップS56において、カメラ制御部11またはカメラ制御部111は、読み出しアドレスが設定された4フレームの読み出しが終了したか否かを判断する。ステップS56において、読み出しアドレスが設定された4フレームの読み出しが終了したと判断された場合、処理は、ステップS44に戻り、それ以降の処理が繰り返される。
ステップS56において、読み出しアドレスが設定された4フレームの読み出しが終了していないと判断された場合、ステップS57において、カメラ制御部11またはカメラ制御部111は、ステップS49、ステップS51、ステップS53、または、ステップS54の処理によって読み出されたフレームに対応する読み出しアドレスをインクリメントする。
ステップS58において、カメラ制御部11またはカメラ制御部111は、ステップS46において書き込み開始アドレスが設定された、フレームメモリ24またはフレームメモリ125への1フレームの書き込みが終了したか否かを判断する。ステップS58において、1フレームの書き込みが終了したと判断された場合、処理は、ステップS46に戻り、それ以降の処理が繰り返される。
ステップS58において、1フレームの書き込みが終了していないと判断された場合、ステップS59において、カメラ制御部11またはカメラ制御部111は、書き込みアドレスをインクリメントする。
ステップS60において、カメラ制御部11またはカメラ制御部111は、撮像の終了が指令されたか否かを判断する。
ステップS60において、撮像の終了が指令されていないと判断された場合、処理は、ステップS47に戻り、それ以降の処理が繰り返される。ステップS60において、撮像の終了が指令されたと判断された場合、処理は終了される。
このような処理により、撮像されたビデオ画像データは、撮像のフレームレートの4分の1のフレームレートの4つのビデオ画像データに分割され、4つのカメラ信号処理部のそれぞれに並行して供給される。換言すれば、撮像されたビデオ画像データは、フレームごとに4つのカメラ信号処理部のそれぞれに供給されるように、各フレームを構成するデータの一部ずつが、4つのカメラ信号処理部に並列に順次供給される。したがって、撮像装置1および撮像装置101は、高解像度、かつ、一般的に動画像を撮像する場合に広く用いられているフレームレート(例えば、60フレーム毎秒)のN倍(例えば、4倍)の高フレームレートの撮像データをN並列化することにより、通常のフレームレートで撮像した場合と同様の信号処理、画像圧縮処理、および、記録処理を行うことができる。
また、撮像装置1または撮像装置101においては、図10のステップS8の処理において、撮像データをビデオ出力したり、図10のステップS14の処理において、記録されたデータをビデオ出力することができる。上述したように、ビデオ出力に求められるフレームレートは、撮像のフレームレートと異なるものであっても良い。具体的には、撮像のフレームレートが4Mフレーム毎秒(Mは、例えば、一般的に動画像を撮像する場合に広く用いられているフレームレートに対応する値)である場合、出力されるビデオ信号のフレームレートは、Mフレーム毎秒、2Mフレーム毎秒、または、4Mフレーム毎秒のうちのいずれであっても良い。
次に、図13および図14のフローチャートを参照して、撮像装置1または撮像装置101において実行される、ビデオ出力処理について説明する。
ステップS101において、カメラ制御部11またはカメラ制御部111は、出力フレームレートの設定値を取得する。ここでは、240フレーム毎秒のフレームレートで撮像され、4分割されたデータをフレーム合成し、240フレーム毎秒で出力する場合について説明する。
ステップS102において、カメラ制御部11またはカメラ制御部111は、出力フレームレートの設定値に基づいて、ストリーム画像データの読み出しを行う記録部29、または、カメラ信号処理部25もしくは126を決定する。
具体的には、撮像装置1または撮像装置101において240フレーム毎秒のフレームレートで撮像されたデータが4分割されている場合、出力フレームレートが60フレーム毎秒なら、4つの記録部29、または、カメラ信号処理部25もしくは126のうちのいずれか1つがストリーム画像データの読み出しを行う対象として選択され、出力フレームレートが120フレーム毎秒なら、4つの記録部29、または、カメラ信号処理部25もしくは126のうち、それぞれ連続していない(2フレームずれた)フレームのデータを有する2つがストリーム画像データの読み出しを行う対象として選択され、出力フレームレートが240フレーム毎秒なら、4つの記録部29、または、カメラ信号処理部25もしくは126の全てがストリーム画像データの読み出しを行う対象として選択される。
ステップS103において、カメラ制御部11またはカメラ制御部111は、ビデオ出力が記録部29に記録されているデータの出力処理であるとき、所定の記録部29からのストリーム画像データの読み出しと、コーデック部28による復号処理の制御を開始する。
ステップS104において、カメラ制御部11またはカメラ制御部111は、ビデオ出力部26の図示しないフレームメモリに書き込まれるビデオ画像データの書き込み開始アドレスを4フレーム分設定する。
ステップS105において、カメラ制御部11またはカメラ制御部111は、ビデオ出力部26の図示しないフレームメモリに書き込むデータを取得するコーデック部28、または、カメラ信号処理部25もしくは126を決定するためのカウンタCの値を初期化する。
ここでは、240フレーム毎秒のフレームレートで撮像され、4分割されたデータをフレーム合成し、240フレーム毎秒で出力するものとして説明するので、カウンタCの値は、0乃至3の間でインクリメントされるものとする。これに対して、4系統に分割されたデータのうちの2系統の60フレーム毎秒のビデオ画像データを構成するフレームを合成し、120フレーム毎秒で出力するようになされている場合、カウンタCの値は、0と2とを交互に取るか、または、1と3とを交互に取るようになされる。また、60フレーム毎秒でビデオ画像データを出力するようになされている場合、カウンタCの値はインクリメントされず、0乃至3のいずれか一定の値となる。
ステップS106において、カメラ制御部11またはカメラ制御部111は、ビデオ出力部26の図示しないフレームメモリから出力のために読み出されるビデオ画像データの読み出し開始アドレスを、既にフレームメモリに記録されている4フレームのビデオ画像データのうち、次に読み出されるフレームの先頭ラインに設定する。
ステップS107において、カメラ制御部11またはカメラ制御部111は、図示しないフレームメモリに書き込むデータを取得するコーデック部28、または、カメラ信号処理部25もしくは126を決定するためのカウンタCの値が、C=0であるか否かを判断する。
ステップS107において、C=0であると判断された場合、ステップS108において、カメラ制御部11またはカメラ制御部111は、#1コーデック部28−1、または、#1カメラ信号処理部25−1もしくは126−1から供給されたビデオ画像データを、4フレーム分のうち時間的に最も早い第1のフレームの書き込みアドレスに基づいて、フレームメモリに、例えば、1ラインごとにブロック書き込みし、処理は、ステップS114に進む。
ステップS107において、C=0ではないと判断された場合、ステップS109において、カメラ制御部11またはカメラ制御部111は、図示しないフレームメモリに書き込むデータを取得するコーデック部28、または、カメラ信号処理部25もしくは126を決定するためのカウンタCの値が、C=1であるか否かを判断する。
ステップS109において、C=1であると判断された場合、ステップS110において、カメラ制御部11またはカメラ制御部111は、#2コーデック部28−2、または、#2カメラ信号処理部25−2もしくは126−2から供給されたビデオ画像データを、4フレーム分のうちの時間的に2番目に早い第2のフレームの書き込みアドレスに基づいて、フレームメモリに、例えば、1ラインごとにブロック書き込みし、処理は、ステップS114に進む。
ステップS109において、C=1ではないと判断された場合、ステップS111において、カメラ制御部11またはカメラ制御部111は、図示しないフレームメモリに書き込むデータを取得するコーデック部28、または、カメラ信号処理部25もしくは126を決定するためのカウンタCの値が、C=2であるか否かを判断する。
ステップS111において、C=2であると判断された場合、ステップS112において、カメラ制御部11またはカメラ制御部111は、#3コーデック部28−3、または、#3カメラ信号処理部25−3もしくは126−3から供給されたビデオ画像データを、4フレーム分のうちの時間的に3番目に早い第3のフレームの書き込みアドレスに基づいて、フレームメモリに、例えば、1ラインごとにブロック書き込みし、処理は、ステップS114に進む。
ステップS111において、C=2ではないと判断された場合、C=3であるので、ステップS113において、カメラ制御部11またはカメラ制御部111は、#4コーデック部28−4、または、#4カメラ信号処理部25−4もしくは126−4から供給されたビデオ画像データを、4フレーム分のうち時間的に最も遅い第4のフレームの書き込みアドレスに基づいて、ビデオ出力部26の図示しないフレームメモリに、例えば、1ラインごとにブロック書き込みし、処理は、ステップS114に進む。
ステップS108、ステップS110、ステップS112、または、ステップS113の処理の終了後、ステップS114において、カメラ制御部11またはカメラ制御部111は、カウンタCの値をインクリメントする。ここで、カウンタCの値が3であるとき、カウンタCは0に初期化される。
ステップS115において、カメラ制御部11またはカメラ制御部111は、ステップS104において書き込みアドレスが設定された4フレームの書き込みが終了したか否かを判断する。ステップS115において、4フレームの書き込みが終了したと判断された場合、処理は、ステップS104に戻り、それ以降の処理が繰り返される。
ステップS115において、4フレームの書き込みが終了していないと判断された場合、ステップS116において、カメラ制御部11またはカメラ制御部111は、ステップS108、ステップS110、ステップS112、または、ステップS113の処理により書き込みが行われたフレームに対応する書き込みアドレスをインクリメントする。
ステップS117において、カメラ制御部11またはカメラ制御部111は、読み出しアドレスに基づいて、ビデオ出力部26の図示しないフレームメモリに記録されている撮像データをブロック読み出しする。
ステップS118において、カメラ制御部11またはカメラ制御部111は、1フレームの読み出しが終了したか否かを判断する。ステップS118において、1フレームの読み出しが終了したと判断された場合、処理は、ステップS106に戻り、それ以降の処理が繰り返される。
ステップS118において、1フレームの読み出しが終了していないと判断された場合、ステップS119において、カメラ制御部11またはカメラ制御部111は、読み出しアドレスをインクリメントする。
ステップS120において、カメラ制御部11またはカメラ制御部111は、ビデオ出力の終了が指令されたか否かを判断する。ステップS120において、ビデオ出力の終了が指令されていないと判断された場合、処理は、ステップS107に戻り、それ以降の処理が繰り返される。ステップS120において、ビデオ出力の終了が指令されたと判断された場合、処理が終了される。
このような処理により、4つのビデオ画像データに分割された、撮像のフレームレートの4分の1のフレームレートのビデオ画像データをフレーム合成して出力することが可能となる。
なお、ここでは、240フレーム毎秒の撮像画像を4つに分割し、60フレーム毎秒の動画像データとして処理し、記録するとともに、再生出力時には、必要に応じてフレーム合成を行うものとして説明したが、撮像画像のフレームレートと分割数は、これ以外であってもよいことはいうまでもない。
具体的には、例えば、240フレーム毎秒で撮像した動画像を2分割や3分割するようにしても良いし、120フレーム毎秒で撮像した動画像を2分割や3分割するようにしても良い。また、200フレーム毎秒で撮像した動画像を4分割したり、100フレーム毎秒で撮像した動画像を2分割するようにしても良いし、96フレーム毎秒で撮像した動画像を4分割したり、48フレーム毎秒で撮像した動画像を2分割するようにしても良い。
このとき、分割された各系統の動画像データが、例えば、60フレーム毎秒、50フレーム毎秒、または、24フレーム毎秒など、一般的に動画像を撮像する場合に広く用いられているフレームレートであると、例えば、信号処理やコーデックに必要な回路等に汎用品を用いることができ、コストを抑制することができる。
また、ここでは、分割された各系統のフレームレートが等しい場合を例として説明したが、分割された各系統のフレームレートが異なっていてもよいことは言うまでもない。
さらに、以上の説明においては、HD解像度の画像を撮像する場合について説明したが、異なる解像度の画像を撮像する場合や、インタレース方式で画像を表示するようになされている場合であっても、本発明は適用可能であることは言うまでもない。
すなわち、本発明を適用した撮像装置は、一般的に動画像を撮像する場合に広く用いられているフレームレートのN倍のフレームレートでの撮像が可能な固体撮像素子を備え、フレーム単位でN分割して、撮像のフレームレートの1/Nのフレームレートの動画像データをN系列生成し、N個の並列処理回路により、それぞれを並列して処理し、記録することができる。そして、本発明を適用した撮像装置は、複雑な処理を行うことなく、高解像度、かつ高フレームレートの撮像信号を処理したり、長時間記録することが可能である。
さらに、本発明を適用した撮像装置においては、並列的に記録された動画像データは、撮像のフレームレートの1/Nのフレームレート、すなわち、一般的に動画像を撮像する場合に広く用いられている通常のフレームレートの動画像データであり、1系統を単独で再生することで通常フレームレートの動画像、2系統再生することで通常フレームレートの2倍のフレームレートの動画像、N系統再生することで通常フレームレートのN倍のフレームレートの画像を再生することが可能となる。
また、本発明においては、処理を並列で実行するために、また、高解像度、かつ高フレームレートの画像を長時間記録するために、撮像データのそれぞれの1フレームを、例えば、スライスごとや所定矩形範囲で複数に分割することなく、最小単位をフレーム単位として分割を行った。これにより、分割されて生成された各系統の動画像データは、それぞれ、単独で再生表示可能なものとなり、更に、合成される数を変更することにより、異なるフレームレートの再生出力を容易に行うことを可能とした。また、撮像データのフレームレートよりも低いフレームレートで記録された動画像の再生出力などを行う場合、表示されない系列のコーデックは全く行わなくても良い。
このようにすることにより、高解像度、かつ高フレームレートの画像を長時間記録することが可能で、それぞれ分割されて記録された動画像データを用いて、複雑な処理を行うことなく、必要に応じてフレームを並べ替えることで、複数のフレームレートの再生データを出力することができる撮像装置を提供することができる。
なお、動画像を表示させる場合、フレームレートまたはフィールドレートが高くなるにともなって、ジャーキネスや動きぼけに関して、表示される画像を見る観察者からの評価値が向上する。図15に、複数ユーザを対照として、動画のフレームレートと画質の5段階評価を行った場合の評価値との関係の一例を示す。
ジャーキネスに関しても動きぼけに関しても、150フレーム毎秒前後で、5段階評価のうち平均して4以上の評価を得ることができ、250フレーム毎秒近辺までは評価値が向上するが、更に高いフレームレートまたはフィールドレートでは、評価値はあまり向上しないという傾向が示される(例えば、特開2004−266808号公報参照)。
現在広く用いられている映像リソースは、50フレーム毎秒や60フレーム毎秒のものが多いので、その整数倍の周波数である240フレーム毎秒や200フレーム毎秒が、映像リソースの有効性を考慮した場合の理想周波数であり、出力フィールドレートがこれらの値であるとき、表示される画像を見る観察者からは、フリッカが視認されないのみならず、ジャーキネスや動きボケもほとんど感じられないため、好適である。また、現在広く用いられている映像リソースに50フレーム毎秒や60フレーム毎秒のものが多いので、分割後のフレームレートが50フレーム毎秒や60フレーム毎秒であるとき、信号処理やコーデックを行う回路に汎用品を用いることができるので、コストを抑えることが可能となる。
ところで、上述した撮像装置1または撮像装置101などの高速撮像可能な撮像装置では、固体撮像素子による露光時間がフレームレートに応じて短くなるため、感度が低下し、ノイズの影響を受けやすい。
撮像装置におけるノイズ低減方法としては、1フレーム内で空間的なノイズ低減フィルタを施す方法が知られている。しかしながら、この方法では、空間解像度の低下を伴うという問題がある。また、フレームメモリを持ち、時間的な循環フィルタ処理を行う場合には、加算処理などの処理に時間がかかってしまうため、処理が間に合わなくなったり、高速な処理を行うことが可能な高価な演算部を用いる必要が生じてしまっていた。
そこで、時間加算によるノイズ低減処理を簡易な回路構成により実現することができる撮像装置の一例として、図16のブロック図を参照して、撮像装置201の構成について説明する。
なお、図1の撮像装置1と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、撮像装置201は、#1カメラ信号処理部25−1、#2カメラ信号処理部25−2、#3カメラ信号処理部25−3、および、#4カメラ信号処理部25−4に代わって、カメラ信号処理部221が設けられている以外は、図1を用いて説明した撮像装置1と基本的に同様の構成を有するものである。
カメラ信号処理部221は、図1の撮像装置1のカメラ信号処理部25と同様に、メモリ制御部23の処理により4系統に分割された4つの入力RAWデータのそれぞれに対して、ホワイトバランスを補正し、RGBの補間同時化を行い、マトリクス処理を行い、γ補正を行い、色空間を変換するとともに、4つの入力RAWデータに対して適応的にフレーム加算処理を行い、撮像データに存在するランダムノイズの低減を行う。
図17は、カメラ信号処理部221の更に詳細な構成を示すブロック図である。
なお、図5を用いて説明したカメラ信号処理部25と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、カメラ信号処理部221には、メモリ制御部23の処理により4系統に分割された4つの入力RAWデータのそれぞれに対して、ホワイトバランスを補正するWB補正部51−1乃至51−4、RGBの補間同時化を行うRGB補間同時化処理部52−1乃至52−4、マトリクス処理を行うマトリクス処理部53−1乃至53−4、γ補正を行うγ補正部54−1乃至54−4、および、色空間を変換する色空間変換部55−1乃至55−4に加えて、WB補正部51−1乃至51−4によりホワイトバランスが補正された4つの入力RAWデータに対して適応的にフレーム加算処理を行うことにより、撮像データに存在するランダムノイズの低減を行って、ノイズ低減後のデータをRGB補間同時化処理部52−1乃至52−4に出力する、ノイズ低減処理部241を備えている。
ノイズ低減処理部241は、図3および図4を用いて説明したようにしてフレーム分配された連続する4フレームの画像データに対して、適応的なフレーム加算処理を行うことによりノイズ低減を実現する。
ノイズ低減処理部241は、WB補正部51−1乃至51−4から出力される4系統のRAWデータを取得する。ここで、WB補正部51−1乃至51−4から同時に出力される(または、ほぼ同時に出力されて、フレームごとの垂直同期信号などにより同期を取ることが可能な)4つのRAWデータは、ハイフレームレートの撮像データの連続する4フレームに相当し、かつ、各フレームにおいて空間的に同じ位置に相当する、すなわち、同一画素位置の画素データである。したがって、ノイズ低減処理部241に同時に存在する4つのRAWデータを加算することにより、時間的に連続な4フレーム間での加算が実現する。
図18は、ノイズ低減処理部241の更に詳細な構成を示すブロック図である。
ノイズ低減処理部241は、平滑化処理部261−1乃至261−4、静止領域判定処理部262、および、加算処理部263を含んで構成される。
平滑化処理部261−1乃至261−4は、入力RAWデータに存在するランダムノイズを低減するために空間フィルタ処理を行い、フィルタリング後のデータを静止領域判定処理部262に供給する。この処理は、後段の静止領域判定処理部262において、ランダムノイズの影響を受けて誤判定を引き起こさないようにするものである。
平滑化処理部261−1乃至261−4において実行される平滑化処理は、例えば、RAWデータの所定の画素に対し、隣接する同じ色成分画素との間で加算平均処理を行うものである。RAWデータの注目画素がRまたはBである場合には、例えば、図19に示すような係数を持つ5×5画素の空間フィルタ処理、すなわち、具体的には、次の式(1)に示される演算処理を実行する。
Figure 2009010823
なお、式(1)において、S(x,y)は、画素位置(x,y)におけるRAWデータの画素値を表しており、SA(x,y)は、画素位置(x,y)における平滑化された画素値を表している。
また、平滑化処理部261−1乃至261−4は、RAWデータの注目画素がGである場合には、例えば、図20に示すような係数を持つ5×5画素の空間フィルタ処理、すなわち、具体的には、次の式(2)に示される演算処理を実行する。
Figure 2009010823
なお、式(2)においても、S(x,y)は、画素位置(x,y)におけるRAWデータの画素値を表しており、SA(x,y)は、画素位置(x,y)における平滑化された画素値を表している。
または、平滑化処理部261−1乃至261−4において実行される平滑化処理は、例えば、RAWデータの所定の画素に対し、隣接する異なる色成分画素も含めて加算平均処理を行っても良い。平滑化処理部261−1乃至261−4は、例えば、図21に示すような係数を持つ5×3画素の空間フィルタ処理、すなわち、具体的には、次の式(3)に示される演算処理を実行することができる。
Figure 2009010823
なお、式(3)において、S(x,y)は、画素位置(x,y)におけるRAWデータの画素値を表しており、SA(x,y)は、画素位置(x,y)における平滑化された画素値を表している。
式(3)に基づく平滑化により、RAWデータの所定の画素に対して、次の式(4)で示される輝度値を得ることが出来る。
Figure 2009010823
なお、式(4)において、Y(x,y)は、画素位置(x,y)における輝度値を表しており、R(x,y)は、画素位置(x,y)において周囲の画素から平均化されたR信号値を表し、G(x,y)は、画素位置(x,y)において周囲の画素から平均化されたG信号値を表し、B(x,y)は、画素位置(x,y)において周囲の画素から平均化されたB信号値を表している。
静止領域判定処理部262は、平滑化されノイズが低減された連続する4フレーム分のRAWデータを受け取り、各フレーム間での画素値の差を計算することにより静止領域を判定し、判定結果を加算処理部263に供給する。静止領域判定処理部262の更に詳細な構成については、図22を参照して後述する。
加算処理部263は、メモリ制御部23の処理により4系統に分割された4つの入力RAWデータ、すなわち、平滑化されていないデータであって、撮像素子22による撮像のフレームレートにおいて連続する4フレームのRAWデータの入力を受け、静止領域判定処理部262による静止領域の判定結果を基に、必要に応じて、4つの入力RAWデータのうちの少なくとも一部を加算処理することにより、連続する4フレームの画像データに対して、適応的なノイズ低減を実現する。
次に、図22は、静止領域判定処理部262の更に詳細な構成を示すブロック図である。
静止領域判定処理部262は、第1の差分(dN)検出部281、第2の差分(dN+1)検出部282、第3の差分(dN+2)検出部283、差分(dall)検出部284、および、閾値処理部285を含んで構成されている。
第1の差分(dN)検出部281は、4系統に分割された4つの入力RAWデータのうち、WB補正部51−1から供給される時間的に最も早いフレーム(以下、Nフレームとも称する)と、WB補正部51−2から供給される時間的に2番目となるフレーム(以下、(N+1)フレームとも称する)との差分(dN)を、次の式(5)に従って検出し、その結果を閾値処理部285に供給する。
Figure 2009010823
第2の差分(dN+1)検出部282は、4系統に分割された4つの入力RAWデータのうち、WB補正部51−2から供給される時間的に2番目となるフレームと、WB補正部51−3から供給される時間的に3番目となるフレーム(以下、(N+2)フレームとも称する)との差分(dN+1)を、上述した式(5)に従って検出し、その結果を閾値処理部285に供給する。
第3の差分(dN+2)検出部283は、4系統に分割された4つの入力RAWデータのうち、WB補正部51−3から供給される時間的に3番目となるフレームと、WB補正部51−4から供給される時間的に4番目、すなわち、最後となるフレーム(以下、(N+3)フレームとも称する)との差分(dN+2)を、上述した式(5)に従って検出し、その結果を閾値処理部285に供給する。
差分(dall)検出部284は、4系統に分割された4つの入力RAWデータの各画素間の差分値の総和dallを、次の式(6)を用いて求め、その結果を閾値処理部285に供給する。
Figure 2009010823
なお、式(6)において、SAN(x,y)は、4系統に分割された4つの入力RAWデータのうち、時間的にN番目となるフレームの画素位置(x,y)における平滑化された画素値を表している。
閾値処理部285は、差分(dall)検出部284から出力される差分値dallと、第1の差分(dN)検出部281、第2の差分(dN+1)検出部282、および、第3の差分(dN+2)検出部283から出力される差分値dN、dN+1、およびdN+2の供給を受け、これらと、所定の値の閾値とを比較する比較判定処理により、連続する4フレームのRAWデータの各画素に対する加算処理の制御を決定し、加算処理部263による加算処理を制御する。
4フレーム間の差分の総和dallとの比較に用いられる閾値は、4フレーム間の差分の総和dallに基づいて、4フレームの途中で大きく動きがあるか否かを判定可能な所定の値であればよく、経験的実験的に求められる所定の定数であっても良いし、設定可能な変数であっても良い。また、差分値dN、dN+1、およびdN+2との比較に用いられる閾値は、それぞれの差分値に基づいて、2つのフレーム間で大きく動きがあるか否かを判定可能な所定の値であればよく、経験的実験的に求められる所定の定数であっても良いし、設定可能な変数であっても良い。また、差分値dN、dN+1、およびdN+2との比較に用いられる閾値は、4フレーム間の差分の総和dallとの比較に用いられる閾ちと同一の値でも良いし、異なる値であっても良い。
そして、4フレーム間の差分の総和dallが所定の閾値よりも小さい場合、対象となる画素は、連続する4フレームの間でほとんど動いていないとみなすことが出来るため、加算処理部263は、4フレーム間の平均化処理を行い、その結果を、4フレームのノイズ低減処理結果として出力する。これに対して、差分値dallが閾値よりも小さくない、すなわち、大きいと判断された場合、対象となる画素は連続する4フレームの間のいずれかで大きく動いているとみなすことが出来る。
そして、差分値dNは、フレームNとフレームN+1の間の画素値の差を表しているため、差分値dNが所定の閾値よりも小さい場合、対象となる画素はフレームNとフレームN+1との間ではほとんど動いていないとみなすことができる。また、差分値dN+1は、フレームN+1とフレームN+2の間の画素値の差を表しているため、差分値dN+1が所定の閾値よりも小さい場合、対象となる画素はフレームN+1とフレームN+2との間ではほとんど動いていないとみなすことができる。また、差分値dN+2は、フレームN+2とフレームN+3の間の画素値の差を表しているため、差分値dN+2が所定の閾値よりも小さい場合、対象となる画素はフレームN+2とフレームN+3との間ではほとんど動いていないとみなすことができる。
加算処理部263は、対象となる画素は連続する4フレームの間のいずれかで大きく動いているとみなされるが、あるフレーム間ではほとんど動いていないとみなすことができる場合、その部分において、それらのフレーム間の平均化処理を行い、その結果を、対象となるフレームのノイズ低減処理結果として出力する。
また、撮像装置201は、撮像素子22として、受光面に画素ごとに異なる波長域を透過するカラーフィルタを持つ単板カラー方式の固体撮像素子を有していたが、撮像方法は、これ以外の方式であっても良いことはいうまでもない。例えば、単板カラー方式ではなく、三板式の撮像装置においても、本発明は適用可能である。
図23は、固体撮像素子を3つ使用する三板式の撮像装置301の構成を示すブロック図である。
なお、図8の撮像装置101と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、撮像装置301は、#1カメラ信号処理部126−1、#2カメラ信号処理部126−2、#3カメラ信号処理部126−3、および、#4カメラ信号処理部126−4に代わって、カメラ信号処理部321が設けられている以外は、図8を用いて説明した撮像装置101と基本的に同様の構成を有するものである。
図24は、カメラ信号処理部321の更に詳細な構成を示すブロック図である。
なお、図9を用いて説明したカメラ信号処理部126と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、カメラ信号処理部321には、メモリ制御部23の処理により4系統に分割された4つの入力RGBデータのそれぞれに対して、ホワイトバランスを補正するWB補正部151−1乃至151−4、マトリクス処理を行うマトリクス処理部53−1乃至53−4、γ補正を行うγ補正部54−1乃至54−4、および、色空間を変換する色空間変換部55−1乃至55−4に加えて、WB補正部151−1乃至151−4によりホワイトバランスが補正された4つの入力RGBデータに対して適応的にフレーム加算処理を行い、撮像データに存在するランダムノイズの低減を行って、ノイズ低減後のデータをマトリクス処理部53−1乃至53−4に出力するノイズ低減処理部341を備えている。
ノイズ低減処理部341は、図18を用いて説明したノイズ低減処理部241と基本的に同様の構成および機能を有し、RAWデータではなく、各画素ごとにR,G,Bが揃った画像信号の供給を受け、RGBそれぞれのデータに対して処理を行うようになされている。ノイズ低減処理部341は画素ごとにR,G,Bが揃った画像信号の供給を受けるので、例えば、平滑化処理は、図19および図20を用いて説明したようにして9画素を選択し、平滑化処理を施してもよいし、注目画素と注目画素周辺の8画素との9画素を選択し、空間フィルタ処理を行うようにしてもよい。また、ノイズ低減処理部341は、上述したようにして平滑化して得られた色信号R,G,Bの平均値を式(4)に示したようにして加算して得られる輝度信号Yを出力するようにしても良い。
以上説明したように、メモリ制御部23の処理により4系列に分割された撮像画像データ(RAWデータ)、または、メモリ制御部124の処理により4系列に分割された撮像画像データ(RGBデータ)は、1ブロックごとに順次カメラ信号処理部221または321に供給される。カメラ信号処理部221または321に供給されたデータは、ホワイトバランスが補正され、ノイズ低減処理部241またはノイズ低減処理部341に供給され、加算処理によるノイズ低減処理が実行される。
次に、図25および図26のフローチャートを参照して、ノイズ低減処理部241またはノイズ低減処理部341が実行するノイズ低減処理について説明する。
図25および図26のフローチャートでは、メモリ制御部23の処理により4系列に分割された撮像画像データ(RAWデータ)、または、メモリ制御部124の処理により4系列に分割された撮像画像データ(RGBデータ)のある画素位置における処理を示している。すなわち、図25および図26のフローチャートを用いて説明する処理が、1フレームを構成する画素数の分だけ繰り返されたとき、撮像された動画像を構成する複数のフレームのうちの4フレーム分のノイズ低減処理が実行される。
ステップS151において、静止領域判定処理部262の第1の差分(dN)検出部281は、メモリ制御部23の処理により4系列に分割された撮像画像データ(RAWデータ)、または、メモリ制御部124の処理により4系列に分割された撮像画像データ(RGBデータ)のうち、時間的に最も早いフレームと時間的に2番目となるフレームとの所定の画素位置における画素値の差分(dN)を、上述した式(5)に従って検出し、その結果を閾値処理部285に供給する。
ステップS152において、静止領域判定処理部262の第2の差分(dN+1)検出部282は、メモリ制御部23の処理により4系列に分割された撮像画像データ(RAWデータ)、または、メモリ制御部124の処理により4系列に分割された撮像画像データ(RGBデータ)のうち、時間的に2番目となるフレームと、時間的に3番目となるフレームとの所定の画素位置における画素値の差分(dN+1)を、上述した式(5)に従って検出し、その結果を閾値処理部285に供給する。
ステップS153において、静止領域判定処理部262の第3の差分(dN+2)検出部283は、メモリ制御部23の処理により4系列に分割された撮像画像データ(RAWデータ)、または、メモリ制御部124の処理により4系列に分割された撮像画像データ(RGBデータ)のうち、時間的に3番目となるフレームと時間的に4番目となるフレームとの所定の画素位置における画素値の差分(dN+2)を、上述した式(5)に従って検出し、その結果を閾値処理部285に供給する。
なお、ステップS151乃至ステップS153の処理は、順次実行されるのではなく、同時に並行して実行されるが、ここでは、説明のため、異なるステップとして説明している。
ステップS154において、静止領域判定処理部262の差分(dall)検出部284は、メモリ制御部23の処理により4系列に分割された撮像画像データ(RAWデータ)、または、メモリ制御部124の処理により4系列に分割された撮像画像データ(RGBデータ)の所定の画素位置における各画素間の画素値の差分値の総和dallを、上述した式(6)を用いて求め、その結果を閾値処理部285に供給する。
ステップS155において、閾値処理部285は、所定の画素位置における画素値の4フレーム間の差分の総和dallは、所定の閾値よりも小さいか否かを判断する。
なお、ステップS155において4フレーム間の差分の総和dallとの比較に用いられる閾値は、4フレーム間の差分の総和dallに基づいて、4フレームの途中で大きく動きがあるか否かを判定可能な所定の値であればよく、経験的実験的に求められる所定の定数であっても良いし、設定可能な変数であっても良い。
ステップS155において、差分値dallが閾値よりも小さいと判断された場合、ステップS156において、閾値処理部285は、判断結果を加算処理部263に供給する。4フレーム間の差分の総和dallが所定の閾値よりも小さい場合、対象となる画素は、連続する4フレームの間でほとんど動いていないとみなすことが出来るため、加算処理部263は、式(7)の演算を行って、4フレーム間の平均化処理を行い、4フレームのノイズ低減処理結果として4系統全てに出力し、処理が終了される。
Figure 2009010823
なお、式(7)とこれ以降の式において、SN(x,y)は、4系統に分割された4つの入力RAWデータのうち、時間的にN番目となるフレームの画素位置(x,y)における画素値を表している。
ステップS155において、差分値dallが閾値よりも小さくない、すなわち、大きいと判断された場合、対象となる画素は連続する4フレームの間のいずれかで大きく動いているとみなすことが出来るので、各フレームのRAWデータまたはRGBデータに対して、時間的に連続する(隣り合う)フレームとの差分値di(iは、N,N+1,N+2,N+3であり、Nは正の整数)を評価する必要が生じる。
したがって、閾値処理部285は、ステップS157乃至ステップS159において、フレームNに対する出力を決定するための処理を実行する。ステップS157において、閾値処理部285は、差分値dNは、所定の閾値よりも小さいか否かを判断する。
なお、ステップS157以降において各差分値との比較に用いられる閾値は、それぞれの差分値に基づいて、2つのフレーム間で大きく動きがあるか否かを判定可能な所定の値であればよく、経験的実験的に求められる所定の定数であっても良いし、設定可能な変数であっても良い。また、ステップS157以降において各差分値との比較に用いられる閾値は、ステップS155において4フレーム間の差分の総和dallとの比較に用いられる閾値と同一の値でも良いし、異なる値であっても良い。
ステップS157において、差分値dNは、所定の閾値よりも小さいと判断された場合、ステップS158において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dNは、フレームNとフレームN+1の間の画素値の差を表しているため、差分値dNが所定の閾値よりも小さい場合、対象となる画素はフレームNとフレームN+1との間ではほとんど動いていないとみなすことができる。したがって、加算処理部263は、式(8)の演算を実行して、フレームNとフレームN+1の画素値の平均化処理を行う。すなわち、加算処理部263は、Nフレーム目のデータに対して、フレームNとフレームN+1の画素値を加算した値をノイズ除去後の画素値として出力する。この処理は、フレームNに対して未来方向のフレームN+1との加算処理に相当する。
Figure 2009010823
一方、ステップS157において、差分値dNは、所定の閾値よりも大きいと判断された場合、ステップS158において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dNは、フレームNとフレームN+1の間の画素値の差を表しているため、差分値dNが所定の閾値よりも大きい場合、対象となる画素はフレームNとフレームN+1との間で大きく動いているとみなすことができる。したがって、加算処理部263は、フレームNに対する加算処理を行わずに、Nフレーム目の対応する画素値をそのまま出力する。
ステップS158、または、ステップS159の処理の終了後、閾値処理部285は、ステップS160乃至ステップS164において、フレームN+1に対する出力を決定するための処理を実行する。ステップS160において、閾値処理部285は、差分値dNは、所定の閾値よりも小さいか否かを判断する。
ステップS160において、差分値dNは、所定の閾値よりも小さいと判断された場合、ステップS161において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dNは、フレームNとフレームN+1の間の画素値の差を表しているため、差分値dNが所定の閾値よりも小さい場合、対象となる画素はフレームNとフレームN+1との間ではほとんど動いていないとみなすことができる。したがって、加算処理部263は、式(9)の演算を実行して、フレームNとフレームN+1の画素値の平均化処理を行う。すなわち、加算処理部263は、N+1フレーム目のデータに対して、フレームNとフレームN+1の画素値を加算した値をノイズ除去後の画素値として出力する。この処理は、フレームN+1に対して過去方向のフレームNとの加算処理に相当する。
Figure 2009010823
一方、ステップS160において、差分値dNは、所定の閾値よりも大きいと判断された場合、ステップS162において、閾値処理部285は、差分値dN+1は、所定の閾値よりも小さいか否かを判断する。
ステップS162において、差分値dN+1は、所定の閾値よりも小さいと判断された場合、ステップS163において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dN+1は、フレームN+1とフレームN+2の間の画素値の差を表しているため、差分値dN+1が所定の閾値よりも小さい場合、対象となる画素はフレームN+1とフレームN+2との間ではほとんど動いていないとみなすことができる。したがって、加算処理部263は、上述した式(8)の演算を実行して、フレームN+1とフレームN+2の画素値の平均化処理を行う。すなわち、加算処理部263は、N+1フレーム目のデータに対して、フレームN+1とフレームN+2の画素値を加算した値をノイズ除去後の画素値として出力する。この処理は、フレームN+1に対して未来方向のフレームN+2との加算処理に相当する。
ステップS162において、差分値dN+1は、所定の閾値よりも小さくない、すなわち、大きいと判断された場合、ステップS164において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dN+1は、フレームN+1とフレームN+2の間の画素値の差を表しているため、差分値dN+1が所定の閾値よりも大きい場合、対象となる画素はフレームN+1とフレームN+2との間で大きく動いているとみなすことができる。したがって、加算処理部263は、フレームN+1に対する加算処理を行わずに、N+1フレーム目の対応する画素値をそのまま出力する。
ステップS161、ステップS163、または、ステップS164の処理の終了後、閾値処理部285は、ステップS165乃至ステップS169において、フレームN+2に対する出力を決定するための処理を実行する。ステップS165において、閾値処理部285は、差分値dN+1は、所定の閾値よりも小さいか否かを判断する。
ステップS165において、差分値dN+1は、所定の閾値よりも小さいと判断された場合、ステップS166において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dN+1は、フレームN+1とフレームN+2の間の画素値の差を表しているため、差分値dN+1が所定の閾値よりも小さい場合、対象となる画素はフレームN+1とフレームN+2との間ではほとんど動いていないとみなすことができる。したがって、加算処理部263は、上述した式(9)の演算を実行して、フレームN+1とフレームN+2の画素値の平均化処理を行う。すなわち、加算処理部263は、N+2フレーム目のデータに対して、フレームN+1とフレームN+2の画素値を加算した値をノイズ除去後の画素値として出力する。この処理は、フレームN+2に対して過去方向のフレームN+1との加算処理に相当する。
一方、ステップS165において、差分値dN+1は、所定の閾値よりも大きいと判断された場合、ステップS167において、閾値処理部285は、差分値dN+2は、所定の閾値よりも小さいか否かを判断する。
ステップS167において、差分値dN+2は、所定の閾値よりも小さいと判断された場合、ステップS168において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dN+2は、フレームN+2とフレームN+3の間の画素値の差を表しているため、差分値dN+2が所定の閾値よりも小さい場合、対象となる画素はフレームN+2とフレームN+3との間ではほとんど動いていないとみなすことができる。したがって、加算処理部263は、上述した式(8)の演算を実行して、フレームN+2とフレームN+3の画素値の平均化処理を行う。すなわち、加算処理部263は、N+2フレーム目のデータに対して、フレームN+2とフレームN+3の画素値を加算した値をノイズ除去後の画素値として出力する。この処理は、フレームN+2に対して未来方向のフレームN+3との加算処理に相当する。
ステップS167において、差分値dN+2は、所定の閾値よりも小さくない、すなわち、大きいと判断された場合、ステップS169において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dN+2は、フレームN+2とフレームN+3の間の画素値の差を表しているため、差分値dN+2が所定の閾値よりも大きい場合、対象となる画素はフレームN+2とフレームN+3との間で大きく動いているとみなすことができる。したがって、加算処理部263は、フレームN+2に対する加算処理を行わずに、N+2フレーム目の対応する画素値をそのまま出力する。
ステップS166、ステップS168、または、ステップS169の処理の終了後、閾値処理部285は、ステップS170乃至ステップS172において、フレームN+3に対する出力を決定するための処理を実行する。ステップS170において、閾値処理部285は、差分値dN+2は、所定の閾値よりも小さいか否かを判断する。
ステップS170において、差分値dN+2は、所定の閾値よりも小さいと判断された場合、ステップS171において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dN+2は、フレームN+2とフレームN+3の間の画素値の差を表しているため、差分値dN+2が所定の閾値よりも小さい場合、対象となる画素はフレームN+2とフレームN+3との間ではほとんど動いていないとみなすことができる。したがって、加算処理部263は、上述した式(9)の演算を実行して、フレームN+2とフレームN+3の画素値の平均化処理を行う。すなわち、加算処理部263は、N+3フレーム目のデータに対して、フレームN+2とフレームN+3の画素値を加算した値をノイズ除去後の画素値として出力して、処理が終了される。この処理は、フレームN+3に対して過去方向のフレームN+2との加算処理に相当する。
一方、ステップS170において、差分値dN+2は、所定の閾値よりも大きいと判断された場合、ステップS172において、閾値処理部285は、判断結果を加算処理部263に供給する。差分値dN+2は、フレームN+2とフレームN+3の間の画素値の差を表しているため、差分値dN+2が所定の閾値よりも大きい場合、対象となる画素はフレームN+2とフレームN+3との間で大きく動いているとみなすことができる。したがって、加算処理部263は、フレームN+3に対する加算処理を行わずに、N+3フレーム目の対応する画素値をそのまま出力し、処理が終了される。
このような処理により、同時に入力される連続する4フレーム画像データのフレーム内平滑化データに対して、フレーム間の画素差分を計算し、その値に応じて、加算処理部263の制御を決定することができるので、フレームレートの高い撮像データを複数系統に分割した場合、容量の大きなフレームメモリを設けることなく、大きな動きのない部分にのみ効果的に加算処理を行って、ノイズを低減することができる。
具体的には、ノイズ低減処理部241または341は、連続する4フレームの各画素の輝度差を検出することにより、静止している部分の画素(または、ほとんど動いていない部分の画素)については4フレームの間での加算平均を行い、隣り合う2フレームの間の動きの小さい画素については、そのフレーム間で加算平均を行うことにより、光ショットノイズや撮像素子に起因するランダムノイズを抑制することができる。
また、このような処理により、動きが小さく視覚的にノイズが目立つ領域に重点的にノイズ低減処理を行うことができるので、動き検出などの大きな回路を必要とせずに視覚的な画質向上を図ることができる。
さらに、撮像装置201および撮像装置301は、撮像素子の出力する高解像度、かつ、高フレームレート(例えば、一般的に動画像を撮像する場合に広く用いられるフレームレートのN倍であり、撮像装置201および撮像装置301では、撮像画像データを4系列に分割しているので、N=4)の撮像データを、N並列化して信号処理しているため、隣り合うNフレーム間での処理に限定することにより、新たなフレームメモリの追加なしに時間軸方向の加算処理を実現し、画像のノイズを低減することが可能である。
また、撮像装置201および撮像装置301とは異なる構成を有する装置であっても、高フレームレート(例えば、一般的に動画像を撮像する場合に広く用いられるフレームレートのN倍)の撮像データを、N並列化して信号処理する装置においては、隣り合うNフレーム間での処理に限定することにより、同様にして、新たなフレームメモリの追加なしに時間軸方向の加算処理を実現することが可能である。
次に、図27は、新たなフレームメモリの追加なしに時間軸方向の加算処理を実現することが可能な、画像変換装置400の構成を示すブロック図である。画像変換装置400は、これのみで1つの装置を構成しても良いし、高フレームレートの撮像データを、N並列化して信号処理する装置の一部として含まれていても良い。
画像変換装置400は、N系統(図27においては、N=4であるが、Nは、2以上のいかなる値でも良いことはいうまでもない)のビデオ入力部401−1乃至401−4と、図24に示されるノイズ低減処理部341、並びに、N系統のビデオ出力部402−1乃至402−4を含んで構成される。
ビデオ入力部401−1乃至401−4は、それぞれが高解像度かつ通常(例えば、60フレーム毎秒、50フレーム毎秒、または、24フレーム毎秒など)のフレームレートによるビデオ信号を入力する。このとき、ビデオ入力部401−1乃至401−4のそれぞれに入力されるビデオ信号は、上述した撮像装置1、撮像装置101、撮像装置201、または、撮像装置301のように、高フレームレートでの撮像を行う装置から、メモリ制御部124の処理によりN系列(ここでは4系列)にフレーム分配されて出力されたビデオ信号であるか、または、メモリ制御部23の処理によりN系列(ここでは4系列)にフレーム分配された後、デモザイク処理を含む画像処理が施されたビデオ信号である。図27に図示した画像変換装置400が取得して好適なのは、例えば、一般的に動画像を撮像する場合に広く用いられるフレームレートのN倍(ここでは、4の整数倍)での撮像を行う装置から、図3および図4を用いて説明したようにして4系列にフレーム分配されて出力されたビデオ信号である。
したがって、ビデオ入力部401−1乃至401−4に供給される各ビデオ信号は、同一のビデオフォーマットに従った信号であり、同時に入力される各信号のフレームは、それぞれが、4倍のフレームレートで撮像された信号の連続する4フレームに相当するものである。
また、入力されるビデオ信号のビデオフォーマットは、RGBフォーマットでも良いし、YCbCrなどのフォーマットでも構わない。入力されるビデオ信号のビデオフォーマットがRGBフォーマットであるとき、ノイズ低減処理部341は、R,G,Bの各プレーンに対して同様にノイズ低減処理を行い、入力されるビデオ信号のビデオフォーマットがYCbCrフォーマットであるとき、ノイズ低減処理部341は、Yプレーンに対してのみノイズ低減処理を行う。
そして、ビデオ出力部402−1乃至402−4は、それぞれが高解像度かつ通常のビデオフレームレートによるビデオ信号を出力する。ビデオ出力部402−1乃至402−4が出力するビデオ信号は、ノイズ低減処理部341にてノイズ低減された画像信号であり、各ビデオ信号は同一のビデオフォーマットに従うものとなる。
そして、出力されたノイズ低減後のビデオ信号は、上述した撮像装置1、撮像装置101、撮像装置201、または、撮像装置301のビデオ出力部26と同様に、同一のビデオフォーマットに従い、同時に入力される各信号のフレームがN倍のフレームレートで撮像された信号の連続するNフレームとなるようなN系統のビデオ信号を、必要に応じてフレーム合成することができる機能を有する装置に供給される。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。この場合、上述した処理は、図28に示されるようなパーソナルコンピュータ500により実行される。
図28において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。
CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。
入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。
入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、図28に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。
なお、上述した一連の処理をソフトウェアにより実行させる場合、信号処理やコーデックもCPU501が実行するものとしても良いし、信号処理やコーデックを行うハードウェアを用意し、CPU501は、それらのハードウェアを制御する(カメラ制御部11またはカメラ制御部111が実行する制御と基本的に同様の制御を実行する)ためのプログラムを実行するものとしても良い。
なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した撮像装置の構成を示すブロック図である。 ベイヤー配列を示す図である。 フレーム分配について説明するための図である。 フレーム分配について説明するための図である。 図1のカメラ信号処理部の構成を示すブロック図である。 フレーム合成について説明するための図である。 フレーム合成について説明するための図である。 本発明を適用した撮像装置の異なる構成を示すブロック図である。 図8のカメラ信号処理部の構成を示すブロック図である。 撮像・記録・出力処理について説明するためのフローチャートである。 撮像データ分割処理について説明するためのフローチャートである。 撮像データ分割処理について説明するためのフローチャートである。 ビデオ出力処理について説明するためのフローチャートである。 ビデオ出力処理について説明するためのフローチャートである。 動画のフレームレートと画質の5段階評価を行った場合の評価値との関係の一例を示す図である。 本発明を適用した撮像装置の異なる構成を示すブロック図である。 図16のカメラ信号処理部の構成を示すブロック図である。 図17のノイズ低減処理部の構成を示すブロック図である。 平滑化処理について説明するための図である。 平滑化処理について説明するための図である。 平滑化処理について説明するための図である。 図18の静止領域判定処理部の構成を示すブロック図である。 本発明を適用した撮像装置の異なる構成を示すブロック図である。 図23のカメラ信号処理部の構成を示すブロック図である。 ノイズ低減処理について説明するためのフローチャートである。 ノイズ低減処理について説明するためのフローチャートである。 本発明を適用した画像変換装置の構成を示すブロック図である。 パーソナルコンピュータの構成を示すブロック図である。
符号の説明
1 撮像装置, 11 カメラ制御部, 21 撮像光学系, 22 撮像素子, 23 メモリ制御部, 24 フレームメモリ, 25 カメラ信号処理部, 26 ビデオ出力部, 27 ファインダ出力部, 28 コーデック部, 29 記録部, 51 WB補正部, 52 RGB補間同時化処理部, 53 マトリクス処理部, 54 γ補正部, 55 色空間変換部, 101 撮像装置, 120 ダイクロイックプリズム, 121乃至123 撮像素子, 124 メモリ制御部, 125 フレームメモリ, 126 カメラ信号処理部, 151 WB補正部, 201 撮像装置, 221 カメラ信号処理部, 241 ノイズ低減処理部, 261 平滑化処理部, 262 静止領域判定処理部, 263 加算処理部, 281 第1の差分検出部, 282 第2の差分検出部, 283 第3の差分検出部, 284 差分検出部, 285 閾値処理部, 301 撮像装置, 321 カメラ信号処理部, 341 ノイズ低減処理部, 401 ビデオ入力部, 402 ビデオ出力部

Claims (21)

  1. 第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データを処理する画像処理装置において、
    N系列の前記動画像データのうちの任意の2つ以上の系列における所定の画素位置の画素値の差分値を算出する算出手段と、
    前記算出手段により算出された差分値に基づいて、前記動画像データのうちの動きの少ない部分を検出し、加算平均処理を行うノイズ低減処理手段と
    を備える画像処理装置。
  2. 前記算出手段は、
    N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における所定の画素位置の画素値の差分値であるN−1個の第1の値を算出する第1の算出手段と、
    N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出する第2の算出手段と
    を備え、
    前記ノイズ低減処理手段は、前記第1の算出手段により算出された前記第1の値、および、前記第2の算出手段により算出された前記第2の値に基づいて、前記動画像データのうちの動きの少ない部分を検出し、加算平均処理を行う
    請求項1に記載の画像処理装置。
  3. 前記ノイズ低減処理手段は、
    前記第2の算出手段により算出された前記第2の値が所定の閾値よりも小さかった場合、N系列の前記動画像データの所定の画素位置における画素値の加算平均値を、N系列の前記動画像データの所定の画素位置における画素値として出力し、
    前記第2の算出手段により算出された前記第2の値が所定の閾値よりも大きかった場合、前記第1の算出手段により算出された前記第1の値のいずれかが所定の閾値よりも小さければ、前記第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値を、前記第1の値を算出するために用いた系列の所定の画素位置における画素値として出力し、前記第1の算出手段により算出されたあるフレームに対して算出される前記第1の値の全てが所定の閾値よりも大きければ、前記第1の値を算出するために用いた系列の所定の画素位置における入力された画素値を出力する
    請求項2に記載の画像処理装置。
  4. N系列の前記動画像データをフレーム内平滑化するN個の平滑化処理手段を更に備え、
    前記第1の算出手段および前記第2の算出手段は、N個の前記平滑化処理手段により平滑化された画素値を用いて、前記第1の値および前記第2の値を算出する
    請求項2に記載の画像処理装置。
  5. 前記第1のレートの撮像データを得る撮像手段と、
    前記撮像手段により撮像された前記第1のレートの撮像データを、フレーム単位で分配し、前記第1のレートの1/Nのレートである前記第2のレートのN系列の動画像データに分割するデータ分割手段と
    を更に備え、
    前記第1の算出手段および前記第2の算出手段は、前記分割手段により分割されたN系列の前記動画像データを用いて、前記第1の値および前記第2の値を算出する
    請求項2に記載の画像処理装置。
  6. 前記ノイズ低減処理手段により処理されたN系列の前記動画像データを出力する出力手段を更に備え、
    前記出力手段は、出力される動画像データのレートに基づいて、N系列の前記動画像データのうちのいずれか1系統のみを出力するか、または、N系列の前記動画像データのうちの少なくとも一部をフレーム合成し出力する
    請求項1に記載の画像処理装置。
  7. 前記ノイズ低減処理手段により処理されたN系列の前記動画像データを記録する記録手段を更に備え、
    前記出力手段は、前記記録手段に記録された前記N系列の前記動画像データのうちの少なくとも一部を出力する
    請求項6に記載の画像処理装置。
  8. 前記記録手段は、N個備えられるか、または、N個の領域に分割され、前記ノイズ低減処理手段により処理されたN系列の前記動画像データをそれぞれ記録する
    請求項7に記載の画像処理装置。
  9. 前記第2のレートは、60フレーム毎秒である
    請求項1に記載の画像処理装置。
  10. 前記第2のレートは、50フレーム毎秒である
    請求項1に記載の画像処理装置。
  11. 前記第2のレートは、24フレーム毎秒である
    請求項1に記載の画像処理装置。
  12. 前記N系列は、4系列である
    請求項1に記載の画像処理装置。
  13. 前記N系列は、2系列である
    請求項1に記載の画像処理装置。
  14. 前記第1のレートは、240フレーム毎秒である
    請求項1に記載の画像処理装置。
  15. 前記ノイズ低減処理手段により処理されたN系列の前記動画像データを記録する記録手段を更に備える
    請求項1に記載の画像処理装置。
  16. 前記記録手段は、N個備えられるか、または、N個の領域に分割され、前記ノイズ低減処理手段により処理されたN系列の前記動画像データをそれぞれ記録する
    請求項15に記載の画像処理装置。
  17. 前記ノイズ低減処理手段により処理されたN系列の前記動画像データを符号化する符号化手段を更に備え、
    前記記録手段は、前記符号化手段により符号化されたN系列の前記動画像データを記録する
    請求項15に記載の画像処理装置。
  18. 前記符号化手段により符号化されて前記記録手段により記録されたN系列の前記動画像データを復号する復号手段と、
    前記復号手段により復号されたN系列の前記動画像データを出力する出力手段と
    を更に備え、
    前記復号手段は、出力される動画像データのレートに基づいて、N系列の前記動画像データのうちのいずれか1系統のみを復号するか、または、N系列の前記動画像データのうちの少なくとも一部を復号し、
    前記出力手段は、出力される動画像データのレートに基づいて、前記復号手段により復号されたN系列の前記動画像データのうちのいずれか1系統を出力するか、または、N系列の前記動画像データのうちの少なくとも一部をフレーム合成し、出力する
    請求項17に記載の画像処理装置。
  19. 第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データを処理する画像処理装置の画像処理方法において、
    N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における、所定の画素位置の画素値の差分値であるN−1個の第1の値を算出し、
    N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出し、
    算出された前記第2の値が所定の閾値よりも小さかった場合、N系列の前記動画像データの所定の画素位置における画素値の加算平均値を、N系列の前記動画像データの所定の画素位置における画素値として出力し、
    前記第2の値が所定の閾値よりも大きく、かつ、前記第1の値のいずれかが所定の閾値よりも小さい場合、前記第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値を、前記第1の値を算出するために用いた系列の所定の画素位置における画素値として出力し、
    前記第2の値が所定の閾値よりも大きく、かつ、あるフレームに対して算出される前記第1の値の全てが所定の閾値よりも大きい場合、前記第1の値を算出するために用いた系列の所定の画素位置における入力された画素値を出力する
    ステップを含む画像処理方法。
  20. 第1のレートの動画像データがフレーム単位でN分割されて生成された、前記第1のレートの1/N(Nは正の整数)のレートである第2のレートのN系列の動画像データの処理をコンピュータに実行させるためのプログラムであって、
    N系列の前記動画像データのうちの時間的に隣り合うフレームにより構成される2つの系列における、所定の画素位置の画素値の差分値であるN−1個の第1の値を算出し、
    N系列の前記動画像データの所定の画素位置における画素値の差分値の総和である第2の値を算出し、
    算出された前記第2の値が所定の閾値よりも小さかった場合、N系列の前記動画像データの所定の画素位置における画素値の加算平均値を、N系列の前記動画像データの所定の画素位置における画素値として出力し、
    前記第2の値が所定の閾値よりも大きく、かつ、前記第1の値のいずれかが所定の閾値よりも小さい場合、前記第1の値を算出するために用いた系列の所定の画素位置における画素値の加算平均値を、前記第1の値を算出するために用いた系列の所定の画素位置における画素値として出力し、
    前記第2の値が所定の閾値よりも大きく、かつ、あるフレームに対して算出される前記第1の値の全てが所定の閾値よりも大きい場合、前記第1の値を算出するために用いた系列の所定の画素位置における入力された画素値を出力する
    ステップを含む処理をコンピュータに実行させるプログラム。
  21. 請求項20に記載のプログラムが記録されている記録媒体。
JP2007171674A 2007-06-29 2007-06-29 画像処理装置および画像処理方法、記録媒体、並びに、プログラム Withdrawn JP2009010823A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007171674A JP2009010823A (ja) 2007-06-29 2007-06-29 画像処理装置および画像処理方法、記録媒体、並びに、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007171674A JP2009010823A (ja) 2007-06-29 2007-06-29 画像処理装置および画像処理方法、記録媒体、並びに、プログラム

Publications (1)

Publication Number Publication Date
JP2009010823A true JP2009010823A (ja) 2009-01-15

Family

ID=40325420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007171674A Withdrawn JP2009010823A (ja) 2007-06-29 2007-06-29 画像処理装置および画像処理方法、記録媒体、並びに、プログラム

Country Status (1)

Country Link
JP (1) JP2009010823A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090025A1 (ja) * 2009-02-05 2010-08-12 パナソニック株式会社 撮像処理装置
JP2011160320A (ja) * 2010-02-03 2011-08-18 Mitsubishi Electric Corp ビデオカメラおよびそれを用いた画像監視システム
JP2012520606A (ja) * 2009-03-12 2012-09-06 イーストマン コダック カンパニー 動きをもつビデオの表示
US8446493B2 (en) 2011-02-09 2013-05-21 Nikon Corporation Image processing apparatus, imaging apparatus, computer readable storage medium storing image processing program, and image processing method for performing color processing on a raw image
JP2013141169A (ja) * 2012-01-06 2013-07-18 Nk Works Kk 画像処理プログラム、画像処理装置および画像処理方法
JP2013179395A (ja) * 2012-02-28 2013-09-09 Aiphone Co Ltd インターホン装置
JP2014135667A (ja) * 2013-01-11 2014-07-24 Seiko Epson Corp 映像処理装置、表示装置および映像処理方法
JP2019169802A (ja) * 2018-03-22 2019-10-03 パナソニックIpマネジメント株式会社 画像処理装置、撮像システム、画像処理方法、及びプログラム
JP2022553962A (ja) * 2020-06-05 2022-12-27 テンセント・アメリカ・エルエルシー ビデオデータをノイズ除去するためのシステム、コーディング方法、およびコンピュータプログラム
CN117255222A (zh) * 2023-11-20 2023-12-19 上海科江电子信息技术有限公司 一种数字电视监测的方法、系统及应用

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090025A1 (ja) * 2009-02-05 2010-08-12 パナソニック株式会社 撮像処理装置
JP4598162B2 (ja) * 2009-02-05 2010-12-15 パナソニック株式会社 撮像処理装置
JPWO2010090025A1 (ja) * 2009-02-05 2012-08-09 パナソニック株式会社 撮像処理装置
US8243160B2 (en) 2009-02-05 2012-08-14 Panasonic Corporation Imaging processor
JP2012520606A (ja) * 2009-03-12 2012-09-06 イーストマン コダック カンパニー 動きをもつビデオの表示
JP2011160320A (ja) * 2010-02-03 2011-08-18 Mitsubishi Electric Corp ビデオカメラおよびそれを用いた画像監視システム
US8446493B2 (en) 2011-02-09 2013-05-21 Nikon Corporation Image processing apparatus, imaging apparatus, computer readable storage medium storing image processing program, and image processing method for performing color processing on a raw image
JP2013141169A (ja) * 2012-01-06 2013-07-18 Nk Works Kk 画像処理プログラム、画像処理装置および画像処理方法
JP2013179395A (ja) * 2012-02-28 2013-09-09 Aiphone Co Ltd インターホン装置
JP2014135667A (ja) * 2013-01-11 2014-07-24 Seiko Epson Corp 映像処理装置、表示装置および映像処理方法
JP2019169802A (ja) * 2018-03-22 2019-10-03 パナソニックIpマネジメント株式会社 画像処理装置、撮像システム、画像処理方法、及びプログラム
JP2022553962A (ja) * 2020-06-05 2022-12-27 テンセント・アメリカ・エルエルシー ビデオデータをノイズ除去するためのシステム、コーディング方法、およびコンピュータプログラム
JP7423130B2 (ja) 2020-06-05 2024-01-29 テンセント・アメリカ・エルエルシー ビデオデータをノイズ除去するためのシステム、コーディング方法、およびコンピュータプログラム
CN117255222A (zh) * 2023-11-20 2023-12-19 上海科江电子信息技术有限公司 一种数字电视监测的方法、系统及应用

Similar Documents

Publication Publication Date Title
US9609298B2 (en) Imaging apparatus, imaging method, recording medium, and program
JP2009010823A (ja) 画像処理装置および画像処理方法、記録媒体、並びに、プログラム
US8903222B2 (en) Image reproducing apparatus, image reproducing method, image capturing apparatus, and control method therefor
US8102436B2 (en) Image-capturing apparatus and method, recording apparatus and method, and reproducing apparatus and method
US7466451B2 (en) Method and apparatus for converting motion image data, and method and apparatus for reproducing motion image data
JP2008228282A (ja) 画像処理装置
JP2007142649A (ja) 画像処理装置及びプログラム
JP2010136224A (ja) 撮像装置及び撮像方法
US20140340526A1 (en) Imaging apparatus, method for controlling imaging apparatus, and system therefor
JP2008124671A (ja) 撮像装置および撮像方法
JP5683858B2 (ja) 撮像装置
JP2007104623A (ja) 映像信号伝送システム、撮像装置、信号処理装置および映像信号伝送方法
KR20120024448A (ko) 촬상 장치, 신호 처리 방법 및 프로그램
US7499081B2 (en) Digital video imaging devices and methods of processing image data of different moments in time
JP2004336608A (ja) 画像データの変換方法および変換回路と、電子カメラ
JP5159461B2 (ja) 画像処理装置、画像処理方法及び撮像装置
US10397587B2 (en) Image processing apparatus and control method thereof
JP2010147774A (ja) 撮像装置
JP2004072148A (ja) Avデータ記録装置および方法
JP2005217493A (ja) 撮像装置
JP2000115694A (ja) 画像データ記録方法、画像データ記録装置、画像データ再生方法、画像データ再生装置、情報記録媒体及びコンピュータ読み取り可能な記録媒体
JP3581457B2 (ja) 撮像装置
JP2005159976A (ja) 撮像装置
US20130100313A1 (en) Image processing device and storage medium storing image processing program
JP2010283630A (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100907