JP4849130B2 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP4849130B2
JP4849130B2 JP2009001351A JP2009001351A JP4849130B2 JP 4849130 B2 JP4849130 B2 JP 4849130B2 JP 2009001351 A JP2009001351 A JP 2009001351A JP 2009001351 A JP2009001351 A JP 2009001351A JP 4849130 B2 JP4849130 B2 JP 4849130B2
Authority
JP
Japan
Prior art keywords
codec
decoding
image
unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009001351A
Other languages
English (en)
Other versions
JP2009225431A (ja
Inventor
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009001351A priority Critical patent/JP4849130B2/ja
Publication of JP2009225431A publication Critical patent/JP2009225431A/ja
Application granted granted Critical
Publication of JP4849130B2 publication Critical patent/JP4849130B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1883Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit relating to sub-band structure, e.g. hierarchical level, directional tree, e.g. low-high [LH], high-low [HL], high-high [HH]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/619Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像処理装置、および画像処理方法、並びにプログラムに関し、特に、画像圧縮処理の高速化を実現する画像処理装置、および画像処理方法、並びにプログラムに関する。
撮像装置の分野において、近年、通常のビデオフレームレート(60フレーム毎秒、50フレーム毎秒、または24フレーム毎秒など)よりも高速な撮像を行うことを可能にした高速度撮像装置が知られている。このような高速度撮像装置では、高解像度、かつ高フレームレートの撮像信号のデータレートが高速になり、この高速データレートで入力するデータに対して実行する画像信号処理や画像圧縮処理も高速化することが要求される。しかし、画像圧縮処理等の信号処理を撮像素子から出力されるデータレートに追随するレベルに高速化することは困難であるという問題がある。
このため、従来の高速度撮像装置では、撮像素子から出力される撮像データを一旦半導体メモリに記憶し、撮像処理の終了後に外部の制御装置(主にコンピュータ)から半導体メモリ内部の撮像データを読み出して処理を行う方法や、撮像処理終了後に、後段の映像信号処理の処理能力に応じたデータレート(通常のビデオフレームレートに相当)で半導体メモリから撮像データを読み出して、画像信号処理、および画像圧縮処理を施して記録媒体に記録する方法が提案されている。
しかし、このように撮像データを一旦半導体メモリに記憶する構成とした場合、高速撮像装置に搭載可能な半導体メモリの容量に限界があるため、連続撮像による記録時間が制限されてしまうという問題がある。この問題を解決するためには、撮像素子から出力される撮像データに対して、実時間にて画像信号処理と画像圧縮処理を実現して、磁気テープや光磁気ディスクやハードディスクなどの記録媒体に記録可能なビットレートに対応する信号に変換しなければならない。
近年では、高い圧縮率を実現する圧縮方式としてH.264 VIDEO CODECが利用されている。しかしながら、現時点においては、上記の圧縮方式[H.264 VIDEO CODEC]など多くの高圧縮型の圧縮方式は処理が複雑であり、処理に時間を要する。すなわち通常のビデオフレームレートを超える高速のフレームレートに追随した高速処理を実現する回路、LSIは実現されていないのが現状である。
このような圧縮処理速度の問題を解決するため、1フレームの画像を空間的に分割し、それぞれの領域を並列処理することにより高速処理を実現して、高速度撮像に追随する画像圧縮を実現する方法が提案されている。例えば特許文献1には、固体撮像素子から水平ライン単位で出力を分配し、並列処理を行う撮像装置が記載されている。また、特許文献2には、プリズムにより分光し、複数の固体撮像素子の出力信号を並列処理する撮像装置が記載されている。
一方、時間方向(フレームレート)のスケーラビリティを実現する符号化方式として、Scalable Video CODEC(SVC)が提案されている。非特許文献1、および非特許文献2に示されるSVCでは、時間方向のサブバンド分割を行い、それぞれを階層的に符号化することにより時間方向のスケーラビリティを実現している。
特開平1−286586号公報 特開平5−316402号公報
Heiko Schwarz, Detlev Marpe, and Thomas Wiegand, "MCTF and Scalability Extension of H.264/AVC", PCS'04, December 2004. J.Reichel and H.Schwarz, "Scalable Video Coding − Joint ScalableVideo Model JSVM−2", JVT−O201, Apri.2005.
ところで、上記の従来の高速度撮像装置は以下に示すような問題があった。
特許文献1に記載の撮像装置は、高速な画像処理を行うために空間的に画像を分割して並列に処理を行うことにより、高解像度、かつ高フレームレートの画像を長時間記録することが可能である。しかしながら、特許文献1に記載の撮像装置では、並列化された信号を記録するために複数台のビデオテープレコーダ(VTR)を使うという大掛かりな構成になっている。また、特に、画像圧縮に関する言及はない。
特許文献2に記載の撮像装置は、プリズムにより分光した入射光を複数の撮像素子により時間的に位相をずらして撮像し、それらの信号を並列的に処理することにより、高解像度、かつ高フレームレートの撮像を実現している。しかしながら、特許文献2に記載の撮像装置では、画像圧縮に関する言及は特になく、半導体メモリに記録する構成になっている。仮に、時分割的に並列化された画像信号を圧縮する構成にする場合には、複数の画像圧縮装置を持つ必要があり、コストの大幅な増加を必要とする。
また、非特許文献1、および非特許文献2に記載の符号化方式では、サブバンド分割した各階層を同一の符号化処理により圧縮している。このような構成では、圧縮効率を高めた符号化処理部を複数持つ場合にはコストの大幅な増加を必要とし、一方、低コストの符号化処理部で構成する場合には、圧縮効率を高めることが難しいという問題があった。
本発明の目的は、上記の問題を解決し、大幅なコスト増無しに、高解像度、かつ高フレームレートの画像を長時間記録することを実現し、かつ再生・出力時にフレームレートのスケーラビリティを持たせることを実現する画像圧縮部を具備した画像処理装置、および画像処理方法、並びにプログラムを提供することにある。
本発明の第1の側面は、
入力画像信号に対する時間方向のサブバンド分割処理により、前記入力画像信号の入力フレームレートより低フレームレートとした低周波成分からなる低域側サブバンド分割信号、および高周波成分からなる高域側サブバンド分割信号を生成する時間サブバンド分割手段と、
前記低域側サブバンド分割信号を圧縮する第1の符号化手段と、
前記高域側サブバンド分割信号を圧縮する第2の符号化手段とを具備し、
前記第1の符号化手段と、前記第2の符号化手段は、異なる符号化処理を実行する構成である画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記第1の符号化手段は、前記第2の符号化手段より圧縮効率の高い符号化処理手段で構成されている。
さらに、本発明の画像処理装置の一実施態様において、前記第2の符号化手段は、前記第1の符号化手段より回路規模の小さい符号化処理手段で構成されている。
さらに、本発明の画像処理装置の一実施態様において、前記時間サブバンド分割手段は、時間方向のウェーブレット変換器であり、時間方向に隣り合う複数フレーム間でのHaar変換を行うことで、フレーム信号を低周波数成分と高周波数成分に分割する処理を実行する。
さらに、本発明の画像処理装置の一実施態様において、前記時間サブバンド分割手段は、前記入力画像信号としてPフレーム/秒(Pは整数)の画像信号を入力し、時間方向のサブバンド分割処理により(P/Q)フレーム/秒(Qは2以上の整数)の低域側サブバンド分割信号および高域側サブバンド分割信号を生成する。
さらに、本発明の画像処理装置の一実施態様において、前記第1の符号化手段、および前記第2の符号化手段は、それぞれが(P/Q)フレーム毎秒での符号化処理を行う。
さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記第1の符号化手段から出力される低域側ストリームデータと、前記第2の符号化手段から出力される高域側ストリームデータを記録する記録手段と、前記記録手段に記録した低域側ストリームデータを入力して低周波数成分の伸長処理を実行する第1の復号手段と、前記記録手段に記録した高域側ストリームデータを入力して高周波数成分の伸長処理を実行する第2の復号手段と、前記第1の復号手段と第2の復号手段の復号結果である画像信号に対する時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとした合成画像信号を生成する時間サブバンド合成手段とを有する。
さらに、本発明の画像処理装置の一実施態様において、前記時間サブバンド合成手段は、時間方向のウェーブレット逆変換器である。
さらに、本発明の画像処理装置の一実施態様において、前記時間サブバンド分割手段は、前記高域側サブバンド分割信号として、複数の高域側サブバンド分割信号を生成し、前記低域側サブバンド分割信号および前記複数の高域側サブバンド分割信号のフレームレートは、前記低域側サブバンド分割信号および前記複数の高域側サブバンド分割信号の総数に応じて決定されるフレームレートである。
さらに、本発明の画像処理装置の一実施態様において、前記第2の符号化手段は、前記複数の高域側サブバンド分割信号の各々に対する圧縮処理を実行する複数の異なる符号化手段によって構成される。
さらに、本発明の画像処理装置の一実施態様において、前記時間サブバンド分割手段は、前記入力画像信号に含まれる時間的に連続するN(N≧2)個の画像フレームの対応画素の信号値の加算処理によって1つの低域側サブバンド分割信号を生成し、前記入力画像信号に含まれる時間的に連続するN(N≧2)個の画像フレームの対応画素の信号値の加算処理および減算処理によってN−1個の高域側サブバンド分割信号を生成する構成であり、前記N−1個の高域側サブバンド分割信号の各々は、加算処理および減算処理対象とする画像フレームの組み合わせを異なる設定として算出した信号である。
さらに、本発明の第2の側面は、
記録手段に記録した低域側ストリームデータを入力して低周波数成分の伸長処理を実行する第1の復号手段と、
記録手段に記録した高域側ストリームデータを入力して高周波数成分の伸長処理を実行する第2の復号手段と、
前記第1の復号手段と第2の復号手段の復号結果である画像信号を入力して、時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとした合成画像信号を生成する時間サブバンド合成手段を有する画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記第1の復号手段は、前記第2の復号手段より圧縮効率の高い符号化処理データの復号を実行する構成である。
さらに、本発明の画像処理装置の一実施態様において、前記第2の復号手段は、記録手段に記録した複数の異なる高域側ストリームデータを入力して複数の異なる高周波数成分の画像信号を生成し、前記時間サブバンド合成手段は、前記第1の復号手段の復号結果である画像信号と、前記第2の復号手段の復号結果である複数の異なる画像信号を入力して、時間方向のサブバンド合成処理により、高フレームレートの合成画像信号を生成する。
さらに、本発明の画像処理装置の一実施態様において、前記時間サブバンド合成手段は、前記第1の復号手段の生成する低周波数成分の画像信号と、前記第2の復号手段の生成する高周波数成分の画像信号との総数に応じて決定されるフレームレートの合成画像信号を生成する。
さらに、本発明の画像処理装置の一実施態様において、前記第2の復号手段は、前記記録手段に記録した複数の異なる高域側ストリームデータの各々に対する伸張処理を実行する複数の異なる復号手段によって構成される。
さらに、本発明の第3の側面は、
画像処理装置において実行する画像処理方法であり、
時間サブバンド分割手段が、入力画像信号に対する時間方向のサブバンド分割処理により、前記入力画像信号の入力フレームレートより低フレームレートとした低周波成分からなる低域側サブバンド分割信号、および高周波成分からなる高域側サブバンド分割信号を生成する時間サブバンド分割ステップと、
第1の符号化手段が、前記低域側サブバンド分割信号を圧縮する第1の符号化ステップと、
第2の符号化手段が、前記高域側サブバンド分割信号を圧縮する第2の符号化ステップを有し、
前記第1の符号化ステップと前記第2の符号化ステップは、異なる符号化処理を実行するステップである画像処理方法にある。
さらに、本発明の第4の側面は、
画像処理装置において実行する画像処理方法であり、
第1の復号手段が、記録手段に記録した低域側ストリームデータを入力して低周波数成分の伸長処理を実行する第1の復号ステップと、
第2の復号手段が、記録手段に記録した高域側ストリームデータを入力して高周波数成分の伸長処理を実行する第2の復号ステップと、
時間サブバンド合成手段が、前記第1の復号ステップと第2の復号ステップの復号結果である画像信号を入力して、時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとした合成画像信号を生成する時間サブバンド合成ステップを有する画像処理方法にある。
さらに、本発明の第5の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
時間サブバンド分割手段に、入力画像信号に対する時間方向のサブバンド分割処理により、前記入力画像信号の入力フレームレートより低フレームレートとした低周波成分からなる低域側サブバンド分割信号、および高周波成分からなる高域側サブバンド分割信号を生成させる時間サブバンド分割ステップと、
第1の符号化手段に、前記低域側サブバンド分割信号を圧縮させる第1の符号化ステップと、
第2の符号化手段に、前記高域側サブバンド分割信号を圧縮させる第2の符号化ステップを有し、
前記第1の符号化ステップと前記第2の符号化ステップは、異なる符号化処理を実行するステップであるプログラムにある。
さらに、本発明の第6の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
第1の復号手段に、記録手段に記録した低域側ストリームデータを入力して低周波数成分の伸長処理を実行させる第1の復号ステップと、
第2の復号手段に、記録手段に記録した高域側ストリームデータを入力して高周波数成分の伸長処理を実行させる第2の復号ステップと、
時間サブバンド合成手段に、前記第1の復号ステップと第2の復号ステップの復号結果である画像信号を入力して、時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとした合成画像信号を生成させる時間サブバンド合成ステップを有するプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例構成によれば、例えば撮像素子等の出力信号である画像信号を入力して時間方向のサブバンド分割処理を実行して、入力フレームレートより低フレームレートの低域側サブバンド分割信号および高域側サブバンド分割信号を生成して、生成した低域側サブバンド分割信号と、高域側サブバンド分割信号をそれぞれ圧縮する2つの符号化手段を具備する構成とし、低域側サブバンド分割信号の符号化手段を、例えばH.264コーデック(CODEC)、高域側サブバンド分割信号の符号化手段をJPEGコーデック(CODEC)とするなど、圧縮効率の違う符号化手段の組み合わせとした。この構成により、各符号化手段では低フレームレートに従った速度での符号化処理によって高フレームレートの入力データ、例えば撮像データのリアルタイム処理が実現される。
また、本発明の一実施例に係る装置では、異なる符号化処理のなされたデータの復号、再生において、低域側ストリームデータと高域側ストリームデータとをそれぞれ異なる復号処理手段による復号、例えば、低域側ストリームデータをH.264コーデック(CODEC)による復号処理、高域側ストリームデータをJPEGコーデック(CODEC)による復号処理を行って、各復号結果を合成して高フレームレートのビデオ信号として出力する構成とした。または、低域側ストリームデータのH.264コーデック(CODEC)による復号処理結果のみを出力して低フレームレートのビデオ信号の出力も可能とした。
本発明の一実施例に係る撮像装置の構成例について説明する図である。 本発明の一実施例に係る撮像装置のデータ処理例について説明する図である。 本発明の一実施例に係る撮像装置のデータ処理例について説明する図である。 本発明の一実施例に係る撮像装置のデータ処理例について説明する図である。 本発明の一実施例に係る撮像装置のデータ処理例について説明する図である。 本発明の一実施例に係る撮像装置の構成例について説明する図である。 本発明の一実施例に係る撮像装置の構成例について説明する図である。 本発明の一実施例に係る撮像装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る撮像装置の構成例について説明する図である。 本発明の一実施例に係る撮像装置のデータ処理例について説明する図である。 本発明の一実施例に係る撮像装置のデータ処理例について説明する図である。 本発明の一実施例に係る撮像装置のデータ処理例について説明する図である。 フレームメモリに格納された画像データに対するデータ処理シーケンス例について説明する図である。
以下、図面を参照しながら本発明の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は、以下の項目に従って行う。
A.高速(2倍)フレームレートの撮像データに対する処理を実行する構成例
B.高速(2倍)フレームレートの撮像データに対する処理を実行するその他の実施例
C.高速(N倍)フレームレートの撮像データに対する処理を実行する構成例
[A.高速(2倍)フレームレートの撮像データに対する処理を実行する構成例]
図1は、本発明に係る画像処理装置の一実施例である撮像装置の構成を示している。本撮像装置は、通常のビデオレートの2倍のフレームレートによる撮像、処理、および記録を実現する装置である。
まず、撮像時の動作について図を参照して説明する。撮像装置100は、撮像光学系1を介して入射される光を撮像素子2で受光する。撮像素子2は、高解像度(本実施例ではHD(High Definition)解像度とする)、かつ高フレームレート(本実施例では120フレーム毎秒とする)の撮像を行うことができる固体撮像素子、例えばCMOS型固体撮像素子であり、図示しないAD変換器を介してデジタル変換された撮像データを出力する。ここで、AD変換器は、CMOS型固体撮像素子上に実装されているか、または固体撮像素子の外部に配置されているものである。また、本実施例においては、撮像素子2は、受光面に、画素ごとに異なる波長域を透過するカラーフィルタを持つ単板カラー方式の固体撮像素子である。
撮像素子2から出力される撮像データは、時間サブバンド分割部31に入力される。時間サブバンド分割部31は、撮像素子2から与えられる現フレームの撮像データを一旦フレームメモリ4に記憶すると同時に、フレームメモリ4から過去2フレームの撮像データを読み出し、下記式(式1)に従ったサブバンド分割処理を行い、低域側の信号11と、高域側の信号12を出力する。
Figure 0004849130
上記式(式1)は、Haar関数を基底とする時間方向のウェーブレット変換を表している。上記式において、
I(x,y,2t):時間2tにおける画素位置(x,y)の入力値、
I(x,y,2t+1):時間2t+1における画素位置(x,y)の入力値、
(x,y,2t):時間2tにおける画素位置(x,y)の低域信号出力値、
(x,y,2t):時間2tにおける画素位置(x,y)の高域信号出力値、
Range:1画素の画素値の階調数、
これらの各値を示す。
なお、階調数は、たとえば1画素を各色8ビットで表現する場合には256になる。本実施例においては、各色8ビットとして記載する。
低域信号出力値O(x,y,2t)は、2つの入力連続フレームの対応画素値の加算処理によって生成され、高域信号出力値O(x,y,2t)は、2つの入力連続フレームの対応画素値の減算処理によって生成される。すなわち時間方向に連続する2つのフレームの対応する信号値に基づいて、1つの低域信号出力値と高域信号出力値を生成する。この処理により入力フレームレートに対して出力フレームレートは1/2になる。また、以下に示す式(式2)は、Haar関数を基底とするウェーブレット逆変換を表す。
Figure 0004849130
上記式(式2)に示すウェーブレット逆変換は、先に説明した式(式1)に示すウェーブレット変換において生成した値[O(x,y,2t)],[O(x,y,2t)]から、時間2tと2t+1の元のフレームレートに対応する連続する2つのフレームの対応する画素(x,y)の画素値[R(x,y,2t)]、[R(x,y,2t+1)]を算出する式である。上記式(式2)は、復号処理に際して利用される。
実施例においては、時間サブバンド分割部31における時間サブバンド分割処理として、実装が容易なHaarウェーブレットを用いているが、その他の基底を用いたウェーブレット変換や、その他のサブバンド分割処理を用いても構わない。
図2に時間サブバンド分割部31における時間サブバンド分割処理の詳細を示す。図2には、フレームメモリ4から読み出した第1のフレーム(Frame0)と第2のフレーム(Frame1)の撮像データを示している。各撮像データフレームは、それぞれ各画素に単一の色信号、すなわちRGBのいずれかの1つの色信号を有するRAWデータである。例えば各フレームの左上端は、G信号であり、右側にGRGRの順で各信号値が格納されており、第2行目は、BGBGの順で信号値が格納されている。例えば、各フレームの左上端のG信号について、
G(0,0,0)のGは、RGB信号のG信号であること、
G(0,0,0)の最初の(0,0)は、座標位置(x,y)=(0,0)であること、
G(0,0,0)の最後の(0)は、フレームID=フレーム0であること、
これらの値を示している。
時間サブバンド分割部31は、各フレームにおいて空間的に同じ位置にある画素同士で加算処理と減算処理を行う。例えば、図2に示した第1のフレーム(Frame0)の画素G(0,0,0)と、第2のフレーム(Frame1)の画素G(0,0,1)の間で、式1に示した処理を行い、2つの入力連続フレームの対応画素値の加算処理によって低域信号出力値O(x,y,2t)を算出し、2つの入力連続フレームの対応画素値の減算処理によって高域信号出力値O(x,y,2t)を生成する。なお、以下では、RGBのいずれの信号値であるかに応じて、[O(x,y,2t)],[O(x,y,2t)]を、
Rの場合、[R(x,y,2t)],[R(x,y,2t)]、
Gの場合、[G(x,y,2t)],[G(x,y,2t)]、
Bの場合、[B(x,y,2t)],[B(x,y,2t)]、
として表記する。
時間サブバンド分割部31は、例えば、図2に示した第1のフレーム(Frame0)の画素G(0,0,0)と、第2のフレーム(Frame1)の画素G(0,0,1)の間で、式1に示した処理を行い、2つの入力連続フレームの対応画素値の加算処理によって低域信号出力値G(0,0,0)、2つの入力連続フレームの対応画素値の減算処理によって高域信号出力値G(0,0,0)を生成する。同様にして、画素R(1,0,0)と画素R(1,0,1)の間で処理を行い、低域信号R(1,0,0)と高域信号R(1,0,0,)を出力する。
このようにして、時間サブバンド分割部31により変換される低域信号11は、撮像データの隣り合う2フレームの画素を加算処理したものであり、撮像フレームレート(本実施例では120フレーム毎秒)の半分のフレームレート(60フレーム毎秒)による撮像RAWデータに相当する。一方、時間サブバンド分割部31により変換される高域信号12は、撮像データの隣り合う2フレーム間の差分を求めたものであり、動被写体の領域にのみ有効な画素値が存在し、その他の領域は差分がないことを示す一定値(実装上、中央値128を割り当てる)となるようなRAWデータである。また、低域信号11、および高域信号12は、いずれもフレームレートは60フレーム毎秒である。
このように、時間サブバンド分割手段31は、撮像素子2から出力される画像信号を入力し、時間方向のサブバンド分割処理により、撮像素子2からの入力フレームレートより低フレームレートとした低周波成分からなる低域側サブバンド分割信号、および高周波成分からなる高域側サブバンド分割信号を生成する。
時間サブバンド分割部31から出力される低域信号11は、カメラ信号処理部A51に入力される。同様に、時間サブバンド分割部31から出力される高域信号12は、カメラ信号処理部B52に入力される。
カメラ信号処理部A51、およびカメラ信号処理部B52は、時間サブバンド分割部31から出力される低域信号11と高域信号12に対して、ホワイトバランス補正、ゲイン補正、デモザイク処理、マトリクス処理、ガンマ補正などのカメラ信号処理を施す。カメラ信号処理部A51と、カメラ信号処理部B52は、同様の処理を行う処理部であり、それぞれ低域信号11と高域信号12に対する処理を並列に実行する。
前述の通り、時間サブバンド分割部31から出力される低域信号11と高域信号12は、撮像フレームレートである高速(120f/s)フレームレートからレート変換された60フレーム毎秒(60f/s)のデータである。
カメラ信号処理部A51、およびカメラ信号処理部B52は、60フレーム毎秒(60f/s)のデータに対する信号処理を実行すればよい。すなわち60フレーム毎秒による撮像RAWデータと同等の処理速度で処理を実行することができる。
なお、時間サブバンド分割部31から出力される高域信号12は、隣り合う2フレーム間の差分を表すRAWデータである。したがって、カメラ信号処理部B52におけるデモザイク処理などにおいて非線形処理が施された場合、輝度の変化が生じるエッジ部などでノイズを発生する可能性はあるが、本実施例による撮像装置100の構成であれば、カメラ信号処理部A51、およびカメラ信号処理部B52は、通常のフレームレート(60フレーム毎秒)での処理で実現することができるため、高速化を必要としないというメリットがある。
なお、カメラ信号処理部51,52は、時間サブバンド分割部31から出力される低域信号11と高域信号12に対して、それぞれホワイトバランス補正、ゲイン補正、デモザイク処理、マトリクス処理、ガンマ補正などのカメラ信号処理を施す構成として説明したが、実行する信号処理形態は、この例に限らず、様々な態様が可能である。
また、時間サブバンド分割部31における処理の詳細については、後段で、図3、および図4を参照して説明する。
カメラ信号処理部A51から出力される低域側の画像データは、第1コーデック(CODEC)部61に入力されると共に、ファインダ出力部9に入力される。一方、カメラ信号処理部B52から出力される高域側の画像データは、第2コーデック(CODEC)部62に入力される。
ファインダ出力部9は、カメラ信号処理部A51から与えられる低域側の画像データを、図示しないビューファインダに表示するための信号に変換して出力する。ビューファインダに表示する画像は、入力される画像データと比較して、解像度、およびフレームレートが異なる場合がある。このような場合、ファインダ出力部9は、解像度変換処理、およびフレームレート変換処理を行う。フレームレート変換処理を行う場合には、図示しないフレームメモリが用いられる。また、ビューファインダに表示する画像は、輝度画像である必要がある場合がある。このような場合には、ファインダ出力部9は、入力画像を輝度画像に変換して出力する。
第1コーデック(CODEC)部61は、カメラ信号処理部A51から与えられる低域側の画像データを第1の画像コーデック(CODEC)によって圧縮し、低域側ストリームデータ13を出力する。第1コーデック(CODEC)部61は、例えば、H.264 コーデック(CODEC)方式などのインターフレームコーデック(CODEC)で構成される。前述の通り、低域側の画像データは、撮像フレームレートの半分のフレームレート(実施例では60フレーム毎秒)における撮像データに相当する。
第1コーデック(CODEC)部61は、低域側の画像データを通常の60フレーム毎秒における動画像データとして、H.264ハイプロファイルなどの標準規格に準じて圧縮を行う。しかしながら、第1のコーデック(CODEC)は、H.264 コーデック(CODEC)に限定するものではなく、通常の動画像データを圧縮する方法であればなんでも良く、たとえばMPEG−2などのインターフレームコーデック(CODEC)でも、Motion−JPEGなどのイントラフレームコーデック(CODEC)、あるいはMPEG4やAVCHDフォーマットに従った処理を実行するコーデック(CODEC)でも構わない。また、第1コーデック(CODEC)部61の出力するストリームデータ13は、標準規格に準ずるものでなくても構わない。
第2コーデック(CODEC)部62は、カメラ信号処理部B52から与えられる高域側の画像データを第2の画像コーデック(CODEC)によって圧縮し、高域側ストリームデータ14を出力する。第2コーデック(CODEC)部は、例えば、JPEG コーデック(CODEC)方式などのイントラフレームコーデック(CODEC)で構成される。前述の通り、高域側の画像データは、撮像データの隣り合う2フレーム間の差分を求めたものであり、動被写体の領域にのみ有効な画素値が存在する動画像データである。つまり、高域側の画像データは、時間的な変化のない部分には情報が無く(一定値になる)、また動きのある部分においても輝度差の少ない領域は情報量が小さいデータになっている。通常、このような画像信号は圧縮することが容易であり、処理が複雑で高コストな代わりに圧縮効率が高いインターフレームコーデック(CODEC)を用いなくても、低コストであるJPEG コーデック(CODEC)などのイントラフレームコーデック(CODEC)でも十分に少ない情報量への圧縮が可能である。したがって、第2コーデック(CODEC)部62は、高域側の画像データをフレーム毎にJPEG コーデック(CODEC)により圧縮する。
このように、第1コーデック(CODEC)部61は、第2コーデック(CODEC)部62より圧縮効率の高い圧縮処理手段として設定し、第2コーデック(CODEC)部62は、第1コーデック(CODEC)部61より圧縮効率が低く回路規模の小さい構成とすることができる。
なお、最近の撮像装置では、静止画の撮像機能を備えるものが少なくなく、静止画像用のJPEG コーデック(CODEC)を構成要素として備えるものが多い。したがって、高域側の画像データを圧縮するための第2コーデック(CODEC)部62をJPEG コーデック(CODEC)で構成する場合には、ハイフレームレート画像の圧縮を行うための追加のコストを必要としないというメリットがある。しかしながら、第2のコーデック(CODEC)は、JPEG コーデック(CODEC)に限定するものではなく、通常の画像データを圧縮する方法であれば何でも良く、例えばJPEG2000などのイントラフレームコーデック(CODEC)でも、MPEG−2などのインターフレームコーデック(CODEC)でも構わない。
第1コーデック(CODEC)部61と、第2コーデック(CODEC)部62から出力される圧縮されたストリームデータ13、および14は、それぞれストリーム制御部7に入力される。
ストリーム制御部7は、第1コーデック(CODEC)部61から入力される低域側の画像データを圧縮したストリームデータ13と、第2コーデック(CODEC)部62から入力される高域側の画像データを圧縮したストリームデータ14を合成し、記録部8に出力する。前述の通り、第1コーデック(CODEC)部61から与えられる低域側のストリームデータ13は、60フレーム毎秒の動画像をH.264 コーデック(CODEC)などにより圧縮したデータであり、標準規格に準じたストリームとなっている。
一方、第2コーデック(CODEC)部62から与えられる高域側のストリームデータ14は、60フレーム毎秒の差分画像をJPEG コーデック(CODEC)などにより圧縮したデータであり、標準的なビデオストリームとは異なっている。ストリーム制御部7は、第2コーデック(CODEC)部62から与えられるストリームデータ14をパケット化し、第1コーデック(CODEC)部61から与えられる標準規格に準じたストリーム上にユーザーデータとして重畳する。
すなわち第2コーデック(CODEC)部62から与えられる高域側の圧縮データをパケット化したユーザーデータとして第1コーデック(CODEC)部61から与えられる標準規格に準じたストリーム上に重畳する。復号に際しては、ユーザーデータとして設定されたパケットを分離して処理を行なうことになる。この処理については後述する。
ストリーム制御部7から出力される合成されたストリームデータは、記録部8に入力される。
記録部8は、ストリーム制御部7から与えられる標準規格に準じたストリームデータを、磁気テープ、光磁気ディスク、ハードディスク、または半導体メモリなどの記録メディアに記録する。
以上説明した動作により、通常の2倍のフレームレート(本実施例では120フレーム毎秒)により撮像した画像信号を、圧縮効率に優れた第1コーデック(CODEC)と、低コストで実現可能な第2コーデック(CODEC)を適用して通常のフレームレート(本実施例では60フレーム毎秒)の処理速度に追随した速度で圧縮することが可能となり、コスト増加を最小限に抑えつつ、ハイフレームレートでの撮像、処理、および記録を実現する撮像装置が提供される。
続いて、再生時の動作について図を参照して説明する。
撮像装置100は、ユーザーの操作に従って、記録済みの動画像を再生するために、前述のようにして記録部8に記録されたストリームデータを読み出す。記録部8から読み出されたストリームデータは、ストリーム制御部7に入力される。
ストリーム制御部7は、記録部8から与えられるストリームデータを受け取り、第1コーデック(CODEC)部61により圧縮された低域側ストリームデータと、第2コーデック(CODEC)部62により圧縮された高域側ストリームデータに分離する。前述の通り、記録部8に記録されているストリームデータは、第1コーデック(CODEC)部61による圧縮方式における標準規格に準じたストリームデータであり、第2コーデック(CODEC)部62により圧縮されたストリームデータがユーザーデータとしてパケット化されて重畳されている。
ストリーム制御部7は、記録部8から受け取るストリームデータから、ユーザーデータとして重畳されている第2コーデック(CODEC)部62により圧縮されたストリームデータをパケット化したデータを抽出し、第1コーデック(CODEC)部61により圧縮されたストリームデータ13と、第2コーデック(CODEC)部62により圧縮されたストリームデータ14に分離し、それぞれを第1コーデック(CODEC)部61、および第2コーデック(CODEC)部62に出力する。
第1コーデック(CODEC)部61は、ストリーム制御部7から与えられるストリームデータ13を受け取り、復号すなわち伸長処理を行う。前述の通り、第1コーデック(CODEC)部61は、例えば、H.264 コーデック(CODEC)方式などのインターフレームコーデック(CODEC)で構成される。また、ストリームデータ13は、第1コーデック(CODEC)部61においてH.264ハイプロファイルなどの標準規格に準じて圧縮されたストリームである。第1コーデック(CODEC)部61は、ストリームデータ13を伸長し、60フレーム毎秒による低域側の動画像データに変換する。前述の通り、低域側の動画像データは、60フレーム毎秒による撮像データに相当するため、第1コーデック(CODEC)部61から出力される動画像データは、通常の60フレーム毎秒による動画像となる。
第2コーデック(CODEC)部62は、ストリーム制御部7から与えられるストリームデータ14を受け取り、伸長処理を行う。前述の通り、第2コーデック(CODEC)部62は、例えば、JPEG コーデック(CODEC)方式などのイントラフレームコーデック(CODEC)で構成される。第2コーデック(CODEC)部62は、ストリームデータ14を伸長し、60フレーム毎秒による高域側の動画像データに変換する。前述の通り、高域側の動画像データは、撮像データの隣り合う2フレーム間の差分を求めたものであるため、第2コーデック(CODEC)部62から出力される動画像データは、60フレーム毎秒による時間差分動画像となる。
第1コーデック(CODEC)部61と、第2コーデック(CODEC)部62から出力される動画像データは、いずれも時間サブバンド分割部31に入力される。この場合時間サブバンド分割部は、時間サブバンド合成部31として機能する。すなわち、第1コーデック(CODEC)部61と、第2コーデック(CODEC)部62の復号結果を入力して、時間方向のサブバンド合成処理を実行することにより各コーデックの出力する画像信号のフレームレートより高フレームレートとした合成画像信号を生成する。
具体的には、時間サブバンド分割部31は、第1コーデック(CODEC)部61、および第2コーデック(CODEC)部62から与えられる低域側の動画像データ、および高域側の動画像データを、前述した式(式2)に従って逆変換(時間方向のウェーブレット逆変換)を行い、120フレーム毎秒における奇数フレーム画像と、偶数フレーム画像を生成する。時間サブバンド分割部31は、上記奇数フレーム画像と偶数フレーム画像を一旦フレームメモリ4に記憶すると同時に、過去の奇数フレーム画像と偶数フレーム画像を2倍のフレームレート(120フレーム毎秒)にて交互に読み出す。このような処理を行うことにより、120フレーム毎秒による動画像データを復元することが出来る。
さらに、時間サブバンド分割部31は、ユーザーの操作や、接続される画像表示装置から得られる情報によって60フレーム毎秒での動画像を出力することが求められる場合には、第1コーデック(CODEC)部61から与えられる低域側の動画像データをそのまま出力する。前述の通り、第1コーデック(CODEC)部61から出力される動画像データは、120フレーム毎秒の隣り合う2つのフレーム画像を加算して生成した動画像であるため、60フレーム毎秒で撮像した動画像に相当する。このような動作を行う場合には、図示しない制御部は、第2コーデック(CODEC)部62を動作させないように制御することが可能であり、低消費電力での動作が可能である。
時間サブバンド分割部31から出力される動画像データは、ビデオ出力部10に入力される。
ビデオ出力部10は、時間サブバンド分割部31から与えられる動画像データを、120フレーム毎秒のビデオデータとして出力する。ここで出力するビデオデータは、HDMI(High−Definition Multimedia Interface)規格や、DVI(Digital Visual Interface)規格などのデジタルビデオ信号フォーマットに準じたものでも、D端子などによるアナログコンポーネント信号フォーマットに準じたものでも構わない。ビデオ出力部10は、出力ビデオ信号の形式に合わせた信号変換処理を行う。
以上、説明した動作により、通常の2倍のフレームレート(本実施例では120フレーム毎秒)で撮像した画像信号を記録したデータを再生し、圧縮効率に優れた第1コーデック(CODEC)と、低コストで実現可能な第2コーデック(CODEC)により伸長することが可能となり、コスト増加を最小限に抑えつつ、ハイフレームレート映像の再生出力を実現する撮像装置が提供される。
また、前述のように、接続される画像表示装置から得られる情報によって60フレーム毎秒での動画像を出力することが求められる場合には、第1コーデック(CODEC)部61から与えられる低域側の動画像データをそのまま出力する構成としてもよく、この場合は、再生時において、第2コーデック(CODEC)の処理を停止することが可能であり、消費電力の低減、通常のビデオフレームレートでの映像出力を実現することができる。
以下、本撮像装置における時間サブバンド分割部31における時間サブバンド分割処理、およびコーデック(CODEC)処理の動作例について、図3乃至図5を用いて説明する。
まず、撮像時の動作について、図3を参照して説明する。
図3は、撮像時の時間サブバンド分割部31における時間サブバンド分割処理、すなわち時間方向に連続するフレームに対する処理を示している。図3(a)撮像素子出力データは、図1に示す撮像素子2の出力である。このデータは、HD解像度のフレーム画像(図中N〜N+7)を、120フレーム毎秒の速度で出力する。ここでNは任意の奇数である。
(b)低域画像データは、図1に示す時間サブバンド分割部31における時間サブバンド処理によって生成され、カメラ信号処理部A51、第1コーデック(CODEC)部61における処理信号として出力される低域側の画像データ(本実施例では60フレーム毎秒)であり、
(c)高域画像データは、図1に示す時間サブバンド分割部31における時間サブバンド処理によって生成され、カメラ信号処理部B52、第2コーデック(CODEC)部62における処理信号として出力される高域側の画像データ(本実施例では60フレーム毎秒)である。
撮像素子2から出力されたフレーム画像は、時間サブバンド分割部31において、一旦フレームメモリ4に記憶される。このとき、フレームメモリ4への記憶速度は、120フレーム毎秒である。時間サブバンド分割部31は、フレームメモリ4にフレーム画像を記憶すると同時に、すでに記憶されている過去の奇数フレーム画像と偶数フレーム画像を同時に読み出す。このとき、フレームメモリ4からの奇数フレーム画像、および偶数フレーム画像の読み出し速度は、それぞれ60フレーム毎秒である。
以下、フレームメモリ4の制御を伴う時間サブバンド分割部31における(b)低域画像データ、(c)高域画像データの生成処理の具体的な動作例について説明する。
撮像が開始されると、図3に示す期間Aにおいて、時間サブバンド分割部31は、フレーム画像Nを撮像素子2から入力してフレームメモリ4に記憶する。つづいて、期間Bにおいて、フレーム画像N+1を撮像素子2から入力してフレームメモリ4に記憶する。
期間Cにおいて、時間サブバンド分割部31は、フレーム画像N+2をフレームメモリ4に記憶すると同時に、フレーム画像Nとフレーム画像N+1を同時にメモリ4から読み出す。このとき、読み出し速度は、記憶速度の半分(本実施例では120フレーム毎秒/2=60フレーム/秒)であるため、フレーム画像Nとフレーム画像N+1は、画面の上部半分だけが読み出される。
期間Dにおいて、時間サブバンド分割部31は、フレーム画像N+3をフレームメモリ4に記憶すると同時に、フレーム画像Nとフレーム画像N+1の残りを読み出す。期間Dにおいては、フレーム画像Nとフレーム画像N+1は、画面の下半分だけが読み出される。
以降、同様にして、期間Eにおいては、フレーム画像N+4を記憶すると同時に、フレーム画像N+2とフレーム画像N+3の上半分が読み出される。期間Fにおいては、フレーム画像N+5を記憶すると同時に、フレーム画像N+2とフレーム画像N+3の下半分が読み出される。期間Gにおいては、フレーム画像N+6を記憶すると同時に、フレーム画像N+4とフレーム画像N+5の上半分が読み出される。期間Hにおいては、フレーム画像N+7を記憶すると同時に、フレーム画像N+4とフレーム画像N+5の下半分が読み出される。このようにして、時間サブバンド分割部31においては、2フレーム分の遅延が発生する。
フレームメモリ4から読み出された奇数フレーム画像(図中N、N+2、N+4、N+6)と、偶数フレーム画像(図中N+1、N+3、N+5、N+7)は、時間サブバンド分割部において、式1に示した変換を施され、低域側画像データ(例えば、N+(N+1))と高域側画像データ(例えば、N−(N+1))に分割される。ここで、低域側画像データ、および高域側画像データは、それぞれ60フレーム毎秒における動画像データである。
時間サブバンド分割部31から出力される低域側画像データは、前述の通り、カメラ信号処理部A51にて処理された後、第1コーデック(CODEC)部61(図ではH.264 Encoder)にて圧縮処理を施される。一方、時間サブバンド分割部31から出力される高域側画像データは、前述の通り、カメラ信号処理部B52にて処理された後、第2コーデック(CODEC)部62(図ではJPEG Encoder)にて圧縮処理を施される。
次に、再生時の動作について、図4を参照して説明する。
図4は、再生時の時間方向に連続するフレームに対する動作を示している。
記録部8から読み出されたストリームデータは、ストリーム制御部7において低域側ストリームデータと高域側ストリームデータに分離され、それぞれが、第1コーデック(CODEC)部61(図ではH.264 Decoder)、および第2コーデック(CODEC)部62(図ではJPEG Decoder)において伸長処理される。伸長処理を施された結果、第1コーデック(CODEC)部61からは低域側画像データが出力され、第2コーデック(CODEC)部62からは高域側画像データが出力される。これらの画像データは、それぞれ60フレーム毎秒の動画像データである。図4に示す(d)低域画像データと、(e)高域画像データである。
第1コーデック(CODEC)部61、および第2コーデック(CODEC)部62から出力された画像データは、それぞれ時間サブバンド分割部31に入力され、時間サブバンド分割部31において、前述の式(式2)に示した変換(Haar関数を基底とするウェーブレット逆変換)を施され、120フレーム毎秒による動画像における奇数フレーム画像(図中N、N+2、N+4)と偶数フレーム画像(図中N+1、N+3、N+4)に変換される。変換された奇数フレーム画像、および偶数フレーム画像は、時間サブバンド分割部31において、一旦フレームメモリ4に記憶される。
このとき、フレームメモリ4への記憶速度は、それぞれ60フレーム毎秒である。時間サブバンド分割部31は、フレームメモリ4に奇数フレーム画像と偶数フレーム画像を記憶すると同時に、すでに記憶されている過去のフレーム画像を読み出す。このとき、フレームメモリ4からのフレーム画像の読み出し速度は、120フレーム毎秒である。
以下、フレームメモリの制御に関して、具体的に動作を説明する。
再生が開始されると、期間A'において、低域側画像(N+(N+1))と高域側画像(N−(N+1))のそれぞれ画面の上半分について逆変換が施され、フレーム画像Nとフレーム画像N+1の画面の上半分が生成される。時間サブバンド分割部31は、フレーム画像Nとフレーム画像N+1の上半分を同時にフレームメモリ4に記憶する。
続いて、期間B'において、低域側画像(N+(N+1))と高域側画像(N−(N+1))のそれぞれ画面の下半分について逆変換が施され、フレーム画像Nとフレーム画像N+1の画面の下半分が生成される。時間サブバンド分割部31は、フレーム画像Nとフレーム画像N+1の下半分を同時にフレームメモリ4に記憶する。
期間C'において、低域側画像((N+2)+(N+3))と高域側画像((N+2)−(N+3))のそれぞれ上半分について逆変換が施され、フレーム画像N+2とフレーム画像N+3の上半分が生成される。時間サブバンド分割部31は、フレーム画像N+2とフレーム画像N+3の上半分をフレームメモリ4に記憶すると同時に、フレーム画像Nを読み出す。
期間D'において、低域側画像((N+2)+(N+3))と高域側画像((N+2)−(N+3))のそれぞれ下半分について逆変換が施され、フレーム画像N+2とフレーム画像N+3の下半分が生成される。時間サブバンド分割部31は、フレーム画像N+2とフレーム画像N+3の下半分をフレームメモリ4に記憶すると同時に、フレーム画像N+1を読み出す。
以降、同様にして、期間E'においては、低域側画像((N+4)+(N+5))と高域側画像((N+4)−(N+5))からフレーム画像N+4とフレーム画像N+5の上半分を生成し、フレームメモリ4に記憶すると同時に、フレーム画像N+2を読み出す。
期間F'においては、低域側画像((N+4)+(N+5))と高域側画像((N+4)−(N+5))からフレーム画像N+4とフレーム画像N+5の下半分を生成し、フレームメモリ4に記憶すると同時に、フレーム画像N+3を読み出す。
期間G'においては、低域側画像((N+6)+(N+7))と高域側画像((N+6)−(N+7))からフレーム画像N+6とフレーム画像N+7の上半分を生成し、フレームメモリ4に記憶すると同時に、フレーム画像N+4を読み出す。
期間H'においては、低域側画像((N+6)+(N+7))と高域側画像((N+6)−(N+7))からフレーム画像N+6とフレーム画像N+7の下半分を生成し、フレームメモリ4に記憶すると同時に、フレーム画像N+5を読み出す。
このようにして、時間サブバンド分割部31から出力される画像データは、2フレーム分の遅延が発生する。また、図4に示した動作を行うことにより、撮像装置100は、120フレーム毎秒の動画像出力を実現する。
次に、60フレーム毎秒での再生時の動作について、図5を参照して説明する。先に説明したように、時間サブバンド分割部31は、ユーザーの操作や、接続される画像表示装置から得られる情報によって60フレーム毎秒での動画像を出力することが求められる場合には、第1コーデック(CODEC)部61から与えられる低域側の動画像データをそのまま出力する。第1コーデック(CODEC)部61から出力される動画像データは、120フレーム毎秒の隣り合う2つのフレーム画像を加算して生成した動画像であるため、60フレーム毎秒で撮像した動画像に相当する。このような動作を行う場合には、第2コーデック(CODEC)部62を動作させないように制御することが可能であり、低消費電力での動作が可能である。
図5は、60フレーム毎秒での再生時の時間方向に連続するフレームに対する動作を示している。前述の通り、低域側の画像データは60フレーム毎秒による撮像データに相当するため、60フレーム毎秒での再生時には、低域側の画像データのみを処理して、そのまま出力する。
記録部8から読み出されたストリームデータは、ストリーム制御部7において低域側ストリームデータのみが抽出され、第1コーデック(CODEC)部61(図ではH.264 Decoder)において伸長処理される。伸長処理を施された結果、第1コーデック(CODEC)部61からは低域側画像データが出力される。図5に示す(g)低域画像データである。
第1コーデック(CODEC)部61から出力される図5(g)の低域側画像データ(例えば(N+(N+1)))は、前述の通り、60フレーム毎秒による通常の動画像データであるため、時間サブバンド分割部31は、処理をバイパスして、すなわち、特段の処理を行うことなく第1コーデック(CODEC)部61から出力される図5(g)の低域側画像データを、そのまま図1に示す構成図のビデオ出力部10に与える。このようにして、撮像装置100は、通常の2倍のフレームレート(本実施例では120フレーム毎秒)で撮像、かつ圧縮したストリームデータから、容易に通常のフレームレート(本実施例では60フレーム毎秒)の動画像出力を実現する。
前述したように、この処理では第2コーデック(CODEC)部62を動作させないように制御することが可能であり、低消費電力での動作が可能である。
[B.高速(2倍)フレームレートの撮像データに対する処理を実行するその他の実施例]
次に、図1を参照して説明した撮像装置と異なる構成を持つ実施例について、図6〜図10を参照して説明する。
図6は、本発明による撮像装置の異なる実施例を示している。図6に示す撮像装置101は、図1を参照して説明した撮像装置100に対して、カメラ信号処理部B52が存在しない点が異なる。
本実施例では、時間サブバンド分割部32から出力される高域信号12は、時間サブバンド分割部32においてガンマ補正処理だけが施され、カメラ信号処理を施さずに第2コーデック(CODEC)部62に入力される。前述の通り、高域信号12は、時間的に動きがある領域のみに情報があり、その他の領域は固定値となっている。したがって、RAWデータのまま画像圧縮を行っても圧縮効率には大きく影響しない。
撮像装置101は、再生時には、第1コーデック(CODEC)部61から出力される低域側の画像データと、第2コーデック(CODEC)部62から出力される高域側のRAWデータに対して、時間サブバンド分割部32において式2に従う逆変換を施して、ビデオ出力する。このとき、高域側のRAWデータは、各画素において赤(R)、緑(G)、青(B)のいずれかの色信号しか存在しないデータであるため、輝度値がゼロとなる色信号のまま逆変換を行うと変換後の輝度値が不正になる。このため、時間サブバンド分割部32は、欠落している色信号については、差分ゼロを表す固定値(実施例においては128)で埋めるか、周辺画素からの線形補間処理を行う。
本来、JPEG コーデック(CODEC)などの画像圧縮処理は、デモザイク処理を施された画像データに適した圧縮手法であるため、RAWデータのまま圧縮を行うことで、画像のエッジ周辺でノイズなどを発生する可能性があるが、本実施例による撮像装置101の構成であれば、カメラ信号処理部を複数持たせる必要がなく、かつ、通常のフレームレート(60フレーム毎秒)での処理で実現することができるため、高速化を必要とせず、コストを下げられるというメリットがある。
図7は、本発明による撮像装置のさらに異なる実施例を示している。図7に示す撮像装置102は、図1を参照して説明した撮像装置100に対して、カメラ信号処理部53が時間サブバンド分割部33の前に配置されている点が異なる。
本実施例では、撮像素子2から出力される120フレーム毎秒の撮像信号は、まず、カメラ信号処理部53にてホワイトバランス補正、ゲイン補正、デモザイク処理、マトリクス処理、ガンマ補正などのカメラ信号処理を施される。カメラ信号処理部53から出力される信号は、120フレーム毎秒による動画像データとなっている。
時間サブバンド分割部33は、カメラ信号処理部53から出力される動画像データを受け取り、前述した式(式1)に従った変換を行い、低域側の画像データ15、および高域側の画像データ16に分割する。時間サブバンド分割部33は、撮像装置100における時間サブバンド分割部31とは異なり、各画素に色信号が揃ったフレーム画像間での処理を行う。したがって、時間サブバンド分割部33から出力される低域側の画像データ15は、60フレーム毎秒による通常の動画像データとなっており、高域側の画像データ16は、60フレーム毎秒による時間差分動画像データとなっている。
図7に示す撮像装置102は、撮像したRAWデータに対してカメラ信号処理を施すことが出来るため、画質面でのアーチファクトの発生を抑制することができる。しかしながら、カメラ信号処理53は、120フレーム毎秒の速度で処理を行う必要があるため、高速なプロセッサを必要とする。
さらに、図8を参照して、ストリーム制御部の構成が異なる実施例について説明する。図8は、本発明による撮像装置の異なる実施例を示している。図8に示す撮像装置103は、先に図1を参照して説明した撮像装置100に対して、ストリーム制御部、および記録部を2系統具備していることが異なる。
本実施例では、第1コーデック(CODEC)部61から出力される低域側ストリームデータ13は、ストリーム制御部A71に入力される。一方、第2コーデック(CODEC)部62から出力される高域側ストリームデータ14は、ストリーム制御部B72に入力される。
ストリーム制御部A71は、第1コーデック(CODEC)部61から与えられる低域側ストリームデータ13を制御し、記録可能な信号に変換後、記録部A81に出力する。ここで、低域側のストリームデータ13は、前述の通り、H.264 コーデック(CODEC)などの標準規格に準ずるストリームである。
ストリーム制御部B72は、第2コーデック(CODEC)部62から与えられる高域側ストリームデータ14を制御し、記録可能な信号に変換後、記録部B82に出力する。ここで、高域側のストリームデータ14は、前述の通り、JPEG コーデック(CODEC)などにより圧縮されたストリームであり、標準規格には必ずしも準じないストリームである。
記録部A81は、ストリーム制御部A71から与えられる低域側ストリームを、磁気テープ、光磁気ディスク、ハードディスク、または半導体メモリなどの記録メディアに記録する。
記録部B82は、ストリーム制御部B72から与えれる高域側ストリームを、磁気テープ、光磁気ディスク、ハードディスク、または半導体メモリなどの記録メディアに記録する。
ここで、記録部A81、および記録部B82が記録する記録メディアは、必ずしも同一のものである必要はなく、例えば、記録部A81は、光磁気ディスクに標準規格に準じたフォーマットにより低域側のストリームデータを記録し、記録部B82は、半導体メモリに専用のフォーマットにより高域側のストリームデータを記録しても構わない。
図8に示す撮像装置103は、再生時には、記録部A81から読み出した低域側ストリームデータをストリーム制御部A71に入力する。また、記録部B82から読み出した高域側ストリームデータをストリーム制御部B72に入力する。
ストリーム制御部A71は、記録部A81から与えられる低域側ストリームを第1コーデック(CODEC)部61に入力する。一方、ストリーム制御部B72は、記録部B82から与えられる高域側ストリームを第2コーデック(CODEC)部62に入力する。
ここで、図8に示す撮像装置103は、60フレーム毎秒での再生を行う場合には、記録部A81のみを制御して低域側のデータを読み出せばよく、記録部B82を休止させることが出来ることから低消費電力化が可能である。
次に、図9を参照して、本発明による画像圧縮処理を用いた画像記録装置の実施例について説明する。
図9は、本発明による画像記録装置の実施例を示している。図9に示す画像記録装置200は、図7を参照して説明した撮像装置102から撮像機能を省略して、ビデオ入力部17を持つ構成とした画像記録装置としての構成例である。つまり、図7を参照して説明した撮像装置102から、撮像光学系1、撮像素子2、およびカメラ信号処理部53を削除して、その代わりにビデオ入力部17を具備している。
図9に示す画像記録装置200は、ビデオ入力部17において、外部のビデオ出力装置から与えられるビデオ信号を受信する。このとき、受信するビデオ信号は、通常のビデオレートの2倍のレート(実施例では120フレーム毎秒)による動画像データである。また、入力されるビデオ信号形式は、HDMI規格や、DVI規格などのデジタルビデオ信号フォーマットに準じたものでも、D端子などによるアナログコンポーネント信号フォーマットに準じたものでも構わない。ビデオ入力部17は、入力されるビデオ信号形式に応じた信号変換処理を行う。
画像記録装置200は、外部から受信したビデオ信号に対して、時間サブバンド分割を行い、第1コーデック(CODEC)、および第2コーデック(CODEC)において圧縮されたストリームデータを記録する。また、記録されたストリームデータを再生し、第1コーデック(CODEC)、および第2コーデック(CODEC)において伸長処理を行い、時間サブバンド分割に対する逆変換を施した後、ビデオ出力する。
60フレーム毎秒での再生を行う場合には、撮像装置100と同様に、第1コーデック(CODEC)部61のみを駆動し、低域側の画像データをそのまま出力する。
さらに、図10を参照して、本発明による画像圧縮処理を用いた画像再生装置の実施例について説明する。
図10は、本発明による画像再生装置の実施例を示している。図10に示す画像再生装置300は、図9を参照して説明した画像記録装置200中のビデオ入力部17を排除して、記録動作を行わず再生動作のみを行う構成としたものである。
図10に示す画像再生装置300は、記録メディアを取り外すことが可能な記録部8を具備しており、外部の撮像装置、または画像記録装置などで記録された記録メディアを挿入し、記録メディアに記録されているストリームを再生するものである。ここで、記録メディアには、本発明による撮像装置100乃至103、または画像記録装置200などで圧縮されたストリームデータが記録されている。画像再生装置300は、記録部8から再生されるストリームデータを、第1コーデック(CODEC)、および第2コーデック(CODEC)において伸長処理を行い、時間サブバンド合成部34において、時間サブバンド分割に対する逆変換を施した後、ビデオ出力する。
最近の画像再生装置では、記録メディアに記録された静止画を再生する機能を備えるものが少なくなく、静止画像用のJPEG コーデック(CODEC)を構成要素として備えるものが多い。したがって、高域側の画像データを圧縮するための第2コーデック(CODEC)部62をJPEG コーデック(CODEC)で構成する場合には、ハイフレームレート撮像を行うための追加のコストを必要としないというメリットがある。
以上のようにして、本発明による撮像装置は、通常のビデオレートの2倍のフレームレートによる撮像を行う撮像素子を備え、撮像素子から出力される撮像データを時間サブバンド分割することにより、低域側の動画像データを圧縮効率の高い第1のコーデック(CODEC)により圧縮し、高域側の動画像データを低コストで実現できる第2のコーデック(CODEC)により圧縮することによって、コスト増加を抑制しつつ、ハイフレームレートによる撮像信号を圧縮、および記録することを可能とするものである。
また、本発明による撮像装置は、時間サブバンド分割を行い、低域側の動画像データと高域側の動画像データに分割して処理を行うことにより、低域側の動画像データは、通常のビデオレート(撮像ビデオレートの半分)により撮像した動画像に相当するため、再生時において、低域側の動画像処理のみを行うことで容易に通常のビデオレートにおける動画像再生を実現することを可能とするものである。
なお、本実施例では、通常のビデオレートを60フレーム毎秒とし、通常のビデオレートの2倍のレートを120フレーム毎秒としたが、これに限定するものではなく、通常のビデオレートとして24フレーム毎秒、30フレーム毎秒、50フレーム毎秒などのフレームレートを用いても構わない。
[C.高速(N倍)フレームレートの撮像データに対する処理を実行する構成例]
図1〜図10を参照して説明した実施例では、通常のフレームレートを60フレーム毎秒として、その2倍のフレームレート、すなわち120フレーム毎秒で撮像された画像データに対する処理例について説明した。
本発明の撮像装置では、通常の2倍のフレームレートでの撮像画像データに限らず、通常のフレームレートの任意倍数、すなわちN倍のフレームレートで撮像された画像データに対する処理が可能である。なお、Nは2以上の整数とする。以下、N倍のフレームレートで撮像された画像データに対する処理を行う撮像装置の構成および処理例について説明する。
以下では一実施例としてN=4とした例について説明する。すなわち、通常のビデオレートの4倍のフレームレートで撮像された画像データに対する処理を行う例である。なお、通常のフレームレートは60フレーム毎秒とし、その4倍のフレームレート、すなわち240フレーム毎秒で撮像された画像データに対する処理を行う例について説明する。
図11は、本発明に係る撮像装置の一実施例を示す図である。図11に示す撮像装置400は、通常のビデオレートの4倍のフレームレートによる撮像、処理、および記録を実現する装置である。撮像装置400の時間サブバンド分割部35は、先に図1を参照して説明した撮像装置100の時間サブバンド分割部31の2階層分の処理を行う。すなわち、240フレーム毎秒で撮像された画像データの連続する4フレームを利用して、4つの60フレーム毎秒の画像データを生成して出力する。
まず、撮像時の動作について説明する。撮像装置400は、撮像光学系1を介して入射される光を撮像素子25で受光する。撮像素子25は、高解像度(本実施例ではHD(High Definition)解像度とする)、かつ高フレームレート(本実施例では240フレーム毎秒とする)の撮像を行うことができる固体撮像素子、例えばCMOS型固体撮像素子であり、図示しないAD変換器を介してデジタル変換された撮像データを出力する。ここで、AD変換器は、CMOS型固体撮像素子上に実装されているか、または固体撮像素子の外部に配置されているものである。また、本実施例においては、撮像素子25は、受光面に、画素ごとに異なる波長域を透過するカラーフィルタを持つ単板カラー方式の固体撮像素子である。
撮像素子25から出力される撮像データは、時間サブバンド分割部35に入力される。時間サブバンド分割部35は、撮像素子25から与えられる現フレームの撮像データを一旦フレームメモリ4に記憶すると同時に、フレームメモリ4から過去4フレームの撮像データを読み出し、下記式(式3)に従ったサブバンド分割処理を行い、低域LL信号91、高域LH信号92、高域HL信号93、高域HH信号94を出力する。
Figure 0004849130
上記式(式3)は、Haar関数を基底とする時間方向のウェーブレット変換を表している。上記式において、
I(x,y,4t):時間4tにおける画素位置(x,y)の入力値、
I(x,y,4t+1):時間4t+1における画素位置(x,y)の入力値、
I(x,y,4t+2):時間4t+2における画素位置(x,y)の入力値、
I(x,y,4t+3):時間4t+3における画素位置(x,y)の入力値、
LL(x,y,4t):時間4tにおける画素位置(x,y)の低域LL信号出力値、
LH(x,y,4t):時間4tにおける画素位置(x,y)の高域LH信号出力値、
HL(x,y,4t):時間4tにおける画素位置(x,y)の高域HL信号出力値、
HH(x,y,4t):時間4tにおける画素位置(x,y)の高域HH信号出力値、
Range:1画素の画素値の階調数、
これらの各値を示す。
なお、階調数は、たとえば1画素を各色8ビットで表現する場合には256になる。本実施例においては、各色8ビットとして記載する。
低域LL信号出力値OLL(x,y,4t)は、4つの入力連続フレームの対応画素値の加算処理によって生成される。その他の3つの高域信号出力値、すなわち、
高域LH信号出力値OLH(x,y,4t)、
高域HL信号出力値OHL(x、y、4t)、
高域HH信号出力値OHH(x、y、4t)、
これらの高域信号出力値は、4つの入力連続フレームの対応画素値から式3に示すとおりの加減算処理によって生成される。
高域LH信号出力値OLH(x,y,4t)は、4つの入力連続フレームの対応画素中、時間4tと時間4t+1の先行2フレームの対応画素値(信号値)を加算データとし、時間4t+2と時間4t+3の後続2フレームの対応画素値を減算データとした設定である。
高域HL信号出力値OHL(x,y,4t)は、4つの入力連続フレームの対応画素中、時間4tと時間4t+2の2フレームの対応画素値を加算データとし、時間4t+1と時間4t+3の2フレームの対応画素値を減算データとした設定である。
高域HH信号出力値OHH(x,y,4t)は、4つの入力連続フレームの対応画素中、時間4tと時間4t+3の2フレームの対応画素値を加算データとし、時間4t+1と時間4t+2の2フレームの対応画素値を減算データとした設定である。
時間サブバンド分割部35は、このように時間方向に連続する4つのフレームの対応する信号値に基づいて、1つの低域信号出力値と3つの高域信号出力値を生成する。この処理により入力フレームレートに対して出力フレームレートは1/4になる。また、以下に示す式(式4)は、Haar関数を基底とするウェーブレット逆変換を表す。
Figure 0004849130
上記式(式4)に示すウェーブレット逆変換は、先に説明した式(式3)に示すウェーブレット変換において生成した値[OLL(x,y,4t)],[OLH(x,y,4t)],[OHL(x、y、4t)]、[OHH(x、y、4t)]から、時間4t、4t+1、4t+2、4t+3の元のフレームレートに対応する連続する4つのフレームの対応する画素(x,y)の画素値[R(x,y,4t)]、[R(x,y,4t+1)]、[R(x,y,4t+2)]、[R(x,y,4t+3)]を算出する式である。上記式(式4)は、復号処理に際して利用される。
実施例においては、時間サブバンド分割部35における時間サブバンド分割処理として、実装が容易なHaarウェーブレットを用いているが、その他の基底を用いたウェーブレット変換や、その他のサブバンド分割処理を用いても構わない。
図12に時間サブバンド分割部35における時間サブバンド分割処理の詳細を示す。図12には、フレームメモリ4から読み出した第1のフレーム(Frame0)と第2のフレーム(Frame1)と第3のフレーム(Frame2)と第4のフレーム(Frame3)の撮像データを示している。各撮像データフレームは、それぞれ各画素に単一の色信号、すなわちRGBのいずれかの1つの色信号を有するRAWデータである。例えば各フレームの左上端は、G信号であり、右側にGRGRの順で各信号値が格納されており、第2行目は、BGBGの順で信号値が格納されている。例えば、各フレームの左上端のG信号について、
G(0,0,0)のGは、RGB信号のG信号であること、
G(0,0,0)の最初の(0,0)は、座標位置(x,y)=(0,0)であること、
G(0,0,0)の最後の(0)は、フレームID=フレーム0であること、
これらの値を示している。
時間サブバンド分割部35は、連続する4フレームにおいて空間的に同じ位置にある画素同士で加算処理と減算処理を行う。例えば、図12に示した第1のフレームの画素G(0,0,0)と第2のフレームの画素G(0,0,1)と第3のフレームの画素G(0,0,2)と第4のフレームの画素G(0,0,3)の間で、式3に示した処理を行い、4つの入力連続フレームの対応画素値の加算処理によって低域信号出力値OLL(x,y,4t)を算出し、4つの入力連続フレームの対応画素値の加減算処理によって3つの高域信号出力値OLH(x,y,4t)と高域信号出力値OHL(x、y、4t)と高域信号出力値OHH(x、y、4t)を生成する。
なお、以下では、RGBのいずれの信号値であるかに応じて、[OLL(x,y,4t)],[OLH(x,y,4t)],[OHL(x,y,4t)],[OHH(x,y,4t)]を、
Rの場合、[RLL(x,y,4t)],[RLH(x,y,4t)],[RHL(x,y,4t)],[RHH(x,y,4t)]、
Gの場合、[GLL(x,y,4t)],[GLH(x,y,4t)],[GHL(x,y,4t)],[GHH(x,y,4t)]、
Bの場合、[BLL(x,y,4t)],[BLH(x,y,4t)],[BHL(x,y,4t)],[BHH(x,y,4t)]、
として表記する。
時間サブバンド分割部35は、例えば、図12に示した第1のフレーム(Frame0)の画素G(0,0,0)と、第2のフレーム(Frame1)の画素G(0,0,1)と、第3のフレームの画素G(0,0,2)と、第4のフレームの画素G(0,0,3)の間で、式3に示した処理を行い4つの出力値を生成する。
すなわち、4つの入力連続フレームの対応画素値の加算処理によって低域信号出力値GLL(0,0,0)を生成する。さらに、4つの入力連続フレームの対応画素値の加減算処理によって高域信号出力値GLH(0,0,0)と高域信号出力値GHL(0,0,0)と高域信号出力値GHH(0,0,0)を生成する。
同様にして、画素R(1,0,0)と画素R(1,0,1)と画素R(1,0,2)と画素R(1,0,3)の間で処理を行い、低域信号RLL(1,0,0)と3つの高域信号RLH(1,0,0,)と高域信号RHL(1,0,0,)と高域信号RHH(1,0,0,)を出力する。
時間サブバンド分割部35により変換される低域信号91は、撮像データの隣り合う4フレームの画素を加算処理したものであり、撮像フレームレート(本実施例では240フレーム毎秒)の1/4のフレームレート(60フレーム毎秒)による撮像RAWデータに相当する。一方、時間サブバンド分割部35により変換される高域信号92乃至94は、撮像データの隣り合う4フレーム間の差分を求めたものであり、動被写体の領域にのみ有効な画素値が存在し、その他の領域は差分がないことを示す一定値(実装上、中央値128を割り当てる)となるようなRAWデータである。また、低域信号91、および高域信号92乃至94は、いずれもフレームレートは60フレーム毎秒である。
時間サブバンド分割手段35は、撮像素子25から出力される画像信号を入力し、時間方向のサブバンド分割処理により、撮像素子25からの入力フレームレートより低フレームレートとした低周波成分からなる低域側サブバンド分割信号、および高周波成分からなる複数の高域側サブバンド分割信号を生成する。
このように、本実施例に係る時間サブバンド分割手段35は、高域側サブバンド分割信号として複数の高域側サブバンド分割信号を生成する。なお、時間サブバンド分割手段35の生成する低域側サブバンド分割信号および複数の高域側サブバンド分割信号のフレームレートは、低域側サブバンド分割信号および複数の高域側サブバンド分割信号の総数に応じて決定される。
時間サブバンド分割部35から出力される低域信号91(低域信号OLL)は、カメラ信号処理部A56に入力される。同様に、時間サブバンド分割部35から出力される高域信号92(高域信号OLH)は、カメラ信号処理部B57に、高域信号93(高域信号OHL)は、カメラ信号処理部C58に、高域信号94(高域信号OHH)は、カメラ信号処理部D59に、それぞれ入力される。
カメラ信号処理部A56、およびカメラ信号処理部B57乃至カメラ信号処理部D59は、時間サブバンド分割部35から出力される低域信号91と高域信号92乃至94に対して、ホワイトバランス補正、ゲイン補正、デモザイク処理、マトリクス処理、ガンマ補正などのカメラ信号処理を施す。カメラ信号処理部A56と、カメラ信号処理部B57乃至カメラ信号処理部D59は、同様の処理を行う処理部であり、それぞれ低域信号91と高域信号92乃至94に対する処理を並列に実行する。
前述の通り、時間サブバンド分割部35から出力される低域信号91と高域信号92乃至94は、撮像フレームレートである高速(240f/s)フレームレートからレート変換された60フレーム毎秒(60f/s)のデータである。
カメラ信号処理部A56、およびカメラ信号処理部B57乃至カメラ信号処理部D59は、60フレーム毎秒(60f/s)のデータに対する信号処理を実行すればよい。すなわち60フレーム毎秒による撮像RAWデータと同等の処理速度で処理を実行することができる。
なお、時間サブバンド分割部35から出力される高域信号92乃至94は、隣り合う4フレーム間の差分を表すRAWデータである。したがって、カメラ信号処理部B57乃至カメラ信号処理部D59におけるデモザイク処理などにおいて非線形処理が施された場合、輝度の変化が生じるエッジ部などでノイズを発生する可能性はあるが、本実施例による撮像装置400の構成であれば、カメラ信号処理部A56、およびカメラ信号処理部B57乃至カメラ信号処理部D59は、通常のフレームレート(60フレーム毎秒)での処理で実現することができるため、高速化を必要としないというメリットがある。
なお、カメラ信号処理部A56乃至カメラ信号処理部D59は、時間サブバンド分割部35から出力される低域信号91と高域信号92乃至94に対して、それぞれホワイトバランス補正、ゲイン補正、デモザイク処理、マトリクス処理、ガンマ補正などのカメラ信号処理を施す構成として説明したが、実行する信号処理形態は、この例に限らず、様々な態様が可能である。また、時間サブバンド分割部35における処理の詳細については、後段で、図13、および図14を参照して説明する。
カメラ信号処理部A56から出力される低域側の画像データは、第1コーデック(CODEC)部63に入力されると共に、ファインダ出力部9に入力される。また、カメラ信号処理部B57から出力される高域側の画像データは、第2コーデック(CODEC)部64に入力される。以下、同様にして、カメラ信号処理部C58から出力される高域側の画像データは、第3コーデック(CODEC)部65に、カメラ信号処理部D59から出力される高域側の画像データは、第4コーデック(CODEC)部66に、それぞれ入力される。
ファインダ出力部9は、カメラ信号処理部A56から与えられる低域側の画像データを、図示しないビューファインダに表示するための信号に変換して出力する。ビューファインダに表示する画像は、入力される画像データと比較して、解像度、およびフレームレートが異なる場合がある。このような場合、ファインダ出力部9は、解像度変換処理、およびフレームレート変換処理を行う。フレームレート変換処理を行う場合には、図示しないフレームメモリが用いられる。また、ビューファインダに表示する画像は、輝度画像である必要がある場合がある。このような場合には、ファインダ出力部9は、入力画像を輝度画像に変換して出力する。
第1コーデック(CODEC)部63は、カメラ信号処理部A56から与えられる低域側の画像データを第1の画像コーデック(CODEC)によって圧縮し、低域側ストリームデータ95を出力する。第1コーデック(CODEC)部63は、例えば、H.264コーデック(CODEC)方式などのインターフレームコーデック(CODEC)で構成される。前述の通り、低域側の画像データは、撮像フレームレートの1/4のフレームレート(実施例では60フレーム毎秒)における撮像データに相当する。
第1コーデック(CODEC)部63は、低域側の画像データを通常の60フレーム毎秒における動画像データとして、H.264ハイプロファイルなどの標準規格に準じて圧縮を行う。しかしながら、第1のコーデック(CODEC)は、H.264 コーデック(CODEC)に限定するものではなく、通常の動画像データを圧縮する方法であればなんでも良く、たとえばMPEG−2などのインターフレームコーデック(CODEC)でも、Motion−JPEGなどのイントラフレームコーデック(CODEC)、あるいはMPEG4やAVCHDフォーマットに従った処理を実行するコーデック(CODEC)でも構わない。また、第1コーデック(CODEC)部63の出力するストリームデータ95は、標準規格に準ずるものでなくても構わない。
第2コーデック(CODEC)部64は、カメラ信号処理部B57から与えられる高域信号92(高域信号OLH)に対応する高域側画像データを圧縮し、高域側ストリームデータ96を出力する。
第2コーデック(CODEC)部64は、例えば、JPEG コーデック(CODEC)方式などのイントラフレームコーデック(CODEC)で構成される。前述の通り、高域側の画像データは、撮像データの隣り合う4フレーム間の差分を求めたものであり、動被写体の領域にのみ有効な画素値が存在する動画像データである。つまり、高域側の画像データは、時間的な変化のない部分には情報が無く(一定値になる)、また動きのある部分においても輝度差の少ない領域は情報量が小さいデータになっている。通常、このような画像信号は圧縮することが容易であり、処理が複雑で高コストな代わりに圧縮効率が高いインターフレームコーデック(CODEC)を用いなくても、低コストであるJPEG コーデック(CODEC)などのイントラフレームコーデック(CODEC)でも十分に少ない情報量への圧縮が可能である。したがって、第2コーデック(CODEC)部64は、高域側の画像データをフレーム毎にJPEG コーデック(CODEC)により圧縮する。
第3コーデック(CODEC)部65は、カメラ信号処理部C58から与えられる高域信号93(高域信号OHL)に対応する高域側の画像データを圧縮し、高域側ストリームデータ97を出力する。
第3コーデック(CODEC)部65は、第2コーデック(CODEC)部64と同様のコーデック構成、例えばJPEG コーデック(CODEC)方式などのイントラフレームコーデック(CODEC)によって構成される。
第4コーデック(CODEC)部66は、カメラ信号処理部D59から与えられる高域信号93(高域信号OHH)に対応する高域側の画像データを圧縮し、高域側ストリームデータ98を出力する。
第4コーデック(CODEC)部66も、第2コーデック(CODEC)部64と同様のコーデック構成、例えばJPEG コーデック(CODEC)方式などのイントラフレームコーデック(CODEC)によって構成される。
このように、第1コーデック(CODEC)部63は、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66より圧縮効率の高い圧縮処理手段として設定し、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66は、第1コーデック(CODEC)部63より圧縮効率が低く回路規模の小さい構成とすることができる。
なお、最近の撮像装置では、静止画の撮像機能を備えるものが少なくなく、静止画像用のJPEG コーデック(CODEC)を構成要素として備えるものが多い。したがって、高域側の画像データを圧縮するための第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66をJPEGコーデック(CODEC)で構成する場合には、静止画像用のJPEG コーデック(CODEC)を利用することが可能となる。この場合、ハイフレームレート画像の圧縮を行うための追加のコストを必要としないというメリットがある。しかしながら、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66は、JPEG コーデック(CODEC)に限定するものではなく、通常の画像データを圧縮する方法であれば何でも良く、例えばJPEG2000などのイントラフレームコーデック(CODEC)でも、MPEG−2などのインターフレームコーデック(CODEC)でも構わない。
なお、複数の高域側サブバンド分割信号の各々に対する圧縮処理を実行する第2コーデック(CODEC)部64〜第4コーデック(CODEC)部66は、同じ態様の符号化処理手段によって構成されていてもよいが、それぞれ異なる符号化処理を実行する符号化処理手段によって構成してもよい。
第1コーデック(CODEC)部63と、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66から出力される圧縮されたストリームデータ95、およびストリームデータ96乃至98は、それぞれストリーム制御部71に入力される。
ストリーム制御部71は、第1コーデック(CODEC)部63から入力される低域側の画像データを圧縮したストリームデータ95と、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66から入力される高域側の画像データを圧縮したストリームデータ96乃至98を合成し、記録部81に出力する。前述の通り、第1コーデック(CODEC)部63から与えられる低域側のストリームデータ95は、60フレーム毎秒の動画像をH.264 コーデック(CODEC)などにより圧縮したデータであり、標準規格に準じたストリームとなっている。
一方、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66から与えられる高域側のストリームデータ96乃至98は、60フレーム毎秒の差分画像をJPEG コーデック(CODEC)などにより圧縮したデータであり、標準的なビデオストリームとは異なっている。ストリーム制御部71は、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66から与えられるストリームデータ96乃至98をパケット化し、第1コーデック(CODEC)部63から与えられる標準規格に準じたストリーム上にユーザーデータとして重畳する。
すなわち第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66から与えられる高域側の圧縮データをパケット化したユーザーデータとして第1コーデック(CODEC)部63から与えられる標準規格に準じたストリーム上に重畳する。復号に際しては、ユーザーデータとして設定されたパケットを分離して処理を行なうことになる。この処理については後述する。
ストリーム制御部71から出力される合成されたストリームデータは、記録部81に入力される。
記録部81は、ストリーム制御部71から与えられる標準規格に準じたストリームデータを、磁気テープ、光磁気ディスク、ハードディスク、または半導体メモリなどの記録メディアに記録する。
以上説明した動作により、通常の4倍のフレームレート(本実施例では240フレーム毎秒)により撮像した画像信号を、圧縮効率に優れた第1コーデック(CODEC)と、低コストで実現可能な第2〜第4コーデック(CODEC)を適用して通常のフレームレート(本実施例では60フレーム毎秒)の処理速度に追随した速度で圧縮することが可能となり、コスト増加を最小限に抑えつつ、ハイフレームレートでの撮像、処理、および記録を実現する撮像装置が提供される。
なお、本実施例では、通常の4倍のフレームレート(240フレーム毎秒)の撮像、処理、および記録を実現する撮像装置について説明したが、これは2倍、または4倍に限定されるものではなく、階層的な時間サブバンド分割によって実現可能なN(Nは2の累乗)倍のフレームレート(60フレーム毎秒のN倍)の撮像、処理、および記録を実現する撮像装置に拡張することが可能である。
続いて、再生時の動作について図を参照して説明する。
撮像装置400は、ユーザーの操作に従って、記録済みの動画像を再生するために、前述のようにして記録部81に記録されたストリームデータを読み出す。記録部81から読み出されたストリームデータは、ストリーム制御部71に入力される。
ストリーム制御部71は、記録部81から与えられるストリームデータを受け取り、第1コーデック(CODEC)部63により圧縮された低域側ストリームデータと、第2コーデック(CODEC)部64乃至66により圧縮された高域側ストリームデータに分離する。前述の通り、記録部81に記録されているストリームデータは、第1コーデック(CODEC)部63による圧縮方式における標準規格に準じたストリームデータであり、第2コーデック(CODEC)部64乃至66により圧縮されたストリームデータがユーザーデータとしてパケット化されて重畳されている。
ストリーム制御部71は、記録部81から受け取るストリームデータから、ユーザーデータとして重畳されている第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66により圧縮されたストリームデータをパケット化したデータを抽出し、第1コーデック(CODEC)部63により圧縮されたストリームデータ95と、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66により圧縮されたストリームデータ96乃至98に分離し、それぞれを第1コーデック(CODEC)部63、および第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66に出力する。
第1コーデック(CODEC)部63は、ストリーム制御部71から与えられるストリームデータ95を受け取り、復号すなわち伸長処理を行う。前述の通り、第1コーデック(CODEC)部63は、例えば、H.264 コーデック(CODEC)方式などのインターフレームコーデック(CODEC)で構成される。また、ストリームデータ95は、第1コーデック(CODEC)部63においてH.264ハイプロファイルなどの標準規格に準じて圧縮されたストリームである。第1コーデック(CODEC)部63は、ストリームデータ95を伸長し、60フレーム毎秒による低域側の動画像データに変換する。前述の通り、低域側の動画像データは、60フレーム毎秒による撮像データに相当するため、第1コーデック(CODEC)部63から出力される動画像データは、通常の60フレーム毎秒による動画像となる。
第2コーデック(CODEC)部64は、ストリーム制御部71から与えられるストリームデータ96を受け取り、伸長処理を行う。前述の通り、第2コーデック(CODEC)部64は、例えば、JPEG コーデック(CODEC)方式などのイントラフレームコーデック(CODEC)で構成される。第2コーデック(CODEC)部64は、ストリームデータ96を伸長し、60フレーム毎秒による高域側の動画像データに変換する。前述の通り、高域側の動画像データは、撮像データの隣り合う4フレーム間の差分を求めたものであるため、第2コーデック(CODEC)部64から出力される動画像データは、60フレーム毎秒による時間差分動画像となる。
第3コーデック(CODEC)部65は、ストリーム制御部71から与えられるストリームデータ97を受け取り、伸長処理を行う。前述の通り、第3コーデック(CODEC)部65は、第2コーデック(CODEC)部64と同様の処理部であり、第3コーデック(CODEC)部65から出力される動画像データは、60フレーム毎秒による時間差分動画像となる。
第4コーデック(CODEC)部66は、ストリーム制御部71から与えられるストリームデータ98を受け取り、伸長処理を行う。前述の通り、第4コーデック(CODEC)部66は、第2コーデック(CODEC)部64と同様の処理部であり、第4コーデック(CODEC)部66から出力される動画像データは、60フレーム毎秒による時間差分動画像となる。
なお、ストリーム制御部71から与えられる高域側ストリームデータ96〜98の各々に対する伸張処理を実行する第2コーデック(CODEC)部64〜第4コーデック(CODEC)部66は、同じ態様の復号処理手段によって構成されていてもよいが、それぞれ異なる復号処理を実行する復号手段によって構成してもよい。
第1コーデック(CODEC)部63と、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66から出力される動画像データは、いずれも時間サブバンド分割部35に入力される。この場合時間サブバンド分割部は、時間サブバンド合成部35として機能する。すなわち、第1コーデック(CODEC)部63と、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66の復号結果を入力して、時間方向のサブバンド合成処理を実行することにより各コーデックの出力する画像信号のフレームレートより高フレームレートとした合成画像信号を生成する。
具体的には、時間サブバンド分割部(時間サブバンド合成部)35は、第1コーデック(CODEC)部63、および第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66から与えられる低域側の動画像データ、および高域側の動画像データを、前述した式(式4)に従って逆変換(時間方向のウェーブレット逆変換)を行い、240フレーム毎秒における連続する4フレームの画像を生成する。時間サブバンド分割部35は、上記連続する4フレーム画像を一旦フレームメモリ4に記憶すると同時に、過去の連続する4フレーム画像を4倍のフレームレート(240フレーム毎秒)にて交互に読み出す。このような処理を行うことにより、240フレーム毎秒による動画像データを復元することが出来る。
なお、時間サブバンド分割部(時間サブバンド合成部)35の生成する動画像データは、第1コーデック(CODEC)部63の生成する低周波数成分の画像信号と、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66の生成する高周波数成分の画像信号との総数に応じて決定されるフレームレートの合成画像信号となる。
さらに、時間サブバンド分割部35は、ユーザーの操作や、接続される画像表示装置から得られる情報によって60フレーム毎秒での動画像を出力することが求められる場合には、第1コーデック(CODEC)部63から与えられる低域側の動画像データをそのまま出力する。前述の通り、第1コーデック(CODEC)部63から出力される動画像データは、240フレーム毎秒の隣り合う4つのフレーム画像を加算して生成した動画像であるため、60フレーム毎秒で撮像した動画像に相当する。このような動作を行う場合には、図示しない制御部は、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66を動作させないように制御することが可能であり、低消費電力での動作が可能である。
さらに、時間サブバンド分割部35は、ユーザーの操作や、接続される画像表示装置から得られる情報によって120フレーム毎秒での動画像を出力することが求められる場合には、第1コーデック(CODEC)部63から与えられる低域側の動画像データと、第2コーデック(CODEC)部64から与えられる高域側の動画像データから、以下に示す(式5)に従って変換を行うことにより、120フレーム毎秒の動画像を生成する。
Figure 0004849130
このようにして変換した動画像は、240フレーム毎秒の隣り合う2つのフレーム画像を加算した動画像になっており、120フレーム毎秒で撮像した動画像に相当する。このような動作を行う場合には、図示しない制御部は、第3コーデック(CODEC)部65と第4コーデック(CODEC)部66を動作させないように制御することが可能であり、低消費電力での動作が可能である。
時間サブバンド分割部35から出力される動画像データは、ビデオ出力部10に入力される。
ビデオ出力部10は、時間サブバンド分割部35から与えられる動画像データを、240フレーム毎秒のビデオデータとして出力する。ここで出力するビデオデータは、HDMI(High−Definition Multimedia Interface)規格や、DVI(Digital Visual Interface)規格などのデジタルビデオ信号フォーマットに準じたものでも、D端子などによるアナログコンポーネント信号フォーマットに準じたものでも構わない。ビデオ出力部10は、出力ビデオ信号の形式に合わせた信号変換処理を行う。
以上、説明した動作により、通常の4倍のフレームレート(本実施例では240フレーム毎秒)で撮像した画像信号を記録したデータを再生し、圧縮効率に優れた第1コーデック(CODEC)と、低コストで実現可能な第2〜第4コーデック(CODEC)により伸長することが可能となり、コスト増加を最小限に抑えつつ、ハイフレームレート映像の再生出力を実現する撮像装置が提供される。
また、前述のように、接続される画像表示装置から得られる情報によって60フレーム毎秒での動画像を出力することが求められる場合には、第1コーデック(CODEC)部63から与えられる低域側の動画像データをそのまま出力する構成としてもよく、この場合は、再生時において、第2〜第4コーデック(CODEC)の処理を停止することが可能であり、消費電力の低減、通常のビデオフレームレートでの映像出力を実現することができる。
また、前述のように、接続される画像表示装置から得られる情報によって120フレーム毎秒での動画像を出力することが求められる場合には、第1コーデック(CODEC)部63から与えられる低域側の動画像データと、第2コーデック(CODEC)部64から与えられる高域側の動画像データから生成される動画像を出力する構成としてもよく、この場合は、再生時において、第3〜第4コーデック(CODEC)部65,66の処理を停止することが可能であり、消費電力の低減、通常のビデオフレームレートでの映像出力を実現することができる。
以上本実施例では、通常の4倍のフレームレート(240フレーム毎秒)の映像再生を実現する撮像装置について説明したが、これは2倍、または4倍に限定されるものではなく、階層的な時間サブバンド分割によって実現可能なN(Nは2の累乗)倍のフレームレート(60フレーム毎秒のN倍)の映像再生を実現する撮像装置に拡張することが可能である。また、このとき、任意のM(MはN以下の2の累乗)倍のフレームレート(60フレーム毎秒のM倍)での映像再生を実現することができ、M倍のフレームレートでの再生の場合には、一部のコーデック(CODEC)部の処理を停止することにより、消費電力の低減を実現することが可能である。
以下、本撮像装置における時間サブバンド分割部35における時間サブバンド分割処理、およびコーデック(CODEC)処理の動作例について、図13乃至図15を用いて説明する。
まず、撮像時の動作について、図13を参照して説明する。
図13は、撮像時の時間サブバンド分割部35における時間サブバンド分割処理、すなわち時間方向に連続するフレームに対する処理を示している。
(a)撮像素子出力データは、図11に示す撮像素子25の出力である。このデータは、HD解像度のフレーム画像(図中N〜N+7)を、240フレーム毎秒の速度で出力する。ここでNは任意の整数である。
(b)低域LL画像データは、図11に示す時間サブバンド分割部35における時間サブバンド処理によって生成され、カメラ信号処理部A56、第1コーデック(CODEC)部63における処理信号として出力される低域側の画像データ(本実施例では60フレーム毎秒)であり、
(c)高域LH画像データは、図11に示す時間サブバンド分割部35における時間サブバンド処理によって生成され、カメラ信号処理部B57、第2コーデック(CODEC)部64における処理信号として出力される高域側の画像データ(本実施例では60フレーム毎秒)である。
(d)高域HL画像データは、図11に示す時間サブバンド分割部35における時間サブバンド処理によって生成され、カメラ信号処理部C58、第3コーデック(CODEC)部65における処理信号として出力される高域側の画像データ(本実施例では60フレーム毎秒)である。
(e)高域HH画像データは、図11に示す時間サブバンド分割部35における時間サブバンド処理によって生成され、カメラ信号処理部D59、第4コーデック(CODEC)部66における処理信号として出力される高域側の画像データ(本実施例では60フレーム毎秒)である。
撮像素子25から出力されたフレーム画像は、時間サブバンド分割部35において、一旦フレームメモリ4に記憶される。このとき、フレームメモリ4への記憶速度は、240フレーム毎秒である。時間サブバンド分割部35は、フレームメモリ4にフレーム画像を記憶すると同時に、すでに記憶されている過去の連続する4フレームの画像を同時に読み出す。このとき、フレームメモリ4からの連続する4フレーム画像の読み出し速度は、それぞれ60フレーム毎秒である。
以下、フレームメモリ4の制御を伴う時間サブバンド分割部35における(b)低域LL画像データ、(c)高域LH画像データ、(d)高域HL画像データ、(e)高域HH画像データの生成処理の具体的な動作例について説明する。撮像が開始されると、図13に示す期間Aにおいて、時間サブバンド分割部35は、フレーム画像Nを撮像素子25から入力してフレームメモリ4に記憶する。つづいて、期間Bにおいて、フレーム画像N+1を撮像素子25から入力してフレームメモリ4に記憶する。同様にして、期間Cにおいて、フレーム画像N+2を、期間Dにおいて、フレーム画像N+3を、それぞれ撮像素子25から入力してフレームメモリ4に記憶する。
期間Eにおいて、時間サブバンド分割部35は、フレーム画像N+4をフレームメモリ4に記憶すると同時に、フレーム画像N、フレーム画像N+1、フレーム画像N+2、フレーム画像N+3を同時にメモリ4から読み出す。このとき、読み出し速度は、記憶速度の1/4(本実施例では240フレーム毎秒/4=60フレーム/秒)であるため、フレーム画像N〜N+3は、画面の上部1/4部分だけが読み出される。図15にフレームメモリ4に記憶される1フレーム画像データを示す。期間Eにおいて、時間サブバンド分割部35は、フレーム画像N〜N+3の画面の上部1/4部分(図15に示すI部分)のみ読み出す。
次の期間Fにおいて、時間サブバンド分割部35は、フレーム画像N+5をフレームメモリ4に記憶すると同時に、フレーム画像N、フレーム画像N+1、フレーム画像N+2、フレーム画像N+3を同時にメモリ4から読み出す。期間Fにおいては、フレーム画像N〜N+3の次の1/4データ、すなわち図15に示すJ部だけが読み出される。
期間Gにおいて、時間サブバンド分割部35は、フレーム画像N+6をフレームメモリ4に記憶すると同時に、フレーム画像N、フレーム画像N+1、フレーム画像N+2、フレーム画像N+3を同時にメモリ4から読み出す。期間Gにおいては、フレーム画像N〜N+3の次の1/4データ、すなわち図15に示すK部だけが読み出される。
期間Hにおいて、時間サブバンド分割部35は、フレーム画像N+5をフレームメモリ4に記憶すると同時に、フレーム画像N、フレーム画像N+1、フレーム画像N+2、フレーム画像N+3を同時にメモリ4から読み出す。期間Hにおいては、フレーム画像N〜N+3の残りの1/4データ、すなわち図15に示すL部だけが読み出される。
このようにして、時間サブバンド分割部35においては、4フレーム分の遅延が発生する。
フレームメモリ4から読み出された連続する4フレーム画像(例えば、図中N、N+1、N+2、N+3)は、時間サブバンド分割部35において、先に説明した(式3)に示した変換を施され、低域側画像データ(LL画像データ)と3つの高域側画像データ(LH画像データ、HL画像データ、HH画像データ)に分割される。ここで、低域側画像データ、および高域側画像データは、それぞれ60フレーム毎秒における動画像データである。
時間サブバンド分割部35から出力される低域側画像データは、前述の通り、カメラ信号処理部A56にて処理された後、第1コーデック(CODEC)部63(図ではH.264 Encoder)にて圧縮処理を施される。一方、時間サブバンド分割部35から出力される高域側画像データは、前述の通り、カメラ信号処理部B57乃至カメラ信号処理部D59にて処理された後、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66(図ではJPEG Encoder)にて圧縮処理を施される。
次に、再生時の動作について、図14を参照して説明する。
図14は、再生時の時間方向に連続するフレームに対する動作を示している。
記録部81から読み出されたストリームデータは、ストリーム制御部71において低域側ストリームデータと3つの高域側ストリームデータに分離され、それぞれが、第1コーデック(CODEC)部63(図ではH.264 Decoder)、および第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66(図ではJPEG Decoder)において伸長処理される。伸長処理を施された結果、第1コーデック(CODEC)部63からは低域側画像データが出力され、第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66からは3つの高域側画像データが出力される。これらの画像データは、それぞれ60フレーム毎秒の動画像データである。図14に示す(f)低域LL画像データ、(g)高域LH画像データ、(h)高域HL画像データ、(i)高域HH画像データである。
第1コーデック(CODEC)部63、および第2コーデック(CODEC)部64乃至第4コーデック(CODEC)部66から出力された画像データは、それぞれ時間サブバンド分割部35に入力され、時間サブバンド分割部35において、前述の式(式4)に示した変換(Haar関数を基底とするウェーブレット逆変換)を施され、240フレーム毎秒による動画像における連続する4フレーム画像(例えば、図中N、N+1、N+2、N+3)に変換される。変換された連続する4フレーム画像は、時間サブバンド分割部35において、一旦フレームメモリ4に記憶される。
このとき、フレームメモリ4への記憶速度は、それぞれ60フレーム毎秒である。時間サブバンド分割部(時間サブバンド合成部)35は、フレームメモリ4に連続する4フレームの画像を記憶すると同時に、すでに記憶されている過去のフレーム画像を読み出す。このとき、フレームメモリ4からのフレーム画像の読み出し速度は、240フレーム毎秒である。
以下、フレームメモリの制御に関して、具体的に動作を説明する。
再生が開始されると、期間A'において、時間サブバンド分割部(時間サブバンド合成部)35は、低域LL画像、高域LH画像、高域HL画像、高域HH画像の最初のフレーム画像(例えば、N+(N+1)+(N+2)+(N+3))のデータ中、1/4データ部分のみについて逆変換を施す。
図15を参照して説明する。時間サブバンド分割部(時間サブバンド合成部)35は、図15に示すフレームデータ中のI部のみについて逆変換を施し、フレーム画像N〜N+3の1/4の画像データ(図15におけるI部)を生成する。時間サブバンド分割部(時間サブバンド合成部)35は、フレーム画像N〜N+3の1/4の画像データ(図15におけるI部)を同時にフレームメモリ4に記憶する。
続いて、期間B'において、時間サブバンド分割部(時間サブバンド合成部)35は、低域LL画像、高域LH画像、高域HL画像、高域HH画像の最初のフレーム画像(例えば、N+(N+1)+(N+2)+(N+3))のそれぞれについて、次の1/4データ(図15に示すJ部)について逆変換を施す。フレーム画像N〜N+3の画面の図15におけるJ部が生成される。時間サブバンド分割部35は、フレーム画像N〜N+3の画面の図15におけるJ部を同時にフレームメモリ4に記憶する。
同様に、期間C'において、時間サブバンド分割部(時間サブバンド合成部)35は、低域LL画像、高域LH画像、高域HL画像、高域HH画像の最初のフレーム画像(例えば、N+(N+1)+(N+2)+(N+3))のそれぞれについて、次の1/4データ(図15に示すK部)について逆変換を施す。フレーム画像N〜N+3の画面の図15におけるK部が生成される。時間サブバンド分割部35は、フレーム画像N〜N+3の画面の図15におけるK部を同時にフレームメモリ4に記憶する。
同様に、期間D'において、時間サブバンド分割部(時間サブバンド合成部)35は、低域LL画像、高域LH画像、高域HL画像、高域HH画像の最初のフレーム画像(例えば、N+(N+1)+(N+2)+(N+3))のそれぞれについて、次の1/4データ(図15に示すL部)について逆変換を施す。フレーム画像N〜N+3の画面の図15におけるL部が生成される。時間サブバンド分割部35は、フレーム画像N〜N+3の画面の図15におけるL部を同時にフレームメモリ4に記憶する。
続いて、期間E'において、時間サブバンド分割部(時間サブバンド合成部)35は、低域LL画像、高域LH画像、高域HL画像、高域HH画像の次のフレーム画像(例えば、(N+4)+(N+5)+(N+6)+(N+7))のそれぞれについて、次の1/4データ(図15に示すI部)について逆変換を施す。フレーム画像N+4〜N+7の画面の図15におけるI部が生成される。時間サブバンド分割部35は、フレーム画像N+4〜N+7の画面の図15におけるI部を同時にフレームメモリ4に記憶すると同時に、フレーム画像Nを読み出す。
期間F'において、時間サブバンド分割部(時間サブバンド合成部)35は、低域LL画像、高域LH画像、高域HL画像、高域HH画像の次のフレーム画像(例えば、(N+4)+(N+5)+(N+6)+(N+7))のそれぞれについて、次の1/4データ(図15に示すJ部)について逆変換を施す。フレーム画像N+4〜N+7の画面の図15におけるJ部が生成される。時間サブバンド分割部35は、フレーム画像N+4〜N+7の画面の図15におけるJ部を同時にフレームメモリ4に記憶すると同時に、フレーム画像N+1を読み出す。
同様に、期間G'において、時間サブバンド分割部(時間サブバンド合成部)35は、低域LL画像、高域LH画像、高域HL画像、高域HH画像の次のフレーム画像(例えば、(N+4)+(N+5)+(N+6)+(N+7))のそれぞれについて、次の1/4データ(図15に示すK部)について逆変換を施す。フレーム画像N+4〜N+7の画面の図15におけるK部が生成される。時間サブバンド分割部35は、フレーム画像N+4〜N+7の画面の図15におけるK部を同時にフレームメモリ4に記憶すると同時に、フレーム画像N+2を読み出す。
同様に、期間H'において、時間サブバンド分割部(時間サブバンド合成部)35は、低域LL画像、高域LH画像、高域HL画像、高域HH画像の次のフレーム画像(例えば、(N+4)+(N+5)+(N+6)+(N+7))のそれぞれについて、次の1/4データ(図15に示す部)について逆変換を施す。フレーム画像N+4〜N+7の画面の図15におけるL部が生成される。時間サブバンド分割部35は、フレーム画像N+4〜N+7の画面の図15におけるL部を同時にフレームメモリ4に記憶すると同時に、フレーム画像N+3を読み出す。
このようにして、時間サブバンド分割部35から出力される画像データは、4フレーム分の遅延が発生する。また、図14に示した動作を行うことにより、撮像装置400は、240フレーム毎秒の動画像出力を実現する。
なお、図11〜図15を参照して説明した高速(N倍)フレームレートの撮像データに対する処理を実行する構成例についても、先に図6〜図10を参照して説明したと同様の変形が可能である。
すなわち、
図6を参照して説明した一部のカメラ信号処理部を省略した構成、
図7を参照して説明したカメラ信号処理部を撮像素子と時間サブバンド分割部の間に設定した構成、
図8を参照して説明したストリーム制御部と記憶部を各信号単位に設定した構成、
図9を参照して説明したビデオ信号を入力して処理を行う構成、
図10を参照して説明した再生処理のみを行う画像処理装置構成、
図11に示す構成をベースとしてこれら図6〜図10に示す各構成に変形して処理を行うことも可能である。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例構成によれば、例えば撮像素子等の出力信号である画像信号を入力して時間方向のサブバンド分割処理を実行して、入力フレームレートより低フレームレートの低域側サブバンド分割信号および高域側サブバンド分割信号を生成して、生成した低域側サブバンド分割信号と、高域側サブバンド分割信号をそれぞれ圧縮する2つの符号化手段を具備する構成とし、低域側サブバンド分割信号の符号化手段を、例えばH.264コーデック(CODEC)、高域側サブバンド分割信号の符号化手段をJPEGコーデック(CODEC)とするなど、圧縮効率の違う符号化手段の組み合わせとした。この構成により、各符号化手段では低フレームレートに従った速度での符号化処理によって高フレームレートの入力データ、例えば撮像データのリアルタイム処理が実現される。
また、本発明の一実施例に係る装置では、異なる符号化処理のなされたデータの復号、再生において、低域側ストリームデータと高域側ストリームデータとをそれぞれ異なる復号処理手段による復号、例えば、低域側ストリームデータをH.264コーデック(CODEC)による復号処理、高域側ストリームデータをJPEGコーデック(CODEC)による復号処理を行って、各復号結果を合成して高フレームレートのビデオ信号として出力する構成とした。または、低域側ストリームデータのH.264コーデック(CODEC)による復号処理結果のみを出力して低フレームレートのビデオ信号の出力も可能とした。
1 撮像光学系
2 撮像素子
4 フレームメモリ
7 ストリーム制御部
8 記録部
10 ビデオ出力部
11 低域信号
12 高域信号
13 低域側ストリームデータ
14 高域側ストリームデータ
17 ビデオ入力部
25 撮像素子
31 時間サブバンド分割部(時間サブバンド合成部)
32 時間サブバンド分割部(時間サブバンド合成部)
33 時間サブバンド分割部(時間サブバンド合成部)
34 時間サブバンド合成部
35 時間サブバンド分割部(時間サブバンド合成部)
51 カメラ信号処理部A
52 カメラ信号処理部B
53 カメラ信号処理部
56 カメラ信号処理部A
57 カメラ信号処理部B
58 カメラ信号処理部C
59 カメラ信号処理部D
61 第1コーデック(CODEC)
62 第2コーデック(CODEC)
63 第1コーデック(CODEC)
64 第2コーデック(CODEC)
65 第3コーデック(CODEC)
66 第4コーデック(CODEC)
71 ストリーム制御部
72 ストリーム制御部
81 記録部
82 記録部
100 撮像装置
101 撮像装置
102 撮像装置
103 撮像装置
200 画像記録装置
300 画像再生装置
400 撮像装置

Claims (17)

  1. 入力画像信号に対する時間方向のサブバンド分割処理により、前記入力画像信号の入力フレームレートより低フレームレートとした低周波成分からなる低域側サブバンド分割信号、および高周波成分からなる高域側サブバンド分割信号を生成する時間サブバンド分割手段であり、
    前記入力画像信号としてPフレーム/秒(Pは整数)の画像信号を入力し、時間方向のサブバンド分割処理により(P/Q)フレーム/秒(Qは2以上の整数)にフレームレートを低下させた低域側サブバンド分割信号および高域側サブバンド分割信号を生成する時間サブバンド分割手段と、
    前記低域側サブバンド分割信号を圧縮する第1の符号化手段と、
    前記高域側サブバンド分割信号を圧縮する第2の符号化手段とを具備し、
    前記第1の符号化手段は、前記第2の符号化手段と異なる別の符号化アルゴリズムに従った符号化処理を実行して、前記第2の符号化手段より圧縮効率の高い符号化データを生成する構成である画像処理装置。
  2. 前記第2の符号化手段は、前記第1の符号化手段より回路規模の小さい符号化処理手段で構成されている請求項1に記載の画像処理装置。
  3. 前記時間サブバンド分割手段は、時間方向のウェーブレット変換器であり、時間方向に隣り合う複数フレーム間でのHaar変換を行うことで、フレーム信号を低周波数成分と高周波数成分に分割する処理を実行する請求項1に記載の画像処理装置。
  4. 前記第1の符号化手段、および前記第2の符号化手段は、それぞれが(P/Q)フレーム毎秒での符号化処理を行う請求項1に記載の画像処理装置。
  5. 前記画像処理装置は、さらに、
    前記第1の符号化手段から出力される低域側ストリームデータと、前記第2の符号化手段から出力される高域側ストリームデータを記録する記録手段と、
    前記記録手段に記録した低域側ストリームデータを入力して低周波数成分の伸長処理を実行する第1の復号手段と、
    前記記録手段に記録した高域側ストリームデータを入力して高周波数成分の伸長処理を実行する第2の復号手段と、
    前記第1の復号手段と第2の復号手段の復号結果である画像信号に対する時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとした合成画像信号を生成する時間サブバンド合成手段と、
    を有する請求項1に記載の画像処理装置。
  6. 前記時間サブバンド合成手段は、時間方向のウェーブレット逆変換器である請求項に記載の画像処理装置。
  7. 前記時間サブバンド分割手段は、
    前記高域側サブバンド分割信号として、複数の高域側サブバンド分割信号を生成し、前記低域側サブバンド分割信号および前記複数の高域側サブバンド分割信号のフレームレートは、前記低域側サブバンド分割信号および前記複数の高域側サブバンド分割信号の総数に応じて決定されるフレームレートである請求項1に記載の画像処理装置。
  8. 前記第2の符号化手段は、
    前記複数の高域側サブバンド分割信号の各々に対する圧縮処理を実行する複数の異なる符号化手段によって構成される請求項に記載の画像処理装置。
  9. 前記時間サブバンド分割手段は、
    前記入力画像信号に含まれる時間的に連続するN(N≧2)個の画像フレームの対応画素の信号値の加算処理によって1つの低域側サブバンド分割信号を生成し、
    前記入力画像信号に含まれる時間的に連続するN(N≧2)個の画像フレームの対応画素の信号値の加算処理および減算処理によってN−1個の高域側サブバンド分割信号を生成する構成であり、
    前記N−1個の高域側サブバンド分割信号の各々は、加算処理および減算処理対象とする画像フレームの組み合わせを異なる設定として算出した信号である請求項1に記載の画像処理装置。
  10. 記録手段に記録した低域側ストリームデータを入力して低周波数成分の伸長処理を実行する第1の復号手段と、
    記録手段に記録した高域側ストリームデータを入力して高周波数成分の伸長処理を実行する第2の復号手段と、
    前記第1の復号手段と第2の復号手段の復号結果である画像信号を入力して、時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとした合成画像信号を生成する時間サブバンド合成手段を有し、
    前記第1の復号手段と第2の復号手段は、
    前記合成画像信号がPフレーム/秒(Pは整数)の画像信号であるとき、
    前記復号結果として、(P/Q)フレーム/秒(Qは2以上の整数の)低フレームレートの画像信号を生成する構成であり、
    前記第1の復号手段は、前記第2の復号手段と異なる別の復号アルゴリズムに従った復号処理を実行して、前記第2の復号手段より圧縮効率の高い符号化データの復号を実行する構成を有し、
    前記時間サブバンド合成手段は、
    時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとしたPフレーム/秒(Pは整数)の合成画像信号を生成する画像処理装置。
  11. 前記第2の復号手段は、記録手段に記録した複数の異なる高域側ストリームデータを入力して複数の異なる高周波数成分の画像信号を生成し、
    前記時間サブバンド合成手段は、
    前記第1の復号手段の復号結果である画像信号と、前記第2の復号手段の復号結果である複数の異なる画像信号を入力して、時間方向のサブバンド合成処理により、高フレームレートの合成画像信号を生成する請求項10に記載の画像処理装置。
  12. 前記時間サブバンド合成手段は、
    前記第1の復号手段の生成する低周波数成分の画像信号と、前記第2の復号手段の生成する高周波数成分の画像信号との総数に応じて決定されるフレームレートの合成画像信号を生成する請求項10に記載の画像処理装置。
  13. 前記第2の復号手段は、
    前記記録手段に記録した複数の異なる高域側ストリームデータの各々に対する伸張処理を実行する複数の異なる復号手段によって構成される請求項10に記載の画像処理装置。
  14. 画像処理装置において実行する画像処理方法であり、
    時間サブバンド分割手段が、入力画像信号に対する時間方向のサブバンド分割処理により、前記入力画像信号の入力フレームレートより低フレームレートとした低周波成分からなる低域側サブバンド分割信号、および高周波成分からなる高域側サブバンド分割信号を生成する時間サブバンド分割ステップであり、
    前記入力画像信号としてPフレーム/秒(Pは整数)の画像信号を入力し、時間方向のサブバンド分割処理により(P/Q)フレーム/秒(Qは2以上の整数)にフレームレートを低下させた低域側サブバンド分割信号および高域側サブバンド分割信号を生成する時間サブバンド分割ステップと、
    第1の符号化手段が、前記低域側サブバンド分割信号を圧縮する第1の符号化ステップと、
    第2の符号化手段が、前記高域側サブバンド分割信号を圧縮する第2の符号化ステップを有し、
    前記第1の符号化ステップは、前記第1の符号化手段は、前記第2の符号化手段の実行する前記第2の符号化ステップと異なる別の符号化アルゴリズムに従った符号化処理を実行して、前記第2の符号化手段より圧縮効率の高い符号化データを生成するステップである画像処理方法。
  15. 画像処理装置において実行する画像処理方法であり、
    第1の復号手段が、記録手段に記録した低域側ストリームデータを入力して低周波数成分の伸長処理を実行する第1の復号ステップと、
    第2の復号手段が、記録手段に記録した高域側ストリームデータを入力して高周波数成分の伸長処理を実行する第2の復号ステップと、
    時間サブバンド合成手段が、前記第1の復号ステップと第2の復号ステップの復号結果である画像信号を入力して、時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとした合成画像信号を生成する時間サブバンド合成ステップを有し、
    前記第1の復号ステップと第2の復号ステップは、
    前記合成画像信号がPフレーム/秒(Pは整数)の画像信号であるとき、
    前記復号結果として、(P/Q)フレーム/秒(Qは2以上の整数の)低フレームレートの画像信号を生成するステップであり、
    前記第1の復号ステップは、前記第2の復号ステップと異なる別の復号アルゴリズムに従った復号処理を実行して、前記第2の復号手段より圧縮効率の高い符号化データの復号を実行するステップであり、
    前記時間サブバンド合成ステップは、
    時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとしたPフレーム/秒(Pは整数)の合成画像信号を生成するステップである画像処理方法。
  16. 画像処理装置において画像処理を実行させるプログラムであり、
    時間サブバンド分割手段に、入力画像信号に対する時間方向のサブバンド分割処理により、前記入力画像信号の入力フレームレートより低フレームレートとした低周波成分からなる低域側サブバンド分割信号、および高周波成分からなる高域側サブバンド分割信号を生成させる時間サブバンド分割ステップであり、
    前記入力画像信号としてPフレーム/秒(Pは整数)の画像信号を入力し、時間方向のサブバンド分割処理により(P/Q)フレーム/秒(Qは2以上の整数)にフレームレートを低下させた低域側サブバンド分割信号および高域側サブバンド分割信号を生成する時間サブバンド分割ステップと、
    第1の符号化手段に、前記低域側サブバンド分割信号を圧縮させる第1の符号化ステップと、
    第2の符号化手段に、前記高域側サブバンド分割信号を圧縮させる第2の符号化ステップを有し、
    前記第1の符号化ステップは、前記第1の符号化手段は、前記第2の符号化手段の実行する前記第2の符号化ステップと異なる別の符号化アルゴリズムに従った符号化処理を実行して、前記第2の符号化手段より圧縮効率の高い符号化データを生成するステップであるプログラム。
  17. 画像処理装置において画像処理を実行させるプログラムであり、
    第1の復号手段に、記録手段に記録した低域側ストリームデータを入力して低周波数成分の伸長処理を実行させる第1の復号ステップと、
    第2の復号手段に、記録手段に記録した高域側ストリームデータを入力して高周波数成分の伸長処理を実行させる第2の復号ステップと、
    時間サブバンド合成手段に、前記第1の復号ステップと第2の復号ステップの復号結果である画像信号を入力して、時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとした合成画像信号を生成させる時間サブバンド合成ステップを有し、
    前記第1の復号ステップと第2の復号ステップは、
    前記合成画像信号がPフレーム/秒(Pは整数)の画像信号であるとき、
    前記復号結果として、(P/Q)フレーム/秒(Qは2以上の整数の)低フレームレートの画像信号を生成するステップであり、
    前記第1の復号ステップは、前記第2の復号ステップと異なる別の復号アルゴリズムに従った復号処理を実行して、前記第2の復号手段より圧縮効率の高い符号化データの復号を実行するステップであり、
    前記時間サブバンド合成ステップは、
    時間方向のサブバンド合成処理により、前記第1の復号手段と第2の復号手段の復号結果である画像信号の入力フレームレートより高フレームレートとしたPフレーム/秒(Pは整数)の合成画像信号を生成するステップであるプログラム。
JP2009001351A 2008-02-19 2009-01-07 画像処理装置、および画像処理方法、並びにプログラム Expired - Fee Related JP4849130B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009001351A JP4849130B2 (ja) 2008-02-19 2009-01-07 画像処理装置、および画像処理方法、並びにプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008037049 2008-02-19
JP2008037049 2008-02-19
JP2009001351A JP4849130B2 (ja) 2008-02-19 2009-01-07 画像処理装置、および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2009225431A JP2009225431A (ja) 2009-10-01
JP4849130B2 true JP4849130B2 (ja) 2012-01-11

Family

ID=40668265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009001351A Expired - Fee Related JP4849130B2 (ja) 2008-02-19 2009-01-07 画像処理装置、および画像処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20090219404A1 (ja)
EP (1) EP2094018B1 (ja)
JP (1) JP4849130B2 (ja)
CN (1) CN101516031B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102006483B (zh) * 2009-09-03 2013-05-01 中兴通讯股份有限公司 一种视频编解码方法及装置
JP5558766B2 (ja) * 2009-09-24 2014-07-23 キヤノン株式会社 画像処理装置及びその制御方法
JP5640370B2 (ja) * 2009-12-18 2014-12-17 ソニー株式会社 画像処理装置,画像処理方法及び撮像装置
JP2011239150A (ja) * 2010-05-10 2011-11-24 Sony Corp 制御装置、カメラシステム及びプログラム
US20130300751A1 (en) * 2010-12-29 2013-11-14 Thomson Licensing Method for generating motion synthesis data and device for generating motion synthesis data
US20140198098A1 (en) * 2013-01-16 2014-07-17 Tae Joo Experience Enhancement Environment
CN103152573A (zh) * 2013-03-15 2013-06-12 惠州Tcl移动通信有限公司 一种移动终端与智能电视间图像帧传输的方法及系统
KR20140123753A (ko) * 2013-04-15 2014-10-23 삼성전자주식회사 무선 통신 시스템에서 비디오 트래픽 스케줄링 방법 및 장치
US11228764B2 (en) 2014-01-15 2022-01-18 Avigilon Corporation Streaming multiple encodings encoded using different encoding parameters
KR102184884B1 (ko) * 2014-06-26 2020-12-01 엘지디스플레이 주식회사 유기발광표시장치의 데이터 처리장치
US9613127B1 (en) 2014-06-30 2017-04-04 Quantcast Corporation Automated load-balancing of partitions in arbitrarily imbalanced distributed mapreduce computations
CN107925765B (zh) 2015-08-19 2022-01-18 索尼公司 发送装置、发送方法、接收装置及接收方法
KR20180043786A (ko) * 2015-08-25 2018-04-30 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
CA2996279A1 (en) * 2015-09-01 2017-03-09 Sony Corporation Transmission device, transmission method, reception device, and reception method
CA2997523A1 (en) 2015-09-10 2017-03-16 Sony Corporation Transmission device, transmission method, reception device, and reception method
CN105260983B (zh) * 2015-11-11 2018-07-17 西安电子科技大学 基于HyperX平台的5/3小波变换方法
US9955176B2 (en) * 2015-11-30 2018-04-24 Intel Corporation Efficient and scalable intra video/image coding using wavelets and AVC, modified AVC, VPx, modified VPx, or modified HEVC coding
JP6694280B2 (ja) * 2016-01-22 2020-05-13 日本放送協会 映像信号送信装置、映像信号受信装置及び映像信号送受信システム
CN111147787B (zh) * 2019-12-27 2021-05-04 Oppo广东移动通信有限公司 插帧处理方法及相关设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2675065B2 (ja) 1988-05-13 1997-11-12 株式会社日立製作所 高速撮影システム
JPH05316402A (ja) 1992-05-13 1993-11-26 Nippon Avionics Co Ltd 高速ビデオカメラ
CN1197253C (zh) * 1999-04-15 2005-04-13 株式会社理光 数据高速压缩伸展方法及其装置
AUPR222500A0 (en) * 2000-12-21 2001-01-25 Unisearch Limited Method for efficient scalable compression of video
KR20040054746A (ko) * 2001-10-26 2004-06-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 공간 스케일가능 압축 방법 및 장치
US20060012680A1 (en) * 2002-10-16 2006-01-19 Arnaud Bourge Drift-free video encoding and decoding method, and corresponding devices
KR20060007418A (ko) * 2003-05-02 2006-01-24 코닌클리케 필립스 일렉트로닉스 엔.브이. 신규 표준으로의 멀티층 코딩 지원 이동
KR100586883B1 (ko) * 2004-03-04 2006-06-08 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩방법, 프리디코딩방법, 비디오 디코딩방법, 및 이를 위한 장치와, 이미지 필터링방법
JP4025310B2 (ja) * 2004-04-28 2007-12-19 日本電信電話株式会社 画像変換装置、画像変換方法、画像変換プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体、並びに、動画像変換装置、動画像変換方法、動画像変換プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2005122591A1 (ja) * 2004-06-11 2005-12-22 Nec Corporation 動画像符号化装置及び動画像復号装置と、その方法及びプログラム
JP2006108923A (ja) * 2004-10-01 2006-04-20 Ntt Docomo Inc 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム
JP4385928B2 (ja) * 2004-11-08 2009-12-16 日本電信電話株式会社 スケーラブル動画像符号化・復号化方法及びシステム
JP4992336B2 (ja) 2006-08-09 2012-08-08 大日本印刷株式会社 伝票封筒

Also Published As

Publication number Publication date
CN101516031B (zh) 2012-06-13
EP2094018B1 (en) 2011-11-09
CN101516031A (zh) 2009-08-26
EP2094018A1 (en) 2009-08-26
JP2009225431A (ja) 2009-10-01
US20090219404A1 (en) 2009-09-03

Similar Documents

Publication Publication Date Title
JP4849130B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP3901287B2 (ja) 映像信号変換装置、映像信号変換方法及び映像提供システム
JP4855418B2 (ja) 色差成分の相関関係を利用したカラー映像の符号化、復号化方法及びその装置
JP4265642B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP5520122B2 (ja) データ変換装置
WO2009130886A1 (ja) 動画像符号化装置、撮像装置及び動画像符号化方法
WO2009139123A1 (ja) 画像処理装置およびそれを搭載した撮像装置
JP2015536108A (ja) 映像圧縮方法
WO2012147523A1 (ja) 撮像装置及び画像生成方法
JP2010147508A (ja) 撮影装置及び再生装置
JP3164292B2 (ja) 動画像符号化装置、動画像復号化装置および動画像符号記録方法
JP5496047B2 (ja) 画像再生方法、画像再生装置、画像再生プログラム、撮像システム、および再生システム
JP2012085001A5 (ja)
JP2011199354A (ja) 画像処理装置、画像再生装置および画像処理システム
JP5742049B2 (ja) カラー動画像符号化方法及びカラー動画像符号化装置
JP2004200760A (ja) 画像処理方法および装置
JP4422629B2 (ja) 動画像符号化装置、復号化装置、動画像記録装置および動画像再生装置
JP2009278473A (ja) 画像処理装置、それを搭載した撮像装置、および画像再生装置
JP2014131136A (ja) 動画像圧縮装置、動画像復号装置およびプログラム
JP4526529B2 (ja) 階層画像を用いる映像信号変換装置
WO2016047250A1 (ja) 信号処理装置、撮像装置および信号処理方法
JP5742048B2 (ja) カラー動画像構造変換方法及びカラー動画像構造変換装置
JP3687458B2 (ja) 圧縮復号化方法及び圧縮復号化装置
JP4765961B2 (ja) デジタル動画像記録装置
JP5067492B2 (ja) デジタル動画像記録装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110815

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110920

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111003

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees