JP4411220B2 - 映像信号処理装置、及びその映像信号処理方法 - Google Patents

映像信号処理装置、及びその映像信号処理方法 Download PDF

Info

Publication number
JP4411220B2
JP4411220B2 JP2005010845A JP2005010845A JP4411220B2 JP 4411220 B2 JP4411220 B2 JP 4411220B2 JP 2005010845 A JP2005010845 A JP 2005010845A JP 2005010845 A JP2005010845 A JP 2005010845A JP 4411220 B2 JP4411220 B2 JP 4411220B2
Authority
JP
Japan
Prior art keywords
information
frame
image
image information
compressed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005010845A
Other languages
English (en)
Other versions
JP2006203365A (ja
JP2006203365A5 (ja
Inventor
哲三 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005010845A priority Critical patent/JP4411220B2/ja
Priority to US11/275,532 priority patent/US7848416B2/en
Publication of JP2006203365A publication Critical patent/JP2006203365A/ja
Publication of JP2006203365A5 publication Critical patent/JP2006203365A5/ja
Application granted granted Critical
Publication of JP4411220B2 publication Critical patent/JP4411220B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Description

本発明は、例えばデジタルカメラ、デジタルビデオカメラ、監視カメラの画像を管理する装置、コンピュータ内等に備えられる映像信号処理装置、及びその映像信号処理方法に係り、詳しくは、フレーム内符号化処理で符号化された圧縮フレーム画像情報群を、フレーム間予測符号化処理とフレーム内符号化処理とを併用して符号化された圧縮動画情報に変換する映像信号処理装置、及びその映像信号処理方法に関する。
近年、デジタルカメラにおいては、静止画撮影モードに加えて動画像撮影モード(モーションJPEG、MPEG1/2/4などのフレーム内符号化方式)や音声録音モードを有するものも実用化されるに至り、撮影された静止画像と動画像さらに音声データを統合的に管理、鑑賞するためのフォーマット変換技術の進歩が望まれている。
一般に、デジタルカメラにより撮影された静止画像や、デジタルカメラ或いは監視カメラ等により撮影された動画像の圧縮符号化方式では、単一の画像内だけに圧縮アルゴリズムを適用するフレーム内圧縮方式が用いられる。JPEGフォーマットやJPEG2000フォーマット等が代表的なフレーム内圧縮符号化方式である。一方、高圧縮率を目的とする動画像圧縮方式では、フレーム間予測符号化とフレーム内符号化の両方式を併用する圧縮方式が用いられる。MPEGフォーマットが代表的な動画像圧縮符号化方式である。このように静止画像圧縮方式と動画像圧縮方式の本質的相違点はフレーム間予測を行うか否かにある。
静止画像フォーマットから動画像フォーマットへフォーマット変換するものとして、前述のフレーム間予測符号化処理を行えるフレーム間について、その処理を行うものが提案されている(特許文献1参照)。このものは、入力圧縮データのDCT係数を用いて動きの判定や動き方向検出を行い、動きベクトルを求めるための処理量の削減を実現している。即ち、動き判定結果が「動き有り」となったフレーム間には動き方向検出を行ってフレーム間予測符号化処理を行い、「動きなし」となったブロックには動き方向検出を行わずに(動きベクトルを求めるための処理を行わずに)、フレーム内符号化処理を行っていた。
特開2001−78199号公報
ところで、デジタルカメラは、従来のアナログカメラとは異なりフィルムを必要としないため、撮影者は失敗を恐れず多数枚の撮影をしたり、連写したりする傾向がある。このように撮影された大量のデジタル写真の静止画像は、例えばカメラ内蔵の液晶表示装置等で確認した後、不要なものを選択してメモリから消去し、必要なものだけ残す作業が行われがちである。
このようなデジタルカメラの使用状態も起因し、デジタルカメラの撮影画像(静止画像)群に、上述のように入力圧縮データのDCT係数を用いて動きの判定を行っても、動き判定結果が「動きなし」となる確率が高い。そのため、全ての静止画像群に動き判定処理を行うこと自体が非効率であり、処理時間が増大してしまうという問題があった。そこで、動き判定をより効率的にすることが可能な装置の開発が望まれていた。
そこで本発明は、動き予測処理を適用し得るフレーム間の判定を効率的にすることが可能な映像信号処理装置、及びその映像信号処理方法を提供することを目的とするものである。
上記課題を解決するため、本発明は、フレーム内符号化処理で符号化された圧縮フレーム画像情報群を、フレーム間予測符号化処理とフレーム内符号化処理とを併用して符号化された圧縮動画情報に変換する映像信号処理装置であって、
前記圧縮フレーム画像情報群の各圧縮フレーム画像情報をフレーム画像情報に復号する復号手段と、
前記各圧縮フレーム画像情報に付帯された時間情報又は方向情報を抽出する付帯情報抽出手段と、
前記付帯された時間情報又は方向情報から連続するフレーム画像情報間の時間差又は方向差を求め、該時間差又は方向差に基づき、前記フレーム画像情報に前記フレーム間予測符号化処理を適用するか否かを判定する動き予測処理適用判定手段と、
前記動き予測処理適用判定手段の出力に基づき、前記フレーム内符号化処理又は前記フレーム間予測符号化処理と前記フレーム内符号化処理との併用の何れかを選択して前記フレーム画像情報を符号化し、前記圧縮動画情報を生成する圧縮動画生成手段とを備えたことを特徴とする。
また、本発明は、フレーム内符号化処理で符号化された圧縮フレーム画像情報群を、フレーム間予測符号化処理とフレーム内符号化処理とを併用して符号化された圧縮動画情報に変換する映像信号処理方法であって、
前記圧縮フレーム画像情報群の各圧縮フレーム画像情報をフレーム画像情報に復号するステップと、
前記各圧縮フレーム画像情報に付帯された時間情報又は方向情報を抽出するステップと、
前記付帯された時間情報又は方向情報から連続するフレーム画像情報間の時間差又は方向差を求め、該時間差又は方向差が所定の範囲内に収まっている場合に、前記フレーム間予測符号化処理を適用して前記フレーム画像情報を符号化し、前記圧縮動画情報を生成するステップとを有することを特徴とする。
本発明によると、圧縮フレーム画像情報の時間情報又は方向情報に基づき、フレーム間予測符号化処理を適用するフレームとしないフレームを判定し、それに基づき、前記フレーム内符号化処理又はフレーム間予測符号化処理とフレーム内符号化処理との併用の何れかを選択してフレーム画像情報を符号化し、圧縮動画情報に生成するので、圧縮フレーム画像情報群の信号内容を精査することなくフレーム間予測符号化処理の適用判定ができ、即ち全てのフレーム画像情報に対して動き検出処理を行うことなく、必要なフレーム画像情報に対してだけフレーム間予測符号化処理を適用することができて、効率的にフレーム画像情報を圧縮動画情報に変換する処理を行うことができる。
以下、本発明に係る第1乃至第3の実施の形態について図に沿って説明する。
(第1の実施の形態)
第1の実施の形態においては、フレーム内符号化された圧縮フレーム画像情報群として付帯情報付JPEG画像データを入力し、フレーム間予測符号化とフレーム内符号化を併用する圧縮動画情報としてMPEG2ビデオデータを出力する映像信号符号化装置の一例を説明する。
図1は本発明の第1の実施の形態に係る映像信号符号化装置の一部構成を示すブロック図である。なお、図1に示す映像信号符号化装置200は、説明の便宜上、その他の機能を構成する各部(各手段)を省略して示したものである。
映像信号符号化装置200は、付帯情報付JPEG画像データが入力される分離部(付帯情報抽出手段)1、JPEG画像データの可変長符号を復号するVLD部(復号手段)2、JPEG画像データの逆量子化処理を行う逆量子化部(復号手段)3、JPEG画像データの逆離散コサイン変換を行うIDCT部(復号手段)4、JPEG画像データより再生した画像をMPEG2のビデオデータにエンコードするエンコード部(圧縮動画生成手段)5、付帯情報付JPEG画像データより付帯情報として撮影時刻データを抽出する撮影時刻データ抽出部(付帯情報抽出手段)6、抽出した撮影時刻データを記憶する撮影時刻データメモリ(付帯情報抽出手段)7、撮影時刻間の時間差を求める差分器(付帯情報抽出手段)8、フレーム画像間の動きベクトル検出を行う動き検出部(動き予測処理適用判定手段)9を備えて構成されている。
つづいて、映像信号符号化装置200の動作について説明する。なお、図7はExif規格の一例を示す図である。
図1に示すように、分離部1は付帯情報付JPEG画像データ(圧縮フレーム画像情報)からJPEG画像データ部分と付帯情報部分とを分離し、JPEG画像データはVLD部2に対して出力し、付帯情報は撮影時刻データ抽出部6へ出力する。次に抽出された前記JPEG画像データはVLD部2、逆量子化部3、IDCT部4の順に復号されてもとの静止画像(フレーム画像)を得る。再生された静止画像はMPEG2動画像フォーマットに変換するためにエンコード部5に入力される。一方、分離部1から撮影時刻データ抽出部6へ渡された一番目の付帯情報は、一番目の撮影時刻データと不要情報に分けられ、撮影時刻データを保持すると同時に差分器8へ出力し、不要情報は廃棄される。撮影時刻データ抽出部6は続いて二番目の付帯情報を受け取ると一番目の撮影時刻データを撮影時刻データメモリ7に送り、前記と同様に撮影時刻データと不要情報に分けられ、二番目の撮影時刻データを保持すると同時に差分器8へ出力し、不要情報は廃棄される。次に差分器8は一番目と二番目の撮影時刻の差分をとり撮影時間間隔データを得て、該撮影時間間隔データを動き検出部9に送る。動き検出部9は前記撮影時刻間隔が所定値以下の場合に、エンコード部5が保持している画像に対して、動きベクトル検出処理を実行する。エンコード部5は前記動き検出部から動きベクトル情報を受け取った画像、即ち「動き有り」となった画像に対しては、Pピクチャーとしてエンコード(即ちフレーム間予測符号化処理)を行い、その他の画像、即ち撮影時刻間隔が所定値以上の場合の画像や「動きなし」となった画像は、IピクチャーとしてMPEG2ビデオ形式でエンコード(即ちフレーム内符号化処理)を行って、MPEG2形式の動画像データ(圧縮動画情報)を生成する。
ここで付帯情報について説明する。付帯情報付JPEG画像データのフォーマット例としては、図7に一例を示すように、JEIDA(社団法人日本電子工業振興協会)で規格化されたデジタルスチルカメラ用画像ファイルフォーマット規格(Exif)がある。本実施の形態においては、付帯情報の中から撮影時刻データ(Date Time Original、Sub Sec Time Original)を利用して動き検出処理を実施したが、これに限るものではなく、撮影日時情報、被写体距離、被写体位置、撮影方向、進行方向、進行速度、緯度、経度、高度などのデータの中から何れのデータであっても利用可能である。
[実施例1]
ついで、映像信号符号化装置200の動作を実施例1に沿って説明する。図2は第1の実施の形態に係る映像信号符号化の実施例を説明する説明図である。なお、以下に説明する実施例1においては、付帯情報から撮影時刻データだけでなく、撮影方向データも利用するものについて説明する。
図2において、11は一枚目のJPEG画像、31は一枚目のJPEG画像に付帯する撮影時刻データ、32は一枚目のJPEG画像に付帯する撮影方向データである。同様に12から17までが、二枚目から七枚目までの付帯情報付のJPEG画像である。18は前記一枚目のJPEG画像をフォーマット変換したMPEG2ビデオ形式のIフレーム、19は前記二枚目のJPEG画像をフォーマット変換したMPEG2ビデオ形式のPフレーム、同様に20から22はPフレーム、23、24はIフレームである。25は一枚目の撮影時刻と二枚目の撮影時刻の時間差、同様に26から30は、二枚目以降の撮影時間差を示す。
図2に示すように、一枚目の付帯情報付きJPEG画像11には撮影時刻データ31と撮影方向データ32が付帯(付属)している。前記撮影時刻データ31と撮影方向データ32によると、一枚目のJPEG画像が2002年12月2日10時23分11.333秒に、方角45.13度方向に向かって撮影されたことが分かる。ここで撮影方向データは真北を0度として時計回りに角度をとり撮影方向を表すように定義されている。同様に二枚目の付帯情報付きJPEG画像12は2002年12月2日10時23分11.666秒に、方角45.26度方向に向かって撮影されたことが分かる。時間間隔25に示すように、一枚目JPEG画像と二枚目画像JPEGとは1/3秒間おいて連続撮影されたことが分かる。同時に、撮影方向は0.13度しか変化していないので、撮影者は同一方向にカメラを向けて連続撮影したと推定できる。
ここで、上記動き検出部9が動き検出処理を行う条件として、所定の撮影時間間隔を2秒以下、撮影方向差を±3度以内とし、この条件範囲内に撮影時刻間隔、及び撮影方向差が収まっている場合に、上記エンコード部5により動き検出処理するものと規定する。この規定によれば、一枚目JPEG画像11と二枚目JPEG画像12との間でフレーム間予測符号化(動き予測処理)を適用できる可能性があるので、これら二つのフレーム間で動きベクトルの検出を試みる。
本実施例1では動きベクトルの検出に成功したので、Iフレーム18を参照するようなPフレーム19に変換することができた。同様に二枚目JPEG画像12と三枚目JPEG画像13間、三枚目JPEG画像13と四枚目JPEG画像14間、四枚目JPEG画像14と五枚目JPEG画像15間においても動きベクトル検出を行い、それぞれPフレーム20、21、22に変換することができた。
次に五枚目JPEG画像15と六枚目JPEG画像16間は付帯情報によると、撮影時間間隔が約24秒あり、撮影方向差は約4度である。前述の規定によると、撮影時間間隔が2秒以下、撮影方向差を±3度以内である場合には、動き検出処理を適用するが、それ以外は動き検出処理を適用せず、フレーム間予測符号化をあきらめることになる。よって、五枚目JPEG画像15と六枚目JPEG画像16間は動き検出処理することなく、Iフレーム23に変換された。同様に六枚目JPEG画像16と七枚目JPEG画像17間も、撮影時間間隔、撮影方向差が規定値以上なので、動き検出処理をおこなうことなく、Iフレーム24に変換された。
以上の説明したように、本発明の第1の実施の形態に係る映像信号符号化装置200によると、JPEG画像の付帯情報に基づき、動き予測処理を適用するフレームとしないフレームを判定し、該判定結果に基づきフレーム間予測符号化方式とフレーム内符号化方式とを選択して、該JPEG画像情報群をMPEG2ビデオ形式の動画情報に生成するので、JPEG画像の信号内容を精査することなく動き予測処理の適用判定ができ、即ち全てのフレームに対して動き検出処理を行うことなく、必要なフレームに対してだけ動き予測処理を適用することができて、効率的にJPEG画像情報群をMPEG2ビデオ形式の動画情報に変換する処理を行うことができる。
(第2の実施の形態)
第2の実施の形態においては、フレーム内符号化された圧縮フレーム画像情報群として付帯情報付JPEG画像データを入力し、フレーム間予測符号化とフレーム内符号化を併用する圧縮動画情報としてフレーム数が自動調整されたMPEG2ビデオデータを出力する映像信号符号化装置の一例を説明する。
図3は本発明の第2の実施の形態に係る映像信号符号化装置の一部構成を示すブロック図である。なお、図3に示す映像信号符号化装置240も、第1の実施の形態と同様に、説明の便宜上、その他の機能を構成する各部(各手段)を省略して示したものである。
映像信号符号化装置240は、付帯情報付JPEG画像データが入力される分離部(付帯情報抽出手段)40、JPEG画像データの可変長符号を復号するVLD部(復号手段)41、JPEG画像データの逆量子化処理を行う逆量子化部(復号手段)42、JPEG画像データの逆離散コサイン変換を行うIDCT部(復号手段)43、JPEG画像データより再生した画像をMPEG2のビデオデータにエンコードするエンコード部(圧縮動画生成手段)44、付帯情報付JPEG画像データより付帯情報として撮影時刻データを抽出する撮影時刻データ抽出部(付帯情報抽出手段)45、抽出した撮影時刻データを記憶する撮影時刻データメモリ(付帯情報抽出手段)46、撮影時刻間の時間差を求める差分器(付帯情報抽出手段)47、フレーム画像間の動きベクトル検出を行う動き検出部(動き予測処理適用判定手段)48、MPEG2ビデオデータに挿入するフレーム数を指示する挿入フレーム指示部(挿入フレーム決定手段)49を備えて構成されている。
つづいて、映像信号符号化装置240の動作について説明する。
図3に示すように、分離部40は付帯情報付JPEG画像データからJPEG画像データ部分と付帯情報部分とを分離し、JPEG画像データはVLD部41に対して出力し、付帯情報は撮影時刻データ抽出部45へ出力する。次に抽出された前記JPEG画像データはVLD部41、逆量子化部42、IDCT部43の順に復号されてもとの静止画像を得る。再生された静止画像はMPEG2動画像フォーマットに変換するためにエンコード部44に入力される。一方、分離部40から撮影時刻データ抽出部45へ渡された一番目の付帯情報は、一番目の撮影時刻データと不要情報に分けられ、撮影時刻データを保持すると同時に差分器47へ出力し、不要情報は廃棄される。撮影時刻データ抽出部45は続いて二番目の付帯情報を受け取ると一番目の撮影時刻データを撮影時刻データメモリ46に送り、前記と同様に撮影時刻データと不要情報に分けられ、二番目の撮影時刻データを保持すると同時に差分器47へ出力し、不要情報は廃棄される。次に差分器47は一番目と二番目の撮影時刻の差分をとり撮影時間間隔データを得て、該撮影時間間隔データを動き検出部48と挿入フレーム指示部49に送る。動き検出部48は前記撮影時刻間隔が所定値以下の場合に、エンコード部44が保持している画像に対して、動きベクトル検出処理を実行する。エンコード部44は前記動き検出部から動きベクトル情報を受け取った画像、即ち「動き有り」となった画像に対しては、Pピクチャーとしてエンコード(即ちフレーム間予測符号化処理)を行い、その他の画像、即ち撮影時刻間隔が所定値以上の場合の画像や「動きなし」となった画像は、IピクチャーとしてMPEG2ビデオ形式でエンコード(即ちフレーム内符号化処理)を行って、MPEG2形式の動画像データを生成する。
次に、挿入フレーム指示部49は前記差分器47から撮影時間差データを受け取り、更に前記動き検出部48から動き検出結果を受け取る。挿入フレーム指示部49は撮影時間差データと動き検出結果により挿入フレーム数を決定し、エンコード部44に通知する。たとえば、挿入フレーム数の決定規則は次のように与える。
a)動き検出処理を適用しない場合は、mフレーム挿入
b)動き検出結果が「非検出」の場合は、mフレーム挿入
c)動き検出結果が「検出」の場合は、nフレーム挿入
ここでm>n、挿入フレーム画像は挿入直前フレームの画像と同一画像とする。
エンコード部44は、挿入フレーム指示部49から上記決定規則により決定されたフレーム数、即ちmフレームかnフレームかに応じて、挿入直前フレームの画像と同一画像のPフレームをmフレーム分又はnフレーム分だけ生成し、その同一画像の直後に挿入して、MPEG2ビデオ形式の動画像を生成する。
[実施例2]
ついで、映像信号符号化装置240の動作を実施例2に沿って説明する。図4は第2の実施の形態に係る映像信号符号化の実施例を説明する説明図である。なお、以下に説明する実施例2においては、付帯情報から撮影時刻データだけでなく、撮影方向データも利用するものについて説明する。
図4において、50は一枚目のJPEG画像、76は一枚目のJPEG画像に付帯する撮影時刻データ、77は一枚目のJPEG画像に付帯する撮影方向データである。同様に51から56までが、二枚目から七枚目までの付帯情報付のJPEG画像である。57は前記一枚目のJPEG画像をフォーマット変換したMPEG2ビデオ形式のIフレーム、58は前記二枚目のJPEG画像をフォーマット変換したMPEG2ビデオ形式のPフレーム、同様に59から61はPフレーム、62、63はIフレームである。70は一枚目の撮影時刻と二枚目の撮影時刻の時間差、同様に71から75は、二枚目以降の撮影時間差を示す。さらに、64はIフレーム57の直後に挿入されるPフレーム、65はPフレーム58の直後に挿入されるPフレーム、以下同様に66、67、68、69はそれぞれ挿入されるPフレームを示す。
図4に示すように、一枚目の付帯情報付きJPEG画像50には撮影時刻データ76と撮影方向データ77が付属している。前記撮影時刻データ76と撮影方向データ77によると、一枚目のJPEG画像が2002年12月2日10時23分11.333秒に、方角45.13度方向に向かって撮影されたことが分かる。ここで撮影方向データは真北を0度として時計回りに角度をとり撮影方向を表すように定義されている。同様に二枚目の付帯情報付きJPEG画像12は2002年12月2日10時23分11.666秒に、方角45.26度方向に向かって撮影されたことが分かる。時間間隔70に示すように、一枚目JPEG画像と二枚目画像JPEGとは1/3秒間おいて連続撮影されたことが分かる。同時に、撮影方向は0.13度しか変化していないので、撮影者は同一方向にカメラを向けて連続撮影したと推定できる。
ここで、上記動き検出部48が動き検出処理を行う条件として、所定の撮影時間間隔を2秒以下、撮影方向差を±3度以内とし、この条件範囲内に撮影時刻間隔、及び撮影方向差が収まっている場合に、上記エンコード部44により動き検出処理するものと規定する。この規定によれば、一枚目JPEG画像50と二枚目JPEG画像51との間でフレーム間予測符号化を適用できる可能性があるので、これら二つのフレーム間で動きベクトルの検出を試みる。
本実施例2では動きベクトルの検出に成功したので、Iフレーム57を参照するようなPフレーム58に変換することができた。同様に二枚目JPEG画像51と三枚目JPEG画像52間、三枚目JPEG画像52と四枚目JPEG画像53間、四枚目JPEG画像53と五枚目JPEG画像54間においても動きベクトル検出を行い、それぞれPフレーム59、60、61に変換することができた。
次に五枚目JPEG画像54と六枚目JPEG画像55間は付帯情報によると、撮影時間間隔が約24秒あり、撮影方向差は約4度である。前述の規定によると、撮影時間間隔が2秒以下、撮影方向差を±3度以内である場合には、動き検出処理を適用するが、それ以外は動き検出処理を適用せず、フレーム間予測符号化をあきらめることになる。よって、五枚目JPEG画像54と六枚目JPEG画像55間は動き検出処理することなく、Iフレーム62に変換された。同様に六枚目JPEG画像55と七枚目JPEG画像56間も、撮影時間間隔、撮影方向差が規定値以上なので、動き検出処理をおこなうことなく、Iフレーム63に変換された。
ここで前述の挿入フレーム数の決定規則において、m=89、n=9とすると、
a)動き検出処理を適用しない場合は、89フレーム挿入
b)動き検出結果が「非検出」の場合は、89フレーム挿入
c)動き検出結果が「検出」の場合は、9フレーム挿入
となる。ただし、mとnの値は上記の値に限るものではない。
この挿入フレーム数の決定規則に従って挿入フレーム指示部49は、まず、Iフレーム57の直後に9フレーム分のPフレーム群64を挿入を決定してエンコード部44に指定し、該エンコード部44は、挿入フレーム指示部49の決定に基づき、Iフレーム57の直後に9フレーム分のPフレーム群64を挿入する。同様にエンコード部44は、挿入フレーム指示部49の指示に基づき、動き検出結果が「検出」であった箇所、すなわちPフレーム58の直後、Pフレーム59の直後、Pフレーム60の直後に、それぞれ9フレーム分のPフレーム群65,66,67を挿入する。また、Pフレーム61とIフレーム62との直後には、動き検出結果が「非検出」であったので、それぞれ89フレーム分のPフレーム群68,69を挿入する。なお、本実施例において、Iフレーム63の直後には、特に挿入フレームを挿入していないが、例えば89フレーム分のPフレーム群を挿入してもよい。
以上の説明したように、本発明の第2の実施の形態に係る映像信号符号化装置240によると、付帯情報或いは動き検出部48の検出結果に基づき、各フレームの直後に挿入するフレーム数を決定し、当該フレームと同一の画像を形成するためのフレームを決定されたフレーム数だけ挿入して、MPEG2ビデオ形式の動画情報を生成するので、JPEG画像毎に鑑賞に適した再生時間を有するMPEG2ビデオ形式の動画情報を自動的に生成することができ、それにより、MPEG2ビデオ形式の動画情報を再生した際に、各フレームの表示時間が短くなりすぎることを防ぐことができる。
なお、以上説明した第2の実施の形態においては、挿入フレーム指示部49が、付帯情報(動き検出処理の適用判定)と動き検出結果(非検出又は検出)に基づき、挿入するフレーム数を決定するものについて説明したが、付帯情報だけ(動き検出処理の適用判定だけ)に基づき挿入するフレーム数を決定してもよい。この際は、動き検出結果が「非検出」であっても少ないフレーム数(例えば9フレーム)を挿入することになるが、撮影時刻間隔が短いもの(及び撮影方向が近いもの)であり、即ち類似した画像であるはずなので、特に再生時間が短くなっても問題はない。
(第3の実施の形態)
第3の実施の形態においては、フレーム内符号化された圧縮フレーム画像情報群として付帯情報付JPEG画像データを入力し、フレーム間予測符号化とフレーム内符号化を併用する圧縮動画情報として複数フレームが画像合成されたMPEG2ビデオデータを出力する映像信号符号化装置の一例を説明する。
図5は本発明の第3の実施の形態に係る映像信号符号化装置の一部構成を示すブロック図である。なお、図5に示す映像信号符号化装置280も、第1及び第2の実施の形態と同様に、説明の便宜上、その他の機能を構成する各部(各手段)を省略して示したものである。
映像信号符号化装置280は、付帯情報付JPEG画像データが入力される分離部(付帯情報抽出手段)80、JPEG画像データの可変長符号を復号するVLD部(復号手段)81、JPEG画像データの逆量子化処理を行う逆量子化部(復号手段)82、JPEG画像データの逆離散コサイン変換を行うIDCT部(復号手段)83、JPEG画像データより再生した画像をMPEG2のビデオデータにエンコードするエンコード部(圧縮動画生成手段)84、付帯情報付JPEG画像データより付帯情報として撮影時刻データを抽出する撮影時刻データ抽出部(付帯情報抽出手段)85、抽出した撮影時刻データを記憶する撮影時刻データメモリ(付帯情報抽出手段)86、撮影時刻間の時間差を求める差分器(付帯情報抽出手段)87、フレーム画像間の動きベクトル検出を行う動き検出部(動き予測処理適用判定手段)88、マルチ画面化を指示する合成指示部(合成画像判定手段)89を備えて構成されている。
つづいて、映像信号符号化装置280の動作について説明する。
図5に示すように、分離部80は付帯情報付JPEG画像データからJPEG画像データ部分と付帯情報部分とを分離し、JPEG画像データはVLD部81に対して出力し、付帯情報は撮影時刻データ抽出部85へ出力する。次に抽出された前記JPEG画像データはVLD部81、逆量子化部82、IDCT部83の順に復号されてもとの静止画像を得る。再生された静止画像はMPEG2動画像フォーマットに変換するためにエンコード部84に入力される。一方、分離部80から撮影時刻データ抽出部85へ渡された一番目の付帯情報は、一番目の撮影時刻データと不要情報に分けられ、撮影時刻データを保持すると同時に差分器87へ出力し、不要情報は廃棄される。撮影時刻データ抽出部85は続いて二番目の付帯情報を受け取ると一番目の撮影時刻データを撮影時刻データメモリ86に送り、前記と同様に撮影時刻データと不要情報に分けられ、二番目の撮影時刻データを保持すると同時に差分器87へ出力し、不要情報は廃棄される。次に差分器87は一番目と二番目の撮影時刻の差分をとり撮影時間間隔データを得て、該撮影時間間隔データを動き検出部88と合成指示部89に送る。動き検出部88は前記撮影時刻間隔が所定値以下の場合に、エンコード部84が保持している画像に対して、動きベクトル検出処理を実行する。エンコード部84は前記動き検出部から動きベクトル情報を受け取った画像、即ち「動き有り」となった画像に対しては、Pピクチャーとしてエンコード(即ちフレーム間予測符号化処理)を行い、その他の画像、即ち撮影時刻間隔が所定値以上の場合の画像や「動きなし」となった画像は、IピクチャーとしてMPEG2ビデオ形式でエンコード(即ちフレーム内符号化処理)を行って、MPEG2形式の動画像データを生成する。
次に、合成指示部89は前記差分器87から撮影時間差データを受け取り、さらに前記動き検出部90から動き検出結果を受け取る。合成指示部89は撮影時間差データと動き検出結果により画像合成を判定し、エンコード部85に通知する。たとえば、画像合成判定の決定規則は次のように与える。
d)動き検出処理を適用しない場合は、画像合成を判定せず、そのまま1フレーム画像とする
e)動き検出結果が「非検出」の場合は、画像合成を判定せず、そのまま1フレーム画像とする
f)動き検出結果が「検出」の場合は、画像合成を判定し、類似した他の画像をxフレームまでマルチ画面合成する
ここで類似した画像とは、動き検出を行った元の画像(直前フレームの画像)、及び動き検出結果が連続して「検出」になった画像である。また、マルチ画面合成とは、1つの画面において、領域をx個に分割し、xフレームの画像を縮小して、それぞれ各領域に割当てる形で1つの画像に合成することである。
マルチ画像合成の指示をする際には、主に動き検出結果が連続して「検出」になった画像をxフレームのマルチ合成画面内に合成するように指示するが、動き検出結果が連続して「検出」になった画像の合計のフレーム数がxフレームに満たない場合には、直前フレームの画像もxフレームのマルチ合成画面内に合成するように指示する。なお、それら動き検出結果が連続して「検出」になった画像と直前フレームの画像との合計がxフレームに満たない場合には、マルチ合成画面内に空白部分を形成してもよく、また、分割する領域の個数を変更、即ち合成するフレーム数を変更してもよい。
なお、本実施の形態における画像合成は、マルチ画面合成を行うものを一例として説明しているが、特にマルチ画面表示に限るものではなく、複数フレームを半透明化して重ね合わせるアルファブレンドやフェードイン/フェードアウトなどの各種の画像合成処理が実施可能である。
[実施例3]
ついで、映像信号符号化装置280の動作を実施例3に沿って説明する。図6は第3の実施の形態に係る映像信号符号化の実施例を説明する説明図である。なお、以下に説明する実施例3においては、付帯情報から撮影時刻データだけでなく、撮影方向データも利用するものについて説明する。
図6において、100は一枚目のJPEG画像、128は一枚目のJPEG画像に付帯する撮影時刻データ、129は一枚目のJPEG画像に付帯する撮影方向データである。同様に101から106までが、二枚目から七枚目までの付帯情報付のJPEG画像である。107は前記一枚目のJPEG画像を一時的にフォーマット変換したMPEG2ビデオ形式のIフレーム、108は前記二枚目のJPEG画像を一時的にフォーマット変換したMPEG2ビデオ形式のPフレーム、同様に109から111はPフレーム、112、113はIフレームである。122は一枚目の撮影時刻と二枚目の撮影時刻の時間差、同様に123から127は、二枚目以降の撮影時間差を示す。さらに、114は一枚目のJPEG画像を最終的にMPEG2ビデオ形式に変換したIフレーム、115は上記Pフレーム108,109,110,111を縮小した縮小画像118,119,120,121をマルチ画像合成したマルチ合成画像、116、117は同様に六枚目、七枚目のJPEG画像を最終的にMPEG2ビデオ形式に変換したIフレームである。
図6に示すように、一枚目の付帯情報付きJPEG画像100には撮影時刻データ128と撮影方向データ129が付属している。前記撮影時刻データ128と撮影方向データ129によると、一枚目のJPEG画像が2002年12月2日10時23分11.333秒に、方角45.13度方向に向かって撮影されたことが分かる。ここで撮影方向データは真北を0度として時計回りに角度をとり撮影方向を表すように定義されている。同様に二枚目の付帯情報付きJPEG画像101は2002年12月2日10時23分11.666秒に、方角45.26度方向に向かって撮影されたことが分かる。時間間隔122に示すように、一枚目JPEG画像と二枚目画像JPEGとは1/3秒間おいて連続撮影されたことが分かる。同時に、撮影方向は0.13度しか変化していないので、撮影者は同一方向にカメラを向けて撮影したと推定できる。
ここで上記動き検出部88が動き検出処理を行う条件として、所定の撮影時間間隔を2秒以下、撮影方向差を±3度以内とし、この条件範囲内に撮影時刻間隔、及び撮影方向差が収まっている場合に、上記エンコード部84により動き検出処理するものと規定する。この規定によれば、一枚目JPEG画像100と二枚目JPEG画像101との間でフレーム間予測符号化を適用できる可能性があるので、これら二つのフレーム間で動きベクトルの検出を試みる。
本実施例3では動きベクトルの検出に成功したので、Iフレーム107を参照するようなPフレーム108に変換することができた。同様に二枚目JPEG画像101と三枚目JPEG画像102間、三枚目JPEG画像102と四枚目JPEG画像103間、四枚目JPEG画像103と五枚目JPEG画像104間においても動きベクトル検出を行い、それぞれPフレーム109、110、111に変換することができた。
次に五枚目JPEG画像104と六枚目JPEG画像105間は付帯情報によると、撮影時間間隔が約24秒あり、撮影方向差は約4度である。前述の規定によると、撮影時間間隔が2秒以内、撮影方向差を±3度以内である場合には、動き検出処理を適用するが、それ以外は動き検出処理を適用せず、フレーム間予測符号化をあきらめることになる。よって、五枚目JPEG画像104と六枚目JPEG画像105間は動き検出処理することなく、Iフレーム112に変換された。同様に六枚目JPEG画像105と七枚目JPEG画像106間も、撮影時間間隔、撮影方向差が規定値以上なので、動き検出処理をおこなうことなく、Iフレーム113に変換された。
ここで前述の画像合成判定の規則において、x=4とすると、
d)動き検出処理を適用しない場合は、画像合成を判定せず、そのまま1フレーム画像とする
e)動き検出結果が「非検出」の場合は、画像合成を判定せず、そのまま1フレーム画像とする
f)動き検出結果が「検出」の場合は、画像合成を判定し、類似した他の画像を4フレームまでマルチ画面合成する
となる。ただし、xの値は上記の値に限るものではない。
この画像合成判定の決定規則に従って合成指示部89がエンコード部84に指示し、該エンコード部84は、まず、Iフレーム107は画像合成せずに1フレーム全画面の画像にするのでIフレーム114をエンコード出力する。Pフレーム108は、例えばIフレーム107との差分に基づき一旦デコードされた後、1/2(面積的には1/4)に縮小されてIフレーム115の左上の部分画面118に、同様にPフレーム109、110、111も1/2に縮小されてIフレーム115の部分画面119、120、121になるようにマルチ画面合成し、エンコード出力する。また、Iフレーム112は画像合成せずに1フレーム全画面の画像にするのでIフレーム116を、更に、Iフレーム113も画像合成せずに1フレーム全画面の画像にするのでIフレーム117を、それぞれエンコード出力する。
なお、本実施の形態においては、説明の便宜上、一時的にエンコードされ、中間段階のPフレーム(例えば108,109,110,111)を生成した後、合成して合成画像を生成するものについて説明したが、付帯情報或いは動き検出に基づいてJPEG画像から復号された静止画像(例えば101,102,103,104)をそのまま合成して合成画像を生成してもよく、この方が演算処理量が少ないことは、勿論のことである。また、この際は、付帯情報だけに基づいて画像合成を判定して合成画面を生成した後、単一の画像及び合成画像をMPEG方式にエンコードするようにしてもよい。
以上の説明したように、本発明の第3の実施の形態に係る映像信号符号化装置280によると、動き予測処理の適用が判定されたフレーム画像101,102,103,104を合成画像115として合成して、該合成画像115を含むMPEG2ビデオ形式の動画情報を生成するので、効率よく適切な数のフレームを縮小、合成することができて、JPEG画像毎に鑑賞に適した単一の画像又は合成画像が含まれたMPEG2ビデオ形式の動画情報を自動的に生成することができる。それにより、MPEG2ビデオ形式の動画情報を再生した際に、画像内容が類似した複数のフレーム画像の表示時間が長くなることを防ぐことができる。
なお、以上説明した第1乃至第3の実施の形態においては、JPEG方式で圧縮された画像情報を復号し、MPEG方式で圧縮した動画情報にフォーマット変換するものについて説明したが、同一フレーム画像内で圧縮されたフレーム内符号化方式で符号化された圧縮フレーム画像情報が複数集合したものを、複数のフレーム画像間で異なる部分だけを差分として記録するフレーム間予測符号化方式とフレーム内符号化方式とを併用して符号化された圧縮動画情報にフォーマット変換するものであれば、これらの圧縮方式はどのようなものであってもよい。
第1の実施の形態に係る映像信号符号化装置の一部構成を示すブロック図。 第1の実施の形態に係る映像信号符号化過程を説明する説明図。 第2の実施の形態に係る映像信号符号化装置の一部構成を示すブロック図。 第2の実施の形態に係る映像信号符号化過程を説明する説明図。 第3の実施の形態に係る映像信号符号化装置の一部構成を示すブロック図。 第3の実施の形態に係る映像信号符号化過程を説明する説明図。 Exif規格の一例を示す図。
符号の説明
1 付帯情報抽出手段(分離部)
2 復号手段(VLD部)
3 復号手段(逆量子化部)
4 復号手段(IDCT)
5 圧縮動画生成手段(エンコード部)
6 付帯情報抽出手段(撮影時刻データ抽出部)
7 付帯情報抽出手段(撮影時刻データメモリ)
8 付帯情報抽出手段(差分器)
9 動き予測処理適用判定手段(動き検出部)
40 付帯情報抽出手段(分離部)
41 復号手段(VLD部)
42 復号手段(逆量子化部)
43 復号手段(IDCT)
44 圧縮動画生成手段(エンコード部)
45 付帯情報抽出手段(撮影時刻データ抽出部)
46 付帯情報抽出手段(撮影時刻データメモリ)
47 付帯情報抽出手段(差分器)
48 動き予測処理適用判定手段(動き検出部)
49 挿入フレーム決定手段(挿入フレーム指示部)
80 付帯情報抽出手段(分離部)
81 復号手段(VLD部)
82 復号手段(逆量子化部)
83 復号手段(IDCT)
84 圧縮動画生成手段(エンコード部)
85 付帯情報抽出手段(撮影時刻データ抽出部)
86 付帯情報抽出手段(撮影時刻データメモリ)
87 付帯情報抽出手段(差分器)
88 動き予測処理適用判定手段(動き検出部)
89 合成画像判定手段(合成指示部)
200 映像信号符号化装置
240 映像信号符号化装置
280 映像信号符号化装置

Claims (5)

  1. フレーム内符号化処理で符号化された圧縮フレーム画像情報群を、フレーム間予測符号化処理とフレーム内符号化処理とを併用して符号化された圧縮動画情報に変換する映像信号処理装置であって、
    前記圧縮フレーム画像情報群の各圧縮フレーム画像情報をフレーム画像情報に復号する復号手段と、
    前記各圧縮フレーム画像情報に付帯された時間情報又は方向情報を抽出する付帯情報抽出手段と、
    前記付帯された時間情報又は方向情報から連続するフレーム画像情報間の時間差又は方向差を求め、該時間差又は方向差に基づき、前記フレーム画像情報に前記フレーム間予測符号化処理を適用するか否かを判定する動き予測処理適用判定手段と、
    前記動き予測処理適用判定手段の出力に基づき、前記フレーム内符号化処理又は前記フレーム間予測符号化処理と前記フレーム内符号化処理との併用の何れかを選択して前記フレーム画像情報を符号化し、前記圧縮動画情報を生成する圧縮動画生成手段とを備えたことを特徴とする映像信号処理装置。
  2. 前記動き予測処理適用判定手段は、前記時間情報又は方向情報に基づきフレーム画像間における動きを検出する動き検出処理の実行可否を決定し、かつ前記動き検出処理により動きが検出された場合に、前記フレーム間予測符号化処理を使用する信号を前記圧縮動画生成手段に出力することを特徴とする請求項1記載の映像信号処理装置。
  3. 前記時間情報又は方向情報と前記動き予測処理適用判定手段の判定結果との少なくとも一方に基づき、各フレーム画像情報の直後に挿入するフレーム数を決定する挿入フレーム決定手段を備え、
    前記圧縮動画生成手段は、各フレーム画像情報の直後に、当該各フレーム画像情報と同一のフレーム画像情報を、前記挿入フレーム決定手段により決定されたフレーム数だけ挿入することを特徴とする請求項1または2記載の映像信号処理装置。
  4. 前記圧縮フレーム画像情報は、JPEGフォーマット又はJPEG2000フォーマットのフレーム内符号化処理により圧縮された静止画像情報であり、
    前記圧縮動画情報は、MPEGフォーマットにより圧縮された動画像情報であることを特徴とする請求項1ないし3のいずれか記載の映像信号処理装置。
  5. フレーム内符号化処理で符号化された圧縮フレーム画像情報群を、フレーム間予測符号化処理とフレーム内符号化処理とを併用して符号化された圧縮動画情報に変換する映像信号処理方法であって、
    前記圧縮フレーム画像情報群の各圧縮フレーム画像情報をフレーム画像情報に復号するステップと、
    前記各圧縮フレーム画像情報に付帯された時間情報又は方向情報を抽出するステップと、
    前記付帯された時間情報又は方向情報から連続するフレーム画像情報間の時間差又は方向差を求め、該時間差又は方向差が所定の範囲内に収まっている場合に、前記フレーム間予測符号化処理を適用して前記フレーム画像情報を符号化し、前記圧縮動画情報を生成するステップとを有することを特徴とする映像信号処理方法。
JP2005010845A 2005-01-18 2005-01-18 映像信号処理装置、及びその映像信号処理方法 Expired - Fee Related JP4411220B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005010845A JP4411220B2 (ja) 2005-01-18 2005-01-18 映像信号処理装置、及びその映像信号処理方法
US11/275,532 US7848416B2 (en) 2005-01-18 2006-01-12 Video signal encoding apparatus and video data encoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005010845A JP4411220B2 (ja) 2005-01-18 2005-01-18 映像信号処理装置、及びその映像信号処理方法

Publications (3)

Publication Number Publication Date
JP2006203365A JP2006203365A (ja) 2006-08-03
JP2006203365A5 JP2006203365A5 (ja) 2007-09-13
JP4411220B2 true JP4411220B2 (ja) 2010-02-10

Family

ID=36683855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005010845A Expired - Fee Related JP4411220B2 (ja) 2005-01-18 2005-01-18 映像信号処理装置、及びその映像信号処理方法

Country Status (2)

Country Link
US (1) US7848416B2 (ja)
JP (1) JP4411220B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101325129B1 (ko) * 2012-01-17 2013-11-20 김시복 멀티미디어 동영상 처리장치와 방법 및 동영상 처리를 위한 컴퓨터 프로그램 저장수단

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8169482B2 (en) * 2006-09-20 2012-05-01 Panasonic Corporation Monitor video accumulation system
JP2008310072A (ja) * 2007-06-15 2008-12-25 Nikon Corp デジタルカメラ
WO2013010248A1 (en) * 2011-07-21 2013-01-24 Research In Motion Adaptive filtering based on pattern information
CN104469361B (zh) * 2014-12-30 2017-06-09 武汉大学 一种具有运动自适应性的视频删帧取证方法
US10812832B2 (en) 2015-06-05 2020-10-20 Apple Inc. Efficient still image coding with video compression techniques
CN107613159A (zh) * 2017-10-12 2018-01-19 北京工业职业技术学院 图像时间校准方法及系统
CN110740344B (zh) * 2019-09-17 2022-10-04 浙江大华技术股份有限公司 视频提取方法、装置及存储装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3592025B2 (ja) 1997-03-11 2004-11-24 キヤノン株式会社 撮影画像記録装置
WO1999067947A1 (en) 1998-06-24 1999-12-29 Hitachi, Ltd. Image sensing/storing method and image sensing device
JP2000059731A (ja) 1998-08-07 2000-02-25 Matsushita Electric Ind Co Ltd 映像編集装置
JP2000125300A (ja) 1998-10-20 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> 符号化ビットレート変更方法および符号化ビットレート変更プログラムを記録した記録媒体
US6625215B1 (en) * 1999-06-07 2003-09-23 Lucent Technologies Inc. Methods and apparatus for context-based inter/intra coding mode selection
JP2001016541A (ja) 1999-07-01 2001-01-19 Matsushita Electric Ind Co Ltd 画像蓄積方法および装置
JP2001078199A (ja) 1999-09-07 2001-03-23 Matsushita Electric Ind Co Ltd 映像信号符号化装置
JP3982615B2 (ja) 2002-03-11 2007-09-26 株式会社Kddi研究所 符号化動画像データの方式変換装置
KR100654436B1 (ko) * 2004-07-07 2006-12-06 삼성전자주식회사 비디오 코딩 방법과 디코딩 방법, 및 비디오 인코더와디코더

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101325129B1 (ko) * 2012-01-17 2013-11-20 김시복 멀티미디어 동영상 처리장치와 방법 및 동영상 처리를 위한 컴퓨터 프로그램 저장수단

Also Published As

Publication number Publication date
US7848416B2 (en) 2010-12-07
JP2006203365A (ja) 2006-08-03
US20060159172A1 (en) 2006-07-20

Similar Documents

Publication Publication Date Title
JP4411220B2 (ja) 映像信号処理装置、及びその映像信号処理方法
US20040202249A1 (en) Real-time MPEG video encoding method of maintaining synchronization between video and audio
JP2010212811A (ja) 動画像符号化装置及び動画像復号化装置
US8165217B2 (en) Image decoding apparatus and method for decoding prediction encoded image data
JP3221785B2 (ja) 撮像装置
JP4771986B2 (ja) 画像符号化装置およびそれを用いた撮像装置
JP4850111B2 (ja) 画像表示装置およびそれを搭載した撮像装置
JP4274653B2 (ja) 動画像合成装置および動画像合成方法
JPH11308618A (ja) 画像信号処理装置及び方法並びに画像信号再生装置
JP4178521B2 (ja) 符号化映像信号の記録方法、及び映像信号符号化装置
JP2003339003A (ja) 画像撮影配信装置および画像撮影配信方法
JPH08242446A (ja) 画像処理方法及び画像処理装置
JP2002112262A (ja) 画像符号化装置
JP3877538B2 (ja) デジタルカメラ
JP4312070B2 (ja) デジタルカメラ
JP2005051810A (ja) デジタルカメラ
JP3384910B2 (ja) 撮像装置および画像再生装置
JP2002016924A (ja) トランスコーダ装置およびトランスコード方法
JP4338726B2 (ja) 画像処理装置
JP3877742B2 (ja) デジタルカメラ
JP4338725B2 (ja) 画像処理装置
JP4338727B2 (ja) 画像処理装置
JP2022099611A (ja) 映像圧縮装置、映像復元装置、物体検出装置、映像処理システム、映像圧縮方法、コンピュータプログラム、及びデータ構造
JPH11234675A (ja) 動画像符号化装置及び方法、動画像復号装置及び方法並びに記録媒体
JP2001245299A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131120

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees