JP2008109624A - 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム - Google Patents

動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム Download PDF

Info

Publication number
JP2008109624A
JP2008109624A JP2007171971A JP2007171971A JP2008109624A JP 2008109624 A JP2008109624 A JP 2008109624A JP 2007171971 A JP2007171971 A JP 2007171971A JP 2007171971 A JP2007171971 A JP 2007171971A JP 2008109624 A JP2008109624 A JP 2008109624A
Authority
JP
Japan
Prior art keywords
encoding
image
picture
encoded
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007171971A
Other languages
English (en)
Inventor
Mitsuo Harumatsu
光男 春松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007171971A priority Critical patent/JP2008109624A/ja
Priority to KR20070076894A priority patent/KR100927180B1/ko
Priority to US11/903,691 priority patent/US20080260026A1/en
Publication of JP2008109624A publication Critical patent/JP2008109624A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】MPEG方式動画像符号化信号を復号してDV方式で再符号化すると、MPEG方式動画像符号化信号中のピクチャタイプ情報が失われるため、DV方式の符号化画像信号を再度MPEG方式に再符号化すると、元のMPEG方式動画像信号とは異なるピクチャタイプで再符号化される場合があり、その場合は画質が大幅に劣化する。
【解決手段】DV符号化部13は、MPEG復号部11から供給された復号画像データを、ディジタルビデオカメラで使われているDV方式によりフレーム単位で圧縮符号化した画像データに、パック情報生成部12で生成されたパック情報をセットしたDVデータを生成する。パック情報生成部12は、復号画像データのフレーム毎に、そのフレーム又はフィールドが、MPEGで符号化されていたときにどのピクチャタイプであったかを示すピクチャタイプ情報を、フレームに関連付けた補助情報であるパック情報として生成する。
【選択図】図1

Description

本発明は、動画像符号化装置、動画像符号化方法、及び動画像符号化プログラムに係り、特に、MPEG(Moving Picture Experts Group)方式などの画像内符号化及び画像間符号化を用いた符号化方式、及びDV(Digital Video)方式などの画像内符号化を用いた符号化方式を用いて符号化を行なう動画像符号化装置、動画像符号化方法、及び動画像符号化プログラムに関する。
ビデオカメラで撮影して得られた動画像信号が、MPEG方式で符号化されて動画像符号化信号とされ、その動画像符号化信号が、ビデオカメラに内蔵された記録装置、又はビデオカメラの外部に装着された記録装置に記録されている場合、その記録装置に記録されている動画像符号化信号を再生して、現在のビデオカメラにおいて標準的に用いられているディジタルインタフェース(I/F)であるDV端子を介して他の記録装置にダビングする際は、そのダビング対象の動画像符号化信号の符号化方式を、MPEG方式からDV方式へ方式変換する必要がある。
MPEG方式は、周知のように、動画像信号を構成する各画像(フレーム又はフィールド)を、Iピクチャ、Pピクチャ、Bピクチャのいずれかのピクチャタイプの画像に符号化する方式である。Iピクチャは、その符号化対象画像のみの画像情報だけで符号化したイントラ符号化画像である。また、Pピクチャは、時間的に過去のIピクチャ又はPピクチャを予測画像として、順方向の画面間予測を用いて符号化した順方向予測符号化画像である。Bピクチャは、時間的に過去と未来のIピクチャ又はPピクチャを予測画像として、双方向の画面間予測を用いて符号化した双方向予測符号化画像である。そして、一般にはIピクチャが最も良い画質(S/N)が得られ、Pピクチャ、Bピクチャの順に画質(S/N)が低下する。
また、DV方式は、周知のように、動画像信号を構成する各画像(フレーム又はフィールド)を、その符号化対象画像のみの画像情報だけで符号化する方式である。
MPEG方式で符号化された動画像符号化信号をDV方式に変換するには、通常、MPEG方式で符号化された動画像符号化信号を一旦復号して、元の動画像信号に戻し、この戻した動画像信号をDV方式で再度符号化する方法が用いられる。従って、MPEG方式で符号化された動画像符号化信号を復号して、元の動画像信号に戻した時点で、この動画像信号を構成する各画像の復号前の各符号化画像が、Iピクチャ、Pピクチャ、Bピクチャのいずれの画像であったかという符号化情報は失われてしまう。
また、上記の方法によってMPEG方式からDV方式に変換して他の記録装置に記録した動画像信号を、例えばDVDに記録したい場合がある。このような場合、DVDの記録フォーマットはMPEG方式であるので、DV方式に変換した動画像符号化信号を再度MPEG方式に変換しなければならない。上記したように、DV方式に変換された動画像符号化信号を構成する各画像が、MPEG方式で符号化されていたときに、Iピクチャ、Pピクチャ、Bピクチャのいずれの画像であったかというピクチャタイプ情報が無くなっているため、それらを一切考慮せずにMPEG方式への再変換を行うことになる。このため、MPEG方式で最初に符号化した際にPピクチャやBピクチャであった画像を、Iピクチャとして符号化する場合がある。
このときのIピクチャのS/Nは、最初にMPEG方式で符号化されたときのPピクチャ又はBピクチャのS/Nを超えることはないので、元々のピクチャタイプがPピクチャやBピクチャであった画像をIピクチャとして符号化した場合、そのIピクチャは、MPEG方式において参照されるべき基準ピクチャであるにもかかわらず、低いS/Nの画像となってしまう。従って、これを参照するPピクチャ、Bピクチャは、さらに低いS/Nとなるので、MPEG方式に再変換された動画像符号化信号は、全体的に画質が大幅に劣化する。
図11は、MPEG方式の動画像符号化信号のピクチャタイプ毎のS/Nを示した図である。同図中、aは最初に符号化した時の各ピクチャタイプ毎の画像のS/Nを示し、bは、Iの各ピクチャタイプ毎の画像を再符号化した時に、本来Bピクチャである画像をIピクチャとして符号化した場合のS/Nを示す。同図によって、最初にBピクチャとして符号化された画像が、再符号化時にIピクチャとして符号化されると、動画像符号化信号全体のS/Nが大幅に低下する様子が分かる。
これに対し、図12のcは、aの各ピクチャタイプ毎の画像を再符号化する時に、最初に符号化した時の画像のピクチャタイプと同じピクチャタイプで再符号化した時のS/Nを示したものである。図11のbと比較して、aを再符号した時のS/Nの低下が最小限に抑えられていることが分かる。
過去の符号化時のパラメータを複数世代分持ち、この符号化パラメータを伝送することで、効率良く再符号化するストリーム伝送装置が従来知られている(例えば、特許文献1参照)。このストリーム伝送装置は、例えば、PピクチャやBピクチャで再符号化する場合、過去に同じピクチャタイプで符号化した際の符号化パラメータ(履歴情報)がないかを探し、もしあればその時の動きベクトル情報を利用することによって、再符号化時の動きベクトルを省略または簡略化するものであり、トランスコード時の利便性と負荷の軽減を目的とした装置である。
特開2000−232646号公報
しかしながら、上記のストリーム伝送装置は、符号化パラメータ(履歴情報)をストリーム内にユーザーデータとして重畳するため、本来のストリームを伝送するよりもユーザーデータ分だけ伝送量(符号量)が増えてしまうという問題がある。
また、このストリーム伝送装置では、同じ符号化方式(特にMPEG方式)間での変換を想定しているため、異なる符号化方式を用いて再符号化することは想定していないのはもちろん、異なる符号化方式で再符号化した後に、再度最初と同じ符号化方式で符号化することは想定していない。このため、異なる符号化方式間の変換を伴って符号化情報を伝送することはできない。
本発明は、以上の点に鑑みなされたもので、MPEG方式などに代表される、画像間符号化方式を用いて符号化された動画像信号を、DV方式などに代表される画像内符号化方式に変換した後でも、符号量を増やすことなく、画像間符号化方式で符号化されていた時のピクチャタイプ情報を保持することが可能な動画像符号化装置、動画像符号化方法、及び動画像符号化プログラムを提供することを目的とする。
また、上記のような装置、方法、プログラム等を用いて、画像間符号化方式で符号化されていた時のピクチャタイプ情報が保持されている画像内符号化動画像信号を、再度画像間符号化方式に再変換するときに、上記ピクチャタイプ情報を用いて再変換することにより、再変換による動画像の画質劣化を最小限に抑えたることが可能な動画像符号化装置、動画像符号化方法、及び動画像符号化プログラムを提供することを目的とする。
そこで、上記課題を解決するために、本発明は、下記の装置、方法、及びプログラムを提供するものである。
(1)動画像データが第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号手段と、
前記復号動画像データを構成するフレームまたはフィールドである各画像が、前記第1の画像内符号化を用いて符号化された画像を復号した第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された画像を復号した第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を前記各画像毎に生成する生成手段と、
前記復号動画像データを、第2の画像内符号化を用いる第2の符号化方式で符号化して第2のストリームを生成すると共に、符号化した前記復号動画像データの各画像毎に関連付けて前記第2のストリーム中に補助情報領域を生成し、この補助情報領域に前記各画像毎の前記ピクチャタイプ情報を挿入する符号化手段と、
を有することを特徴とする動画像符号化装置。
(2)前記生成手段は、前記ピクチャタイプ情報を、前記第1のストリーム中の各画像毎に関連付けられた付加情報から取得することを特徴とする上記(1)記載の動画像符号化装置。
(3)第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号手段と、
前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得手段と、
前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて前記第1の符号化方式により符号化し、第2のストリームを生成する符号化手段と、
を有することを特徴とする動画像符号化装置。
(4)第1の画像内符号化及び第1の画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号手段と、
前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記第1の画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得手段と、
前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて、第3の画像内符号化及び第2の画像間符号化を用いる、前記第1の符号化方式とは異なる第3の符号化方式により符号化し、第2のストリームを生成する符号化手段と、
を有することを特徴とする動画像符号化装置。
(5)前記符号化手段は、前記復号動画像データを符号化する際に、この復号動画像データの各画像に対して、前記ピクチャタイプ情報が示すピクチャタイプに応じた符号化が行えるか否かを判断し、行えないと判断された画像に対しては、前記第1のピクチャタイプによる符号化を行うことを特徴とする上記(3)または(4)記載の動画像符号化装置。
(6)動画像データが第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
前記復号動画像データを構成するフレームまたはフィールドである各画像が、前記第1の画像内符号化を用いて符号化された画像を復号した第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された画像を復号した第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を前記各画像毎に生成する生成ステップと、
前記復号動画像データを、第2の画像内符号化を用いる第2の符号化方式で符号化して第2のストリームを生成すると共に、符号化した前記復号動画像データの各画像毎に関連付けて前記第2のストリーム中に補助情報領域を生成し、この補助情報領域に前記各画像毎の前記ピクチャタイプ情報を挿入する符号化ステップと、
を含むことを特徴とする動画像符号化方法。
(7)前記生成ステップは、前記ピクチャタイプ情報を、前記第1のストリーム中の各画像毎に関連付けられた付加情報から取得することを特徴とする上記(6)記載の動画像符号化方法。
(8)第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得ステップと、
前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて前記第1の符号化方式により符号化し、第2のストリームを生成する符号化ステップと、
を含むことを特徴とする動画像符号化方法。
(9)第1の画像内符号化及び第1の画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記第1の画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得ステップと、
前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて、第3の画像内符号化及び第2の画像間符号化を用いる、前記第1の符号化方式とは異なる第3の符号化方式により符号化し、第2のストリームを生成する符号化ステップと、
を含むことを特徴とする動画像符号化方法。
(10)前記符号化ステップは、前記復号動画像データを符号化する際に、この復号動画像データの各画像に対して、前記ピクチャタイプ情報が示すピクチャタイプに応じた符号化が行えるか否かを判断し、行えないと判断された画像に対しては、前記第1のピクチャタイプによる符号化を行うことを特徴とする上記(8)または(9)記載の動画像符号化方法。
(11)動画像データが第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
前記復号動画像データを構成するフレームまたはフィールドである各画像が、前記第1の画像内符号化を用いて符号化された画像を復号した第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された画像を復号した第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を前記各画像毎に生成する生成ステップと、
前記復号動画像データを、第2の画像内符号化を用いる第2の符号化方式で符号化して第2のストリームを生成すると共に、符号化した前記復号動画像データの各画像毎に関連付けて前記第2のストリーム中に補助情報領域を生成し、この補助情報領域に前記各画像毎の前記ピクチャタイプ情報を挿入する符号化ステップと、
をコンピュータに実行させることを特徴とする動画像符号化プログラム。
(12)前記生成ステップは、前記ピクチャタイプ情報を、前記第1のストリーム中の各画像毎に関連付けられた付加情報から取得することを特徴とする上記(11)記載の動画像符号化プログラム。
(13)前記復号ステップと前記符号化ステップとの2つのステップにおける一方のステップを第1のコンピュータに実行させ、他方のステップを第2のコンピュータに実行させるか、または、前記復号ステップと前記符号化ステップとをマルチタスク処理により1つのコンピュータに実行させることを特徴とする上記(11)または(12)記載の動画像符号化プログラム。
(14)第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得ステップと、
前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて前記第1の符号化方式により符号化し、第2のストリームを生成する符号化ステップと、
をコンピュータに実行させることを特徴とする動画像符号化プログラム。
(15)第1の画像内符号化及び第1の画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記第1の画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得ステップと、
前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて、第3の画像内符号化及び第2の画像間符号化を用いる、前記第1の符号化方式とは異なる第3の符号化方式により符号化し、第2のストリームを生成する符号化ステップと、
をコンピュータに実行させることを特徴とする動画像符号化プログラム。
(16)前記符号化ステップは、前記復号動画像データを符号化する際に、この復号動画像データの各画像に対して、前記ピクチャタイプ情報が示すピクチャタイプに応じた符号化が行えるか否かを判断し、行えないと判断された画像に対しては、前記第1のピクチャタイプによる符号化を行うことを特徴とする上記(14)または(15)記載の動画像符号化プログラム。
(17)前記復号ステップと前記符号化ステップとの2つのステップにおける一方のステップを第1のコンピュータに実行させ、他方のステップを第2のコンピュータに実行させるか、または、前記復号ステップと前記符号化ステップとをマルチタスク処理により1つのコンピュータに実行させることを特徴とする上記(14)乃至(16)記載の動画像符号化プログラム。
本発明によれば、MPEG方式などに代表される画像間符号化方式を用いて符号化された動画像信号を、DV方式などに代表される画像内符号化方式に変換した後でも、符号量を増やすことなく、画像間符号化方式で符号化されていた時のピクチャタイプ情報を保持することが可能となる。
また、画像間符号化方式で符号化されていた時のピクチャタイプ情報が保持されている画像内符号化動画像信号を、再度画像間符号化方式に再変換するときに、上記ピクチャタイプ情報を用いて再変換することにより、再変換による動画像の画質劣化を最小限に抑えたることが可能となる。
次に、本発明の実施の形態について図面と共に説明する。
[全体構成]
図1は、本発明になる動画像符号化装置の一実施の形態のブロック図である。
本実施の形態の第1の動画像符号化装置は、MPEG−DV符号化装置21であり、第2の動画像符号化装置は、DV−MPEG符号化装置22である。
そして、MPEG−DV符号化装置21は、MPEG復号部11、パック情報生成部12、DV符号化部13、及び記録媒体14へ信号を記録するための記録制御部18を含む。
また、DV−MPEG符号化装置22は、記録媒体14から信号を再生するための再生制御部19、DV復号部15、パック情報抽出部16、及びMPEG符号化部17を含む。
記録媒体14としては、磁気テープ、光ディスク、半導体メモリなどを用いる。
なお、MPEG−DV符号化装置21からDV−MPEG符号化装置22への動画像信号の伝送形態は、上記した記録媒体14を用いたオフラインでの伝送形態だけではなく、お互いの符号化装置にディジタルI/F部20を設け、このお互いのディジタルI/F部20間をケーブルや無線等のディジタルI/Fで接続してオンラインで伝送する形態でも良い。そして、このディジタルI/Fを用いたオンラインの伝送形態は、リアルタイムのストリーム伝送の形態でも、非同期のファイル伝送の形態でもよい。
[MPEG−DV符号化装置]
まず、MPEG−DV符号化装置21の内部構成を説明する。
MPEG復号部11は、MPEG方式で符号化された動画像符号化データ列である第1のMPEGストリームを入力として受け、この入力された第1のMPEGストリームを復号して復号画像データを生成してDV符号化部13に供給するとともに、この第1のMPEGストリーム中に含まれる符号化情報を検出して取得する。
この符号化情報は、前記第1のMPEGストリームの各ピクチャ毎に対応付けられるピクチャヘッダに格納されている。なお、ピクチャヘッダだけではなく、例えばシーケンス層毎に対応付けられているシーケンスヘッダに格納された符号化情報なども参考として取得し利用してもよい。
この符号化情報から、復号した復号画像データの各画像(フレームまたはフィールド)が、I/P/Bいずれのピクチャタイプで符号化されていた画像であるのを示すピクチャタイプ情報を抽出し、パック情報生成部12に供給する。
パック情報生成部12は、各画像に関連付けた補助情報にMPEG復号部11から供給されたピクチャタイプ情報を含めた情報であるパック情報を生成する。
DV符号化部13は、MPEG復号部11から供給された復号画像データを、ディジタルビデオカメラで一般的に用いられる公知のDV方式により各画像毎に画像内符号化するとともに、この画像内符号化した画像データそれぞれの所定領域に、パック情報生成部12から供給されるパック情報をセットしたDVデータを生成する。
記録制御部18は、生成したDVデータを記録媒体14へ記録する。
図2(A)は、記録媒体14が磁気テープであるときの、DVデータの1トラック分のデータ構造を示した図である。
1トラックは、ITI(Insert and Track Information)領域31、オーディオ(Audio)領域32、ビデオ(Video)領域33、サブコード(Subcode)領域34の4つの領域で構成される。
そして、NTSC方式映像信号のDVデータの場合は、1フレーム分のデータは10トラックに跨って記録され、PAL方式映像信号のDVデータの場合は、1フレーム分のデータは12トラックに跨って記録される。
ITI領域31は、主に、DVデータが記録されて、既にトラックが形成されている場合に、そのトラックに新たなDVデータをインサート記録する際のトラッキングに用いられる領域である。インサート記録時は、回転ヘッドは、まずITI領域31に記録されているデータを再生する。そして、図示しないテープ走行制御部が、再生したデータが正常に読み取れるように、トラックと回転ヘッドの相対位置を制御する。次に、このITI領域31に続くオーディオ領域32から、生成したDVデータのうちのオーディオデータ以降のデータの上書き記録を開始する。
なお、記録テープに最初にDVデータを記録する際は、このITI領域31のデータも含めて全てのDVデータが記録される。また、このITI領域31のデータは、記録制御部18へは伝送されない。従って、記録制御部18は、記録媒体14へ信号を記録する際には、自らこのITI領域31のデータを生成して記録テープへ記録する。
なお、記録媒体14は磁気テープに限定するものではなく、ハードディスクや光ディスクなどのディスク媒体や、不揮発性メモリなど、他の記録媒体でも良い。
記録媒体14がディスク媒体の場合は、DVデータは、DIFデータ又はそれに準ずる形式で記録される。従って、ITI領域31は不要となる。
オーディオ領域32には音声信号が記録される。
サブコード領域34には記録時の各種の補助情報が記録される。
ビデオ領域33には動画像信号が記録される。
図2(B)は、DVデータのビデオ領域33の構造を示した図である。
同図で示すように、ビデオ領域33は、データシンクブロックナンバー(Data Sync Block No.)19と20の2シンクブロックに設けられた予備領域(VAUXパック領域)41と、データシンクブロックナンバー12〜155の144シンクブロックに設けられたビデオ記録領域42と、データシンクブロックナンバー156の1シンクブロックに設けられた予備領域(VAUXパック領域)43とからなる。
なお、データシンクブロックは、90バイト固定長のデータ構造であるが、その構造自体は公知であり、また本発明の要旨とは直接の関係はないので、その詳細な説明は省略する。
また、DVデータを、ディジタルI/Fで伝送する場合は、図3に示すように、DIFシーケンス並びで伝送する。
図3(A)はDVデータの1フレームを示す。
図3(B)はDIFシーケンスを示す。DVデータの1フレームが、時系列的に並んだn個のDIFシーケンスによって構成されていることを示している。上記のnは、NTSC方式映像信号のDVデータの場合は10個、PAL方式映像信号のDVデータの場合は12個である。
各DIFシーケンスは図3(C)に示すように、ヘッダセクション、サブコードセクション、VAUXセクション、及びオーディオ・ビデオセクションからなる。また、各DIFシーケンスは図3(D)に示すように、150個のDIFブロックからなり、各DIFブロックは、同図(E)に示すように、3バイトのIDと77バイトのデータとからなる。
図4は、図3(D)の1つのDIFシーケンス中の150個のDIFブロックの中身を詳細に説明する図である。図4中、H0は図3(C)のヘッダセクションに、SC0及びSC1は図3(C)のサブコードセクションに、VA0〜VA2は図3(C)のVAUXセクションに、A0〜A8は図3(C)のオーディオ・ビデオセクション中のオーディオセクションに、V0〜V134は図3(C)のオーディオ・ビデオセクション中のビデオセクションにそれぞれ相当する。
なお、記録媒体14へ記録するDVデータは、図2や図3で示されるすべての情報を記録しても、必要な情報のみを記録しても良く、更には必要に応じて付加情報などを追加しても良い。前述したピクチャタイプ情報をフレームに関連付けたパック情報は、基本的には図2のビデオ領域33に記録するが、オーディオ領域32、及びサブコード領域34の一方又は両方に記録することも可能である。
図5は、記録媒体14の1トラック内の予備領域(VAUXパック領域)41、43の構造を示す図である。
図5(A)、(B)はそれぞれ図2(B)に示した予備領域(VAUXパック領域)41のデータシンクブロックナンバー19、20の2つのシンクブロックにおける構造、図5(C)は図2(B)に示した予備領域(VAUXパック領域)43の1シンクブロックにおける構造を示す。1つのパック情報は5バイトのデータで構成される。従って、図5(A)〜(C)に示すように、1トラック内の予備領域(VAUXパック領域)を、0〜44までの45個のパック領域に分割し、この各パック領域にパック情報をそれぞれ記録することができる。
なお、図5(A)〜(C)の各シンクブロックの先頭の5バイトには、同期情報SYNC2バイトと、識別情報ID0、ID1、IDPとが記録される。また、C1には、77バイトのデータに対して付加される8バイトの誤り訂正符号(リードソロモン符号)が記録される。また、RSV(reserved)は規格上の未使用領域で、通常は16進データ「FF」が記録される。
図6は、NTSC方式における1フレーム分(10トラック)の予備領域内のVAUXパック領域だけを模式的に示した図である。同図において、縦方向に付された0、5、10...40がパックナンバーで、横方向に付された1〜10がトラックナンバーを示す。
各トラックの、パックナンバー0〜44までの45個のパック領域にパック情報を記録することが可能である。この45個のパック領域のうち60〜65の数字が記入されている6個のパック領域がメイン領域であり、それ以外の空白の39個のパック領域がオプショナル領域である。メイン領域は、予め記録するデータの種類が決められているのに対し、オプショナル領域は記録するデータの種類が決められていないので、任意のデータを記録できる。従って、このオプショナル領域に、前述のピクチャタイプ情報を含むパック情報を記録することが可能である。
なお、ピクチャタイプ情報は、ビデオに関する情報であることから、上記したようにビデオ領域33内の予備領域(VAUXパック領域)41、43に、ピクチャタイプ情報を含むパック情報を記録するのが好ましいが、それに限定するものではなく、以下のようにオーディオ領域32やサブコード領域34内のオプショナルパック領域に記録してもよい。
図7は、図2(A)におけるサブコード領域34の構造を示す図である。サブコード領域34には、0〜11までの12個のサブコードパックを記録することができる。1個のサブコードパックは12バイト固定長の1個のシンクブロックを構成している。そしてこの1個のシンクブロックは2バイトの同期情報SYNCと、各1バイトの識別情報ID0、ID1、及びIDPと、5バイトのデータ(DATA)と、2バイトのパリティC1とからなる。同図において、斜線が施されている3、4、5、9、10、11で示したシンクブロックナンバーのデータ領域がメイン領域である。
図8は、NTSC方式における1フレーム分(10トラック)のサブコードの構造を模式的に示す図である。同図において、縦方向に付された0〜11がシンクブロックナンバーで、図7の0〜11に対応し、横方向に付された0〜9がトラックナンバーを示す。
図8において、斜線が施されたアルファベットの大文字の領域がメイン領域であり、この領域へ記録するデータの種類は決まっている。小文字の領域がオプショナル領域であり、この領域へ記録するデータの種類は決まっていない。従って、このオプショナル領域に前記ピクチャタイプ情報を含むパックを記録することが可能である。なお、図8のように、同じ文字が付されている複数の領域に同じパックを複数記録することで、信頼性を高めることができる。
次に、ピクチャタイプ情報を格納するパックの詳細内容について説明する。ピクチャタイプ情報を格納するパックとしては、例えば、VAUXバイナリグループ(VAUX BINARY GROUP)や、メーカーコード(MAKER CODE)のオプションパックを利用する。
図9は、VAUXバイナリグループにピクチャタイプ情報を格納する例を示す図である。同図において、VAUXバイナリグループ内の4ビットを利用して、この4ビットに前記ピクチャタイプ情報(PICT TYPE)を格納する。図9の例では、MPEG方式においてフィールド毎に符号化が行われることも考慮して、フィールド毎にピクチャタイプを規定できるようにする。すなわち、ピクチャタイプ情報を4ビットとし、そのうちの上位2ビットF2を第2フィールドのピクチャタイプ情報に割り当て、下位2ビットF1を第1フィールドのピクチャタイプ情報に割り当てる。なお、フレーム毎に符号化が行われた場合は、第1フィールドと第2フィールドのピクチャタイプは必然的に同一のものとなる。
また、上記の各フィールド2ビットのピクチャタイプ情報は、例えば2進数の値が「01」のときIピクチャ、「10」のときPピクチャ、「11」のときBピクチャであると定義する。更にピクチャタイプがわからない場合も許容するために、「00」のときを"unknown"と定義し、全部で4つの状態を2ビットで表す。
また、DV方式はフレーム毎に符号化を行うので、MPEG方式からDV方式に変換するときに、元のMPEG方式による符号化がフレーム毎に行われていた場合は、元のフレームのパラメータはフレーム毎に一つでよい。しかし、元のMPEG方式による符号化がフィールド毎に行われていた場合は、フレームを構成する各フィールドの情報を一つのフレームの情報として格納する必要がある。そのため、パック内の情報が、元のMPEG方式による符号化がフレーム毎に行われたときの情報なのかフィールド毎に行われたときの情報なのかが識別できるようにした(後述の図10も同様)。図9においては、BINARY GROUP2[3]が0の場合をフレーム毎に符号化が行われたピクチャであるフレームピクチャを示すようにし、1の場合をフィールド毎に符号化が行われたピクチャであるフィールドピクチャを示すようにした。フィールドピクチャの場合は、BINARY GROUP4[3]も1とする。
なお、図9に示すように、VAUXバイナリグループには、フレーム予測とフレームDCTだけが使われていることを示す情報FPFDCT(frame_pred_frame_dct)、順次走査画像のシーケンスであることを示す情報PSEQ(progressive_sequence)、フレームピクチャの場合に最初のフィールドが上位か下位かを示す情報TFF(top_field_first)、2:3プルダウンに使用され、第1フィールドを繰り返して再生することを指示する情報RFF(repeat_first_field)、このピクチャが順次走査画像であるかどうかを示す情報PF(progressive_frame)なども格納する。
図10は、メーカーコード(MAKER CODE)パックに続くオプションパックにピクチャタイプ情報を格納する例を示す図である。メーカーコードパックは、各メーカー独自の機能拡張のために、メーカーの識別コードとともに利用できるパックである。
このメーカーコードパックには、このパックに続いて何個の有効なオプションパックがあるのかを記述する10ビットの領域TDPがあり、これはPC2とPC3の各領域に分割されて配置される。このメーカーコードパックに続くオプションパックは、図10の例では1個なので、本実施の形態では、10ビットの領域TDPの値を"1"(すなわち、TDP[7:0]=1,TDP[9:8]=0)とする。
そして、メーカーコードパックに続くオプションパックに2ビットのピクチャタイプ情報PTYPEを含めるように構成した。元のMPEG方式による符号化がフレーム毎に行われた場合(フレームピクチャの場合)、オプションパックのPC1の領域のみにピクチャタイプ情報PTYPEを記述し、元のMPEG式による符号化がフィールド毎に行われた場合(フィールドピクチャの場合)、PC1に第1フィールド、PC2に第2のフィールドのピクチャタイプ情報PTYPEを記述する。PC1[7]が0のときをフレームピクチャ、PC1[7]が1のときをフィールドピクチャ(このときPC2[7]も1)であるとする。
なお、図10に示すように、オプションパック(OPTION PACK)の内容は、パックの識別コード(PCO)を除いて、前記VAUXバイナリグループを利用した場合と同じである。
なお、前記DVデータをディジタルI/Fで伝送する場合も上記と同様であり、図3(C)のサブコードセクション、VAUXセクション、オーディオ・ビデオセクションのどのオプショナルパック領域で伝送してもよい。
<MPEG−DV符号化装置の処理の流れ>
次に、MPEG−DV符号化装置の内部処理の流れを詳細に説明する。
図13は、図1のMPEG−DV符号化装置21の内部構成をより具体的に説明する図であり、CPU50が、CPUバス57を介して各ブロックを制御するとともに、図1のパック情報生成部12の動作を行う場合の例である。なおCPU50は、DSPで置き換えることも可能である。
また、図14〜17は、このMPEG−DV符号化装置21の動作の流れを説明するフローチャートである。
以下、MPEG−DV符号化装置21の動作を上記した図13と図14〜17のフローチャートとを用いて詳細に説明する。なお、動作における主体は、特に記述がない限りはCPU50である。
<MPEGストリーム書き込み処理の流れ>
入力されるMPEGストリームを装置内のメモリ51に書き込む際の処理の流れを図13と図14のフローチャートとを用いて説明する。
MPEGストリームの書き込み処理を開始する(ステップS101)。
CPU50は、入力されるMPEGストリームの処理単位(例えばTS(トランスポートストリーム)のパケット)毎に、MPEGストリーム書き込み部53に対し、MPEGストリームのメモリ51への書き込み開始位置と1回毎の書き込みサイズなどのパラメータを設定する(ステップS102)。このパラメータの設定は、MPEGストリームの書き込みサイズがいつも同じ場合(例えばTSのパケットの場合)は、書き込み処理の最初に1回設定するだけでよい。一方、1回の書き込み毎に書き込みサイズが異なる場合は、1回の書き込み処理毎に設定する。例えば、処理の進捗状況に応じて、1回に1パケットのみ処理する場合や、数パケット同時に処理する場合など、適切なスケジューリングを行いながら処理する際には、処理するパケット数に応じて書き込みサイズの指定を毎回行う。
次に、CPU50は、MPEGストリーム書き込み部53に書き込み開始を指示する(ステップS103)。
MPEGストリーム書き込み部53は、CPU50から書き込み開始の指示を受けたならば、書き込みを開始し、設定された書き込みサイズ毎に、メモリ51上の設定された書き込み開始位置への書き込み処理を繰り返す(ステップS104、S105)。
そして、ステップS105において、全てのMPEGストリームの書き込みが終了したと判断したならば書き込み処理を終了する(ステップS106)。
<MPEG復号時の処理の流れ>
次に、MPEG復号時の処理の流れを図13と図15のフローチャートとを用いて説明する。
MPEG復号処理を開始する(ステップS201)。
CPU50は、処理単位(例えばTSのパケット単位)毎に、MPEG復号部11に対し、メモリ51に書き込まれたMPEGストリームの読み出し開始位置と処理単位に応じた読み出しサイズなどの初期パラメータを設定する(ステップS202)。
次に、CPU50は、MPEG復号部11に、MPEG復号処理開始を指示する(ステップS203)。
次に、読み出しサイズが毎回異なる場合は、処理単位毎に上記したパラメータを設定する(ステップS204)。なお、読み出しサイズがいつも同じ場合は、ステップS202の初期パラメータを設定するだけでよく、このステップS204は実行しなくても良い。
MPEG復号部11は、CPU50から符号化開始の指示を受けたならば、設定された読み出し開始位置と処理単位に応じて、メモリ51からMPEGストリームを読み出す。そして読み出したMPEGストリーム中のデータの種類を示すIDを検出し、その検出したIDによって、オーディオストリーム、ビデオストリーム、 その他のデータストリームにMPEGストリームを分割し、それぞれのストリーム毎に復号処理を行う(ステップS205〜S207)。あるいは、MPEGストリーム書き込み部53が、メモリ51への書き込み時に、予めオーディオストリーム、ビデオストリーム、 その他のデータストリームに分割して、それぞれに対応するメモリ領域に書き込むようにし、読み出し時は、それぞれに対応するメモリ領域から読み出して復号処理を行うようにしてもよい。
CPU50は、MPEG復号部11に対し、それぞれのストリームのデータの種類に応じて、それぞれ所定処理単位(例えばオーディオストリームに対しては、オーディオフレーム単位、ビデオストリームに対してはフレームまたはフィールド単位、その他のデータストリームに対しては、そのデータサイズ単位)毎に、各ストリームの書き込み開始位置、書き込みサイズなどのパラメータを指定し(ステップS204)、復号処理の開始を指示する(ステップS205)。MPEG復号部11は、各ストリームを処理単位毎に復号し、その復号後の各ストリームをメモリ51の所定のアドレス領域に書き込む処理を行う。必要に応じて、作業用の中間データなどをワークメモリ52に書き込むこともある。
また、ストリーム中に記録されている各種符号化パラメータをメモリ51または、MPEG復号部11内のレジスタに記録する。記録する符号化パラメータには、フレーム毎の、そのフレームまたはフレームを構成するフィールドが、どのピクチャタイプで符号化されていたかというピクチャタイプ情報を含む。
そして、ステップS206では、処理単位の復号処理が終了したか否かを判断する。終了していなかった場合は、ステップS204へ処理を戻し、終了した場合はステップS207へ処理を移行する。
ステップS207では、全ての復号対象ストリームの復号および書き込み処理が終了したか否かを判断する。終了していなかった場合は、ステップS204へ処理を戻し、終了した場合はステップS208へ処理を移行し、MPEG復号処理を終了する。
<DV符号化時の処理の流れ>
次に、DV符号化時の処理の流れを図13と図16のフローチャートとを用いて説明する。
DV符号化処理を開始する(ステップS301)。
CPU50は、DV符号化部13に対し、処理単位毎にメモリ51の所定のメモリ領域に書き込まれている復号後の各ストリームの先頭アドレスなどのパラメータを設定する(ステップS302)。
次に各ストリームの処理単位毎に、メモリ51に書き込まれた各ストリームの符号化処理開始を指示する(ステップS303)。その後、ビデオストリームについてはフレーム単位、オーディオストリームについては、オーディオフレーム単位、その他データストリームについては、フレーム毎に関連付けられた情報単位でパラメータを設定し(ステップS305)、処理単位毎の符号化処理開始を指示する(ステップS305)。
CPU50は、更に、DV符号化部13に対し、ビデオストリームにおける各フレームを符号化させる時、そのフレームに対応する前記符号化パラメータのうち、I/P/Bいずれのピクチャタイプで符号化されていたかを示すピクチャタイプ情報を、前記メモリ51またはMPEG復号部11内のレジスタから読み込み(ステップS306)、VAUX バイナリグループのオプショナルパック形式にパッキングして(ステップS307)、そのフレームに対するVAUXデータ(パック情報)として関連付けてメモリ51に書き込む(ステップS308)。
ここで、関連付けとは、DV方式に符号化したビデオストリームの各フレームと、それに対応するVAUXデータが、同一フレームの情報として処理できるように、メモリ51上のどこに記録してあるかをワークエリアの情報などによってCPU50が参照できるようにすることを意味する。
従って、CPU50は、DV方式に符号化したビデオストリーム、オーディオストリーム、その他データストリームをマルチプレックスして一つのDV符号化ストリーム(DVデータ)とする際に、フレーム毎に各ストリームのデータを順番に読み出すことによって、同一フレームに関連する各データを同一フレーム内のデータとして符号化することができる。
マルチプレックスの処理は、CPU50がそれぞれを所定の順番にメモリから読み出すことによって実現してもよいし、DVデータ出力部54から直接読み出すように構成し、CPU50はそれに対して所定処理単位ごとに、必要なパラメータと開始指示を送るようにしてもよい。
そして、ステップS309では、処理単位毎の符号化処理が終了したか否かを判断する。終了していなかった場合は、ステップS304へ処理を戻し、終了した場合はステップS310へ処理を移行する。
ステップS310では、全ての符号化対象ストリームの符号化処理が終了したか否かを判断する。終了していなかった場合は、ステップS304へ処理を戻し、終了した場合はステップS311へ処理を移行し、DV符号化処理を終了する。
CPU50は、このようにして符号化したDVデータを、DVデータ出力部54を介して記録制御部18を用いて記録媒体14へ記録したり、ディジタルI/F部20によって外部へ伝送したりする。
この場合、DV符号化部13がDVデータを一旦メモリ51に保存し、DVデータ出力部54が、この保存されたDVデータをメモリ51から読み出してもよいし、メモリ51を介さず、DV符号化部13が符号化したDVデータを直接DVデータ出力部54が読み出してもよい。
なお、図17は上記したDVデータの出力に関する処理を説明するフローチャートであるが、この処理は本実施の形態のポイント部分ではないのでフローチャートの提示と以下の簡単な説明のみにとどめ、詳細説明は省略する。
また、以上の説明においては、CPU50が、MPEG復号部11、DV符号化部13等のハードウェアの機能ブロックを制御するように説明したが、それらの機能ブロックの一部または全部を、すべてCPU50のプログラムで実現してもよい。
MPEG復号部11を制御する、またはMPEG復号を直接実現するプログラムと、DV符号化部13を制御する、またはDV符号化を直接実現するプログラムとは、1つのプログラムの形態を構成していてもよいし、個別の2つのプロセスで実現される2つのプログラムとして構成してもよい。
また、MPEG復号とDV符号化の処理を行うのは、単独のCPU50でなくてもよく、それぞれ別のCPUを用いて独立して行ってもよい。
MPEG復号したストリームに対してDV符号化を行うので、DV符号化処理の方がMPEG復号処理より若干処理のタイミングが遅れるものの、概ね、ほぼ同時に行われる。
なお、MPEG復号したストリームと、そのピクチャタイプなどの関連情報を保存しておくための十分な記録領域を確保できる場合は、MPEGストリームに対するMPEG復号処理を全て完了した後に、DV符号化処理を行ってもよい。
[DV−MPEG符号化装置]
次に、DV−MPEG符号化装置22の内部構成を図1に戻って説明する。
DV−MPEG符号化装置22は、DV方式で符号化された動画像符号化信号と、その動画像符号化信号がMPEG方式の動画像符号化信号を変換して得られたものであった場合に、そのMPEG符号化において符号化されていたときにどのピクチャタイプであったかを示すピクチャタイプ情報をフレームに関連付けたパック情報としてセットしたDVデータを、記録媒体14を介して再生制御部19が入力DVデータとして受けるか、または他の装置からディジタルI/Fを介してディジタルI/F部20が入力DVデータとして受ける。
DV復号部15は、その入力DVデータを復号して、復号動画像データとその復号フレームに対応する復号パック情報とを得て、復号動画像データはMPEG符号化部17に供給し、復号パック情報はパック情報抽出部16に供給する。
パック情報抽出部16は、復号パック情報からピクチャタイプ情報を格納したパックを検出して、フィールド毎のピクチャタイプ情報を特定し、そのピクチャタイプ情報をMPEG符号化部17に供給する。
MPEG符号化部17は、DV復号部15から供給される復号動画像データのフレーム又はフィールド毎に、パック情報抽出部16から供給されるピクチャタイプ情報が示すピクチャタイプに従って符号化を行う。
<DV−MPEG符号化装置の処理の流れ>
次に、DV−MPEG符号化装置の内部処理の流れを詳細に説明する。
図18は、図1のDV−MPEG符号化装置22の内部構成をより具体的に説明する図であり、CPU50が、CPUバス57を介して各ブロックを制御するとともに、図1のパック情報抽出部16の動作を行う場合の例である。
また、図19〜22は、このDV−MPEG符号化装置22の動作の流れを説明するフローチャートである。
以下、DV−MPEG符号化装置22の動作を上記した図18と図19〜22のフローチャートとを用いて詳細に説明する。なお、動作における主体は、特に記述がない限りはCPU50である。
<DVデータ書き込み処理の流れ>
入力されるDVデータを装置内のメモリ51に書き込む際の処理の流れを図18と図19のフローチャートとを用いて説明する。
DVデータの書き込み処理を開始する(ステップS501)。
CPU50は、入力されるDVデータの処理単位毎に、DVデータ書き込み部55に対し、DVデータのメモリ51への書き込み開始位置と1回毎の書き込みサイズなどのパラメータを設定する(ステップS502)。
次に、CPU50は、DVデータ書き込み部53に書き込み開始を指示する(ステップS503)。
DVデータ書き込み部55は、CPU50から書き込み開始の指示を受けたならば、書き込みを開始し、ビデオ、オーディオ、システムデータなどの種類、及びその種類毎の所定の処理単位で、メモリ51上の設定された書き込み開始位置への書き込み処理を繰り返す(ステップS504、S505)。
そして、ステップS505において、全てのDVデータの書き込みが終了したと判断したならば書き込み処理を終了する(ステップS506)。
<DV復号時の処理の流れ>
次に、DV復号時の処理の流れを図18と図20のフローチャートを用いて説明する。
DV復号処理を開始する(ステップS601)。
CPU50は、処理単位毎に、DV復号部15に対し、メモリ51に書き込まれたDVデータの読み出し開始位置と処理単位に応じた読み出しサイズなどの初期パラメータを設定する(ステップS602)。
次に、CPU50は、DV復号部15に、符号化開始を指示する(ステップS603)。
次に、読み出しサイズが毎回異なる場合は、処理単位毎に上記したパラメータを設定する(ステップS604)。なお、読み出しサイズがいつも同じ場合は、ステップS602の初期パラメータを設定するだけでよく、このステップS604は実行しなくても良い。
DV復号部15は、CPU50から符号化開始の指示を受けたならば、オーディオストリーム、ビデオストリーム、 システムデータストリームそれぞれについて、設定された読み出し開始位置と所定処理単位に応じて、メモリ51からDVデータを読み出し、それぞれの復号処理を行う(ステップS605〜S611)。
DV復号部15は、復号処理によって復号された、ビデオストリーム、オーディオストリーム、システムデータストリームなどを、種類毎にメモリ51の所定領域に記録する。
このとき、CPU50は、システムデータにピクチャタイプ情報が存在するかどうかを確認し(ステップS606)、存在する場合は、復号されたストリームが過去にMPEG方式などに代表される画面内符号化と画面間符号化の2種類の符号化方法で符号化されたストリームであると判断し、そのピクチャタイプ情報を以降の処理で利用する。
具体的には、CPU50は、DV復号部15が復号してメモリに書き込んだシステムデータ、もしくは、DVデータ書き込み部55がメモリ51に記録したシステムデータそのものを読み出し、フレームの復号処理時に対応するフレームのシステムデータ中のVAUXデータに、ピクチャタイプに関する情報を持つオプショナルパックがあるかどうかを検出し(ステップS606)、ある場合は、アンパッキングしてそのフレームに関するピクチャタイプ情報を取り出し(ステップS607)、メモリ51またはCPU50内の一時記憶領域内のそのフレームに対応する領域に保存する(ステップS608)。
そして、ステップS609では、所定処理単位の復号処理が終了したか否かを判断する。終了していなかった場合は、ステップS604へ処理を戻し、終了した場合はステップS610へ処理を移行する。
ステップS610では、全ての復号対象DVデータの復号処理が終了したか否かを判断する。終了していなかった場合は、ステップS604へ処理を戻し、終了した場合はステップS611へ処理を移行し、DV復号処理を終了する。
<MPEG符号化時の処理の流れ>
次にMPEG符号化時の処理の流れを図18と図21のフローチャートとを用いて説明する。
MPEG符号化処理を開始する(ステップS701)。
CPU50は、MPEG符号化部17に対し、処理単位毎にメモリ51の所定のメモリ領域に書き込まれている復号後の各ストリームの先頭アドレスなどのパラメータを指定する(ステップSS702)。
次に各ストリームの処理単位毎に、メモリ51に書き込まれた各ストリームの符号化開始を指示する(ステップS703)。
CPU50は、更に、ビデオストリームのフレーム毎のピクチャタイプ情報がメモリ51、あるいはCPU内の一時記憶領域内に保存してあるかどうかを確認し、保存してあった場合はステップS705へ処理を移行し、保存していなかった場合はステップS707へ処理をジャンプする(ステップS704)。
ステップS705では、保存してあったピクチャタイプ情報を読み出す。
ステップS706では、その読み出したピクチャタイプ情報をMPEG符号化部17に設定する。
そして、そのフレームまたはフィールドのピクチャタイプが、指示したピクチャタイプ情報のピクチャタイプと一致するように符号化を実行させる(ステップS707)。ピクチャタイプは、フレーム単位の場合も、フィールド単位の場合もありうる。
そして、ステップS708では、処理単位毎の符号化処理が終了したか否かを判断する。終了していなかった場合は、ステップS704へ処理を戻し、終了した場合はステップS709へ処理を移行する。
ステップS709では、全ての符号化対象ストリームの符号化処理が終了したか否かを判断する。終了していなかった場合は、ステップS704へ処理を戻し、終了した場合はステップS710へ処理を移行し、MPEG符号化処理を終了する。
なお、以上の説明においては、CPU50が、DV復号部15、MPEG符号化部17等のハードウェアの機能ブロックを制御するように説明したが、それらの機能ブロックの一部または全部を、すべてCPU50やDSPのプログラムで実現してもよい。
DV復号部15を制御する、またはDV復号を直接実現するプログラムと、MPEG符号化部17を制御する、または、MPEG符号化を直接実現するプログラムとは、1つのプログラムとして構成されていてもよいし、個別の2つのプロセスによるマルチタスク処理で実現される2つのプログラムとして構成されていてもよい。
また、DV復号とMPEG符号化の処理を行うのは、単独のCPU50でなくてもよく、それぞれ別のCPUを用いて独立して行ってもよい。
DV復号したストリームに対してMPEG符号化を行うので、MPEG符号化処理の方がDV復号処理より若干処理のタイミングが遅れるものの、概ね、ほぼ同時に行われる。
なお、DV復号したストリームと、そのピクチャタイプなどの関連情報を保存しておくための十分な記録領域を確保できる場合は、DVデータに対するDV復号処理を全て完了した後に、MPEG符号化処理を行ってもよい。
<まとめ>
このようにして、MPEG符号化部17によりMPEG方式で圧縮符号化して得られた動画像符号化データ列である第2のMPEGストリーム中の各ピクチャは、ピクチャタイプ情報に基づいて符号化された符号化画像であり、MPEG復号部11に入力された第1のMPEGストリーム中の各ピクチャと同じピクチャタイプで符号化されているため、図12と共に説明したように、第2のMPEGストリームの復号画像の画質劣化を最小限に抑えることができる。
また、本実施の形態では、規格上利用可能なパック情報を利用してピクチャタイプ情報を伝送することで、特にそのためにデータ量を増やすことなく、付加情報の伝送を実現している。
なお、本実施の形態では、画像内符号化及び画像間符号化を用いる符号化方式(請求項における第1の符号化方式に対応する)としてMPEG方式、画像内符号化のみを用いる符号化方式(請求項における第2の符号化方式対応する)としてDV方式を例として説明したが、符号化方式はこれらに限らず、画像内符号化及び画像間符号化を用いる符号化方式と画像内符号化のみを用いる符号化方式との組み合わせであれば、どのような符号化方式であっても良い。
そして、本実施の形態では、変換前後のストリームは同一の画像内符号化及び画像間符号化を用いる符号化方式を用いる例で説明しているが、変換前後の画像内符号化及び画像間符号化を用いる符号化方式は同一である必要は無く、Iピクチャ、Pピクチャ、Bピクチャといったピクチャタイプ情報を用いる符号化方式であれば、異なる符号化方式でも良い(請求項における第1の符号化方式と第3の符号化方式に対応する)。例えば、MPEG2方式のストリームをDVストリームに変換した後、H.264方式のストリームに変換するような場合にも適用可能である。
また、本発明の最適な実施の形態は、図12のように元のピクチャタイプと再符号化する際のピクチャタイプを同じにすることであるが、再符号化の都合、例えばハードウェアのリソースが不足していて同じシーケンスが再現できない場合には、処理が複雑となるPピクチャ、Bピクチャの画像をIピクチャの画像として処理するようにしても良い。これにより、処理のリソースが不足するような場合でも、再符号化処理を破錠させることなく、かつ、画質劣化を最小限に抑えることができる。
なお、本発明は、上記した装置の機能をコンピュータに実現させるためのプログラムを含むものである。これらのプログラムは、記録媒体から読みとられてコンピュータに取り込まれてもよいし、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。コンピュータとは、処理装置内のCPUまたはDSP等、プログラムの内容とその時のシステム状態によって、各種処理を順次実行していく装置一般のことを指し、物理的にはLSI内部の1ブロックであることも、独立したLSI、あるいは外部装置である場合もある。
本発明の一実施の形態を説明するブロック図である。 DVデータの記録媒体の1トラック分の記録フォーマットと、ビデオ領域の構造の一例を示す図である。 DVデータの伝送時のDIFシーケンスの構造を示す図である。 DIFシーケンスの構造の一例を示す図である。 記録媒体の1トラック内のVAUXの構造を示す図である。 1フレーム分10トラックの予備領域内のVAUXパック領域の構造の一例を示す図である。 1トラック内のサブコードの構造を示す図である。 1フレーム内のサブコードの構造を示す図である。 VAUXバイナリグループにピクチャタイプ情報を格納する例を示す図である。 メーカーコード(MAKER CODE)に続くオプションパックにピクチャタイプ情報を格納する例を示す図である。 最初のMPEGストリームとピクチャタイプを考慮せずに再符号化したMPEGストリームのピクチャタイプ毎のS/Nの変化を示した図である。 最初のMPEGストリームとピクチャタイプを考慮して再符号化したMPEGストリームのピクチャタイプ毎のS/Nの変化を示した図である。 本発明の一実施の形態の構成を示す第1の詳細ブロック図である。 本発明の一実施の形態の動作を説明する第1のフローチャートである。 本発明の一実施の形態の動作を説明する第2のフローチャートである。 本発明の一実施の形態の動作を説明する第3のフローチャートである。 本発明の一実施の形態の動作を説明する第4のフローチャートである。 本発明の一実施の形態の構成を示す第2の詳細ブロック図である。 本発明の一実施の形態の動作を説明する第5のフローチャートである。 本発明の一実施の形態の動作を説明する第6のフローチャートである。 本発明の一実施の形態の動作を説明する第7のフローチャートである。
符号の説明
11 MPEG復号部
12 パック情報生成部
13 DV符号化部
14 記録媒体
15 DV復号部
16 パック情報抽出部
17 MPEG符号化部
18 記録制御部
19 再生制御部
20 ディジタルI/F部
21 MPEG−DV符号化装置
22 DV−MPEG符号化装置

Claims (17)

  1. 動画像データが第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号手段と、
    前記復号動画像データを構成するフレームまたはフィールドである各画像が、前記第1の画像内符号化を用いて符号化された画像を復号した第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された画像を復号した第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を前記各画像毎に生成する生成手段と、
    前記復号動画像データを、第2の画像内符号化を用いる第2の符号化方式で符号化して第2のストリームを生成すると共に、符号化した前記復号動画像データの各画像毎に関連付けて前記第2のストリーム中に補助情報領域を生成し、この補助情報領域に前記各画像毎の前記ピクチャタイプ情報を挿入する符号化手段と、
    を有することを特徴とする動画像符号化装置。
  2. 前記生成手段は、前記ピクチャタイプ情報を、前記第1のストリーム中の各画像毎に関連付けられた付加情報から取得することを特徴とする請求項1記載の動画像符号化装置。
  3. 第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号手段と、
    前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得手段と、
    前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて前記第1の符号化方式により符号化し、第2のストリームを生成する符号化手段と、
    を有することを特徴とする動画像符号化装置。
  4. 第1の画像内符号化及び第1の画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号手段と、
    前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記第1の画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得手段と、
    前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて、第3の画像内符号化及び第2の画像間符号化を用いる、前記第1の符号化方式とは異なる第3の符号化方式により符号化し、第2のストリームを生成する符号化手段と、
    を有することを特徴とする動画像符号化装置。
  5. 前記符号化手段は、前記復号動画像データを符号化する際に、この復号動画像データの各画像に対して、前記ピクチャタイプ情報が示すピクチャタイプに応じた符号化が行えるか否かを判断し、行えないと判断された画像に対しては、前記第1のピクチャタイプによる符号化を行うことを特徴とする請求項3または4記載の動画像符号化装置。
  6. 動画像データが第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
    前記復号動画像データを構成するフレームまたはフィールドである各画像が、前記第1の画像内符号化を用いて符号化された画像を復号した第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された画像を復号した第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を前記各画像毎に生成する生成ステップと、
    前記復号動画像データを、第2の画像内符号化を用いる第2の符号化方式で符号化して第2のストリームを生成すると共に、符号化した前記復号動画像データの各画像毎に関連付けて前記第2のストリーム中に補助情報領域を生成し、この補助情報領域に前記各画像毎の前記ピクチャタイプ情報を挿入する符号化ステップと、
    を含むことを特徴とする動画像符号化方法。
  7. 前記生成ステップは、前記ピクチャタイプ情報を、前記第1のストリーム中の各画像毎に関連付けられた付加情報から取得することを特徴とする請求項6記載の動画像符号化方法。
  8. 第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
    前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得ステップと、
    前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて前記第1の符号化方式により符号化し、第2のストリームを生成する符号化ステップと、
    を含むことを特徴とする動画像符号化方法。
  9. 第1の画像内符号化及び第1の画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
    前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記第1の画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得ステップと、
    前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて、第3の画像内符号化及び第2の画像間符号化を用いる、前記第1の符号化方式とは異なる第3の符号化方式により符号化し、第2のストリームを生成する符号化ステップと、
    を含むことを特徴とする動画像符号化方法。
  10. 前記符号化ステップは、前記復号動画像データを符号化する際に、この復号動画像データの各画像に対して、前記ピクチャタイプ情報が示すピクチャタイプに応じた符号化が行えるか否かを判断し、行えないと判断された画像に対しては、前記第1のピクチャタイプによる符号化を行うことを特徴とする請求項8または9記載の動画像符号化方法。
  11. 動画像データが第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
    前記復号動画像データを構成するフレームまたはフィールドである各画像が、前記第1の画像内符号化を用いて符号化された画像を復号した第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された画像を復号した第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を前記各画像毎に生成する生成ステップと、
    前記復号動画像データを、第2の画像内符号化を用いる第2の符号化方式で符号化して第2のストリームを生成すると共に、符号化した前記復号動画像データの各画像毎に関連付けて前記第2のストリーム中に補助情報領域を生成し、この補助情報領域に前記各画像毎の前記ピクチャタイプ情報を挿入する符号化ステップと、
    をコンピュータに実行させることを特徴とする動画像符号化プログラム。
  12. 前記生成ステップは、前記ピクチャタイプ情報を、前記第1のストリーム中の各画像毎に関連付けられた付加情報から取得することを特徴とする請求項11記載の動画像符号化プログラム。
  13. 前記復号ステップと前記符号化ステップとの2つのステップにおける一方のステップを第1のコンピュータに実行させ、他方のステップを第2のコンピュータに実行させるか、または、前記復号ステップと前記符号化ステップとをマルチタスク処理により1つのコンピュータに実行させることを特徴とする請求項11または12記載の動画像符号化プログラム。
  14. 第1の画像内符号化及び画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
    前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得ステップと、
    前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて前記第1の符号化方式により符号化し、第2のストリームを生成する符号化ステップと、
    をコンピュータに実行させることを特徴とする動画像符号化プログラム。
  15. 第1の画像内符号化及び第1の画像間符号化を用いる第1の符号化方式で符号化された動画像データが復号された後に、第2の画像内符号化を用いる第2の符号化方式を用いて符号化されたストリームである第1のストリームを復号して復号動画像データを生成する復号ステップと、
    前記復号動画像データを構成するフレームまたはフィールドである各画像毎に関連付けられて前記第1のストリーム中に存在する補助情報領域に予め挿入されている情報である、前記各画像が前記第1の符号化方式における前記第1の画像内符号化を用いて符号化された第1のピクチャタイプの画像であるのか、前記第1の画像間符号化を用いて符号化された第2のピクチャタイプの画像であるのかを示すピクチャタイプ情報を取得する取得ステップと、
    前記復号動画像データを、前記ピクチャタイプ情報が示すピクチャタイプに応じて、第3の画像内符号化及び第2の画像間符号化を用いる、前記第1の符号化方式とは異なる第3の符号化方式により符号化し、第2のストリームを生成する符号化ステップと、
    をコンピュータに実行させることを特徴とする動画像符号化プログラム。
  16. 前記符号化ステップは、前記復号動画像データを符号化する際に、この復号動画像データの各画像に対して、前記ピクチャタイプ情報が示すピクチャタイプに応じた符号化が行えるか否かを判断し、行えないと判断された画像に対しては、前記第1のピクチャタイプによる符号化を行うことを特徴とする請求項14または15記載の動画像符号化プログラム。
  17. 前記復号ステップと前記符号化ステップとの2つのステップにおける一方のステップを第1のコンピュータに実行させ、他方のステップを第2のコンピュータに実行させるか、または、前記復号ステップと前記符号化ステップとをマルチタスク処理により1つのコンピュータに実行させることを特徴とする請求項14乃至16のいずれか1項に記載の動画像符号化プログラム。
JP2007171971A 2006-09-25 2007-06-29 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム Pending JP2008109624A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007171971A JP2008109624A (ja) 2006-09-25 2007-06-29 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
KR20070076894A KR100927180B1 (ko) 2006-09-25 2007-07-31 동화상 부호화 장치 및 동화상 부호화 방법
US11/903,691 US20080260026A1 (en) 2006-09-25 2007-09-24 Moving-picture coding apparatus, method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006258235 2006-09-25
JP2007171971A JP2008109624A (ja) 2006-09-25 2007-06-29 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム

Publications (1)

Publication Number Publication Date
JP2008109624A true JP2008109624A (ja) 2008-05-08

Family

ID=39414845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007171971A Pending JP2008109624A (ja) 2006-09-25 2007-06-29 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム

Country Status (3)

Country Link
US (1) US20080260026A1 (ja)
JP (1) JP2008109624A (ja)
KR (1) KR100927180B1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120047535A1 (en) * 2009-12-31 2012-02-23 Broadcom Corporation Streaming transcoder with adaptive upstream & downstream transcode coordination
US9353269B2 (en) 2013-03-15 2016-05-31 American Sterilizer Company Reactive surface coating having chemical decontamination and biocidal properties
JP6508206B2 (ja) * 2014-07-01 2019-05-08 ソニー株式会社 情報処理装置および方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218156A (ja) * 2000-01-31 2001-08-10 Matsushita Electric Ind Co Ltd 画像記録再生装置
JP2001257597A (ja) * 2000-03-13 2001-09-21 Matsushita Electric Ind Co Ltd データ受信装置およびデータ送信装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5715009A (en) * 1994-03-29 1998-02-03 Sony Corporation Picture signal transmitting method and apparatus
JP3676525B2 (ja) * 1996-10-30 2005-07-27 日本ビクター株式会社 動画像符号化復号化装置及びその方法
JPH11275580A (ja) * 1998-03-24 1999-10-08 Sony Corp 画像データ処理装置、画像データ復号装置及び画像データ符号化装置並びにそれらの方法
GB0116119D0 (en) * 2001-06-30 2001-08-22 Koninkl Philips Electronics Nv Transcoding of video data streams
KR101147744B1 (ko) * 2005-02-22 2012-05-25 엘지전자 주식회사 비디오 트랜스 코딩 방법 및 장치와 이를 이용한 pvr

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218156A (ja) * 2000-01-31 2001-08-10 Matsushita Electric Ind Co Ltd 画像記録再生装置
JP2001257597A (ja) * 2000-03-13 2001-09-21 Matsushita Electric Ind Co Ltd データ受信装置およびデータ送信装置

Also Published As

Publication number Publication date
KR20080028267A (ko) 2008-03-31
KR100927180B1 (ko) 2009-11-18
US20080260026A1 (en) 2008-10-23

Similar Documents

Publication Publication Date Title
EP0590974B1 (en) Coded video data editing apparatus and edited coded video data decoding apparatus
KR100276205B1 (ko) 기록/재생장치
EP1628306B1 (en) Video signal editing apparatus
EP1326441A2 (en) Method and apparatus for generating information signal to be recorded
JPH0879700A (ja) ディジタルビデオ信号の記録装置、記録再生装置及び再生装置
EP0869679A2 (en) Encoding, decoding and editing
KR100927180B1 (ko) 동화상 부호화 장치 및 동화상 부호화 방법
JP3918332B2 (ja) 多重化装置、多重化方法及び記録媒体
EP1422945A1 (en) Image data recording with after-recording on the recording medium
JP4736918B2 (ja) デジタル再生装置または再生プログラム
JP2007174207A (ja) 動画像処理装置
JP2005198350A (ja) アフレコ信号再生方法
JP4867872B2 (ja) 画像処理装置、この画像処理装置の制御方法、及び、プログラム
JP4614895B2 (ja) トランスコーダ及びトランスコード方法
JP3897783B2 (ja) 画像処理装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
US20070030897A1 (en) Encoding apparatus and method, recording apparatus and method, and decoding apparatus and method
JP2004242172A (ja) 再生装置
JP2001268513A (ja) 動画像再生装置および動画像記録再生システム
JP4373481B2 (ja) 動画像再生装置
JP2006014179A (ja) データ伝送装置及びデータ伝送方法
JP2006129338A (ja) 映像記録再生装置及び記録媒体
KR20030022898A (ko) 화상 기록 장치 및 방법
JP2006345098A (ja) 受信装置及びその制御方法、コンピュータプログラム及び記憶媒体
JP2000188736A (ja) 記録装置及び方法、再生装置及び方法並びに記録媒体
JP2007026619A (ja) 再生装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111122