JP4721028B2 - Moving image distribution system, moving image distribution method and program thereof - Google Patents

Moving image distribution system, moving image distribution method and program thereof Download PDF

Info

Publication number
JP4721028B2
JP4721028B2 JP2001152266A JP2001152266A JP4721028B2 JP 4721028 B2 JP4721028 B2 JP 4721028B2 JP 2001152266 A JP2001152266 A JP 2001152266A JP 2001152266 A JP2001152266 A JP 2001152266A JP 4721028 B2 JP4721028 B2 JP 4721028B2
Authority
JP
Japan
Prior art keywords
frame
moving image
intra
key
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001152266A
Other languages
Japanese (ja)
Other versions
JP2002344932A (en
Inventor
稔浩 佐藤
真人 松本
博仁 真瀬
秀和 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2001152266A priority Critical patent/JP4721028B2/en
Publication of JP2002344932A publication Critical patent/JP2002344932A/en
Application granted granted Critical
Publication of JP4721028B2 publication Critical patent/JP4721028B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、圧縮符号化された動画像を送信局から複数の受信局へ配信する動画像配信システム及びそれに関連する技術に関する。
【0002】
【従来の技術】
一般に、動画像を遠隔地に送信することが行われている。例えば、図10の如く、監視対象に向けて撮像カメラ1を設置しておき、この撮像カメラ1で撮像された監視映像(動画像)を、サーバ2からネットワーク3を通じて遠隔地のクライアント4a,4b…に送信し、このクライアント4a,4b…でモニタ表示を行って監視映像を監視し、また当該監視映像を必要に応じて記録する。
【0003】
ところで、ネットワーク3を通じて動画像を送信する場合、通信速度やクライアント4a,4b…での記録時のデータ容量を考慮すると、動画像を圧縮符号化してデータサイズを低減することが望ましい。即ち、図10及び図11の如く、例えば撮像カメラ1で撮像した動画像を符号化器6で圧縮符号化し、サーバ2からネットワーク3を通じて遠隔地の各クライアント4a,4b…に送信する。クライアント4a,4b…側では、サーバ2から与えられた圧縮符号化された動画像をクライアント機4を通じて受信した後、復号器7で動画像を復号し、モニタ装置5に表示する。
【0004】
このような監視映像等の動画像を圧縮符号化する方法としては、DCT(Discrete Cosine Transform;離散コサイン変換)と動き補償予測符号化を組み合わせた方法(第1従来技術)が一般的であり、この方法はMPEG(Moving Picture Experts Group)方式等でも採用されている。通常、DCTは空間方向の冗長性を低下させるべくフレーム(静止画像)内の情報だけで符号化するフレーム内(イントラ)符号化に適用される。また動き補償予測符号化(フレーム間(インター)符号化)は時間方向の冗長性を低下させるべく、符号化対象フレームを他の時刻のフレームから予測し、その符号化対象フレームと予測したフレームとの差分信号に対してDCTや量子化などを施すものである。この場合、差分を小さく抑えるため、符号化対象フレームは時間的に隣接するフレームから予測されることが多い。このようなフレーム内符号化や動き補償予測符号化(フレーム間符号化)の処理は、フレームを複数分割したブロックを基本処理単位として行われる。
【0005】
図12を参照しつつ従来の差分符号化方式の概略を説明する。撮像カメラ1から順次出力される複数のフレームf1,f2,…は、符号化器6(図10及び図11)に順次入力される。このように、符号化器6に各フレームfn(n=1,2,…)が入力されると(ST100)、ステップST101で当該入力フレームfnがキーフレームか否かが条件判定される。フレームfnがキーフレームである場合、ステップST102でフレーム内符号化処理が実行される。即ち、当該フレームfnをブロックに分割して各ブロック毎にDCTを施し、その変換係数が算出される。次いで、その変換係数を量子化した量子化係数が出力される。次にステップST103で、その量子化係数を可変長符号化(エントロピ符号化)した符号化データが生成され、ビットストリームにされて出力される。また、上述のステップST102で算出された量子化係数が、ステップST104で復号化(逆量子化および逆DCT)を施された後にキーフレームメモリ100に記憶される。
【0006】
次に、ステップST100で次のフレームfm(m=n+1)が入力されると、ステップST101でフレームfmがキーフレームか否かが条件判定される。フレームfmがキーフレームで無い場合はステップST105に処理が移行し、キーフレームメモリ100に記憶したキーフレームfnとフレームfmとの間でブロック単位で画素値の差分値が算出される。次いで、ステップST106で、その差分値が所定範囲内か否かが判定される。その差分値が所定範囲内にある場合は、ステップST107でフレーム間(インター)符号化、即ちキーフレームと入力フレームfmとの間の差分信号に対してDCTおよび量子化が施される。他方、その差分値が所定範囲を超える場合は、ステップST108でフレーム内符号化が実行される。このようにステップST107,ST108で算出した量子化係数は、ステップST103で可変長符号化されビットストリームに変換後に、サーバ2を通じてネットワーク3へ出力される。
【0007】
このようなビットストリームの復号化処理の例を図13を参照しつつ以下に説明する。上記したビットストリームがネットワーク3を通じてクライアント4a,4b…側に入力されると(ST110)、復号器7において、このビットストリームから圧縮符号化信号が取り出され、可変長復号化されて上記量子化係数が得られる。続くステップST111において、その量子化係数が上記圧縮符号化処理のステップST102でフレーム内符号化されていた場合、その復号化(フレーム内復号化)を施して所定のキーフレームメモリ101に蓄積する。そしてステップST108において、その量子化係数がフレーム内符号化されていた場合は、その復号化が施される。他方、その量子化係数が上記ステップST107でフレーム間符号化されていた場合は、キーフレームメモリ101に蓄積したキーフレームを参照してその復号化(フレーム間復号化)を施される。そして、このようにフレーム内またはフレーム間復号化された復号化画像が、モニタ装置5に表示される(ST112)。
【0008】
このようなMPEG方式に代表される動画像の圧縮符号化方式では、フレーム間の差分情報の圧縮をとることで高い圧縮効率を得ることができる。
【0009】
この他、MotionJPEG方式のように、静止画像の圧縮方式(フレーム内符号化方式)を採用し、かかる静止画像を時系列的に切り替えて表示することで、見かけ上、動画像のように再生する方式(第2従来技術)もある。
【0010】
【発明が解決しようとする課題】
ところで、例えば上記した第1従来技術に係る差分符号化方式では、圧縮符号化された動画像(映像データ)は、多くのフレーム(キーフレーム以外の各フレーム)が時系列的な差分情報を含んだフレームにより成り立っているため、各フレームの連続による一続きのデータとなっている。
【0011】
ここで、このような時系列差分(フレーム間符号化)を含む映像データをPピクチャと呼ぶ一方、時系列差分を含まずにフレーム内の近接した画像同士で差分(フレーム内符号化)をとった映像データをIピクチャと呼ぶことにする。
【0012】
第1従来技術の場合、Pピクチャの挿入枚数は一般に固定となっている。このような圧縮符号化方式の場合、例えば図14のように、タイミングT1の時点で一のクライアント4aに映像データの送信が開始されると、まずフレーム内符号化されたIピクチャ8aをサーバ2からクライアント4aに送信した後、このIピクチャ8aを起点として次々と時系列差分(フレーム間符号化)を取ったPピクチャ9aを送信し、一定フレーム分のPピクチャ9aを送信した後に、次の周期のIピクチャ8b及びPピクチャ9bを送信していくことになる。
【0013】
ところで、例えばタイミングT2の時点で、他のクライアント4bから新規配信の要求があったとする。このタイミングT2の時点では、サーバ2はネットワーク3に対してPピクチャ9aを送信している最中である。ところで、このPピクチャ9aは、前提となるIピクチャ8aを起点として、このIピクチャ8aを起点として次々と連鎖的に時系列差分(フレーム間符号化)を取ってできたフレームであるため、Iピクチャ8aを入手しない限り、Pピクチャ9aのみから動画像を復号化することは不可能である。しかしながら、最初のIピクチャ8aは、既にネットワーク3への排出が終了してしまっているため、クライアント4b側で最初のIピクチャ8aを入手することはできない。したがって、クライアント4bは、次のIピクチャ8bがサーバ2から与えられるまでは、映像データを復号化することができなくなる。
【0014】
ただし、このような問題は、例えばフレームレートが30fps程度のMPEG2等の映像配信において、Iピクチャが例えば1秒毎に出現するような場合は、仮に一のクライアント4aにPピクチャの送信しているときに他のクライアント4bから新規配信の要求があっても、少なくとも一秒以内にクライアント4bに対してIピクチャを送信することが可能であるため、その他のクライアント4bで滞り無く映像データを復号化することができる。
【0015】
しかしながら、例えばセキュリティ目的での監視映像をサーバ2内で記録する場合、例えば30fps未満でコマ落としして録画することが行われることがあり、例えば実時間として30秒に1回のタイミングでIピクチャが出現するような記録を行うこともある。このようなIピクチャの出現周期の長い動画像を複数のクライアント4a,4bに配信する場合において、例えば、一のクライアント4aにPピクチャの送信しているときに他のクライアント4bから新規配信の要求があった際、最大で30秒近くIピクチャを送信できない場合があり得ることになる。このため、他のクライアント4bにおいて動画像の復号化を待機する時間が多大となってしまう。即ち、コマ落としした動画像のように、Iピクチャの出現周期の長い動画像圧縮符号化方式を適用した場合には、新規配信の要求をしたクライアント4bにとって、待ち時間が無視できない問題となる。
【0016】
一方、第2従来技術においては、全てのフレームがフレーム内符号化されているため、任意のタイミングで配信要求をした全てのクライアント4a,4bに、そのときの個々のタイミングで、フレーム内符号化された映像データを配信することができる。しかしながら、この第2従来技術では、データ量が多大となってしまうため、フレームレートが低下するという欠点がある。
【0017】
このような問題に鑑みてこの発明が解決しようとするところは、動画像を高い圧縮率で効率よく配信しつつ、映像データの配信途中で新規配信の要求があったときに待ち時間の少ない動画像配信システム及びそれに関連する技術を提供する点にある。
【0018】
【課題を解決するための手段】
上記課題を解決すべく、請求項1に記載の発明は、動画像を圧縮符号化して配信する送信局と、前記送信局で圧縮符号化されてネットワークを通じて配信された前記動画像のデータを受信する複数の受信局とを備え、前記送信局が、前記動画像の1フレームの内部の情報を用いたフレーム内符号化によって生成されたフレーム内符号化データと、異なるフレーム間の差分情報を用いたフレーム間符号化によって生成されたフレーム間符号化データとをフレーム単位で時間軸に沿って混在させながら前記動画像を圧縮符号化する符号化手段と、前記符号化手段で圧縮符号化された前記フレーム内符号化データ及び前記フレーム間符号化データを時間軸に沿って前記ネットワークに送出するデータ送出手段とを備え、前記送信局の前記符号化手段、いずれかの前記受信局から新規配信の要求がある度に前記フレーム内符号化データを生成し、当該フレーム内符号化データを前記データ送出手段及び前記ネットワークを通じて受信局に配信し、前記送信局の符号化手段は、前記動画像の複数のフレームの中から一定の周期毎にキーフレームを指定し、前記送信局の符号化手段は、前記キーフレーム以外の複数の他のフレームそれぞれにおいて、フレームを複数のブロック領域に分割して、当該複数のブロック領域の中から特定領域を指定し、前記キーフレームの指定周期に含まれる複数の前記他のフレームそれぞれの特定領域の位置は、互いに異なり、前記送信局の符号化手段は、前記指定周期に含まれる複数の前記他のフレームそれぞれの特定領域を合成して生成されるフレーム1枚分の参照フレームと、キーフレームとの間の第2の差分が所定より大きい場合に当該キーフレームに対してフレーム内符号化を施す一方、前記第2の差分が所定より小さい場合に当該キーフレームに対して前記参照フレームを参照したフレーム間符号化を施すものである。
【0019】
請求項2に記載の発明は、請求項1に記載の動画像配信システムであって、前記送信局の符号化手段は、前記特定領域を除くブロック領域とキーフレームとの間の第1の差分が所定より大きい場合に当該ブロック領域に対してフレーム内符号化を施す一方、前記第1の差分が所定より小さい場合に当該ブロック領域に対して当該キーフレームを参照したフレーム間符号化を施すとともに、前記特定領域に対してはフレーム内符号化を施すものである。
【0020】
請求項3に記載の発明は、請求項1または請求項2に記載の動画像配信システムであって、前記送信局が、所定の撮像対象を撮像する撮像カメラを有し、前記受信局が、前記撮像カメラで撮像された動画像を表示または記録するものである。
【0021】
請求項4に記載の発明は、送信局において動画像を圧縮符号化し、この圧縮符号化された動画像をネットワークを通じて複数の受信局に配信する動画像配信方法であって、a)前記送信局において、前記動画像の1フレームの内部の情報を用いたフレーム内符号化によって生成されたフレーム内符号化データと、異なるフレーム間の差分情報を用いたフレーム間符号化によって生成されたフレーム間符号化データとをフレーム単位で時間軸に沿って混在させながら前記動画像を圧縮符号化する工程と、b)前記送信局において、前記フレーム内符号化データ及び前記フレーム間符号化データを時間軸に沿って前記ネットワークに送出する工程とを備え、前記a)工程は、a−1)いずれかの前記受信局から新規配信の要求がある度に前記フレーム内符号化データを生成する工程と、a−2)前記動画像の複数のフレームの中から一定の周期毎にキーフレームを指定し、且つ前記キーフレーム以外の複数の他のフレームそれぞれにおいて、フレームを複数のブロック領域に分割して、当該複数のブロック領域の中から特定領域を指定する工程とを有し、前記キーフレームの指定周期に含まれる複数の前記他のフレームそれぞれの特定領域の位置は、互いに異なり、前記a)工程では、前記指定周期に含まれる複数の前記他のフレームそれぞれの特定領域を合成して生成されるフレーム1枚分の参照フレームと、キーフレームとの間の第2の差分が所定より大きい場合は、当該キーフレームに対してフレーム内符号化が施され、前記第2の差分が所定より小さい場合は、当該キーフレームに対して前記参照フレームを参照したフレーム間符号化が施されるものである。
【0023】
請求項5に記載の発明は、請求項4に記載の動画像配信方法をコンピュータ上で実現するために、前記各工程をコンピュータに実行させるものである。
請求項6に記載の発明は、動画像を圧縮符号化して配信する送信局と、前記送信局で圧縮符号化されてネットワークを通じて配信された前記動画像のデータを受信する受信局とを備え、前記送信局、前記動画像の1フレームの内部の情報を用いたフレーム内符号化によって生成されたフレーム内符号化データと、異なるフレーム間の差分情報を用いたフレーム間符号化によって生成されたフレーム間符号化データとをフレーム単位で時間軸に沿って混在させながら前記動画像を圧縮符号化する符号化手段と、前記符号化手段で圧縮符号化された前記フレーム内符号化データ及び前記フレーム間符号化データを時間軸に沿って前記ネットワークに送出するデータ送出手段とを有し、前記送信局の符号化手段は、前記動画像の複数のフレームの中から一定の周期毎にキーフレームを指定し、前記送信局の符号化手段は、前記キーフレーム以外の複数の他のフレームそれぞれにおいて、フレームを複数のブロック領域に分割して、当該複数のブロック領域の中から特定領域を指定し、前記キーフレームの指定周期に含まれる複数の前記他のフレームそれぞれの特定領域の位置は、互いに異なり、前記送信局の符号化手段は、前記指定周期に含まれる複数の前記他のフレームそれぞれの特定領域を合成して生成されるフレーム1枚分の参照フレームと、キーフレームとの間の第2の差分が所定より大きい場合に当該キーフレームに対してフレーム内符号化を施す一方、前記第2の差分が所定より小さい場合に当該キーフレームに対して前記参照フレームを参照したフレーム間符号化を施すものである。
【0024】
【発明の実施の形態】
<動画像配信システムの基本的概念>
まず、この発明の一の実施の形態に使用する動画像配信システムの基本的概念について説明する。この動画像配信システムは、図10及び図11に示した従来例と同様に、例えば撮像カメラ1で撮像した監視映像等の動画像を符号化器6で圧縮符号化し、この動画像(圧縮フレームデータ)を、送信局としてのサーバ2からネットワーク3を通じて遠隔地の受信局としての複数のクライアント4a,4b(クライアント機4)にストリーミング配信する。クライアント4a,4b側では、サーバ2から与えられた圧縮符号化された動画像(圧縮フレームデータ)を復号器7で復号し、モニタ装置5に表示する。
【0025】
ここで、符号化器6は、既存のMPEG方式(図12及び図13参照)やMPEG2方式等の既存の方法、あるいは、例えば本出願人が提案している特願平2000−368510のような動画像の圧縮符号化方法(以下「SRVC方式」と称す:後述参照)を利用して、動画像を圧縮符号化する。
【0026】
そして、符号化器6は、図1の如く、フレーム内符号化のみで生成されたフレーム内符号化データとしてのIピクチャ11aを先頭フレームとし、当該Iピクチャ11aに後続する複数のフレームが、このIピクチャ11aを起点として次々と連鎖的に得られる時系列差分(フレーム間符号化)の情報を含むフレーム間符号化データとしての複数のPピクチャ12aとなるように、動画像を圧縮符号化する。例えばMPEG方式またはMPEG2方式の場合、ひとつのIピクチャ11aに後続するPピクチャのフレーム数(例えば29フレーム)を原則的に固定とし、この1フレームのIピクチャ11aと29フレームのPピクチャ12aをもって一定の周期とする。
【0027】
そして、特に符号化器6は、各クライアント4a,4bから動画像の配信要求がそれぞれあったときに、原則的な配信タイミングとしてPピクチャを送信すべきときであっても、その配信要求のあった時点Th1,Th2,Th3の直後に、独立してフレーム内符号化されたIピクチャ11b,11c,11dを強制的に出現させるようにし、そのIピクチャ11b,11c,11dを先頭フレームとして時系列差分(フレーム間符号化)によりPピクチャ12b,12c,12dを後続させるように圧縮符号化する。
【0028】
尚、サーバ2及びクライアント機4は、RAM、ROM、ハードディスクドライブ等の所定のデータ記録装置及び中央演算処理装置(CPU)を備えたコンピュータ機器が利用され、中央演算処理装置により、データ記録装置に格納された圧縮画像データを管理し、また動画像の配信に応じた再生を行うための圧縮画像データの処理順序を決定する。この中央演算処理装置の動作手順は、データ記録装置内に予め格納されたソフトウェアプログラムにおいて規律され、このソフトウェアプログラムに従って実行される。
【0029】
<圧縮符号化方法>
以下、この実施の形態を、SRVC方式の圧縮符号化方法に適用した例について説明する。図2は、SRVC方式の圧縮符号化方法を説明するための模式図、図3は、この圧縮符号化方法を実現するためのフローチャートである。
【0030】
このSRVC方式の圧縮符号化方法は、符号化機(符号化手段)6(図13参照)において、直前のフレームを基準として差分をとるMPEG方式とは異なり、図2のように、基準フレームを固定して圧縮するものであり、これにより、再生時の間引きや逆の時間方向への再生を比較的に容易に行っている。
【0031】
この圧縮符号化方法では、図2の如く、例えば、CCD(電荷結合素子)センサやCMOSセンサなどの撮像カメラ1(図13参照)で時間軸に沿って順次撮像した複数の静止画像(フレーム)f1,f2,f3,f4,…が符号化器6(図13参照)に入力される(図3中のステップST1)。
【0032】
尚、図3中のキーブロックメモリ21Aには、フレームf1が入力される前に、所定の特定領域(キーGOB)をそのまま繋ぎ合わせて構成される参照フレームf0(図示省略)が格納される。この参照フレームf0は、復号器(復号化手段)7のキーブロックメモリ21B(図8参照)に圧縮伝送された後、復号化されて格納されることになる。ただし、圧縮符号化を開始した時点の最初のフレームについては、この最初のフレームに先駆けたキーGOBが存在していないため、参照フレームが存在しないこととなる。
【0033】
次のステップST1aにおいて、符号化器6は、いずれかのクライアント4a,4b(図12参照)から、新規配信の要求があったか否かを判断する。
【0034】
そして、新規配信の要求があった場合は、ステップST1bに進み、Iピクチャ11b,11c,11dを送信する必要があるため、入力された入力フレームに対してフレーム内符号化を行った後、ステップST19でビットストリームデータとしてサーバ2に出力される。このときのフレーム内符号化の処理は、具体的にはフレームf1の画素値に対してDCTなどの直交変換を施し、その変換係数を量子化した量子化係数が算出される。かかる処理手順により、各クライアント4a,4bから新規配信の要求がある度に、符号化器6は改めてIピクチャ11b,11c,11dを生成してサーバ2を通じてクライアント4a,4bに出力することになる。尚、ここでクライアント4a,4bに配信されたIピクチャ11b,11c,11dは、符号化器6及び各クライアント4a,4b側の復号器7においてキーフレームとみなして処理される。即ち、図3中のステップST8に進み、局部復号化(逆量子化および逆DCTなどの逆直交変換)がなされ、図3に示したキーフレームメモリ20Aに格納される。よって、キーフレームメモリ20Aにはフレーム内符号化(ST1b)と局部復号化(ST8)を通じて、量子化誤差を含んで変化したキーフレームが格納される。これにより、そのキーフレームの画像は、後述する復号器7で復号化(フレーム間復号化)される際に参照されるキーフレームの画像と同一となり、復号化する動画像の画質を劣化させることが無くなる。以上で、途中で各クライアント4a,4bからの新規配信の要求があった場合のIピクチャ11b,11c,11d(キーフレーム)の圧縮符号化処理が終了する。
【0035】
一方、ステップST1aにおいて、各クライアント4a,4bからの新規配信の要求がない場合には、符号化器6は、途中で各クライアント4a,4bからの新規配信の要求のない限り、入力フレームf1,f2,f3,f4,…の中から周期的にキーフレームを指定するようになっている。図2においては、入力フレームf1(図1中のIピクチャ11aに相当)がキーフレームとなっている。
【0036】
そして、図3中のステップST2において、その入力フレームf1がキーフレームか否かを条件判定する。図2においては、フレームf1は上述のようにキーフレームであるから、そのままステップST3に処理が移行し、フレーム内(イントラ)/フレーム間(インター)符号化処理を実行する。
【0037】
このステップST3の処理手順を図4に示している。図4に示すように、ステップST4でキーブロックメモリ21Aに格納した参照フレームf0(図示省略)と入力フレームf1(キーフレーム)との間の画素値の差分値と、その差分値の絶対値和(差分絶対値和)Sとが算出される。ただし、入力フレームf1が、圧縮符号化を開始した時点の最初のフレームである場合には、上述のように参照フレームが存在していないため、画像として全ての画素がゼロであるデータを参照フレームのデータとして、差分値の絶対値和(差分絶対値和)Sを算出する。
【0038】
次いで、図4中のステップST5で、差分絶対値和が所定の閾値以下か否かが条件判定される。例えば、その差分値をΔPi(i:各画素に対応する番号)で表現する時、差分絶対値和Sは、S=|ΔP1|+|ΔP2|+…+|ΔPn|(n:画素数)で表現される。差分絶対値和Sが閾値以下の場合は、両フレームf0,f1間の時間的な変化が小さいとして、入力フレームf1はフレームf0を用いたフレーム間符号化を施される(ステップST6)。具体的には入力フレームf1とフレームf0との間の差分信号に対してDCT(離散コサイン変換)などの直交変換を施し、その変換係数を量子化した量子化係数が算出される。また、このようなフレーム間符号化処理は8×8画素や6×6画素などのサイズをもつ小ブロック(マクロブロック)単位で実行される。これ以後の処理も同様である。尚、この実施の形態では変換方式としてDCTなどの直交変換を採用するが、DCTの代わりにDWT(離散ウェーブレット変換)を採用してもよい。この場合、フレーム間符号化処理は上記小ブロック単位で行う代わりに、実行メモリ容量などを考慮してフレーム単位、もしくはフレームをタイルと称する複数の領域に分割し各タイル単位で実行されてもよい。
【0039】
他方、図4中のステップST5において、上記ステップST4で算出した差分絶対値和Sが所定の閾値を超える場合は、ステップST7に処理が移行する。例えば、入力フレームf1が、圧縮符号化を開始した時点の最初のフレームである場合(図1中のIピクチャ11aに相当)には、上述のように画像として全ての画素がゼロであるデータを参照フレームのデータとして、差分値の絶対値和(差分絶対値和)Sが算出されているため、上記ステップST4で算出した差分絶対値和Sが所定の閾値を超えることになる。そして、入力フレームf1(キーフレーム)について、ステップST7において、フレーム内の情報だけで符号化するフレーム内符号化が施される。具体的にはフレームf1の画素値に対してDCTなどの直交変換を施し、その変換係数を量子化した量子化係数が算出される。
【0040】
尚、実際には、フレームの圧縮率を高める観点から、上記フレーム内符号化(ステップST1b,ST7)またはフレーム間符号化(ステップST6)を実行する前に、入力フレームに対して色空間変換が施される。例えば、原信号が「R(赤色成分)」,「G(緑色成分)」,「B(青色成分)」のRGB空間からなる場合は、これをNTSC(National Television System Committee)方式などで採用されているYUV座標系、YIQ座標系、YCbCr座標系などを使用すればよい。例えば、YCbCr座標系を使用した場合、そのRGB成分は輝度信号Yと2つの色差信号Cb,CrとからなるYCbCr成分の座標系へと変換される。YCbCr成分はRGB成分よりも各成分間の相関が小さいため、画像サイズを圧縮できる。
【0041】
かかるフレーム内/フレーム間符号化処理(ステップST3、即ち、図4の処理)の実行後、図3中のステップST19に処理が移行する。この際、上記ステップST6,ST7(図4)で算出された量子化係数はハフマン符号化などを含むエントロピ符号化を施され、その後フレームの画像サイズや量子化ビット数などの画像情報や、量子化テーブルや各小ブロック領域の符号化方法(フレーム内符号化、フレーム間符号化)などの圧縮情報と共に多重化されて、ビットストリームとしてサーバ2に出力される。また、上記ステップST6,ST7(図4)で算出された量子化係数は、図3中のステップST8で局部復号化(逆量子化および逆DCTなどの逆直交変換)がなされ、図3に示したキーフレームメモリ20Aに格納される。よって、キーフレームメモリ20Aには符号化(ST6,ST7)と局部復号化(ST8)を通じて、量子化誤差を含んで変化したキーフレームが格納される。これにより、そのキーフレームの画像は、後述する復号器7で復号化(フレーム間復号化)される際に参照されるキーフレームの画像と同一となり、復号化する動画像の画質を劣化させることが無くなる。以上で入力フレームf1(キーフレーム)に対する圧縮符号化処理が終了する。
【0042】
次に、図2に示すように、上記フレームf1に続いてフレームf2が符号化器6に入力される。そうすると、図3中のステップST2でそのフレームf2がキーフレームか否かが条件判定される。図2において、フレームf2はキーフレームでは無い。したがって、図3においてはステップST9に処理が移行する。
【0043】
ステップST9では、フレームf2は複数のブロック領域(GOB)に分割される。ここで、GOBは、1フレームの画像において、例えば6ラインまたは32ライン分の領域で構成されており、例えば6ラインの領域を1つのGOBとした場合、640×480画素の画像だと、1フレームが30(=480/6)個のGOBに分割される。
【0044】
次いで、ステップST10において、これらGOBの中から単数または複数の特定領域(キーGOB)が指定される。
【0045】
ここで、図6(a)に、4個のGOBに分割されたフレームf2を模式的に示す。フレームf2は垂直方向に十数画素〜数十画素単位で4個のGOBに分割されており、その第1段目GOBがキーGOB(「キーGOB1」)に指定される。尚、図2(b)〜(d)に示すようにフレームf2に続いて符号化器6に順次入力するフレームf3〜f5も複数のGOBに分割されることになる。ただし、それぞれのキーGOBとしては、フレームf3の第2段目GOB(「キーGOB2」)、フレームf4の第3段目GOB(「キーGOB3」)、フレームf5の第4段目GOB(「キーGOB4」)が指定される。これら、キーフレームf1及びキーGOB1〜キーGOB4を含む各フレームf2〜f5は、図2に示すように、時間軸に沿って配列されることになる。
【0046】
再びフレームf2の説明に戻る。この時点で、図3中のステップST11に処理が移行し、以後、フレームf2はGOBを更に8×8画素または6×6画素程度の基本処理単位に分割した小ブロック毎に順次処理されることになる。ただし、このステップST11では、処理対象であるブロックがキーGOBに属するか否かが条件判定される。当該ブロックがキーGOBに属する場合、ステップST12に進む。そして、当該ブロックが上記フレーム内符号化を施された後に、ステップST19でエントロピ符号化され上記画像情報および上記圧縮情報と共に多重化されてビットストリームとなってサーバ2に出力される。またステップST12でブロックをフレーム内符号化して出力される量子化係数は、ステップST3で局部復号化(逆量子化および逆DCTなどの逆直交変換)を施された後にキーブロックメモリ21Aに蓄積される。
【0047】
このようにしてキーGOBをフレーム内符号化する際には、各キーGOBのデータの先頭に、キーGOBであることを示すフラグを付与しておく。
【0048】
他方、上記ステップST11において、ブロックがキーGOBに属しない場合はステップST14のフレーム内/フレーム間符号化処理に処理が移行する。ここで、図5はフレーム内/フレーム間符号化処理のサブルーチンの処理手順を示すフローチャートである。この図5に示すように、まずステップST5で入力フレームの当該ブロックとキーフレームメモリ20Aに格納されたキーフレームとの差分値と、差分絶対値和Sとが算出される。次いで、ステップST6でその差分絶対値和Sが閾値以下か否かの条件判定がなされ、その差分絶対値和Sが閾値以下の場合はステップST7に処理が移行し、当該ブロックはキーフレームメモリ20Aに格納したキーフレームを参照して上記フレーム間符号化を施される。他方、その差分絶対値和Sが閾値を超えている場合はステップST18に処理が移行し、当該ブロックは上記フレーム内符号化を施される。
【0049】
このように上記ステップST7,ST18で符号化された量子化係数は、図3に示すステップST19で可変長符号化(エントロピ符号化)と上記多重化処理を施されビットストリームとなってサーバ2に出力される。以上で入力フレームf2に対する圧縮符号化処理が終了する。
【0050】
次に、図2において、上記フレームf2に続いて符号化器6に入力するフレームf3,f4,…も、キーフレームが入力される迄はフレームf2の場合と同様に処理される。ただし、上述のように、各フレームf2,f3,f4,…におけるキーGOB(キーGOB1〜キーGOB4)の位置は互いに異なっている。このようにして、上記ステップST3で局部復号化されたキーGOB1〜キーGOB4がキーブロックメモリ21Aにフレーム1枚分蓄積され、図2に模式的に図示するように、キーGOB1〜キーGOB4は、キーブロックメモリ21A内において、参照フレームAに合成される。この参照フレームAは、後に入力するキーフレームを上記ステップST3のサブルーチンでフレーム間符号化する際に利用される。
【0051】
そして、符号化器6で圧縮符号化された動画像(圧縮画像データ)は、サーバ2からネットワーク3を通じてTCP/IP等の所定のプロトコルでクライアント4a,4b側へストリーミング配信される。
【0052】
このように、上記ステップST3でキーブロックメモリ21Aに蓄積した参照フレームとの差分の大小によりフレーム内符号化とフレーム間符号化とを選択的に実行しており、また上記ステップST9,ST10で入力フレームを複数のGOBに分割してキーGOBを指定し、時間軸に沿った複数のフレームにフレーム1枚分のキーGOBを分散させ、これら各キーGOBがフレーム内符号化される。このためフレーム内符号化処理量が時間的に分散されることとなり、圧縮符号化処理量の急激な増大が抑えられて符号化処理量が時間的に平坦化し、伝送先において動画像の再生速度が変化せず良質の動画像を圧縮伝送できる。特にインターネットなどの帯域幅が制限された伝送路において有効である。
【0053】
またキーブロックメモリ21Aでは複数のフレームに分散された上記キーGOBが蓄積され、これらキーGOBからなる参照フレームAが構成される。この参照フレームAは異なる時刻のキーGOBの集積体である。この実施の形態ではこの参照フレームAとキーフレームとの差分の大小によりフレーム内符号化とフレーム間符号化とが選択的に実行される。このため、異なる時刻のキーGOBからなる参照フレームAを用いることに起因するGOB間の画質の差が緩和され、良質の動画像を圧縮伝送することが可能となる。
【0054】
<復号化方法>
次に、復号化方法を詳説する。図7は、この復号化方法を説明するための模式図、図8は、この復号化方法を実現するためのフローチャートである。
【0055】
まず、図10及び図11に示した従来例と同様に、サーバ2側からネットワーク3を通じて与えられた圧縮画像データが、ビットストリームデータとしてクライアント機4に与えられ、復号器7に入力される(図8中のステップST20)。その圧縮画像データはそのビットストリームから分離された後にステップST21で復号化される。即ち、上記符号化器6から所定の復号器7に、図7に示したフレームf1,f2,…の圧縮データが順次入力される。この際、図8中のステップST21において、キーフレームf1の圧縮データに対して、図4のステップST4〜ST7に示した処理手順と同様にして、フレーム内符号化あるいはフレーム間符号化の復号化処理が、8×8画素や6×6画素程度の小ブロック単位で施される。ここで、図7中のキーフレームf1の圧縮データを復号化する際、予めキーブロックメモリ21B(図8)に格納した参照フレームf0(図示省略)が利用される。ここで復号化したキーフレームf1は、キーフレームメモリ20B(図8)に格納される。
【0056】
また、図7において、キーフレームf1の圧縮データに続いて復号器7に入力するフレームf2,f3,…の圧縮データに対して、図3中のステップST12,ST14〜ST18におけるフレーム内符号化あるいはフレーム間符号化の復号化処理と同様の処理が上記小ブロック単位で施される。尚、フレーム間符号化の復号化処理を行う際は、キーフレームメモリ20Bに格納したキーフレームf1が利用される。またフレームf2,f3,…が復号化される際、基本処理単位である小ブロックがキーGOBに属する場合は、当該小ブロックはキーブロックメモリ21Bに蓄積される。フレーム1枚分のキーGOBが蓄積されると、これらキーGOBからなる参照フレームA(図2参照)が合成される。この合成された参照フレームAは、復号器7に入力するキーフレームの圧縮データを復号化する際に利用される。例えば、図6(a)〜(d)に示したフレームf2〜f5の圧縮データを復号器7に入力する場合、各キーGOBを構成するブロックの圧縮データは、フレーム内復号化を施された後に、キーブロックメモリ21Bに順次蓄積され、参照フレームAを再構成する。
【0057】
ところで、このように、ステップST21で復号化したフレーム群f1,f2,…をそのまま動画像として表示する場合、上記符号化器6でフレーム内符号化したGOBとフレーム間符号化したGOBとの間で動画像の画質の差が顕れやすく、特にフレーム内符号化したキーGOBが動画像中に判然と観られる場合がある。このことを考慮して、この実施の形態では、図8に示すステップST22において、上記ステップST21で復号化したキーGOBのみを再び符号化した後に復号化するキーGOB再量子化処理を実行する。
【0058】
図9は、ステップST22のキーGOB再量子化処理のサブルーチンの処理手順を示すフローチャートである。図9に示すように、先ず8×8画素または6×6画素程度の小ブロックが入力される(ステップST30)。次にそのブロックはステップST31でキーGOBに属するか否かを条件判定される。具体的に、このステップST31では、データの先頭にキーGOBであることを示すフラグがあるか否かをもって、当該データがキーGOBであるか否かを判断する。
【0059】
ここで、当該ブロックがキーGOBに属しない場合は、当該ブロックは再量子化されず、キーGOB再量子化処理は終了し、図8に示すステップST23に処理が移行する。
【0060】
他方、ステップST31において、当該ブロックがキーGOBに属すると判断された場合は、ステップST32に処理が移行し、キーフレームメモリ20Bに蓄積されたキーフレームと当該ブロックとの画素値の差分値と、その差分値の差分絶対値和Sとが算出される。
【0061】
次いでステップST33で、その差分絶対値和Sが閾値以下か否かの条件判定がなされ、差分絶対値和Sが閾値を超えた場合は当該ブロックは再量子化されず、キーGOB再量子化処理は終了し、図8に示すステップST23に処理が移行する。
【0062】
他方、上記ステップST33で差分絶対値和Sが閾値以下であると判定された場合は、ステップST34以後に処理が移行する。先ずステップST34において、当該ブロックとキーフレームとの差分信号を変換符号化し、次いでステップST35でその変換係数を量子化する。これらステップST33〜ST35の処理は、上記符号化器6で行った差分絶対値和Sによる符号化方法(フレーム間符号化、フレーム内符号化)の判定処理(ST6)や、DCTなどの直交変換および量子化処理(ST7)と同じものである。
【0063】
その後、ステップST36でその量子化係数を逆量子化し、次いでステップST37で上記ステップST34の変換符号化の復号化(逆DCTなどの逆直交変換)を実行する。この結果、上記ステップST34〜ST37の処理に伴い、上記符号化器6でキーGOB以外のブロック領域をフレーム間符号化した後に復号器7でその符号化信号を復号化した時と同様に量子化誤差を含む不可逆の差分信号が得られる。
【0064】
次に、ステップST38でキーフレームメモリ20Bに格納したキーフレームを用いてその差分信号からブロックが再構成され出力される。
【0065】
このキーGOB再量子化処理を施されたブロックは、図8に示すステップST23においてフレーム(復号化画像)に合成された後に出力される。
【0066】
以上のキーGOB再量子化工程を図6に示したフレームf2〜f5を例に挙げて説明すると、図7に模式的に示すように、上記ステップST21で復号化されたフレームf2〜f5のキーGOBは、キーフレームメモリ20Bに格納したキーフレームとの差分をとられる。
【0067】
次に、上記ステップST32でその差分値の差分絶対値和Sが閾値以下か否か、即ちフレーム間符号化するか否かの判定がなされ、差分絶対値和Sが閾値以下の場合はキーGOBに対してフレーム間符号化(変換符号化および量子化)が施され、次いでそのフレーム間符号化の復号化(逆量子化および逆変換復号化)が施されることで、上記フレームf2〜f5に対応する復号化画像F1〜F5が生成される。
【0068】
このようにして、圧縮符号化処理(ST5〜ST7)と同様の手順で、キーGOBとキーフレームとの差が小ならば当該キーGOBとキーフレームとの差分信号に対して圧縮符号化を施した後に、その復号化を施しキーGOBを再構成するから、上記符号化器6でキーGOB以外のブロック領域をフレーム間符号化した後に復号器7でその符号化信号を復号化した場合と同様に、キーGOBにフレーム間符号化及びその復号化に伴う誤差が混入される。よって、復号化した動画像を表示する際にキーGOBが動画像中で目立つことが無く、その動画像を観る人に違和感を与えることが無いという効果が得られる。
【0069】
そして、最初のフレームとしてのIピクチャ11aを配信するだけでなく、各クライアント4a,4bからの新規配信の要求がある度に、その直後に改めて独立したIピクチャ11b,11c,11dを強制的に生成して送信し、このIピクチャ11b,11c,11dを基にフレーム間符号化されたGOBを含むPピクチャ12b,12c,12dを後続して配信するので、後から新規配信の要求を行ったクライアント4a,4bに対して速やかにIピクチャ11b,11c,11dを送信でき、各クライアント4a,4bは、このIピクチャ11b,11c,11dを表示するなどした後、後続するPピクチャ12b,12c,12dを速やかに復号化できるため、各クライアント4a,4bの動画像再生の待ち時間が低減する。特に、符号化器6で圧縮符号化の対象となる動画像が、監視映像のコマ落とし映像のように、既に時系列的に間引かれた情報のような場合に、実時間的にはIピクチャの出現周期が撮像時の実時間として30秒と長いような場合に、クライアント4a,4b側での待ち時間の短縮化を行うことで、監視の見落としのような重大な事態を回避できるという利点がある。
【0070】
また、キーフレーム以外のフレームを配信する際には、一部のブロック(キーGOB)のみをフレーム内符号化することになるため、フレーム間符号化したデータのみを配信する第1従来技術に係る差分符号化方式に比べてデータサイズが若干増大するものの、キーフレームの送信時には、時系列差分データを送信するだけでよく、キーフレーム全体につきフレーム内符号化したデータを送信していた第1従来技術に係る差分符号化方式に比べて、キーフレームの送信データ量を大幅に削減できる。したがって、ストリーミングデータの配信において、第1従来技術で最も問題となっていたキーフレームの符号化処理量の急激な増大を抑制することができ、その符号化処理量を時間的に平坦化し且つ動画像の画質を良好にすることが可能となる。また、全てのフレームをフレーム内符号化していた第2従来技術に比べて、データ量を大幅に低減できるという利点がある。
【0071】
尚、上記実施の形態では、クライアント4a,4b側において、ストリーミング配信されてきた動画像をモニタ装置5に表示する例を説明したが、これに代えてまたはこれに加えて、クライアント4a,4b側において、動画像を所定の記録装置に蓄積的に記録するようしても差し支えない。
【0072】
【発明の効果】
請求項1ないし請求項6に記載の発明によれば、送信局において、動画像を、フレーム内符号化情報のみからなるフレーム内符号化データ(Iピクチャ)とフレーム間符号化情報を含むフレーム間符号化データ(Pピクチャ)とを、一定の規則に基づいて時間軸に沿って混在させて圧縮符号化し、複数の受信局にストリーミング配信する場合に、一の受信局へのストリーミング配信途中に、他の受信局からの新規配信の要求があると、その直後に送信局がフレーム内符号化データ(Iピクチャ)を生成して各送信局にストリーミング配信するので、特に後から新規配信の要求をした受信局にとっては、要求を発した直後に独立したフレーム内符号化データ(Iピクチャ)を入手し、これを即座に復号化できる。したがって、各受信局での待ち時間が少なくなる。
【0073】
また、請求項1ないし請求項6に記載の発明によれば、キーフレームに対する圧縮符号化において、参照フレームとキーフレームとの差分の大小によりフレーム内符号化とフレーム間符号化とが選択的に実行されることになるので、全てのキーフレームをフレーム内符号化する場合に比べて、キーフレームの送信データ量を大幅に削減できる。したがって、ストリーミングデータの配信において、フレーム内符号化データ以外のキーフレームの符号化処理量の急激な増大を抑制することができ、その符号化処理量を時間的に平坦化し且つ動画像の画質を良好にすることが可能となる
【図面の簡単な説明】
【図1】この発明の一の実施の形態におけるIピクチャの出現タイミングを示す図である。
【図2】この発明の一の実施の形態に係る圧縮符号化方法を説明するための模式図である。
【図3】この発明の一の実施の形態に係る圧縮符号化方法を実現するフローチャートである。
【図4】この発明の一の実施の形態に係る圧縮符号化方法を実現するフローチャートである。
【図5】この発明の一の実施の形態に係る圧縮符号化方法を実現するフローチャートである。
【図6】4つのブロック領域に分割された各フレームを示す説明図である。
【図7】この発明の一の実施の形態に係る復号化方法を説明するための模式図である。
【図8】この発明の一の実施の形態に係る復号化方法を実現するフローチャートである。
【図9】再量子化処理を説明するためのフローチャートである。
【図10】従来の動画像配信システムの概要を示す概念図である。
【図11】従来の動画像配信システムを示すブロック図である。
【図12】従来の符号化方法を説明するためのフローチャートである。
【図13】従来の符号化方法を説明するためのフローチャートである。
【図14】従来の符号化方法におけるIピクチャの出現タイミングを示す図である。
【符号の説明】
1 撮像カメラ
2 サーバ
3 ネットワーク
4a,4b クライアント
5 モニタ装置
6 符号化器
7 復号器
11a〜11d Iピクチャ
12a〜12d Pピクチャ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a moving image distribution system that distributes a compression-coded moving image from a transmitting station to a plurality of receiving stations, and a technology related thereto.
[0002]
[Prior art]
In general, a moving image is transmitted to a remote place. For example, as shown in FIG. 10, the imaging camera 1 is installed toward the monitoring target, and the monitoring video (moving image) captured by the imaging camera 1 is transmitted from the server 2 to the remote clients 4 a and 4 b through the network 3. .., And monitor display is performed by the clients 4 a, 4 b... To monitor the monitoring video, and the monitoring video is recorded as necessary.
[0003]
By the way, when transmitting a moving image through the network 3, it is desirable to reduce the data size by compressing and encoding the moving image in consideration of the communication speed and the data capacity at the time of recording by the clients 4a, 4b. That is, as shown in FIGS. 10 and 11, for example, a moving image captured by the imaging camera 1 is compressed and encoded by the encoder 6 and transmitted from the server 2 to each client 4 a, 4 b. On the client 4a, 4b... Side, the compressed and encoded moving image given from the server 2 is received through the client device 4, and then the moving image is decoded by the decoder 7 and displayed on the monitor device 5.
[0004]
As a method of compressing and encoding such a moving image such as a surveillance video, a method (first prior art) that combines DCT (Discrete Cosine Transform) and motion compensated predictive encoding is common. This method is also adopted in the MPEG (Moving Picture Experts Group) system and the like. In general, DCT is applied to intra-frame (intra) coding in which coding is performed using only information in a frame (still image) so as to reduce redundancy in the spatial direction. In addition, motion compensation predictive coding (inter-frame (inter) coding) predicts a frame to be encoded from a frame at another time in order to reduce redundancy in the time direction, Are subjected to DCT, quantization, or the like. In this case, in order to keep the difference small, the encoding target frame is often predicted from temporally adjacent frames. Such intra-frame coding and motion compensation predictive coding (inter-frame coding) processing is performed with a block obtained by dividing a frame into a plurality of basic processing units.
[0005]
The outline of the conventional differential encoding method will be described with reference to FIG. A plurality of frames f1, f2,... Sequentially output from the imaging camera 1 are sequentially input to the encoder 6 (FIGS. 10 and 11). As described above, when each frame fn (n = 1, 2,...) Is input to the encoder 6 (ST100), whether or not the input frame fn is a key frame is determined in step ST101. If the frame fn is a key frame, intra-frame encoding processing is executed in step ST102. That is, the frame fn is divided into blocks, DCT is performed for each block, and the conversion coefficient is calculated. Next, a quantized coefficient obtained by quantizing the transform coefficient is output. Next, in step ST103, encoded data obtained by variable-length encoding (entropy encoding) the quantized coefficient is generated, output as a bit stream. Further, the quantization coefficient calculated in step ST102 described above is stored in the key frame memory 100 after being decoded (inverse quantization and inverse DCT) in step ST104.
[0006]
Next, when the next frame fm (m = n + 1) is input in step ST100, it is determined whether or not the frame fm is a key frame in step ST101. If the frame fm is not a key frame, the process proceeds to step ST105, and a difference value of pixel values is calculated in block units between the key frame fn and the frame fm stored in the key frame memory 100. Next, in step ST106, it is determined whether or not the difference value is within a predetermined range. If the difference value is within the predetermined range, inter-frame (inter) encoding, that is, DCT and quantization are performed on the difference signal between the key frame and the input frame fm in step ST107. On the other hand, if the difference value exceeds the predetermined range, intra-frame coding is executed in step ST108. As described above, the quantization coefficients calculated in steps ST107 and ST108 are variable length encoded in step ST103, converted into a bit stream, and then output to the network 3 through the server 2.
[0007]
An example of such a bitstream decoding process will be described below with reference to FIG. When the above bit stream is input to the clients 4a, 4b,... Via the network 3 (ST110), the decoder 7 extracts a compressed encoded signal from the bit stream, performs variable length decoding, and performs the quantization coefficient. Is obtained. In the subsequent step ST111, if the quantized coefficient has been intra-frame encoded in step ST102 of the compression encoding process, it is decoded (intra-frame decoding) and stored in a predetermined key frame memory 101. In step ST108, when the quantized coefficient is intra-frame encoded, the decoding is performed. On the other hand, if the quantized coefficient has been inter-frame encoded at step ST107, the decoding (inter-frame decoding) is performed with reference to the key frame stored in the key frame memory 101. Then, the decoded image that has been decoded within the frame or between the frames is displayed on the monitor device 5 (ST112).
[0008]
In such a moving image compression coding system represented by the MPEG system, high compression efficiency can be obtained by compressing difference information between frames.
[0009]
In addition, a still image compression method (intraframe coding method) such as the Motion JPEG method is adopted, and such a still image is displayed in a time-series manner so that it is reproduced like a moving image. There is also a method (second prior art).
[0010]
[Problems to be solved by the invention]
By the way, in the differential encoding method according to the first prior art described above, for example, many frames (each frame other than the key frame) include time-series differential information in a compressed and encoded moving image (video data). Since it is composed of frames, it is a series of data by continuation of each frame.
[0011]
Here, video data including such a time-series difference (inter-frame coding) is called a P picture, while a difference (intra-frame coding) is taken between adjacent images in a frame without including the time-series difference. The obtained video data is called an I picture.
[0012]
In the case of the first prior art, the number of inserted P pictures is generally fixed. In the case of such a compression encoding method, for example, as shown in FIG. 14, when transmission of video data is started to one client 4a at the timing T1, first, the intra-frame encoded I picture 8a is stored in the server 2 From the I picture 8a to the client 4a, the P picture 9a obtained by taking the time series difference (interframe coding) one after another is transmitted, and after transmitting the P picture 9a for a certain frame, Periodic I picture 8b and P picture 9b are transmitted.
[0013]
By the way, for example, it is assumed that there is a request for new distribution from another client 4b at timing T2. At the timing T2, the server 2 is in the process of transmitting the P picture 9a to the network 3. By the way, the P picture 9a is a frame obtained by taking time series differences (interframe coding) one after another from the I picture 8a as a starting point and chaining one after another. Unless the picture 8a is obtained, it is impossible to decode a moving picture only from the P picture 9a. However, since the first I picture 8a has already been discharged to the network 3, the first I picture 8a cannot be obtained on the client 4b side. Therefore, the client 4b cannot decode the video data until the next I picture 8b is given from the server 2.
[0014]
However, for example, in the video distribution such as MPEG2 having a frame rate of about 30 fps, for example, when an I picture appears every second, for example, the P picture is transmitted to one client 4a. Even if there is a request for new distribution from another client 4b, it is possible to transmit the I picture to the client 4b within at least one second, so that the other client 4b can decode the video data without delay. can do.
[0015]
However, for example, when recording a monitoring video for security purposes in the server 2, for example, it may be recorded by dropping frames at a rate of less than 30 fps, for example, an I picture at a timing of once every 30 seconds as real time. May be recorded. When such a moving picture having a long appearance period of an I picture is distributed to a plurality of clients 4a and 4b, for example, when a P picture is transmitted to one client 4a, a new distribution request is issued from another client 4b. When there is, there may be a case where an I picture cannot be transmitted for up to 30 seconds. For this reason, it takes a long time to wait for the decoding of the moving image in the other client 4b. That is, when a moving image compression encoding method with a long I picture appearance cycle is applied, such as a moving image with dropped frames, the waiting time cannot be ignored for the client 4b that has requested new distribution.
[0016]
On the other hand, in the second prior art, since all the frames are intra-frame encoded, all the clients 4a and 4b that have requested distribution at an arbitrary timing are intra-frame encoded at the respective timings at that time. Distributed video data can be distributed. However, this second prior art has a drawback that the frame rate is lowered because of the large amount of data.
[0017]
In view of such a problem, the present invention intends to solve the problem that a moving image with a low waiting time when a new distribution request is requested during the distribution of video data while efficiently distributing a moving image at a high compression rate. An object is to provide an image distribution system and a technology related thereto.
[0018]
[Means for Solving the Problems]
  In order to solve the above-mentioned problem, the invention according to claim 1 receives a transmitting station that compresses and encodes a moving image and distributes the moving image data that is compressed and encoded by the transmitting station and distributed over a network. A plurality of receiving stations, wherein the transmitting station has an internal frame of the moving image.Love-Frame coding using informationByGenerated intraframe encoded data and difference information between different framesGenerated by the interframe coding usedEncoding means for compressing and encoding the moving image while inter-frame encoded data is mixed along the time axis in units of frames, the intra-frame encoded data and the frame compressed and encoded by the encoding means Data transmitting means for transmitting inter-coded data to the network along a time axis, and the encoding means of the transmitting stationIsWhenever there is a new distribution request from any of the receiving stations,GenerationAnd thisTheThe intra-frame encoded data is transmitted through the data sending means and the network.ReceivedDelivered to the bureauAnd the encoding means of the transmitting station designates a key frame for each predetermined period from the plurality of frames of the moving image, and the encoding means of the transmitting station includes a plurality of other frames other than the key frame. In each frame, the frame is divided into a plurality of block areas, a specific area is designated from among the plurality of block areas, and the positions of the specific areas of the plurality of other frames included in the designated period of the key frame Are different from each other, and the encoding means of the transmitting station includes a reference frame for one frame generated by combining specific areas of each of the plurality of other frames included in the specified period, and a key frame. If the second difference between them is larger than a predetermined value, intra-frame coding is performed on the key frame, while if the second difference is smaller than the predetermined value, the key frame It is intended to apply the reference inter-frame coding has the reference frame to.
[0019]
  Invention of Claim 2 is a moving image delivery system of Claim 1, Comprising:The encoding means of the transmitting station applies intra-frame encoding to the block area when the first difference between the block area excluding the specific area and the key frame is larger than a predetermined value, When the difference is smaller than a predetermined value, inter-frame encoding is performed on the block area with reference to the key frame, and intra-frame encoding is performed on the specific area.
[0020]
Invention of Claim 3 is a moving image delivery system of Claim 1 or Claim 2, Comprising: The said transmission station has an imaging camera which images a predetermined imaging target, The said receiving station is, A moving image captured by the imaging camera is displayed or recorded.
[0021]
  The invention according to claim 4A moving image distribution method for compressing and encoding a moving image at a transmitting station and distributing the compression-encoded moving image to a plurality of receiving stations through a network, comprising: a) one frame of the moving image at the transmitting station Time frame of intra-frame encoded data generated by intra-frame encoding using internal information and inter-frame encoded data generated by inter-frame encoding using difference information between different frames in units of frames B) compressing and encoding the moving image while being mixed along the line; b) transmitting the intra-frame encoded data and the inter-frame encoded data to the network along the time axis at the transmitting station; The step a) includes: a-1) generating the intra-frame encoded data every time there is a request for new distribution from any one of the receiving stations. And a-2) designating a key frame at regular intervals from a plurality of frames of the moving image, and in each of a plurality of other frames other than the key frame, the frames are divided into a plurality of block areas. Dividing and designating a specific area from among the plurality of block areas, and the positions of the specific areas of the plurality of other frames included in the designated period of the key frame are different from each other, In the step a), the second difference between the reference frame for one frame generated by combining the specific areas of each of the plurality of other frames included in the specified cycle and the key frame is greater than a predetermined value. If it is larger, intra-frame coding is applied to the key frame, and if the second difference is smaller than a predetermined value, the reference frame for the key frame is used. In which reference inter-frame coding and the is applied.
[0023]
  According to a fifth aspect of the present invention, in order to implement the moving image distribution method according to the fourth aspect on a computer, the computer executes the steps.thingIt is.
The invention according to claim 6 includes a transmitting station that compresses and encodes a moving image and distributes it, and a receiving station that receives data of the moving image that is compressed and encoded by the transmitting station and distributed over a network, The transmitting stationIsIntra-frame coding data generated by intra-frame coding using intra-frame coding using information in one frame of the moving image and inter-frame coding using difference information between different frames Encoding means for compressing and encoding the moving image while mixing data along the time axis in units of frames, the intra-frame encoded data and the inter-frame encoded data compressed and encoded by the encoding means Data transmitting means for transmitting to the network along a time axis, and the encoding means of the transmitting station designates a key frame at a certain period from a plurality of frames of the moving image, and The encoding means of the transmitting station divides the frame into a plurality of block areas in each of a plurality of other frames other than the key frame, and A specific area is designated from the designated areas, and the positions of the specific areas of the plurality of other frames included in the designated period of the key frame are different from each other, and the encoding means of the transmitting station uses the designated period. When the second difference between the reference frame for one frame generated by combining the specific areas of each of the plurality of other frames included in the key frame and the key frame is larger than a predetermined value, the key frame On the other hand, when the second difference is smaller than a predetermined value, intra-frame coding with reference to the reference frame is performed on the key frame.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
<Basic concept of video distribution system>
First, the basic concept of a moving image distribution system used in an embodiment of the present invention will be described. In this moving image distribution system, as in the conventional example shown in FIGS. 10 and 11, for example, a moving image such as a monitoring video imaged by the imaging camera 1 is compression encoded by the encoder 6, and this moving image (compressed frame) is compressed. Data) is stream-distributed from the server 2 as a transmitting station to a plurality of clients 4a and 4b (client machines 4) as receiving stations at remote locations through the network 3. On the clients 4 a and 4 b side, the compression-coded moving image (compressed frame data) given from the server 2 is decoded by the decoder 7 and displayed on the monitor device 5.
[0025]
Here, the encoder 6 is an existing method such as the existing MPEG system (see FIGS. 12 and 13), the MPEG2 system, or the like such as Japanese Patent Application No. 2000-368510 proposed by the present applicant. A moving image is compression-encoded using a moving image compression encoding method (hereinafter referred to as “SRVC method”: see later).
[0026]
Then, as shown in FIG. 1, the encoder 6 uses the I picture 11a as intra-frame encoded data generated only by intra-frame encoding as the first frame, and a plurality of frames following the I picture 11a are A moving image is compression-encoded so as to become a plurality of P pictures 12a as inter-frame encoded data including information of time-series differences (inter-frame encoding) sequentially obtained starting from the I picture 11a. . For example, in the case of the MPEG system or the MPEG2 system, the number of frames (for example, 29 frames) of a P picture following one I picture 11a is fixed in principle, and the I picture 11a of one frame and the P picture 12a of 29 frames are constant. Cycle.
[0027]
In particular, when there is a moving image distribution request from each of the clients 4a and 4b, the encoder 6 has received the distribution request even when the P picture should be transmitted as a basic distribution timing. Immediately after the time points Th1, Th2, and Th3, the I pictures 11b, 11c, and 11d that are independently intra-coded are forced to appear, and the I pictures 11b, 11c, and 11d are used as the first frame in time series. Compression encoding is performed so that the P pictures 12b, 12c, and 12d are followed by the difference (interframe encoding).
[0028]
The server 2 and the client machine 4 use computer equipment including a predetermined data recording device such as a RAM, a ROM, and a hard disk drive, and a central processing unit (CPU). The stored compressed image data is managed, and the processing order of the compressed image data for performing reproduction according to the distribution of moving images is determined. The operation procedure of the central processing unit is regulated by a software program stored in advance in the data recording device, and is executed according to this software program.
[0029]
<Compression encoding method>
Hereinafter, an example in which this embodiment is applied to an SRVC compression encoding method will be described. FIG. 2 is a schematic diagram for explaining the SRVC compression encoding method, and FIG. 3 is a flowchart for realizing this compression encoding method.
[0030]
This compression encoding method of the SRVC method is different from the MPEG method in which a difference is made with reference to the immediately preceding frame in the encoder (encoding means) 6 (see FIG. 13). As shown in FIG. It is fixed and compressed, so that thinning during reproduction and reproduction in the reverse time direction are relatively easy.
[0031]
In this compression encoding method, as shown in FIG. 2, for example, a plurality of still images (frames) sequentially taken along the time axis by an imaging camera 1 (see FIG. 13) such as a CCD (charge coupled device) sensor or a CMOS sensor. are input to the encoder 6 (see FIG. 13) (step ST1 in FIG. 3).
[0032]
The key block memory 21A in FIG. 3 stores a reference frame f0 (not shown) configured by connecting predetermined specific areas (key GOB) as they are before the frame f1 is input. The reference frame f0 is compressed and transmitted to the key block memory 21B (see FIG. 8) of the decoder (decryption means) 7, and then decrypted and stored. However, for the first frame at the time of starting compression encoding, there is no key GOB preceding the first frame, and therefore no reference frame is present.
[0033]
In the next step ST1a, the encoder 6 determines whether there is a request for new distribution from any of the clients 4a and 4b (see FIG. 12).
[0034]
If there is a request for new distribution, the process proceeds to step ST1b, and it is necessary to transmit the I pictures 11b, 11c, and 11d. In ST19, the data is output to the server 2 as bit stream data. Specifically, the intra-frame coding processing at this time performs orthogonal transform such as DCT on the pixel value of the frame f1, and the quantized coefficient obtained by quantizing the transform coefficient is calculated. With this processing procedure, the encoder 6 generates I pictures 11b, 11c, and 11d and outputs them to the clients 4a and 4b through the server 2 every time a new distribution request is received from each client 4a and 4b. . Here, the I pictures 11b, 11c and 11d distributed to the clients 4a and 4b are processed as key frames in the encoder 6 and the decoder 7 on the clients 4a and 4b side. That is, the process proceeds to step ST8 in FIG. 3, where local decoding (inverse orthogonal transformation such as inverse quantization and inverse DCT) is performed and stored in the key frame memory 20A shown in FIG. Accordingly, the key frame memory 20A stores a changed key frame including a quantization error through intra-frame coding (ST1b) and local decoding (ST8). As a result, the image of the key frame becomes the same as the image of the key frame that is referred to when being decoded (interframe decoding) by the decoder 7 described later, and the image quality of the moving image to be decoded is deteriorated. Disappears. Thus, the compression encoding process for the I pictures 11b, 11c, and 11d (key frames) when a new distribution request is received from each of the clients 4a and 4b is completed.
[0035]
On the other hand, if there is no request for new distribution from each client 4a, 4b in step ST1a, the encoder 6 determines that the input frame f1, unless there is a request for new distribution from each client 4a, 4b. A key frame is designated periodically from f2, f3, f4,. In FIG. 2, the input frame f1 (corresponding to the I picture 11a in FIG. 1) is a key frame.
[0036]
Then, in step ST2 in FIG. 3, it is determined whether or not the input frame f1 is a key frame. In FIG. 2, since the frame f1 is a key frame as described above, the process proceeds to step ST3 as it is, and intra-frame (intra) / inter-frame (inter) encoding processing is executed.
[0037]
The processing procedure of step ST3 is shown in FIG. As shown in FIG. 4, the difference value of the pixel value between the reference frame f0 (not shown) and the input frame f1 (key frame) stored in the key block memory 21A in step ST4 and the absolute value sum of the difference values (Difference absolute value sum) S is calculated. However, if the input frame f1 is the first frame at the time when compression encoding is started, there is no reference frame as described above, so that data in which all pixels are zero is used as the reference frame. As the data, an absolute value sum (difference absolute value sum) S of difference values is calculated.
[0038]
Next, in step ST5 in FIG. 4, it is determined whether or not the sum of absolute differences is equal to or less than a predetermined threshold value. For example, when the difference value is expressed by ΔPi (i: number corresponding to each pixel), the difference absolute value sum S is expressed as S = | ΔP1 | + | ΔP2 | + ... + | ΔPn | (n: number of pixels) It is expressed by When the difference absolute value sum S is equal to or smaller than the threshold value, the input frame f1 is subjected to inter-frame encoding using the frame f0, assuming that the temporal change between the frames f0 and f1 is small (step ST6). Specifically, an orthogonal transform such as DCT (Discrete Cosine Transform) is performed on the difference signal between the input frame f1 and the frame f0, and a quantized coefficient obtained by quantizing the transform coefficient is calculated. Such interframe coding processing is executed in units of small blocks (macroblocks) having a size of 8 × 8 pixels or 6 × 6 pixels. The same applies to the subsequent processing. In this embodiment, orthogonal transformation such as DCT is adopted as a transformation method, but DWT (discrete wavelet transformation) may be adopted instead of DCT. In this case, the inter-frame encoding process may be executed in units of frames by dividing the frame into a plurality of areas called tiles in consideration of the execution memory capacity or the like instead of being performed in units of the small blocks. .
[0039]
On the other hand, in step ST5 in FIG. 4, when the difference absolute value sum S calculated in step ST4 exceeds a predetermined threshold, the process proceeds to step ST7. For example, when the input frame f1 is the first frame at the time when compression encoding is started (corresponding to the I picture 11a in FIG. 1), the data in which all pixels are zero as described above is used. Since the absolute value sum (difference absolute value sum) S of the difference values is calculated as the reference frame data, the difference absolute value sum S calculated in step ST4 exceeds a predetermined threshold value. In step ST7, intraframe coding is performed on the input frame f1 (key frame) using only the information in the frame. Specifically, orthogonal transformation such as DCT is performed on the pixel value of the frame f1, and a quantized coefficient obtained by quantizing the transform coefficient is calculated.
[0040]
Actually, from the viewpoint of increasing the compression rate of the frame, color space conversion is performed on the input frame before the intra-frame coding (steps ST1b and ST7) or the inter-frame coding (step ST6). Applied. For example, when the original signal is composed of RGB spaces of “R (red component)”, “G (green component)”, and “B (blue component)”, this is adopted in the NTSC (National Television System Committee) system or the like. A YUV coordinate system, a YIQ coordinate system, a YCbCr coordinate system, or the like may be used. For example, when the YCbCr coordinate system is used, the RGB component is converted into a YCbCr component coordinate system composed of a luminance signal Y and two color difference signals Cb and Cr. Since the YCbCr component has a smaller correlation between components than the RGB component, the image size can be compressed.
[0041]
After execution of the intra-frame / inter-frame encoding process (step ST3, that is, the process of FIG. 4), the process proceeds to step ST19 in FIG. At this time, the quantized coefficients calculated in steps ST6 and ST7 (FIG. 4) are subjected to entropy coding including Huffman coding, and then image information such as the image size of the frame and the number of quantization bits, Are multiplexed together with compression information such as a coding table and a coding method (intraframe coding and interframe coding) for each small block area, and output to the server 2 as a bit stream. Further, the quantization coefficients calculated in steps ST6 and ST7 (FIG. 4) are subjected to local decoding (inverse orthogonal transformation such as inverse quantization and inverse DCT) in step ST8 in FIG. 3, and are shown in FIG. Stored in the key frame memory 20A. Accordingly, the key frame memory 20A stores a changed key frame including a quantization error through encoding (ST6, ST7) and local decoding (ST8). As a result, the image of the key frame becomes the same as the image of the key frame that is referred to when being decoded (interframe decoding) by the decoder 7 described later, and the image quality of the moving image to be decoded is deteriorated. Disappears. The compression encoding process for the input frame f1 (key frame) is thus completed.
[0042]
Next, as shown in FIG. 2, the frame f2 is input to the encoder 6 following the frame f1. Then, whether or not the frame f2 is a key frame is determined in step ST2 in FIG. In FIG. 2, the frame f2 is not a key frame. Therefore, in FIG. 3, the process proceeds to step ST9.
[0043]
In step ST9, the frame f2 is divided into a plurality of block areas (GOB). Here, the GOB is composed of, for example, an area of 6 lines or 32 lines in an image of one frame. For example, when an area of 6 lines is one GOB, an image of 640 × 480 pixels is 1 A frame is divided into 30 (= 480/6) GOBs.
[0044]
Next, in step ST10, one or more specific areas (key GOB) are designated from these GOBs.
[0045]
Here, FIG. 6A schematically shows a frame f2 divided into four GOBs. The frame f2 is divided into four GOBs in units of ten to several tens of pixels in the vertical direction, and the first stage GOB is designated as the key GOB (“key GOB1”). As shown in FIGS. 2B to 2D, frames f3 to f5 sequentially input to the encoder 6 following the frame f2 are also divided into a plurality of GOBs. However, as the respective key GOB, the second stage GOB (“key GOB2”) of the frame f3, the third stage GOB (“key GOB3”) of the frame f4, and the fourth stage GOB (“key” of the frame f5). GOB4 ") is specified. These frames f2 to f5 including the key frame f1 and the keys GOB1 to GOB4 are arranged along the time axis as shown in FIG.
[0046]
Returning to the description of the frame f2 again. At this point, the process proceeds to step ST11 in FIG. 3, and thereafter, the frame f2 is sequentially processed for each small block obtained by further dividing the GOB into basic processing units of about 8 × 8 pixels or 6 × 6 pixels. become. However, in this step ST11, it is determined whether or not the block to be processed belongs to the key GOB. If the block belongs to the key GOB, the process proceeds to step ST12. Then, after the block is subjected to the intra-frame encoding, it is entropy encoded in step ST19, multiplexed with the image information and the compression information, and output to the server 2 as a bit stream. In addition, the quantized coefficients output after intra-frame coding of the block in step ST12 are stored in the key block memory 21A after being subjected to local decoding (inverse orthogonal transformation such as inverse quantization and inverse DCT) in step ST3. The
[0047]
When the key GOB is thus encoded in the frame, a flag indicating that the key GOB is used is added to the head of the data of each key GOB.
[0048]
On the other hand, if the block does not belong to the key GOB in step ST11, the process shifts to the intraframe / interframe encoding process in step ST14. Here, FIG. 5 is a flowchart showing a processing procedure of a subroutine of intra-frame / inter-frame encoding processing. As shown in FIG. 5, first, in step ST5, the difference value between the block of the input frame and the key frame stored in the key frame memory 20A and the difference absolute value sum S are calculated. Next, in step ST6, a condition determination is made as to whether or not the difference absolute value sum S is less than or equal to a threshold value. The inter-frame coding is performed with reference to the key frame stored in the above. On the other hand, when the difference absolute value sum S exceeds the threshold value, the process proceeds to step ST18, and the block is subjected to the intra-frame coding.
[0049]
The quantized coefficients encoded in steps ST7 and ST18 are subjected to variable length encoding (entropy encoding) and the multiplexing process in step ST19 shown in FIG. Is output. Thus, the compression encoding process for the input frame f2 is completed.
[0050]
Next, in FIG. 2, the frames f3, f4,... Input to the encoder 6 subsequent to the frame f2 are processed in the same manner as in the case of the frame f2 until a key frame is input. However, as described above, the positions of the key GOB (key GOB1 to key GOB4) in the frames f2, f3, f4,. In this way, the key GOB1 to key GOB4 locally decoded in step ST3 is stored in the key block memory 21A for one frame, and as schematically shown in FIG. 2, the keys GOB1 to GOB4 are: In the key block memory 21A, it is synthesized with the reference frame A. This reference frame A is used when a key frame to be input later is inter-frame encoded in the subroutine of step ST3.
[0051]
The moving image (compressed image data) compressed and encoded by the encoder 6 is streamed and distributed from the server 2 to the clients 4a and 4b through the network 3 using a predetermined protocol such as TCP / IP.
[0052]
In this way, intra-frame coding and inter-frame coding are selectively executed according to the difference between the difference from the reference frame stored in the key block memory 21A in step ST3 and input in steps ST9 and ST10. A frame is divided into a plurality of GOBs, a key GOB is designated, a key GOB for one frame is distributed to a plurality of frames along the time axis, and each of these keys GOB is encoded in the frame. For this reason, the intraframe encoding processing amount is dispersed in time, the rapid increase in the compression encoding processing amount is suppressed, the encoding processing amount is flattened in time, and the playback speed of the moving image at the transmission destination High quality moving images can be compressed and transmitted without changing. This is particularly effective for transmission lines with limited bandwidth, such as the Internet.
[0053]
In the key block memory 21A, the key GOB distributed in a plurality of frames is stored, and a reference frame A including these keys GOB is configured. This reference frame A is an accumulation of key GOBs at different times. In this embodiment, intra-frame coding and inter-frame coding are selectively executed depending on the difference between the reference frame A and the key frame. For this reason, the difference in image quality between GOBs resulting from the use of the reference frame A made up of the key GOBs at different times is alleviated, and it becomes possible to compress and transmit high-quality moving images.
[0054]
<Decryption method>
Next, the decoding method will be described in detail. FIG. 7 is a schematic diagram for explaining this decoding method, and FIG. 8 is a flowchart for realizing this decoding method.
[0055]
First, similarly to the conventional example shown in FIGS. 10 and 11, the compressed image data given from the server 2 through the network 3 is given to the client machine 4 as bit stream data and inputted to the decoder 7 ( Step ST20 in FIG. 8). The compressed image data is separated from the bit stream and then decoded in step ST21. That is, the compressed data of the frames f1, f2,... Shown in FIG. At this time, in step ST21 in FIG. 8, the compressed data of the key frame f1 is decoded by intra-frame coding or inter-frame coding in the same manner as the processing procedure shown in steps ST4 to ST7 in FIG. Processing is performed in units of small blocks of about 8 × 8 pixels or 6 × 6 pixels. Here, when decoding the compressed data of the key frame f1 in FIG. 7, a reference frame f0 (not shown) stored in advance in the key block memory 21B (FIG. 8) is used. The key frame f1 decrypted here is stored in the key frame memory 20B (FIG. 8).
[0056]
Further, in FIG. 7, the intraframe coding in steps ST12, ST14 to ST18 in FIG. 3 or the compressed data of frames f2, f3,... Input to the decoder 7 following the compressed data of the key frame f1 or The same processing as the decoding processing of interframe coding is performed in units of the small blocks. Note that the key frame f1 stored in the key frame memory 20B is used when performing decoding processing of inter-frame coding. When the frames f2, f3,... Are decoded, if a small block that is a basic processing unit belongs to the key GOB, the small block is stored in the key block memory 21B. When the key GOB for one frame is accumulated, the reference frame A (see FIG. 2) composed of these keys GOB is synthesized. The combined reference frame A is used when the compressed data of the key frame input to the decoder 7 is decoded. For example, when the compressed data of the frames f2 to f5 shown in FIGS. 6 (a) to 6 (d) are input to the decoder 7, the compressed data of the blocks constituting each key GOB is subjected to intraframe decoding. Later, the frame is sequentially stored in the key block memory 21B to reconstruct the reference frame A.
[0057]
By the way, when the frame groups f1, f2,... Decoded in step ST21 are displayed as moving images in this way, between the GOB that has been intra-frame encoded by the encoder 6 and the GOB that has been inter-frame encoded. Therefore, a difference in the image quality of the moving image is likely to appear, and in particular, the key GOB encoded in the frame may be clearly seen in the moving image. In consideration of this, in this embodiment, in step ST22 shown in FIG. 8, only the key GOB decoded in step ST21 is encoded again, and then the key GOB requantization process is executed.
[0058]
FIG. 9 is a flowchart showing a processing procedure of a subroutine of key GOB requantization processing in step ST22. As shown in FIG. 9, first, a small block of about 8 × 8 pixels or 6 × 6 pixels is input (step ST30). Next, in step ST31, it is determined whether or not the block belongs to the key GOB. Specifically, in step ST31, whether or not the data is the key GOB is determined based on whether or not there is a flag indicating the key GOB at the head of the data.
[0059]
Here, if the block does not belong to the key GOB, the block is not requantized, the key GOB requantization process ends, and the process moves to step ST23 shown in FIG.
[0060]
On the other hand, if it is determined in step ST31 that the block belongs to the key GOB, the process proceeds to step ST32, and the difference value between the key frame stored in the key frame memory 20B and the pixel value of the block, The difference absolute value sum S of the difference values is calculated.
[0061]
Next, in step ST33, a condition determination is made as to whether or not the difference absolute value sum S is equal to or smaller than a threshold value. If the difference absolute value sum S exceeds the threshold value, the block is not requantized, and key GOB requantization processing is performed. Is completed, and the process proceeds to step ST23 shown in FIG.
[0062]
On the other hand, if it is determined in step ST33 that the sum of absolute differences S is equal to or less than the threshold value, the process proceeds after step ST34. First, in step ST34, the difference signal between the block and the key frame is transform-coded, and then in step ST35, the transform coefficient is quantized. The processing of these steps ST33 to ST35 includes determination processing (ST6) of an encoding method (interframe encoding, intraframe encoding) based on the sum of absolute differences S performed by the encoder 6, and orthogonal transformation such as DCT. And it is the same as the quantization process (ST7).
[0063]
After that, in step ST36, the quantized coefficient is inversely quantized, and then in step ST37, transform coding decoding (inverse orthogonal transform such as inverse DCT) in step ST34 is performed. As a result, in accordance with the processing in steps ST34 to ST37, quantization is performed in the same manner as when the block 6 other than the key GOB is interframe-encoded by the encoder 6 and then the encoded signal is decoded by the decoder 7. An irreversible difference signal including an error is obtained.
[0064]
Next, the block is reconstructed from the difference signal using the key frame stored in the key frame memory 20B in step ST38 and output.
[0065]
The block subjected to the key GOB requantization processing is output after being combined with a frame (decoded image) in step ST23 shown in FIG.
[0066]
The above key GOB requantization process will be described by taking the frames f2 to f5 shown in FIG. 6 as an example. As schematically shown in FIG. 7, the keys of the frames f2 to f5 decrypted in step ST21 described above are used. The difference between the GOB and the key frame stored in the key frame memory 20B is taken.
[0067]
Next, in step ST32, it is determined whether or not the difference absolute value sum S of the difference values is equal to or less than a threshold value, that is, whether or not to perform interframe encoding. Is subjected to inter-frame coding (transform coding and quantization) and then subjected to decoding of the inter-frame coding (inverse quantization and inverse transform decoding), so that the frames f2 to f5 Decoded images F1 to F5 corresponding to are generated.
[0068]
In this manner, if the difference between the key GOB and the key frame is small in the same procedure as the compression encoding process (ST5 to ST7), the compression encoding is performed on the difference signal between the key GOB and the key frame. After that, the decoding is performed and the key GOB is reconstructed, so that the encoder 6 performs inter-frame coding on the block area other than the key GOB and then the decoder 7 decodes the encoded signal. In addition, errors due to interframe coding and decoding are mixed in the key GOB. Therefore, when displaying the decoded moving image, the key GOB does not stand out in the moving image, and there is an effect that the person watching the moving image does not feel uncomfortable.
[0069]
In addition to distributing the I picture 11a as the first frame, every time there is a request for new distribution from each of the clients 4a and 4b, the independent I pictures 11b, 11c, and 11d are forcibly changed immediately thereafter. Since the P pictures 12b, 12c, and 12d including GOBs that are inter-frame encoded based on the I pictures 11b, 11c, and 11d are subsequently distributed, a new distribution request is made later. The I pictures 11b, 11c, and 11d can be promptly transmitted to the clients 4a and 4b, and the clients 4a and 4b display the I pictures 11b, 11c, and 11d, and then the subsequent P pictures 12b, 12c, Since 12d can be quickly decoded, the waiting time for moving image reproduction of each of the clients 4a and 4b is reduced. In particular, when the moving image to be compression-encoded by the encoder 6 is information that has already been thinned out in time series, such as a frame dropping video of a monitoring video, I When the appearance cycle of pictures is as long as 30 seconds as the real time at the time of imaging, it is possible to avoid a serious situation such as oversight of monitoring by reducing the waiting time on the client 4a, 4b side. There are advantages.
[0070]
In addition, when a frame other than a key frame is distributed, only a part of the blocks (key GOB) is intra-frame encoded. Therefore, according to the first prior art that distributes only inter-frame encoded data. Although the data size is slightly increased as compared with the differential encoding method, it is only necessary to transmit time-series differential data at the time of transmitting a key frame. Compared with the differential encoding method according to the technology, the transmission data amount of the key frame can be greatly reduced. Therefore, in the distribution of streaming data, it is possible to suppress a rapid increase in the coding processing amount of the key frame, which is the most problematic in the first prior art, and the coding processing amount is temporally flattened and the moving image is animated. The image quality can be improved. Further, there is an advantage that the amount of data can be greatly reduced as compared with the second prior art in which all the frames are intra-coded.
[0071]
In the above-described embodiment, an example in which the moving image that has been distributed by streaming is displayed on the monitor device 5 on the client 4a, 4b side has been described, but instead of or in addition to this, the client 4a, 4b side In this case, the moving image may be recorded on a predetermined recording device in an accumulative manner.
[0072]
【The invention's effect】
According to the first to sixth aspects of the present invention, in the transmitting station, the moving image is an inter-frame including intra-frame encoded data (I picture) consisting only of intra-frame encoded information and inter-frame encoded information. When the encoded data (P picture) is compressed and encoded along the time axis based on a certain rule and streamed to a plurality of receiving stations, during streaming delivery to one receiving station, When there is a request for new distribution from another receiving station, immediately after that, the transmitting station generates intra-frame encoded data (I picture) and performs streaming distribution to each transmitting station. The receiving station can obtain the independent intra-frame encoded data (I picture) immediately after issuing the request and immediately decode it. Therefore, the waiting time at each receiving station is reduced.
[0073]
  Also,Claim 1 toAccording to the invention of claim 6,In compression coding for key frames, intra-frame coding and inter-frame coding are selectively executed depending on the difference between the reference frame and the key frame, so that all key frames are coded within the frame. Compared toThe amount of key frame transmission data can be greatly reduced. Accordingly, in the distribution of streaming data, it is possible to suppress a rapid increase in the encoding processing amount of key frames other than the intra-frame encoded data, flatten the encoding processing amount in time, and improve the image quality of moving images. It becomes possible to improve.
[Brief description of the drawings]
FIG. 1 is a diagram showing the appearance timing of an I picture according to an embodiment of the present invention.
FIG. 2 is a schematic diagram for explaining a compression coding method according to an embodiment of the present invention.
FIG. 3 is a flowchart for realizing a compression encoding method according to an embodiment of the present invention.
FIG. 4 is a flowchart for realizing a compression encoding method according to an embodiment of the present invention.
FIG. 5 is a flowchart for realizing a compression encoding method according to an embodiment of the present invention.
FIG. 6 is an explanatory diagram showing each frame divided into four block areas.
FIG. 7 is a schematic diagram for explaining a decoding method according to an embodiment of the present invention.
FIG. 8 is a flowchart for realizing a decoding method according to an embodiment of the present invention.
FIG. 9 is a flowchart for explaining requantization processing;
FIG. 10 is a conceptual diagram showing an outline of a conventional moving image distribution system.
FIG. 11 is a block diagram showing a conventional moving image distribution system.
FIG. 12 is a flowchart for explaining a conventional encoding method.
FIG. 13 is a flowchart for explaining a conventional encoding method.
FIG. 14 is a diagram illustrating the appearance timing of an I picture in a conventional encoding method.
[Explanation of symbols]
1 Imaging camera
2 servers
3 network
4a, 4b client
5 Monitor device
6 Encoder
7 Decoder
11a-11d I picture
12a-12d P picture

Claims (6)

動画像を圧縮符号化して配信する送信局と、
前記送信局で圧縮符号化されてネットワークを通じて配信された前記動画像のデータを受信する複数の受信局と
を備え、
前記送信局が、
前記動画像の1フレームの内部の情報を用いたフレーム内符号化によって生成されたフレーム内符号化データと、異なるフレーム間の差分情報を用いたフレーム間符号化によって生成されたフレーム間符号化データとをフレーム単位で時間軸に沿って混在させながら前記動画像を圧縮符号化する符号化手段と、
前記符号化手段で圧縮符号化された前記フレーム内符号化データ及び前記フレーム間符号化データを時間軸に沿って前記ネットワークに送出するデータ送出手段と
を備え、
前記送信局の前記符号化手段、いずれかの前記受信局から新規配信の要求がある度に前記フレーム内符号化データを生成し、当該フレーム内符号化データを前記データ送出手段及び前記ネットワークを通じて受信局に配信し、
前記送信局の符号化手段は、前記動画像の複数のフレームの中から一定の周期毎にキーフレームを指定し、
前記送信局の符号化手段は、前記キーフレーム以外の複数の他のフレームそれぞれにおいて、フレームを複数のブロック領域に分割して、当該複数のブロック領域の中から特定領域を指定し、
前記キーフレームの指定周期に含まれる複数の前記他のフレームそれぞれの特定領域の位置は、互いに異なり、
前記送信局の符号化手段は、前記指定周期に含まれる複数の前記他のフレームそれぞれの特定領域を合成して生成されるフレーム1枚分の参照フレームと、キーフレームとの間の第2の差分が所定より大きい場合に当該キーフレームに対してフレーム内符号化を施す一方、前記第2の差分が所定より小さい場合に当該キーフレームに対して前記参照フレームを参照したフレーム間符号化を施すことを特徴とする動画像配信システム。
A transmitting station that compresses and encodes moving images, and
A plurality of receiving stations that receive the moving image data compressed and encoded by the transmitting station and distributed over the network;
The transmitting station is
Interframe coding which is generated by the inter-frame coding using the intra-frame coded data generated by intra-frame coding using internal information of one frame, the difference information between different frames of the moving image Encoding means for compressing and encoding the moving image while mixing data along the time axis in units of frames;
Data transmitting means for transmitting the intra-frame encoded data and the inter-frame encoded data compressed and encoded by the encoding means to the network along a time axis;
Wherein said encoding means of the transmitting station generates one of said intraframe-coded data each time there is a request for new delivery from the receiving station, the data transmission means and said intra-coded data equivalent 該Fu frame and delivered to the receiving station through the network,
The encoding means of the transmitting station designates a key frame at a certain period from a plurality of frames of the moving image,
The encoding means of the transmitting station divides a frame into a plurality of block areas in each of a plurality of other frames other than the key frame, and specifies a specific area from the plurality of block areas,
The positions of the specific areas of each of the other frames included in the specified period of the key frame are different from each other,
The encoding means of the transmitting station includes a second frame between a reference frame for one frame generated by combining specific regions of each of the plurality of other frames included in the specified period, and a key frame. When the difference is larger than a predetermined value, intra-frame encoding is performed on the key frame. On the other hand, when the second difference is smaller than a predetermined value, inter-frame encoding with reference to the reference frame is performed on the key frame. A video distribution system characterized by this.
請求項1に記載の動画像配信システムであって、  The moving image distribution system according to claim 1,
前記送信局の符号化手段は、前記特定領域を除くブロック領域とキーフレームとの間の第1の差分が所定より大きい場合に当該ブロック領域に対してフレーム内符号化を施す一方、前記第1の差分が所定より小さい場合に当該ブロック領域に対して当該キーフレームを参照したフレーム間符号化を施すとともに、前記特定領域に対してはフレーム内符号化を施すことを特徴とする動画像配信システム。  The encoding means of the transmitting station applies intra-frame encoding to the block area when the first difference between the block area excluding the specific area and the key frame is larger than a predetermined value, When the difference between the two is smaller than a predetermined value, the moving picture distribution system is characterized by performing inter-frame coding with reference to the key frame for the block area and intra-frame coding for the specific area. .
請求項1または請求項2に記載の動画像配信システムであって、
前記送信局が、所定の撮像対象を撮像する撮像カメラを有し、
前記受信局が、前記撮像カメラで撮像された動画像を表示または記録することを特徴とする動画像配信システム。
The moving image distribution system according to claim 1 or 2, wherein
The transmitting station has an imaging camera for imaging a predetermined imaging target;
The moving image distribution system, wherein the receiving station displays or records a moving image captured by the imaging camera.
送信局において動画像を圧縮符号化し、この圧縮符号化された動画像をネットワークを通じて複数の受信局に配信する動画像配信方法であって、  A moving image distribution method for compressing and encoding a moving image at a transmitting station and distributing the compression-encoded moving image to a plurality of receiving stations through a network,
a)前記送信局において、前記動画像の1フレームの内部の情報を用いたフレーム内符号化によって生成されたフレーム内符号化データと、異なるフレーム間の差分情報を用いたフレーム間符号化によって生成されたフレーム間符号化データとをフレーム単位で時間軸に沿って混在させながら前記動画像を圧縮符号化する工程と、  a) In the transmitting station, generated by intra-frame coding using intra-frame coding data generated by intra-frame coding using information in one frame of the moving image and difference information between different frames. A step of compressing and encoding the moving image while mixing the encoded data between frames along the time axis in units of frames;
b)前記送信局において、前記フレーム内符号化データ及び前記フレーム間符号化データを時間軸に沿って前記ネットワークに送出する工程と、  b) In the transmitting station, sending the intra-frame encoded data and the inter-frame encoded data to the network along a time axis;
を備え、With
前記a)工程は、  The step a)
a−1)いずれかの前記受信局から新規配信の要求がある度に前記フレーム内符号化データを生成する工程と、    a-1) generating the intra-frame encoded data every time there is a request for new distribution from any of the receiving stations;
a−2)前記動画像の複数のフレームの中から一定の周期毎にキーフレームを指定し、且つ前記キーフレーム以外の複数の他のフレームそれぞれにおいて、フレームを複数のブロック領域に分割して、当該複数のブロック領域の中から特定領域を指定する工程と、    a-2) A key frame is designated at regular intervals from a plurality of frames of the moving image, and the frame is divided into a plurality of block areas in each of a plurality of other frames other than the key frame, Designating a specific area from the plurality of block areas;
を有し、Have
前記キーフレームの指定周期に含まれる複数の前記他のフレームそれぞれの特定領域の位置は、互いに異なり、  The positions of the specific regions of each of the other frames included in the specified period of the key frame are different from each other.
前記a)工程では、前記指定周期に含まれる複数の前記他のフレームそれぞれの特定領域を合成して生成されるフレーム1枚分の参照フレームと、キーフレームとの間の第2の差分が所定より大きい場合は、当該キーフレームに対してフレーム内符号化が施され、前記第2の差分が所定より小さい場合は、当該キーフレームに対して前記参照フレームを参照したフレーム間符号化が施される動画像配信方法。  In the step a), a second difference between a reference frame for one frame generated by combining specific areas of each of the plurality of other frames included in the specified period and a key frame is predetermined. If it is larger, intra-frame coding is performed on the key frame, and if the second difference is smaller than a predetermined value, inter-frame coding with reference to the reference frame is performed on the key frame. Video distribution method.
請求項4に記載の動画像配信方法をコンピュータ上で実現するために、前記各工程をコンピュータに実行させるためのプログラム。  The program for making a computer perform the said each process in order to implement | achieve the moving image delivery method of Claim 4. 動画像を圧縮符号化して配信する送信局と、  A transmitting station for compressing and distributing moving images, and
前記送信局で圧縮符号化されてネットワークを通じて配信された前記動画像のデータを受信する受信局と  A receiving station that receives the video data compressed and encoded by the transmitting station and distributed over the network;
を備え、With
前記送信局が、  The transmitting station is
前記動画像の1フレームの内部の情報を用いたフレーム内符号化によって生成されたフレーム内符号化データと、異なるフレーム間の差分情報を用いたフレーム間符号化によって生成されたフレーム間符号化データとをフレーム単位で時間軸に沿って混在させながら前記動画像を圧縮符号化する符号化手段と、  Intra-frame encoded data generated by intra-frame encoding using information in one frame of the moving image and inter-frame encoded data generated by inter-frame encoding using difference information between different frames Encoding means for compressing and encoding the moving image while mixing along the time axis in units of frames,
前記符号化手段で圧縮符号化された前記フレーム内符号化データ及び前記フレーム間符号化データを時間軸に沿って前記ネットワークに送出するデータ送出手段と  Data transmission means for transmitting the intra-frame encoded data and the inter-frame encoded data compressed and encoded by the encoding means to the network along a time axis;
を備え、With
前記送信局の符号化手段は、前記動画像の複数のフレームの中から一定の周期毎にキーフレームを指定し、  The encoding means of the transmitting station designates a key frame at a certain period from a plurality of frames of the moving image,
前記送信局の符号化手段は、前記キーフレーム以外の複数の他のフレームそれぞれにおいて、フレームを複数のブロック領域に分割して、当該複数のブロック領域の中から特定領域を指定し、  The encoding means of the transmitting station divides the frame into a plurality of block areas in each of a plurality of other frames other than the key frame, and designates a specific area from the plurality of block areas,
前記キーフレームの指定周期に含まれる複数の前記他のフレームそれぞれの特定領域の位置は、互いに異なり、  The positions of the specific regions of each of the other frames included in the specified period of the key frame are different from each other.
前記送信局の符号化手段は、前記指定周期に含まれる複数の前記他のフレームそれぞれの特定領域を合成して生成されるフレーム1枚分の参照フレームと、キーフレームとの間の第2の差分が所定より大きい場合に当該キーフレームに対してフレーム内符号化を施す一方、前記第2の差分が所定より小さい場合に当該キーフレームに対して前記参照フレームを参照したフレーム間符号化を施すことを特徴とする動画像配信システム。  The encoding means of the transmitting station includes a second frame between a reference frame for one frame generated by combining specific regions of each of the plurality of other frames included in the specified period, and a key frame. When the difference is larger than a predetermined value, intra-frame encoding is performed on the key frame. On the other hand, when the second difference is smaller than a predetermined value, inter-frame encoding with reference to the reference frame is performed on the key frame. A video distribution system characterized by this.
JP2001152266A 2001-05-22 2001-05-22 Moving image distribution system, moving image distribution method and program thereof Expired - Fee Related JP4721028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001152266A JP4721028B2 (en) 2001-05-22 2001-05-22 Moving image distribution system, moving image distribution method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001152266A JP4721028B2 (en) 2001-05-22 2001-05-22 Moving image distribution system, moving image distribution method and program thereof

Publications (2)

Publication Number Publication Date
JP2002344932A JP2002344932A (en) 2002-11-29
JP4721028B2 true JP4721028B2 (en) 2011-07-13

Family

ID=18996970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001152266A Expired - Fee Related JP4721028B2 (en) 2001-05-22 2001-05-22 Moving image distribution system, moving image distribution method and program thereof

Country Status (1)

Country Link
JP (1) JP4721028B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4789127B2 (en) * 2001-09-18 2011-10-12 株式会社メガチップス Image distribution method, image recording method, and program thereof
WO2006003232A1 (en) * 2004-07-01 2006-01-12 Oy Gamecluster Ltd A method and a device for transferring predictive and non-predictive data frames
JP2014017554A (en) * 2012-07-05 2014-01-30 Canon Inc Image encoder
JP6797755B2 (en) 2017-06-20 2020-12-09 キヤノン株式会社 Imaging device, processing method and program of imaging device
JP7406229B2 (en) 2019-10-28 2023-12-27 株式会社ミラティブ DELIVERY SYSTEM, PROGRAMS AND COMPUTER-READABLE STORAGE MEDIA
JP7304096B2 (en) * 2021-10-29 2023-07-06 MasterVisions株式会社 Video distribution device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115779A (en) * 1998-10-01 2000-04-21 Toshiba Corp Image processing unit and moving image coding method applied to the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209565A (en) * 1999-01-19 2000-07-28 Fujitsu Ltd Image distribution method and image distribution system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115779A (en) * 1998-10-01 2000-04-21 Toshiba Corp Image processing unit and moving image coding method applied to the same

Also Published As

Publication number Publication date
JP2002344932A (en) 2002-11-29

Similar Documents

Publication Publication Date Title
JP3423835B2 (en) Compression encoding device with scramble and decompression reproduction device thereof
US8649426B2 (en) Low latency high resolution video encoding
JP4820559B2 (en) Video data encoding and decoding method and apparatus
US8571027B2 (en) System and method for multi-rate video delivery using multicast stream
JP2004517569A (en) Switching between bit streams in video transmission
KR20170101227A (en) High frame rate-low frame rate transmission technique
JP2003274410A (en) Encoder and decoder, and encoding method for monitored video image
WO2008100000A1 (en) Method of compressing and restoring moving picture using i frame tag
Iguchi et al. HEVC encoder for super hi-vision
JP4721028B2 (en) Moving image distribution system, moving image distribution method and program thereof
US6526100B1 (en) Method for transmitting video images, a data transmission system and a multimedia terminal
US20070269120A1 (en) Video image compression using model plus difference image
JP3927422B2 (en) Moving picture transmission / reception system, moving picture transmission / reception method, and programs thereof
JP4458712B2 (en) High speed playback method of surveillance video and program thereof
JP4451023B2 (en) Moving picture decoding method and program thereof
JP4599609B2 (en) Image compression encoding method, image distribution method, and program thereof
JP4789127B2 (en) Image distribution method, image recording method, and program thereof
JP4706072B2 (en) Image processing system, moving image compression encoding method, moving image decoding method, and programs thereof
JP4451022B2 (en) Image delivery method, image decoding method, and program thereof
JP4364422B2 (en) Video compression encoding method and decoding method thereof
JPH07327228A (en) Digital encoding and transmission system
KR100734141B1 (en) Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames
JPH11187383A (en) Video monitor system and video monitor method
JP4043406B2 (en) Image decoding method and apparatus, and television receiver capable of using them
JP4736233B2 (en) Moving image reverse playback method, fast forward playback method, fast forward search method, and programs thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110323

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4721028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees