JP2005341093A - Contents adaptating apparatus, contents adaptation system, and contents adaptation method - Google Patents
Contents adaptating apparatus, contents adaptation system, and contents adaptation method Download PDFInfo
- Publication number
- JP2005341093A JP2005341093A JP2004155742A JP2004155742A JP2005341093A JP 2005341093 A JP2005341093 A JP 2005341093A JP 2004155742 A JP2004155742 A JP 2004155742A JP 2004155742 A JP2004155742 A JP 2004155742A JP 2005341093 A JP2005341093 A JP 2005341093A
- Authority
- JP
- Japan
- Prior art keywords
- video content
- content
- resolution
- gaze area
- conversion ratio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、圧縮動画データなどのデジタルマルチメディアデータの伝送、蓄積、再生技術等に用いられるコンテンツ適応化装置、適応化方法に関するものである。 The present invention relates to a content adaptation apparatus and adaptation method used for transmission, storage, and reproduction techniques of digital multimedia data such as compressed moving image data.
近年のインターネットやPCの普及、DVDや携帯電話などの情報家電のデジタル化に伴い、デジタルマルチメディアデータのフォーマット(映像符号化方式など)の多様化が進んでいる。また、これらマルチメディアデータを再生する端末も、デジタル放送対応テレビ、携帯型ビデオプレイヤ、PC、PDA、携帯電話など多岐にわたるバリエーションが生じている。また、これら多くのマルチメディア対応機器はインターネット、モバイル通信網、宅内ネットワークなど多様なネットワークに接続が可能となってきており、ネットワークを通じてマルチメディアデータを受信して再生する機能も実現されつつある。 With the spread of the Internet and PCs in recent years and the digitization of information appliances such as DVDs and mobile phones, the format of digital multimedia data (such as video encoding methods) is diversifying. In addition, a variety of terminals such as digital broadcast compatible televisions, portable video players, PCs, PDAs, cellular phones, etc. have been generated in terminals that play back these multimedia data. In addition, many of these multimedia-compatible devices can be connected to various networks such as the Internet, mobile communication networks, and home networks, and a function of receiving and reproducing multimedia data through the network is being realized.
しかし、こういった端末側の自由度が拡大される一方で、個々の端末の処理性能や接続されるネットワークの帯域の違いといった制約から、ある映像コンテンツを様々なネットワークを介して様々な端末へ伝送しオンライン再生を行うといった環境の実現はきわめて困難となっている。このような状況を改善するため、従来、MPEGなどの国際標準映像符号化方式に従う圧縮映像コンテンツを異なるビットレートや解像度へ変換するビデオトランスコーディングの技術が開発されている(特開2001-268571号公報など)。このようなトランスコーディング技術を用いることで、端末が接続されるネットワークの帯域に合わせた映像コンテンツへ変換したり、端末が受信できる映像解像度(画素数・秒あたりのフレーム数)に合わせた映像コンテンツの提供が可能となる。 However, while this degree of freedom on the terminal side is expanded, certain video content can be transferred to various terminals via various networks due to restrictions such as processing performance of individual terminals and differences in the bandwidth of the connected network. Realization of an environment for transmission and online playback is extremely difficult. In order to improve such a situation, video transcoding technology for converting compressed video content according to an international standard video encoding scheme such as MPEG to a different bit rate or resolution has been developed (Japanese Patent Laid-Open No. 2001-268571). Publication). Using such transcoding technology, video content can be converted to video content that matches the bandwidth of the network to which the terminal is connected, or video content that matches the video resolution (number of pixels / frames per second) that the terminal can receive Can be provided.
しかしながら、従来のビデオトランスコーディングにおいては、入力される画像フレーム全体を変換対象とするので、例えば、再生端末の表示画面が小さい場合(携帯端末など)には映像中の被写体がすべて均一に縮小され、映像中に注視すべき領域に限定して、その部分だけを画面全体に高精細表示する、といった空間的な適応再生が困難であった。
これらの表示を行うには、1)まずフレーム全体が縮小された映像コンテンツを受信し、その一部を再生端末側で拡大処理する、2)もとの映像コンテンツの解像度のまま受信し、再生端末側で適宜フレーム全体の縮小処理や一部切り出し処理を行う、といった工夫が必要であり、再生端末に対する情報伝送効率の観点からも、再生端末側の処理負荷の観点からも好ましい解決方法とはいえない。
上記に述べたような問題を解決するためには、ビデオトランスコーディング実行時に変換すべき画像領域を適応的に定めて変換を行うことが望ましい。
However, in the conventional video transcoding, the entire input image frame is subject to conversion.For example, when the display screen of the playback terminal is small (such as a mobile terminal), all the subjects in the video are uniformly reduced. However, it is difficult to perform spatial adaptive reproduction in which only the area to be watched in the video is displayed in high definition on the entire screen.
To perform these displays, 1) First, the video content with the entire frame reduced is received, and a part of the video content is enlarged on the playback terminal side. 2) The original video content resolution is received and played back. It is necessary to devise such that the entire frame is reduced or partially cut out as appropriate on the terminal side, and a preferable solution from the viewpoint of information transmission efficiency for the playback terminal and the processing load on the playback terminal side I can't say that.
In order to solve the problems as described above, it is desirable to perform conversion by adaptively determining an image area to be converted when video transcoding is executed.
本発明は、このように映像コンテンツ再生端末側の表示ディスプレイの制約と映像再生に関わる要求条件に基づいて、元映像コンテンツを再生端末にとって最も望ましい形式に変換できるようにすることを目的とする。 An object of the present invention is to make it possible to convert an original video content into a format most desirable for the playback terminal based on the restrictions on the display on the video content playback terminal side and the requirements for video playback.
本発明では、デジタル映像コンテンツ中の注視領域を抽出するとともに、入力映像コンテンツの解像度情報と、出力映像コンテンツ解像度指定情報とに基づいて解像度変換比率を算出し、この算出された解像度変換比率と上記抽出された注視領域とに基づいて入力映像コンテンツの変換処理を行うようにしたものである。 In the present invention, the gaze area in the digital video content is extracted, the resolution conversion ratio is calculated based on the resolution information of the input video content and the output video content resolution designation information, and the calculated resolution conversion ratio The input video content is converted based on the extracted gaze area.
本発明によれば、コンテンツ再生端末が要求する映像コンテンツの注視領域だけを、再生端末が再生可能な解像度にあわせて適応化できるので、コンテンツ再生端末側での必要以上の画像処理無しに再生の柔軟性を実現できる。 According to the present invention, only the video content gaze area requested by the content playback terminal can be adapted to the resolution that can be played back by the playback terminal, so that it is possible to perform playback without unnecessary image processing on the content playback terminal side. Flexibility can be realized.
実施の形態1.
本実施の形態では、本発明の具体的な実施構成を説明するのに望ましい例として、本発明によるコンテンツ適応化装置を含むコンテンツ適応化システムを想定する。図1に示すような本実施の形態におけるコンテンツ適応化システムは、ネットワーク3と、それに接続されるコンテンツサーバ1、コンテンツ再生端末4、コンテンツ適応化装置5とから構成される。
コンテンツサーバ1には、複数の高解像度・高品質の映像コンテンツが蓄積されており、外部からの要求に沿う映像コンテンツ2をネットワーク3を通じて配信する。コンテンツ再生端末4は、コンテンツサーバ1に対して再生したい映像コンテンツを要求し、ネットワーク3を通じて配信される映像コンテンツを受信し再生する。ここで、コンテンツ再生端末4が、コンテンツサーバ1から送出される映像コンテンツをそのままの映像フォーマットでは受信できない状態を想定する。特に、各映像フレームの水平・垂直サイズ(画素数、走査線数)について、コンテンツ再生端末4が受信できるサイズが、コンテンツサーバ1から送出される映像コンテンツのサイズよりも小さいものとする。
In the present embodiment, a content adaptation system including a content adaptation device according to the present invention is assumed as a desirable example for describing a specific implementation configuration of the present invention. The content adaptation system in the present embodiment as shown in FIG. 1 includes a
The
このような状況において、コンテンツ適応化装置5は、コンテンツサーバ1から送出される映像コンテンツをコンテンツ再生端末4における再生に適した形式に適応化し変換済み映像コンテンツ6として送出する。コンテンツ適応化装置5を介することにより、コンテンツ再生端末4は、コンテンツサーバ1に要求した映像コンテンツを変換済み映像コンテンツ6として受信し、再生することができる。
このようなシステムを前提として、以下、本実施形態のコンテンツ適応化装置5の構成・動作について詳しく説明する。本実施の形態におけるコンテンツ適応化装置5は、端末側からの指定に基づいて、入力映像コンテンツ2のうち変換対象となる画像領域を変化させながら、変換済み映像コンテンツ6を生成することを特徴とする。
このようなコンテンツ適応化装置5を用いることで、コンテンツ再生端末4を、真に必要とする映像情報を必要最小限のコストで受信・再生するように構成することができる。なお、以降の説明において、コンテンツ適応化装置5の動作の立場から、変換済み映像コンテンツ6は「出力映像コンテンツ」と記載する。
In such a situation, the
Based on such a system, the configuration and operation of the
By using such a
本実施の形態におけるコンテンツ適応化装置5は、入力映像コンテンツに対して、所定の映像特徴量に関するアクティビティが高い領域を自動検知して、アクティビティが高い領域を包含する矩形画像領域を抽出する機能を備え、ユーザからの指定に基づいて、入力映像コンテンツ全体を縮小するか、または、入力映像コンテンツの解像度を保ったまま上記アクティビティが高い領域を切り出す処理を選択して、コンテンツ再生端末4のディスプレイサイズに合致する出力映像コンテンツを出力する機能を備えることを特徴とする。
映像特徴量については種々の情報が定義可能であるが、本実施例では特に入力映像コンテンツ中の動きの情報に着目する。
本実施の形態のコンテンツ適応化装置5によって実現される具体的な機能の例を、図2を用いて説明する。図2において、入力映像コンテンツのうち、破線の矩形で示される領域がアクティビティの高い領域として抽出されたとする(図中に明示されていないが、破線領域内に例えば人物などの動きのあるオブジェクトが存在するなどの事例を想定する)。
The
Various kinds of information can be defined for the video feature amount, but in this embodiment, attention is particularly paid to information on movement in the input video content.
An example of specific functions realized by the
もともとの入力映像コンテンツの解像度は、コンテンツ適応化装置5にて出力映像コンテンツの解像度へ変換されなければならないが、この際、本実施形態のコンテンツ適応化装置5によれば、入力映像コンテンツのフレーム全体を縮小して出力映像コンテンツを生成する方法と、上記破線で示される高アクティビティ領域を出力映像コンテンツのフレームサイズで切り出して解像度をダウンコンバートすることなしに出力映像コンテンツを生成する方法とを選択することが可能になる。
これによって、コンテンツ再生端末4側でのコンテンツ再生の柔軟性が向上するという効果が得られる。また、どちらを選択するにせよ、コンテンツ適応化装置5からコンテンツ再生端末4へ伝送される画素数は同じであるため、再生端末4側に無駄な情報を伝送する必要もない。
The original resolution of the input video content must be converted to the resolution of the output video content by the
As a result, the effect of improving the flexibility of content playback on the
また、コンテンツ適応化装置5は、入出力映像コンテンツとして、国際標準方式として広く普及しているMPEGフォーマットを想定する。MPEGフォーマットでは、映像コンテンツの各フレームがマクロブロックと呼ばれる16画素×16走査線の矩形ブロックに分割され、マクロブロックの単位でデジタル圧縮符号化が行われる。よって、原則として入力映像コンテンツの画像解像度は、水平・垂直方向ともに16の整数倍の値となる。本コンテンツ適応化装置5は、入力と出力がともにMPEGフォーマットであることを利用して、入力映像コンテンツの各マクロブロックの圧縮符号化データを出力映像コンテンツ生成処理に再利用することにより、変換処理を効率化する。
In addition, the
図3に本実施の形態におけるコンテンツ適応化装置5の内部構成を示す。また、図4に図3のコンテンツ適応化装置5の処理フローを示す。
まず、コンテンツ適応化装置5は、コンテンツサーバ1より入力映像コンテンツ2および入力映像コンテンツ解像度情報7を、コンテンツ再生端末4より出力映像コンテンツ解像度指定情報8、注視領域再生指示情報9を入力として受け取る。
出力映像コンテンツ解像度指定情報8、注視領域再生指示情報9は、コンテンツサーバ1が仲介してコンテンツ適応化装置5へ受け渡す構成をとってもよい。コンテンツ適応化装置5は、注視領域再生指示情報9を確認し、同情報の状態に基づいて以降の処理を切り替える(ステップS1)。
FIG. 3 shows the internal configuration of the
First, the
The output video content resolution designation information 8 and the gaze area reproduction instruction information 9 may be transferred to the
注視領域再生指示情報9が「注視領域を再生する」を示している場合は、入力映像コンテンツ2の映像データを解析し、注視領域とすべき画像領域を抽出する(ステップS2)。この処理は、注視領域抽出部10で行われる。
注視領域の抽出結果は、この実施形態では注視領域の始点となるマクロブロック位置の座標情報(変換処理始点11)であり、注視領域再生指示情報9が「注視領域の再生は行わない」ことを示している場合は、本処理は行われないが、等価的に本処理の結果として変換処理始点11には入力映像コンテンツの第1マクロブロックの位置が設定されることになる。処理詳細は後述する。
When the gaze area reproduction instruction information 9 indicates “reproduce the gaze area”, the video data of the
In this embodiment, the gaze area extraction result is the coordinate information of the macroblock position that is the start point of the gaze area (conversion processing start point 11), and the gaze area reproduction instruction information 9 indicates that the gaze area is not reproduced. In the case shown, this processing is not performed, but equivalently, as a result of this processing, the position of the first macroblock of the input video content is set at the conversion processing start point 11. Details of the process will be described later.
ステップS1において「注視領域の再生は行わない」と判断された場合は、解像度変換比率決定処理に移る(ステップS3)。この処理は解像度変換比率決定部12で行われる。具体的には、入力映像コンテンツ解像度情報7と、出力映像コンテンツ解像度指定情報8とから入出力映像コンテンツ間の解像度変換比率13を求め、それに基づいて入力映像コンテンツのマクロブロック符号化情報の、出力マクロブロック情報へのマッピング比率を求める処理に該当する。注視領域再生指示情報9が「注視領域を再生する」を示している場合は、本処理は行われないが、等価的に解像度変換比率13は「1」となる。詳細は後述する。
If it is determined in step S1 that “the gaze area is not reproduced”, the process proceeds to the resolution conversion ratio determination process (step S3). This process is performed by the resolution conversion ratio determination unit 12. Specifically, the resolution conversion ratio 13 between the input and output video contents is obtained from the input video
次いで、変換処理始点11、解像度変換比率13の2つのパラメータを用いて、入力映像コンテンツの変換処理を行う(ステップS4)。この処理は映像コンテンツ変換部14で行われる。基本処理としては、入力映像コンテンツの各フレームを一旦復号し、さらに復号過程で圧縮符号化データから抽出した入力映像コンテンツのマクロブロック情報を用いて出力映像コンテンツのマクロブロック情報を生成する処理を行い、その結果を用いて上記復号画像へ戻された入力映像コンテンツを再符号化することによって出力映像コンテンツを生成する。
つまり、この処理過程において、変換処理始点11は入力映像コンテンツのマクロブロック情報をマッピングする処理を開始する点を指定することになり、解像度変換比率13は入力映像コンテンツのマクロブロック情報を何個まとめてマッピングするかを規定することとなる。これらのパラメータは本実施の形態におけるコンテンツ適応化装置5が実現する領域適応映像コンテンツ適応化に不可欠な情報である。
Next, the input video content conversion process is performed using the two parameters of the conversion process start point 11 and the resolution conversion ratio 13 (step S4). This processing is performed by the video content conversion unit 14. As basic processing, each frame of the input video content is temporarily decoded, and further, macroblock information of the output video content is generated using the macroblock information of the input video content extracted from the compression encoded data in the decoding process. The output video content is generated by re-encoding the input video content returned to the decoded image using the result.
That is, in this process, the conversion processing start point 11 designates the point at which the process of mapping the macroblock information of the input video content is started, and the resolution conversion ratio 13 is a number of pieces of macroblock information of the input video content. Will be specified. These parameters are indispensable information for area adaptive video content adaptation realized by the
以下、各処理について詳細に説明する。
注視領域抽出処理(ステップS2)
注視領域抽出部10における注視領域抽出処理=変換処理始点11決定処理について説明する。本実施の形態では、予め注視領域の候補となる複数の領域を領域群として定めておく。注視領域は、入力映像コンテンツ中、動きのアクティビティが所定の閾値よりも大きい画像領域と定義する。動きのアクティビティは入力映像コンテンツのマクロブロック符号化データである動きベクトルの大きさEk(k:フレーム内におけるマクロブロックのインクリメントカウンタ)の領域内和 Σ Ekで定義する。
Σ Ekをフレーム中のすべてのマクロブロックを始点とする領域に適用するのは演算コスト面で負荷が高くなるため、ここでは、あらかじめ始点の候補を数点に限定する。具体的な例を図5に示す。一番大きな矩形が入力映像コンテンツのフレーム解像度であり、図5(a)は出力映像コンテンツの解像度が入力映像コンテンツの解像度のちょうど縦横2分の1のサイズである場合、図5(b)は出力映像コンテンツの解像度が入力映像コンテンツの解像度のちょうど縦横4分の1のサイズである場合の例である。×印が注視領域の始点を示す。(a),(b)のいずれが選択されるかは、コンテンツ適応化装置5に入力される出力映像コンテンツ解像度指定情報8に拠る。個々の注視領域候補は水平・垂直ともにマクロブロックの整数倍のサイズであるものとする。もちろん、これらは設定の例に過ぎず、これ以外にも様々な設定の方法が考えられる。注視領域抽出部は、図5のように設定された注視領域候補のそれぞれについてアクティビティ Σ Ekを求め、最も大きなアクティビティを有する領域を注視領域として抽出する。
Hereinafter, each process will be described in detail.
Gaze area extraction process (step S2)
A gaze area extraction process = conversion process start point 11 determination process in the gaze
Applying Σ E k to an area starting from all macroblocks in the frame increases the computational cost, so here, the starting point candidates are limited to several in advance. A specific example is shown in FIG. The largest rectangle is the frame resolution of the input video content. FIG. 5 (a) shows the case where the resolution of the output video content is exactly half the size of the resolution of the input video content. This is an example in which the resolution of the output video content is exactly one-fourth the size of the resolution of the input video content. A cross indicates the starting point of the gaze area. Which of (a) and (b) is selected depends on the output video content resolution designation information 8 input to the
なお、図5のように定められた各々の注視領域候補は空間的に分散しているため、フレーム単位で注視領域を切り替えることは再生映像として見苦しい状態になる。このような頻繁な注視領域の変動を回避するため、注視領域の変更は、例えばコンテンツサーバ1ないしはコンテンツ再生端末4から明示的に注視領域変更要求がなされた場合、所定の時間間隔、異なる注視領域候補にて極端にアクティビティが高くなる状態が発生した場合など、なんらかのトリガ(注視領域変更トリガ)による切り替えに限定するものとする。図示していないが、本注視領域変更トリガは注視領域抽出部10の内部で入力映像コンテンツを解析する過程で検出される情報でもよいし、外部信号として注視領域抽出部10に供給される情報でもよい。
Note that each gaze area candidate determined as shown in FIG. 5 is spatially dispersed, so switching the gaze area in units of frames is unsightly as a reproduced video. In order to avoid such frequent changes in the gaze area, the gaze area is changed by, for example, when a gaze area change request is explicitly issued from the
解像度変換比率決定処理(ステップS3)
解像度変換比率決定部12における解像度変換比率13を決定する処理について説明する。一般に図1のようなシステムにおいては、入力映像コンテンツ解像度7 >= 出力映像コンテンツ解像度指定情報8であり、入力映像コンテンツ解像度情報7と出力映像コンテンツ解像度指定情報8とが一致しないときは、入力映像コンテンツのマクロブロック情報と出力映像コンテンツのマクロブロック情報とのマッピングを容易にするために、入力映像コンテンツ解像度を水平・垂直とも同じく2R分の1(Rは正の整数)に解像度変換することが望ましい。
例えば、入力映像コンテンツ解像度がCIF(352画素×288走査線)で出力映像コンテンツ解像度がQCIF(176画素×144走査線)の場合、上記Rがちょうど1となる。このとき、入力映像コンテンツの4つのマクロブロックがちょうど出力映像コンテンツの1つのマクロブロックに対応し、入力・出力間でマクロブロック情報のマッピングを行いやすい。このRを、入力映像コンテンツ解像度情報7と出力映像コンテンツ解像度指定情報8とから定まる解像度変換比率13とする。
Resolution conversion ratio determination process (step S3)
Processing for determining the resolution conversion ratio 13 in the resolution conversion ratio determination unit 12 will be described. In general, in the system as shown in FIG. 1, when the input
For example, when the input video content resolution is CIF (352 pixels × 288 scan lines) and the output video content resolution is QCIF (176 pixels × 144 scan lines), R is exactly 1. At this time, four macro blocks of the input video content correspond to exactly one macro block of the output video content, and it is easy to perform mapping of macro block information between input and output. Let R be the resolution conversion ratio 13 determined from the input video
実応用上、Rはたかだか1〜3程度の値しか使用されない。その理由は、Rが4ともなると入力映像コンテンツ解像度に対して水平・垂直各1/16の画像サイズとなり、入力映像コンテンツがHDTVであっても出力は携帯電話等に用いられるような小型の表示装置が有する解像度よりも小さくなるからである。Rが大きくなるほど入出力間の圧縮符号化データマッピングの精度が落ちるため、変換処理性能的にも好ましくない。 In practical applications, R is only a value of about 1 to 3 at most. The reason is that when R is 4, the image size is 1/16 horizontal and vertical with respect to the input video content resolution, and even if the input video content is HDTV, the output is small enough to be used for a mobile phone or the like. This is because the resolution is smaller than the resolution of the device. As R increases, the accuracy of compression-encoded data mapping between input and output decreases, which is not preferable in terms of conversion processing performance.
一方、実際上は、出力映像コンテンツ解像度指定情報8が、必ずしも入力映像コンテンツ解像度の2R分の1の解像度に合致しないという問題がある。
例えば、入力映像コンテンツとしてITU-R BT.601フォーマット、704画素×480走査線の映像を圧縮符号化したコンテンツを想定し、出力映像コンテンツ解像度指定情報8としてQCIF(176画素×144走査線)が指定される場合を考える。いずれも水平・垂直ともにマクロブロックの整数倍の解像度であるが、このとき、水平方向については、704/(2*2)=176 (R=2)でよいが、垂直方向を同様に考えると480/(2*2)=120となってしまい、出力映像コンテンツ解像度指定情報8が指定するQCIFとはならない。また、上記例では、垂直方向のR=2の場合の走査線数が16の倍数でなくなるため、マクロブロックを単位として再符号化するにはそぐわない走査線数となってしまう。
Meanwhile, practice, output picture content resolution designation information 8, there is always a problem that does not conform to 2 R portion of the first resolution of the input image content resolution.
For example, it is assumed that the input video content is compression-encoded video of 704-pixel × 480-scan video in ITU-R BT.601 format, and QCIF (176 pixels × 144 scan-line) is used as output video content resolution designation information 8. Consider the case where it is specified. Both are horizontal and vertical resolutions that are integer multiples of the macroblock, but at this time, the horizontal direction may be 704 / (2 * 2) = 176 (R = 2). 480 / (2 * 2) = 120, which is not the QCIF designated by the output video content resolution designation information 8. In the above example, since the number of scanning lines in the case of R = 2 in the vertical direction is not a multiple of 16, the number of scanning lines is not suitable for re-encoding in units of macroblocks.
以上のことから、解像度変換比率13としてRを求める解像度変換比率決定処理に加え、入力映像コンテンツ解像度情報7を2R分の1した結果が16の倍数となっているか否かを検証して、その結果を踏まえて最終的な出力映像コンテンツの変換処理を行う処理が必要となる。本実施の形態においては、この後者の処理は映像コンテンツ変換部14における処理の一部として行われるもので、具体的には、映像コンテンツ変換処理の説明に後述する。
From the above, in addition to the resolution conversion ratio determining process for determining the R as resolution conversion ratio 13 verifies whether or not the input picture
映像コンテンツ変換処理(ステップS4)
次に映像コンテンツ変換部14における映像コンテンツ変換処理について説明する。
上述のとおり、ここでの基本処理としては、入力映像コンテンツの各フレームを一旦復号し、さらに復号過程で圧縮符号化データから抽出した入力映像コンテンツのマクロブロック情報を用いて出力映像コンテンツのマクロブロック情報を生成する処理を行い、その結果を用いて上記復号画像へ戻された入力映像コンテンツを再符号化することによって出力映像コンテンツを生成する。
この再符号化処理過程において、注視領域抽出部10からの変換処理始点11は入力映像コンテンツのマクロブロック情報をマッピングする処理を開始する点を指定するものであり、また解像度変換比率決定部12からの解像度変換比率13は入力映像コンテンツのマクロブロック情報を何個まとめてマッピングするかを規定することとなるものであり、これらのパラメータを用いて再符号化が行われて出力映像コンテンツが生成される。
Video content conversion process (step S4)
Next, video content conversion processing in the video content conversion unit 14 will be described.
As described above, the basic processing here is to temporarily decode each frame of the input video content, and then use the macroblock information of the input video content extracted from the compression encoded data in the decoding process to output the macroblock of the output video content A process of generating information is performed, and the output video content is generated by re-encoding the input video content returned to the decoded image using the result.
In this re-encoding process, the conversion process start point 11 from the gaze
また、以下に特にこの映像コンテンツ変換処理における特異処置について説明する。
上記注視領域抽出の結果、入力映像コンテンツの各フレームにおける特定の画像領域だけを変換することになった場合、該特定画像領域のエッジに位置するマクロブロックについて特別な処置が必要となる。そのようなマクロブロックに含まれる動きベクトルは、入力映像コンテンツ中ではフレームの内部を指すベクトルになっていても、出力映像コンテンツではフレームの外部を指すベクトルになることがあるが、このようなベクトルをそのまま使用することにより、出力映像コンテンツの画面端における符号化効率が低下することがある。
In the following, a specific procedure in the video content conversion process will be described.
When only the specific image area in each frame of the input video content is converted as a result of the gaze area extraction, special treatment is required for the macroblock located at the edge of the specific image area. A motion vector included in such a macroblock may be a vector indicating the inside of the frame in the input video content, but may be a vector indicating the outside of the frame in the output video content. If this is used as it is, the encoding efficiency at the screen edge of the output video content may be reduced.
この課題を解決する方法は種々考えられるが、例えば、入力映像コンテンツの動きベクトルを、出力映像コンテンツの動きベクトルへマッピングした結果が、出力映像コンテンツの画面外部を指す場合にのみ動きベクトルの再探索を実施する。また、解像度変換を伴う場合(例えばR=1の場合)、入力映像コンテンツの4つのマクロブロックを出力映像コンテンツの1つのマクロブロックにマッピングするため、入力映像コンテンツの4つのマクロブロックに含まれる動きベクトルのうち、画面内を指すベクトルを出力映像コンテンツの動きベクトルとして選択する、などといった処理としてもよい。 There are various methods for solving this problem. For example, only when the result of mapping the motion vector of the input video content to the motion vector of the output video content points outside the screen of the output video content, the motion vector is searched again. To implement. Also, when resolution conversion is involved (for example, when R = 1), the four macroblocks of the input video content are mapped to one macroblock of the output video content in order to map the motions included in the four macroblocks of the input video content. Of the vectors, a vector indicating the screen may be selected as a motion vector of the output video content.
また、上記解像度変換比率決定処理(ステップ3)において説明したように、実際上は、出力映像コンテンツ解像度指定情報8が、必ずしも入力映像コンテンツ解像度の2R分の1の解像度に合致しないという場合があり、このような場合の映像コンテンツ変換処理について以下に説明する。入力映像コンテンツ解像度情報7が2R分の1した結果が16の倍数となっているか否かを検証して、その結果を踏まえて最終的な出力映像コンテンツの変換処理を行う。
Further, as described in the above resolution conversion ratio determination process (step 3), in practice, the output picture content resolution designation information 8, may be referred to not necessarily match the input
まず、解像度変換比率決定部12において決定された解像度変換比率13に基づいて入力映像コンテンツの解像度7をダウンスケーリングした結果と、出力映像コンテンツ解像度指定情報8とのいずれをも下回る値で、かつマクロブロックの整数倍となる解像度のうち最大となる暫定値を求める。そして、その暫定解像度で再符号化を行い、かつ暫定解像度と、出力映像コンテンツ解像度指定情報8による解像度との間の差に対応する符号化データをダミーの符号化データで埋めるものである。
例えば、入力映像コンテンツの解像度7が320画素×240走査線のQVGA解像度を示し、出力映像コンテンツ解像度指定情報8がQCIF(176画素×144走査線)の場合を例にとると、暫定値は水平方向が160、垂直方向が112となる。その結果、水平方向に1マクロブロック分(16画素)、垂直方向に2マクロブロック分(32走査線)のダミーデータを付与することで最終的な出力映像コンテンツの解像度を出力映像コンテンツ解像度指定情報8にあわせこむ(図6参照)。
First, a value that is lower than both the result of downscaling the
For example, if the input
ダミーの符号化データとは例えば、イントラ(フレーム内)符号化されるフレームにおいては黒、グレイなどの単色データを符号化したデータを追加し、インター(フレーム間予測)符号化されるフレームにおいてはイントラ符号化されるフレームのダミーデータの情報をそのままコピーする符号化モードに強制的に設定する符号化データを付与するといった方法で実現できる。上記単色データには、あらかじめ定められる背景画像などを使用してもよいが、単色データとすることで符号化すべきAC成分が必要なくなるため、符号化効率上は単色データのほうが望ましい。 The dummy encoded data is, for example, in a frame encoded intra (intra-frame), adding data encoded with monochrome data such as black and gray, and in a frame encoded inter (inter-frame prediction) This can be realized by a method in which encoded data that is forcibly set to an encoding mode for copying dummy data information of a frame to be intra-encoded is directly applied. A predetermined background image or the like may be used for the monochromatic data. However, the monochromatic data is more desirable in terms of encoding efficiency because the monochromatic data eliminates the need for an AC component to be encoded.
また、符号化方式によっては、近傍マクロブロックの情報を予測に用いるなどしてマクロブロックの符号化・復号を行う方式があるため、ダミー符号化データの挿入を行う際、ダミーデータが意図的に挿入されたことを認識できないデコーダ側での動作をも予測して符号化データを生成する必要がある。これを逐一厳密に行うことはコンテンツ適応化装置5自体の処理負荷を増加させることになる。一般に、MPEGなどの動画像符号化方式においては、フレーム内・フレーム間予測ないしは可変長符号化された映像圧縮データに生じる伝送誤りが時間方向・空間方向に伝播するのを抑止する目的で、圧縮符号化の近傍依存性を断絶するスライス・ビデオパケットといった構造が定義されている。そこで、ダミー符号化データを挿入する際、ダミー符号化データの部分を本来の映像データとは別のスライスないしはビデオパケットとなるようシンタックスを構成することで、上記のようなデコーダでの近傍依存性のある動作を想定したダミー符号化データの生成を一切行うことなくコンテンツ適応化装置5を構成することができる
Also, depending on the encoding method, there is a method for encoding / decoding macroblocks by using information of neighboring macroblocks for prediction. Therefore, when inserting dummy encoded data, dummy data is intentionally It is necessary to generate the encoded data by predicting the operation on the decoder side that cannot recognize the insertion. If this is performed strictly one by one, the processing load of the
以上のようなコンテンツ適応化装置5により、コンテンツ再生端末4は要求した映像コンテンツを自身の再生可能な解像度にあわせて画面全体再生が行えるだけでなく、注視領域だけをもとの映像コンテンツの解像度で再生することができる。よって、これら再生の柔軟性をコンテンツ再生端末4側で一切の画像処理無しに実現できるほか、常にコンテンツ再生端末4側では同一解像度の映像コンテンツを受信するため、情報伝送効率の観点でも適応再生のために無駄な情報を受信・再生する必要もない。
With the
実施の形態2.
上記コンテンツ適応化装置5の効果を奏する具体的な応用事例として、例えば映像監視システムで複数の監視カメラからの映像をコンテンツサーバ1が集積して1画面に合成した映像を生成し、それを圧縮符号化して入力映像コンテンツとして送出するようなものがある。
この場合、コンテンツ適応化装置5に対する入力映像コンテンツは意味的に注視領域が合成画面の数だけ存在することになる。簡単のために、ちょうどコンテンツ再生端末4の再生解像度を有する監視カメラの映像が4台分合成された入力映像コンテンツがある場合を想定する。このとき、監視カメラにおける異常検知アラームは上述した注視領域変更トリガとする。すなわち、この異常検知アラームは、注視領域抽出部10の内部で入力映像コンテンツを解析する過程で検出される情報でもよいし、外部信号として(例えば監視者の指示によって)注視領域抽出部10に供給される情報でもよい。この場合、注視領域変更トリガとしては、領域変更することを指示するとともに、その変更領域を指定する情報を含むものになる。
As a specific application example that brings about the effect of the
In this case, the input video content to the
このようなものにおいて、コンテンツ適応化装置5は通常は複数の監視カメラの映像を合成した結果の映像をコンテンツ再生端末4の解像度に合うように水平・垂直各2分の1に解像度変換して伝送する。そして、あるカメラで異常検知がなされた場合、そのアラームを受け取って該当するカメラの映像が合成される注視領域を特定し、これにより、その注視領域だけを本来のカメラが持つ解像度で高精細にコンテンツ再生端末4へ伝送する。これにより、再生端末4は、注視したい領域について、4台分合成されている場合よりも高精細な映像を得ることができるので、注視対象を詳細に監視することができる。
In such a case, the
実施の形態3.
また、本発明のコンテンツ適応化装置5を用いたコンテンツ適応化システムの例として、図7のようなシステム構成とすることもできる。この場合、コンテンツサーバ1はコンテンツ適応化装置5を含む構成となっており、コンテンツサーバ1がコンテンツ適応化装置5の機能を包含することになる。
Further, as an example of a content adaptation system using the
実施の形態4.
上記実施形態では、注視領域再生指示情報9が「注視領域を再生する」を示している場合(ステップS1でY)は、解像度変換比率決定処理(ステップS3)は行われず、等価的に解像度変換比率13は「1」となる場合を示した。これは、注視領域を出力映像コンテンツのフレームサイズで切り出して解像度をダウンコンバートすることなしに出力映像コンテンツを生成するというものであるが、この発明では、注視領域を再生する場合でも、その注視領域の解像度を出力映像コンテンツ解像度指定情報8に対応して変えて出力映像コンテンツを生成してもよい。
In the above embodiment, when the gaze area reproduction instruction information 9 indicates “reproduce the gaze area” (Y in step S1), the resolution conversion ratio determination process (step S3) is not performed and the resolution conversion is equivalently performed. The ratio 13 is “1”. This is to cut out the gaze area with the frame size of the output video content and generate the output video content without down-converting the resolution. In the present invention, even when the gaze area is reproduced, the gaze area is reproduced. The output video content may be generated by changing the resolution corresponding to the output video content resolution designation information 8.
この場合のフローチャートを図8に示す。注視領域抽出処理(ステップS2)の後に解像度変換比率決定処理(ステップS3)に進み、再生端末表示解像度8に対応して注視領域の解像度の変換比率を決定する。この場合も、実施形態1で説明したときと同様に、注視領域の解像度の変換比率による変換後解像度と出力映像コンテンツ解像度指定情報8と合致しないという場合があるので、映像コンテンツ変換処理(ステップS4)において、実施形態1と同様の再符号化処理を行う。 A flowchart in this case is shown in FIG. After the gaze area extraction process (step S2), the process proceeds to the resolution conversion ratio determination process (step S3), and the resolution conversion ratio of the gaze area corresponding to the playback terminal display resolution 8 is determined. In this case as well, as described in the first embodiment, the post-conversion resolution based on the resolution conversion ratio of the gaze area may not match the output video content resolution designation information 8, so the video content conversion process (step S 4). ), The same re-encoding processing as in the first embodiment is performed.
なお、上記実施の形態の説明では、注視領域抽出のキーとなる映像特徴量を動きのアクティビティ(入力映像コンテンツ中の動きの大きさ)としたが、この注視領域抽出のキーとなる映像特徴量は、注視領域抽出のトリガとなりうるいかなる情報でもよい。例えば、入力映像コンテンツ中の色をその映像特徴量として用い、特定の注目すべき色を検出するようにしてもよい。この場合、入力映像コンテンツ中に特定の色を含む領域が含まれている場合にのみ、その領域を含む注視領域を抽出するような構成とすることができる。さらに、入力映像コンテンツ中から人間の顔領域を抽出する機能があれば、人物を含む領域、ないしは顔特徴から特定の人物を含む映像領域を注視領域とすることもできる。 In the description of the above embodiment, the video feature quantity used as the key for gaze area extraction is the motion activity (the magnitude of the motion in the input video content). May be any information that can trigger a gaze area extraction. For example, the color in the input video content may be used as the video feature amount to detect a specific noteworthy color. In this case, only when a region including a specific color is included in the input video content, the gaze region including the region can be extracted. Furthermore, if there is a function of extracting a human face area from input video content, an area including a person or a video area including a specific person from facial features can be set as a gaze area.
また、映像コンテンツ変換処理については、解像度に注目した変換動作を説明したが、コンテンツ適応化装置において、コンテンツのデータ形式、データビットレートなどの変換を行ってもよいことはいうまでもない。 In the video content conversion process, the conversion operation focusing on the resolution has been described, but it goes without saying that the content adaptation apparatus may convert the data format, data bit rate, and the like of the content.
なお、以上の実施形態の説明は、コンテンツを適応化する方法をも示すものである。それぞれの装置は、計算機で動作するソフトウエアで実現することもできる。 Note that the above description of the embodiment also shows a method for adapting content. Each device can also be realized by software operating on a computer.
1 コンテンツサーバ
2 入力映像コンテンツ
3 ネットワーク
4 コンテンツ再生端末
5 コンテンツ適応化装置
6 出力映像コンテンツ
7 入力映像コンテンツ解像度情報
8 出力映像コンテンツ解像度指定情報
9 注視領域再生指示情報
10 注視領域抽出部
11 変換処理始点
12 解像度変換比率決定部
13 解像度変換比率
14 映像コンテンツ変換部
DESCRIPTION OF
Claims (13)
上記入力映像コンテンツの解像度情報と出力映像コンテンツ解像度指定情報とに基づいて解像度変換比率を算出する解像度変換比率算出部と、
この解像度変換比率算出部で算出された解像度変換比率と上記注視領域抽出部によって抽出された注視領域とに基づいて入力映像コンテンツの変換処理を行う映像コンテンツ変換部とを備えたことを特徴とするコンテンツ適応化装置。 A gaze area extraction unit that extracts a gaze area in the digital video content;
A resolution conversion ratio calculation unit that calculates a resolution conversion ratio based on the resolution information of the input video content and the output video content resolution designation information;
And a video content conversion unit that performs conversion processing of the input video content based on the resolution conversion ratio calculated by the resolution conversion ratio calculation unit and the gaze area extracted by the gaze area extraction unit. Content adaptation device.
コンテンツ再生端末の要求に応じてデジタル映像コンテンツを配信するコンテンツサーバと、
このコンテンツサーバが配信するデジタル映像コンテンツを入力し、画像解像度を変換して出力映像コンテンツとして出力するコンテンツ適応化装置と、
デジタル映像コンテンツを上記コンテンツサーバに要求し、上記コンテンツ適応化装置からの出力映像コンテンツを受信するコンテンツ再生端末とからなり、
上記コンテンツ適応化装置は、デジタル映像コンテンツ中の注視領域を抽出する注視領域抽出部と、上記入力映像コンテンツの解像度情報と出力映像コンテンツ解像度指定情報とに基づいて解像度変換比率を算出する解像度変換比率算出部と、この解像度変換比率算出部で算出された解像度変換比率と上記注視領域抽出部によって抽出された注視領域とに基づいて入力映像コンテンツの変換処理を行う映像コンテンツ変換部とを備えたことを特徴とするコンテンツ適応化システム。 A content adaptation system that adapts digital video content according to the playback capability of a content playback terminal,
A content server that delivers digital video content in response to a request from a content playback terminal;
A content adaptation device that inputs digital video content distributed by the content server, converts image resolution, and outputs it as output video content;
A content playback terminal that requests digital video content from the content server and receives output video content from the content adaptation device;
The content adaptation device includes a gaze area extraction unit that extracts a gaze area in digital video content, and a resolution conversion ratio that calculates a resolution conversion ratio based on resolution information of the input video content and output video content resolution designation information A calculation unit; and a video content conversion unit that performs a conversion process of the input video content based on the resolution conversion ratio calculated by the resolution conversion ratio calculation unit and the gaze area extracted by the gaze area extraction unit. Content adaptation system characterized by
上記入力映像コンテンツの解像度情報と出力映像コンテンツ解像度指定情報とに基づいて解像度変換比率を算出する解像度変換比率算出ステップと、
この解像度変換比率算出ステップで算出された解像度変換比率と上記注視領域抽出ステップで抽出された注視領域とに基づいて入力映像コンテンツの変換処理を行う映像コンテンツ変換ステップとを備えたことを特徴とするコンテンツ適応化方法。 A gaze area extraction step for extracting a gaze area in the digital video content;
A resolution conversion ratio calculating step for calculating a resolution conversion ratio based on the resolution information of the input video content and the output video content resolution designation information;
And a video content conversion step of performing a conversion process of the input video content based on the resolution conversion ratio calculated in the resolution conversion ratio calculation step and the gaze area extracted in the gaze area extraction step. Content adaptation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004155742A JP2005341093A (en) | 2004-05-26 | 2004-05-26 | Contents adaptating apparatus, contents adaptation system, and contents adaptation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004155742A JP2005341093A (en) | 2004-05-26 | 2004-05-26 | Contents adaptating apparatus, contents adaptation system, and contents adaptation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005341093A true JP2005341093A (en) | 2005-12-08 |
Family
ID=35494165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004155742A Pending JP2005341093A (en) | 2004-05-26 | 2004-05-26 | Contents adaptating apparatus, contents adaptation system, and contents adaptation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005341093A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009247562A (en) * | 2008-04-04 | 2009-10-29 | Namco Bandai Games Inc | Game animation distribution system |
JP2009247564A (en) * | 2008-04-04 | 2009-10-29 | Namco Bandai Games Inc | Game animation distribution system |
WO2012060459A1 (en) * | 2010-11-01 | 2012-05-10 | 日本電気株式会社 | Dynamic image distribution system, dynamic image distribution method, and dynamic image distribution program |
JP2013115597A (en) * | 2011-11-29 | 2013-06-10 | Canon Inc | Image processor |
WO2015034061A1 (en) * | 2013-09-06 | 2015-03-12 | 三菱電機株式会社 | Video encoding device, video transcoding device, video encoding method, video transcoding method and video stream transmission system |
WO2017142354A1 (en) * | 2016-02-19 | 2017-08-24 | 알카크루즈 인코포레이티드 | Method and system for gpu based virtual reality video streaming server |
-
2004
- 2004-05-26 JP JP2004155742A patent/JP2005341093A/en active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009247562A (en) * | 2008-04-04 | 2009-10-29 | Namco Bandai Games Inc | Game animation distribution system |
JP2009247564A (en) * | 2008-04-04 | 2009-10-29 | Namco Bandai Games Inc | Game animation distribution system |
WO2012060459A1 (en) * | 2010-11-01 | 2012-05-10 | 日本電気株式会社 | Dynamic image distribution system, dynamic image distribution method, and dynamic image distribution program |
JP5811097B2 (en) * | 2010-11-01 | 2015-11-11 | 日本電気株式会社 | Moving image distribution system, moving image distribution method, and moving image distribution program |
US9414065B2 (en) | 2010-11-01 | 2016-08-09 | Nec Corporation | Dynamic image distribution system, dynamic image distribution method and dynamic image distribution program |
JP2013115597A (en) * | 2011-11-29 | 2013-06-10 | Canon Inc | Image processor |
WO2015034061A1 (en) * | 2013-09-06 | 2015-03-12 | 三菱電機株式会社 | Video encoding device, video transcoding device, video encoding method, video transcoding method and video stream transmission system |
JPWO2015034061A1 (en) * | 2013-09-06 | 2017-03-02 | 三菱電機株式会社 | Moving picture coding apparatus, moving picture transcoding apparatus, moving picture coding method, moving picture transcoding method, and moving picture stream transmission system |
WO2017142354A1 (en) * | 2016-02-19 | 2017-08-24 | 알카크루즈 인코포레이티드 | Method and system for gpu based virtual reality video streaming server |
US9912717B2 (en) | 2016-02-19 | 2018-03-06 | Alcacruz Inc. | Systems and method for virtual reality video conversion and streaming |
CN108702522A (en) * | 2016-02-19 | 2018-10-23 | 阿尔卡鲁兹公司 | Method and system for the virtual reality video streaming services device based on GPU |
US10334224B2 (en) | 2016-02-19 | 2019-06-25 | Alcacruz Inc. | Systems and method for GPU based virtual reality video streaming server |
US10904511B2 (en) | 2016-02-19 | 2021-01-26 | Alcacruz Inc. | Systems and method for GPU based virtual reality video streaming server |
US10939087B2 (en) | 2016-02-19 | 2021-03-02 | Alcacruz Inc. | Systems and method for virtual reality video conversion and streaming |
CN108702522B (en) * | 2016-02-19 | 2021-06-08 | 阿尔卡鲁兹公司 | Method and system for virtual reality video streaming server based on GPU |
US11050996B2 (en) | 2016-02-19 | 2021-06-29 | Alcacruz Inc. | Systems and method for GPU based virtual reality video streaming server |
US11375172B2 (en) | 2016-02-19 | 2022-06-28 | Alcacruz Inc. | Systems and method for GPU based virtual reality video streaming server |
US11470301B2 (en) | 2016-02-19 | 2022-10-11 | Alcacruz Inc. | Systems and method for virtual reality video conversion and streaming |
US11843759B2 (en) | 2016-02-19 | 2023-12-12 | Alcacruz Inc. | Systems and method for virtual reality video conversion and streaming |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4542447B2 (en) | Image encoding / decoding device, encoding / decoding program, and encoding / decoding method | |
JP5037938B2 (en) | Image encoding / decoding device, encoding / decoding program, and encoding / decoding method | |
JP2005341093A (en) | Contents adaptating apparatus, contents adaptation system, and contents adaptation method | |
JP5676717B2 (en) | Image decoding apparatus and image decoding method | |
JP6311085B1 (en) | Image decoding apparatus and image decoding method | |
JP5547171B2 (en) | Image decoding apparatus and image decoding method | |
JP2009081622A (en) | Moving image compression encoder | |
JP6311086B1 (en) | Image decoding apparatus and image decoding method | |
JP6647432B2 (en) | Decryption method | |
JP6311084B1 (en) | Image decoding apparatus and image decoding method | |
JP6434172B2 (en) | Decryption method | |
JP6355870B2 (en) | Image decoding apparatus and image decoding method | |
JP6357523B2 (en) | Image decoding apparatus and image decoding method | |
JP6348562B2 (en) | Decoding device and decoding method | |
JP6222756B2 (en) | Decryption method | |
JP6364462B2 (en) | Decoding device and decoding method | |
JP6096871B2 (en) | Decoding device and decoding method | |
JP6117302B2 (en) | Decryption method | |
JP5865966B2 (en) | Image decoding apparatus and decoding method | |
JP5913474B2 (en) | Decryption method | |
JP5236088B2 (en) | Image encoding / decoding device, encoding / decoding program, and encoding / decoding method | |
JP5010709B2 (en) | Image decoding device | |
JP5380594B2 (en) | Image decoding method | |
JP5868909B2 (en) | Decryption method | |
JP5055419B2 (en) | Image decoding apparatus, decoding program, and decoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090327 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100209 |