JP6387511B2 - Image data processing method - Google Patents

Image data processing method Download PDF

Info

Publication number
JP6387511B2
JP6387511B2 JP2016121278A JP2016121278A JP6387511B2 JP 6387511 B2 JP6387511 B2 JP 6387511B2 JP 2016121278 A JP2016121278 A JP 2016121278A JP 2016121278 A JP2016121278 A JP 2016121278A JP 6387511 B2 JP6387511 B2 JP 6387511B2
Authority
JP
Japan
Prior art keywords
image
image data
moving image
moving
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016121278A
Other languages
Japanese (ja)
Other versions
JP2017225096A (en
Inventor
一樹 客野
一樹 客野
横関 亘
亘 横関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axell Corp
Original Assignee
Axell Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axell Corp filed Critical Axell Corp
Priority to JP2016121278A priority Critical patent/JP6387511B2/en
Publication of JP2017225096A publication Critical patent/JP2017225096A/en
Application granted granted Critical
Publication of JP6387511B2 publication Critical patent/JP6387511B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像データ処理方法に関し、特に、多くの小さな解像度の動画を、ハードウェアデコーダにより復号化処理を行いつつ表示するような画像処理装置を使用する場合の画像データ処理方法に関する。   The present invention relates to an image data processing method, and more particularly to an image data processing method in the case of using an image processing apparatus that displays a large number of small-resolution moving images while performing decoding processing by a hardware decoder.

昨今の各種情報機器における動画再生処理においては、容量の観点から予め符号化して格納しておいた符号化動画情報を、読み出したり、又はネットを介してダウンロードしてきて、それを符号化に対応した復号化処理により復号化して表示装置に供給することにより、液晶機器等に動画が再生される。符号化処理には時間的な余裕があることからソフトウェアで処理することも可能であるが、復号化処理においては、高精細の動画であっても停滞なく再生されることを担保するためにハードウェア回路、特に専用の画像処理プロセッサ、を設けることも一般的になっている。   In recent video playback processing in various information devices, the encoded video information that has been encoded and stored in advance from the viewpoint of capacity is read or downloaded via the net, and it is encoded. A video is reproduced on a liquid crystal device or the like by decoding the data by the decoding process and supplying the data to the display device. The encoding process can be processed by software because there is a time margin, but in the decoding process, it is hard to ensure that even a high-definition video is reproduced without stagnation. It is also common to provide a wear circuit, particularly a dedicated image processor.

つまり、その専用の画像処理プロセッサに対して、その上位の処理制御部が処理の指令のみを与えることにより、あとは当該画像処理プロセッサが自律的に画像処理を行うことにより、画像処理の効率化を図る構成となっている。   In other words, the higher-level processing control unit only gives processing instructions to the dedicated image processing processor, and then the image processing processor autonomously performs image processing, thereby improving the efficiency of image processing. It is the structure which aims at.

上記概念の概要を図11に示す。
ここで、画像データROM200には、例えば、H.264(MPEG 4/AVC)規格に基づき符号化された1つ以上の動画情報が格納されている。なお、ここでは、情報機器本体に符号化された動画情報が格納される格納手段が備わっている場合を示しているが、ネット上のサーバ等からダウンロードしてくるような機器についても同様である。
An outline of the above concept is shown in FIG.
Here, the image data ROM 200 stores, for example, one or more pieces of moving image information encoded based on the H.264 (MPEG 4 / AVC) standard. Here, the case where the storage device for storing the encoded video information is provided in the information device main body is shown, but the same applies to a device downloaded from a server on the network. .

ここで、H.264規格について簡単に説明する。MPEG 2やMPEG 4ではシンタックスの階層構造が定められ、ビットストリームの中で並べられる情報は階層構造に沿ったものであるのに対し、H.264ではパラメータ・セットとそれを参照するスライスの配置についてはMPEG 2等と比較して制約が少ない。またパラメータ・セットにはシーケンス全体の符号化にかかわる情報を格納するSPS(Sequence Parameter Set:シーケンスパラメータセット)やピクチャ全体の符号化モードを示すPPS(Picture Parameter Set:ピクチャーパラメータセット)、任意の情報を符号化できるSEI(Supplemental Enhancement Information)が含まれ、フレームごとにSPSやPPSを配置することができるので、一つのビットストリーム中で複数のシーケンスを取り扱うことができる。   Here, the H.264 standard will be briefly described. In MPEG 2 and MPEG 4, the syntax hierarchy is defined, and the information arranged in the bitstream is in line with the hierarchy, whereas in H.264, the parameter set and the slice that references it are There are few restrictions on arrangement compared to MPEG 2 and the like. The parameter set includes SPS (Sequence Parameter Set) for storing information related to encoding of the entire sequence, PPS (Picture Parameter Set) indicating the encoding mode of the entire picture, and arbitrary information. SEI (Supplemental Enhancement Information) that can be encoded, and SPS and PPS can be arranged for each frame, so that a plurality of sequences can be handled in one bit stream.

図12は、H.264規格に基づき符号化された画像の符号化データの一般的なビットストリームを示す図である。なお、ここでは、説明の便宜上、SPSとPPSの組は1組として表している。H.264規格では、VCL(Video Coding Layer:動画像符号化処理層)と分離されたNAL(Network Abstraction Layer:ネットワーク抽象層)と称すレイヤーが規定され、VCLで生成された符号化データやパラメータ・セットをNALユニットとして取り扱うことができるようになっており、符号化データはVCLのNALユニット、SPSやPPSは非VCLのNALユニットとして取り扱われる。   FIG. 12 is a diagram illustrating a general bitstream of encoded data of an image encoded based on the H.264 standard. Here, for convenience of explanation, the set of SPS and PPS is shown as one set. In the H.264 standard, a layer called NAL (Network Abstraction Layer) separated from VCL (Video Coding Layer) is defined, and encoded data and parameters generated by VCL are defined. The set can be handled as a NAL unit, and encoded data is handled as a VCL NAL unit, and SPS and PPS are handled as a non-VCL NAL unit.

ここで、各スライスには、ヘッダー領域があり、そこには自スライスの先頭マクロブロック座標(first_mb_in_slice)の情報が少なくとも格納される。また、MPEG 2やMPEG 4でもそうであったように、H.264でも、一般的には、1ピクチャは1個以上のスライスで構成される。しかし、実際に1つの動画を普通に符号化すると、1フレームは、1スライスで構成される1ピクチャとして符号化される。ある種の効果を求めて、1フレームを複数スライスとして、すなわち1つの画像を複数に分割して複数のスライスとして符号化する技術は、例えば特許文献1に開示されている。   Here, each slice has a header area, in which at least information of the first macroblock coordinate (first_mb_in_slice) of the own slice is stored. In addition, as in MPEG 2 and MPEG 4, in H.264, one picture is generally composed of one or more slices. However, when one moving image is actually encoded, one frame is encoded as one picture composed of one slice. A technique for obtaining a certain effect and encoding one frame as a plurality of slices, that is, dividing one image into a plurality of slices and encoding it as a plurality of slices, is disclosed in, for example, Japanese Patent Application Laid-Open No. 2004-122867.

しかしながら、特許文献1に代表されるような従来の技術においては、あくまで1つの動画の各画像を複数に分割するものであって、後述する本願発明の特徴のように、複数の動画のそれぞれを符号化して、それらを各スライスとして構成するような概念は従来にはない。   However, in the conventional technology represented by Patent Document 1, each image of one moving image is divided into a plurality of pieces, and each of the plurality of moving images is divided as the feature of the present invention described later. There is no conventional concept of coding and configuring them as each slice.

図11に戻り、上位CPU100からは、画像処理プロセッサ300に対して、一般的にAPI(Application Program Interface)と呼ばれる処理指令が発せされる。機器が動作する元となっているオペレーティングシステム(OS)が、例えば、Windowsであれば、DXVA2(DirectX Video Acceleration 2)というAPIであり、Linux(登録商標)であれば、VDPAU(Video Decode and Presentation API for Unix)というように、各機器が採用するソフトウェアプラットフォームにより固有のものが提供されている。上位CPU100は、表示部400に所定のタイミングで表示させたい、必要な符号化画像データを画像データROM200から読み出し、表示の指令(表示タイミング、表示場所等)とともにその符号化画像データを画像処理プロセッサ300に送る。当該指令と対応する符号化画像データを受け取った画像処理プロセッサ300は、図示しない内部のハードウェアデコーダにより、当該符号化処理に対応した復号化処理を施すことにより、元の画像を復元する。そして、画像処理プロセッサ300が、その復号化画像データを表示部400に供給すれば、表示部400の液晶画面等に動画が再生される。   Returning to FIG. 11, the host CPU 100 issues a processing command generally called an API (Application Program Interface) to the image processing processor 300. For example, if the operating system (OS) from which the device operates is Windows, it is an API called DXVA2 (DirectX Video Acceleration 2), and if it is Linux (registered trademark), VDPAU (Video Decode and Presentation) (API for Unix) is unique to the software platform used by each device. The upper CPU 100 reads necessary encoded image data to be displayed on the display unit 400 at a predetermined timing from the image data ROM 200, and displays the encoded image data together with a display command (display timing, display location, etc.). Send to 300. The image processor 300 that has received the encoded image data corresponding to the command restores the original image by performing a decoding process corresponding to the encoding process by an internal hardware decoder (not shown). When the image processing processor 300 supplies the decoded image data to the display unit 400, a moving image is reproduced on the liquid crystal screen or the like of the display unit 400.

なお、特許文献2には、他の画像情報を参照せずに復号化可能なIピクチャを符号化したタイルを利用し、ストリーム補正手段により読み出したタイルのフレーム内での位置を補正することで、動画像の視聴領域を任意に設定し、かつインタラクティブに視聴領域を変更することができる動画像配信システムが開示されている。   Note that Patent Document 2 uses a tile obtained by encoding an I picture that can be decoded without referring to other image information, and corrects the position of the tile read by the stream correction unit in the frame. A moving image distribution system that can arbitrarily set a moving image viewing area and interactively change the viewing area is disclosed.

しかしながら、特許文献2に記載の発明は動画像の視聴領域を任意に変更する技術に関するものであり、後述するような解像度の小さい画像を複数取り扱う場合の復号化処理の効率低下を回避するものではない。   However, the invention described in Patent Document 2 relates to a technique for arbitrarily changing the viewing area of a moving image, and does not avoid a reduction in efficiency of decoding processing when handling a plurality of images with small resolution as described later. Absent.

特開2012−191513号公報JP 2012-191513 A 国際公開第2012/060459号International Publication No. 2012/060459

ところで、パチンコ機やパチスロ機のような遊技機における動画再生は、一本の動画が再生される一般的な動画再生とは顕著に異なる特徴がある。図13は、パチンコ機やパチスロ機のような遊技機における動画再生を説明するための図である。具体的には、同図(a)に示すように、パチンコ機やパチスロ機のような遊技機においては、1つの液晶画面等の任意の複数の領域に、大小さまざまな解像度の動画が表示される。更に、同図(b)に示すように、それらの各動画の再生開始時点及び再生時間は区々である。しかも、動画Eと動画Gの関係のように、遊技の進行に応じて、動画Eが最後まで再生されずに中断して、代わりに動画Gが再生し始める、というような態様もある。   By the way, moving image reproduction in a gaming machine such as a pachinko machine or a pachislot machine has a feature that is significantly different from general moving image reproduction in which a single moving image is reproduced. FIG. 13 is a diagram for explaining moving image reproduction in a gaming machine such as a pachinko machine or a pachislot machine. Specifically, as shown in FIG. 5 (a), in gaming machines such as pachinko machines and pachislot machines, videos of various sizes, large and small, are displayed in a plurality of arbitrary areas such as one liquid crystal screen. The Furthermore, as shown in FIG. 5B, the playback start time and playback time of each of the moving images are various. In addition, as in the relationship between the moving image E and the moving image G, there is also an aspect in which the moving image E is interrupted without being played to the end and the moving image G starts to be played instead as the game progresses.

ここで、解像度の異なる画像のハードウェアデコーダによる復号化処理について注目すると、その処理性能は、解像度に依存せずに一定というわけではなく、解像度に依存してしまう。言い換えれば、解像度に応じて比例的に復号化の処理時間が決まるわけではない。例えば、解像度が1/2になったからといって、復号化の処理時間が半分になるものではない。図14は、画像解像度(横軸)と処理性能(Gdps)(縦軸)との関係を示す図である。ここでは、参考までに、ソフトウェアにより復号化処理を行う場合も掲載している。理論的には、解像度によっては処理性能は変わらないはずであるが、同図に示すように、ソフトウェア処理によれば、解像度が小さくなるにつれて比例的に処理性能が減衰し、一方、ハードウェア処理によれば、解像度が小さくなるにつれて極端に処理性能が落ちてしまうことが分かる。   Here, when attention is paid to the decoding processing by the hardware decoder of the images having different resolutions, the processing performance does not depend on the resolution but is not constant but depends on the resolution. In other words, the decoding processing time is not proportionally determined according to the resolution. For example, just because the resolution is halved does not mean that the decoding processing time is halved. FIG. 14 is a diagram illustrating a relationship between image resolution (horizontal axis) and processing performance (Gdps) (vertical axis). Here, for reference, a case where decryption processing is performed by software is also shown. Theoretically, the processing performance should not change depending on the resolution, but as shown in the figure, according to the software processing, the processing performance decreases proportionally as the resolution decreases, while the hardware processing According to the above, it can be seen that the processing performance extremely decreases as the resolution decreases.

上述のように、ハードウェアデコーダによる復号化処理において、解像度が小さくなるにつれて極端に処理性能が落ちてしまう理由は、主に以下の2つが考えられる。   As described above, in the decoding process by the hardware decoder, there are mainly two reasons why the processing performance extremely decreases as the resolution decreases.

1つには、ハードウェアデコーダが、画像の垂直方向において、所定の解像度単位で並列処理を行っているからである。
図15は、ハードウェアデコーダにおける垂直方向並列処理を説明するための図である。同図(a)は、並列処理を行わない場合であり、同図(b)は並列処理を行う場合を示している。一般的、復号化処理は、マクロブロック(MB)(例えば、16×16画素)単位で行われ、並列処理を行わない場合であれば、同図(a)に示すように、マクロブロックの水平一列に対応した1つのデコーダコアが、当該列の各マクロブロックを順に復号化していく。ここで、H.264規格のように、イントラ予測が採用されているのであれば、既に復号化処理された周りの所定のマクロブロックの情報を参照しつつ、一行ごとに復号化が進められていく。
One reason is that the hardware decoder performs parallel processing in a predetermined resolution unit in the vertical direction of the image.
FIG. 15 is a diagram for explaining vertical parallel processing in the hardware decoder. FIG. 4A shows a case where parallel processing is not performed, and FIG. 4B shows a case where parallel processing is performed. In general, decoding processing is performed in units of macroblocks (MB) (for example, 16 × 16 pixels), and if parallel processing is not performed, as shown in FIG. One decoder core corresponding to one column sequentially decodes each macroblock in the column. Here, if intra prediction is adopted as in the H.264 standard, decoding is advanced line by line while referring to information of a predetermined macroblock around the already decoded process. Go.

これに対して、並列処理機能を有する場合は、同図(b)に示すように、複数のマクロブロックに対応した複数のデコーダコアが備わっており、それら複数のデコーダコアが複数のマクロブロックに対して同時並列的に復号化処理を進めていく。この場合も、イントラ予測が採用されているのであれば、同図(b)に示すように、典型的には波状に処理が進むこととなり、そのことから、かかる並列処理は、ウェイブフロント並列処理(wave front parallel processing)と呼ばれている。   On the other hand, in the case of having a parallel processing function, a plurality of decoder cores corresponding to a plurality of macroblocks are provided as shown in FIG. On the other hand, the decoding process will proceed in parallel. In this case as well, if intra prediction is adopted, the processing typically proceeds in a wave shape as shown in FIG. 4B. Therefore, such parallel processing is called wavefront parallel processing. (Wave front parallel processing).

図15(b)に示すような複数ハードウェアデコーダコアによる並列処理にあっては、垂直方向に十分大きな解像度を有する画像については、当該並列処理の利点を十分に享受できるものの、垂直方向に解像度の小さい画像については、その利点を享受できない場合がある。例えば、マクロブロックが16×16画素であり、マクロブロックに対して1対1で備わるハードウェアデコーダコアが8個備わっているとすると(なお、同図(b)では5個)、16画素×8=128画素であり、すなわち一度に処理する垂直方向の画素数が128画素ということとなり、理論的には、その128より小さい垂直方向の画素数を有する画像は、当該並列処理の利点を享受できないこととなる。   In parallel processing by a plurality of hardware decoder cores as shown in FIG. 15 (b), an image having a sufficiently large resolution in the vertical direction can enjoy the advantages of the parallel processing, but the resolution in the vertical direction. For small images, the benefits may not be enjoyed. For example, if a macroblock is 16 × 16 pixels and eight hardware decoder cores are provided on a one-to-one basis with respect to the macroblock (5 in the figure (b)), 16 pixels × 8 = 128 pixels, that is, the number of vertical pixels processed at one time is 128 pixels. In theory, an image having a smaller number of vertical pixels than 128 enjoys the advantages of the parallel processing. It will not be possible.

このように、どの程度の並列処理機能を備えるかによるが、概して、大きな解像度を有する画像を処理する場合と比較すると、小さな解像度を有する画像に対して復号化処理を行う場合は、相対的に処理性能が落ちることとなる。   As described above, depending on how much parallel processing function is provided, in general, when decoding processing is performed on an image having a small resolution as compared to processing an image having a large resolution, Processing performance will drop.

2つめの理由は、解像度の小さな画像も解像度の大きな画像も1ピクチャである点で変わらず、1ピクチャを復号化する処理においては、画像データの符号化処理自体以外に、デコーダの初期化等の付随処理が必ず伴うものであり、このことから、小さな解像度の画像であっても、その数が増えると、格段に処理ステップが増え、結果として、大きな解像度を有する画像を処理する場合と比較すると、小さな解像度の画像であっても、その数が増えると、その復号化処理性能は落ちることとなる。   The second reason is that both the low-resolution image and the high-resolution image are one picture, and in the process of decoding one picture, in addition to the image data encoding process itself, initialization of the decoder, etc. Therefore, even if the number of images with a small resolution increases, the number of processing steps increases dramatically. As a result, compared with the case of processing an image with a large resolution. Then, even if the number of images with a small resolution is increased, the performance of the decoding process is lowered.

以上から、パチンコ機及びパチスロ機に代表される遊技機のように、解像度の小さな動画を、特に並列的に、多く表示するような装置では、処理速度が極端に遅くなるという課題があった。   From the above, there is a problem that the processing speed becomes extremely slow in an apparatus that displays a large number of moving images with a small resolution, particularly in parallel, such as a gaming machine represented by a pachinko machine and a pachislot machine.

本発明は上述のような事情から為されたものであり、本発明の目的は、小さな解像度の動画が多く表示される遊技機に含まれるような画像処理装置であっても、復号化処理能力が落ちることのない画像データ処理方法を提供することにある。   The present invention has been made for the above-described circumstances, and an object of the present invention is to provide a decoding processing capability even in an image processing apparatus included in a gaming machine that displays a large number of small resolution moving images. An object of the present invention is to provide an image data processing method that does not drop.

上記目的を達成するため、本発明の画像データ処理方法は、動画に係る符号化画像データを出力すると共に、その動画の再生に係る指令を発行する上位CPUと、複数のデータコアによる並列処理を行うハードウェアデコーダを有し、入力される前記指令に基づき、前記動画に係る符号化画像データを復号化する画像処理プロセッサと、前記画像処理プロセッサにより復号化された画像データに基づいて前記動画が再生される表示部と、を備えた画像処理装置を使用した画像データ処理方法であって、前記表示部に再生されるべき複数の前記動画のうちの、その垂直解像度が前記ハードウェアデコーダの前記並列処理に係る画素数以下のものの中から、前記表示部に再生されるタイミングに関し、相互に所定内の近接度にあるものを組とし、同一組とされた各動画については、同一GOP間隔で符号化して前記符号化画像データを生成しておき、前記指令に基づき前記表示部に複数の動画が再生される場合に、前記上位CPUは、前記組とされた各動画を、各ピクチャ符号化画像データであるスライスのレベルでピクチャタイプを揃えて合体させて、各スライスのヘッダー領域に含まれる開始マクロブロック座標の情報を書き変えて複数スライスの1ピクチャと見立てて一括して符号化画像データを構成して前記画像処理プロセッサに供給し、前記ハードウェアデコーダは、その一括化された符号化画像データを復号化し、前記上位CPUは、前記ハードウェアデコーダから得られた復号化された画像データから各動画を分離するよう前記画像処理プロセッサに要求し、分離された各動画が前記表示部に再生されることを要旨とする。 In order to achieve the above object, an image data processing method of the present invention outputs encoded image data relating to a moving image, and performs parallel processing by a host CPU that issues a command relating to reproduction of the moving image and a plurality of data cores. has a hardware decoder for, based on the instruction input, and an image processor for decoding the encoded image data according to the video, the video based on the decoded image data by the image processing processor An image data processing method using an image processing apparatus comprising: a display unit to be played back , wherein a vertical resolution of the plurality of moving images to be played back on the display unit is the hardware decoder Among those below the number of pixels involved in parallel processing, with respect to the timing to be reproduced on the display unit, a set that is within a predetermined proximity to each other, If for each video that is a set, is encoded previously by generating the coded image data, a plurality of moving image on the display unit based on the command is reproduced in the same GOP interval, the higher the CPU , By combining the moving images in the set with the same picture type at the level of the slice which is each picture encoded image data, and rewriting the information of the start macroblock coordinates included in the header area of each slice. constitute the coded image data supplied to the image processor collectively to resemble the one picture of a slice, the hardware decoder decodes the lumped coded image data, the higher the CPU Requested the image processor to separate each video from the decoded image data obtained from the hardware decoder, and separated Video is summarized as Rukoto reproduced on the display unit.

このとき、前記組とされた各動画の垂直解像度の合計が、前記複数のデータコアによる並列処理の画素数を超えることが好適である。 In this case, the sum of the vertical resolution of the video is the said set is, it is Ru preferred der exceed the number of pixels parallel processing by the plurality of data cores.

一方、前記画像処理プロセッサは、前記表示部に各動画を再生させる際に、各動画の各々のフレーム単位の所望の表示タイミングを担保するために、前記ハードウェアデコーダから得られた復号化された画像データを画像データ格納部に蓄積しておく場合がある。   On the other hand, when the image processor reproduces each moving image on the display unit, the decoded image obtained from the hardware decoder is used to ensure a desired display timing for each frame of each moving image. In some cases, image data is stored in an image data storage unit.

また、前記動画に係る符号化画像データのうち、前記合体に係る各動画は、水平方向にデータを補填することにより、水平解像度を揃えて符号化しておくことが好ましい。そのとき、前記水平解像度に複数の基準値を設け、それらのうちの一の基準値に合わせることにより、前記水平解像度を揃えることが一案である。また、前記動画に係る符号化画像データのうち、前記合体に係る各動画は、垂直方向にもデータを補填することにより、垂直解像度も揃えて符号化しておくことも好ましい。このような補填の際には、各動画の元画像のサイズの情報は、SEIもしくはコンテナに格納しておく。   In addition, among the encoded image data related to the moving image, it is preferable that each moving image related to the coalescence is encoded with the horizontal resolution aligned by supplementing the data in the horizontal direction. At this time, it is one idea to provide a plurality of reference values for the horizontal resolution, and to match the horizontal resolution by matching one of them. In addition, among the encoded image data related to the moving image, it is also preferable that each moving image related to the coalescence is encoded with the vertical resolution aligned by supplementing the data also in the vertical direction. At the time of such compensation, information on the size of the original image of each moving image is stored in SEI or a container.

また、前記合体に係る各動画に係る符号化画像データの前記ハードウェアデコーダによる復号化処理に際し、いずれかの動画に係る符号化処理が終了した場合、又はいずれかの動画の再生が中断されるべき場合、新たな動画が、前記GOP単位で組み込まれることも特徴である。   In addition, in the decoding process by the hardware decoder of the encoded image data related to each moving image related to the merging, when the encoding process related to any moving image is completed, or the reproduction of any moving image is interrupted If it should be, a new moving image is also incorporated in the GOP unit.

本発明の画像データ処理方法によれば、CPUは、各動画を、各ピクチャ符号化画像データであるスライスのレベルで合体させて、複数スライスの1ピクチャと見立てて一括してハードウェアデコーダに復号化させているので、復号化処理速度が向上する。   According to the image data processing method of the present invention, the CPU combines each moving image at the level of a slice that is each picture-encoded image data, and decodes it to a hardware decoder as a single picture of a plurality of slices. Therefore, the decoding processing speed is improved.

特に、垂直方向に解像度が小さい動画を多く再生する場合でも、ハードウェアデコーダの並列処理機能の利点を享受できるので、効果的である。   In particular, even when a large number of moving images having a small resolution in the vertical direction are reproduced, the advantage of the parallel processing function of the hardware decoder can be enjoyed, which is effective.

また、各動画のピクチャ単位でそれらのスライスを複数のスライスとして纏めるというやり方で、各動画を合体させているので、ハードウェアデコーダ自体の構成や機能を何ら変更する必要はない。   Further, since the moving images are combined in a manner in which the slices are grouped into a plurality of slices in units of pictures of each moving image, it is not necessary to change the configuration or function of the hardware decoder itself.

本発明の画像データ処理方法における一実施形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of one Embodiment in the image data processing method of this invention. 各動画の符号化処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the encoding process of each moving image. 画像データの補填(パディング)処理を説明するための図である。It is a figure for demonstrating the filling (padding) process of image data. 符号化後の各動画のビットストリームを示す図である。It is a figure which shows the bit stream of each moving image after an encoding. 本発明の画像データ処理方法の一実施形態において使用される画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus used in one Embodiment of the image data processing method of this invention. 復号化前の事前処理における、各動画間のピクチャタイプを合せる時間調整を説明するための図である。It is a figure for demonstrating the time adjustment which unites the picture type between each moving image in the pre-processing before decoding. 各動画を、各ピクチャ符号化データであるスライスのレベルで合体させて、複数スライスの1ピクチャと見立てて一括して復号化することを説明するための図である。It is a figure for demonstrating combining each moving image at the level of the slice which is each picture coding data, and decoding collectively considering it as one picture of several slices. ある動画が中断して他の動画に切り替わる場合を説明するための図である。It is a figure for demonstrating the case where a certain moving image interrupts and switches to another moving image. ある動画が中断して他の動画に切り替わる場合を説明するための図である。It is a figure for demonstrating the case where a certain moving image interrupts and switches to another moving image. 事後処理部312の処理を説明するための図である。It is a figure for demonstrating the process of the post process part 312. FIG. 動画を再生するための機器の構成を示す図である。It is a figure which shows the structure of the apparatus for reproducing a moving image. H.264規格に基づき符号化された画像の符号化データの一般的なビットストリームを示す図である。It is a figure which shows the general bit stream of the coding data of the image encoded based on H.264 specification. パチンコ機やパチスロ機のような遊技機における動画再生を説明するための図である。It is a figure for demonstrating the moving image reproduction | regeneration in game machines, such as a pachinko machine and a pachislot machine. 画像解像度(横軸)と処理性能(Gdps)(縦軸)との関係を示す図である。It is a figure which shows the relationship between image resolution (horizontal axis) and processing performance (Gdps) (vertical axis). ハードウェアデコーダにおける垂直方向並列処理を説明するための図である。It is a figure for demonstrating the vertical direction parallel processing in a hardware decoder.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。
<概要>
図1は、本発明の画像データ処理方法における一実施形態の概要を説明するための図である。本発明においては、端的に言えば、垂直方向の解像度が小さい複数の動画の符号化画像データを合体させて、その合体したものを復号化し、得られた画像データから、元の複数の動画を分離する、というような処理を行うことにより、垂直方向の解像度が小さい動画が多くあっても、復号化処理性能を落とさないようにする、というものである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<Overview>
FIG. 1 is a diagram for explaining an outline of an embodiment of an image data processing method according to the present invention. In short, in the present invention, encoded image data of a plurality of moving images with small vertical resolution are combined, the combined image is decoded, and the plurality of original moving images are obtained from the obtained image data. By performing processing such as separation, even if there are many moving images with small vertical resolution, the decoding processing performance is not degraded.

より具体的には、同図(a)において、まず、所定の動画の表示処理を含む所定の処理が行われるように意図されている画像処理装置(例えば、パチンコ機に組み込まれているもの)についてのその処理設計(特に、動画表示については、どのような動画をどのタイミングで表示するか等)から、当該装置に表示される各動画のうち、合体して復号化処理を行うべき動画を選別するという復号化処理設計を行う(ステップS1)。例えば、同図(b)に示すように、動画Xについては単独で処理し、垂直解像度の小さい動画Y及び動画Zについては、合体して復号化処理できる可能性がある、と設計する。そして、動画X、動画Y、及び動画Zをそれぞれ符号化する(ステップS2)。次に、動画Xについては、その符号化データを単独で復号化し、動画Xを復元して、画像処理装置の表示部に所定のタイミングで表示する。一方、動画Y及び動画Zについては、それらの表示タイミングによっては、それらの符号化データを合体させて復号化し、動画X及び動画Yを復元し、更にそれらを分離することにより、表示部にそれぞれのタイミングで表示する(ステップS3)。   More specifically, in FIG. 2A, first, an image processing apparatus (for example, one incorporated in a pachinko machine) that is intended to perform a predetermined process including a predetermined moving image display process. From the processing design (especially for video display, what video is displayed at what timing, etc.), among the videos displayed on the device, the video that should be combined and decoded The decoding process design of selecting is performed (step S1). For example, as shown in FIG. 5B, it is designed that the moving image X may be processed independently, and the moving image Y and the moving image Z having a small vertical resolution may be combined and decoded. Then, the moving image X, the moving image Y, and the moving image Z are encoded (step S2). Next, with respect to the moving image X, the encoded data is decoded alone, the moving image X is restored, and displayed on the display unit of the image processing apparatus at a predetermined timing. On the other hand, for video Y and video Z, depending on their display timing, the encoded data is merged and decoded, video X and video Y are restored, and further separated into the display unit, respectively. Is displayed at the timing (step S3).

以下、上述した概要をより具体的にした実施形態を、いくつかの所定条件も含めて詳細に説明する。
<復号化設計処理(ステップS1)>
復号化時に合体させるべき動画を選別する条件として、解像度の観点からは以下である。
・合体させるべき各動画の垂直方向の解像度は、複数のデコーダコアによる並列処理の”画素数”以下である
・合体させるべき各動画の垂直方向の解像度の合計値が、複数のデコーダコアによる並列処理の”画素数”を越えること
・ただし、合体させるべき各動画の垂直方向の解像度の合計値が、デコーダの垂直方向の”最大解像度”を越えないこと
Hereinafter, an embodiment in which the above-described outline is made more specific will be described in detail including some predetermined conditions.
<Decryption design process (step S1)>
From the viewpoint of resolution, the conditions for selecting moving images to be combined at the time of decoding are as follows.
-The vertical resolution of each video to be merged is less than or equal to the "number of pixels" of parallel processing by multiple decoder cores.-The total vertical resolution of each video to be merged is parallel by multiple decoder cores. Exceeding the “number of pixels” of processing ・ However, the total vertical resolution of the videos to be merged must not exceed the “maximum resolution” of the decoder in the vertical direction.

また、各動画を画像処理装置に表示するタイミングの観点からは、合体させるべき各動画は、表示タイミングが可及的に近いもの同士である。上記の解像度の観点の条件を満たしていれば、どのようなタイミングで表示される動画同士でもよいのであるが、復号化処理の時点と表示の時点が離れていればいるほど、復号化処理後の画像データを一旦蓄えておく画像データバッファでの滞留時間が長くなってしまう。従って、表示するタイミングの観点における、合体させるべき各動画の選別は、当該画像データバッファの容量に依存する。なお、遊技機を例に挙げて説明すると、一つのイベントで同時或いは同時期に再生される動画であって、上記条件を満たすものを合体して復号させるデータとして復号化設計処理を行うのが好適である。   Further, from the viewpoint of the timing of displaying each moving image on the image processing device, the moving images to be combined are those having display timings as close as possible. As long as the above-mentioned resolution viewpoint conditions are satisfied, videos displayed at any timing may be used. However, the longer the time between the decoding process and the display time, the more The staying time in the image data buffer for temporarily storing the image data becomes longer. Therefore, the selection of the moving images to be combined from the viewpoint of display timing depends on the capacity of the image data buffer. Note that, taking a gaming machine as an example, the decoding design processing is performed as data to be decoded by combining video that is played simultaneously or simultaneously in one event and that satisfies the above conditions. Is preferred.

<符号化処理(ステップS2)>
次に、各動画の符号化処理について説明する。図2は、その処理手順を示すフローチャートである。そこで、符号化すべき動画を選択する(ステップS21)。そして、選択した動画が、前述の復号化設計処理に基づき、他の動画と合体させるべき動画か否かを判断する(ステップS22)。図13に例示したような動画Aのような場合は、単独で復号化処理を行うので、ステップS22は否定判定となり、ステップS23をスキップしてステップS24に移行する。一方、図13に例示したような動画B乃至動画G(垂直方向解像度が例えば128画素以下)のそれぞれの場合は、他のいずれかと合体させて復号化処理するとしたものであり、よって、ステップS22は肯定判定となり、そのままステップS23に移行する。
<Encoding process (step S2)>
Next, the encoding process of each moving image will be described. FIG. 2 is a flowchart showing the processing procedure. Therefore, a moving image to be encoded is selected (step S21). Then, it is determined whether the selected moving image is a moving image to be combined with another moving image based on the above-described decoding design process (step S22). In the case of the moving image A as illustrated in FIG. 13, since the decoding process is performed alone, the determination in step S22 is negative, and step S23 is skipped and the process proceeds to step S24. On the other hand, in the case of each of the moving image B to the moving image G (the vertical resolution is, for example, 128 pixels or less) as illustrated in FIG. 13, the decoding process is performed by combining with any of the other. Is affirmative, and the process proceeds to step S23.

ステップS23においては、画像データの補填(パディング)処理を行う。図3は、その補填処理を説明するための図である。そこで、例えば、動画Bと動画Fとが組で合体でき、動画C、動画D、及び動画E(動画G)とが組で合体すべき場合があるとする。なお、動画Gは、動画Eが再生途中で中断した場合に、そこから再生されるべき動画である。そこで、少なくとも同じ組の各動画は、後述する復号化処理の方式から、水平方向の解像度が揃っている必要がある。従って、水平方向の解像度を揃えるために各動画の水平方向について画像データの補填処理を行う。このとき、一律にデコーダの水平方向の最大処理解像度に揃えるとしてもよい。そうすれば、すべての組について、その同じ最大処理解像度に揃えることができるので、補填処理自体は簡易となる。しかしながら、水平方向にも小さな解像度の動画ばかりの各動画を合体させる場合も一律にそのようにするとすれば、補填データばかりが大きくなり、復号化処理において無駄が生じてしまう。従って、例えば、水平方向120、240、480、960、1920画素というように、いくつかの揃える基準を設けるのが得策である。揃える基準は、合体させる各動画のうちの最大の水平方向解像度を有する動画の当該解像度によって決まるのであるから、それらの基準の数やその値の設定は、合体させる各動画の各水平方向解像度のばらつきに依存する。逆に言えば、合体させるべき動画の選定の条件として、水平方向解像度を入れることもできる。   In step S23, image data filling (padding) processing is performed. FIG. 3 is a diagram for explaining the compensation process. Thus, for example, it is assumed that the moving image B and the moving image F can be combined into a set, and the moving image C, the moving image D, and the moving image E (moving image G) should be combined together. Note that the moving image G is a moving image to be reproduced from the moving image E when the moving image E is interrupted during the reproduction. Therefore, at least the same set of moving images needs to have the same horizontal resolution from the decoding processing method described later. Therefore, in order to make the resolution in the horizontal direction uniform, image data compensation processing is performed in the horizontal direction of each moving image. At this time, the maximum processing resolution in the horizontal direction of the decoder may be uniformly set. By doing so, the same maximum processing resolution can be set for all the pairs, so that the compensation process itself becomes simple. However, even when the moving images having only a small resolution in the horizontal direction are combined, if only the same is done, only the compensation data becomes large, and the decoding process is wasted. Therefore, it is a good idea to provide several alignment standards, such as 120, 240, 480, 960, 1920 pixels in the horizontal direction. The standard to align is determined by the resolution of the video having the maximum horizontal resolution among the videos to be merged, so the number of these standards and the setting of the values are determined for each horizontal resolution of the videos to be merged. Depends on variation. In other words, horizontal resolution can be included as a condition for selecting moving images to be combined.

ステップS24においては、各動画の符号化処理を行う。例えば、H.264規格に基づき典型的には、ソフトウェア処理により行う。このときの条件としては、少なくとも同じ組である各動画については、1GOPに含まれるフレームの数が同一(例えば、30)になるような符号化処理を行う、ということである。後述の復号化処理において、合体して復号化処理が行えるようにするためである。また、図4は、符号化後の各動画のビットストリームを示す図であるが、従来と同様、1ピクチャが1スライスとして構成され、また、スライスのヘッダーには、従来通り、マクロブロック開始座標の情報が格納されるが、本発明に特徴的なものとしては、更に、“元画像のデータサイズ”(解像度)(例えば、図3に示す動画Cであれば、110×48)を別途、SEIもしくはMP4などNALを内包するコンテナに入れる処理を行う、ということである。これは、後述するように、各動画の復号化処理を行い表示する画像処理装置において、復号化処理後に、元画像を抽出できるようにするためである。   In step S24, each moving image is encoded. For example, it is typically performed by software processing based on the H.264 standard. The condition at this time is that the encoding processing is performed so that the number of frames included in one GOP is the same (for example, 30) for at least the moving images in the same set. This is because the decryption process can be performed by combining them in the decryption process described later. FIG. 4 is a diagram showing a bit stream of each moving image after encoding. As in the conventional case, one picture is configured as one slice, and the macroblock start coordinates are included in the slice header as in the conventional case. However, as a characteristic feature of the present invention, “data size of the original image” (resolution) (for example, 110 × 48 in the case of the moving image C shown in FIG. 3) is additionally provided. In other words, processing to be put in a container containing NAL such as SEI or MP4. This is because an original image can be extracted after the decoding processing in an image processing apparatus that performs decoding processing of each moving image and displays it, as will be described later.

ステップS25においては、未処理の動画が残っているかを判定し、残っていれば(肯定判定)、ステップS21に戻り、以上の処理を繰り返し、全動画終了であれば、処理を終える。   In step S25, it is determined whether or not an unprocessed moving image remains. If it remains (affirmative determination), the process returns to step S21, the above processing is repeated, and if all moving images are completed, the processing ends.

なお、上述の実施形態においては、垂直方向の解像度については、各動画についてそのまま、すなわち区々としたが、合体して復号化処理すべき各動画については、補填処理により垂直方向の解像度も揃えるということも考えられる。垂直方向の解像度も揃えると、同一組として合体して復号化処理すべき各動画の入れ替えが画一的に行え、上述の符号化設計処理において処理が簡素になる。   In the above-described embodiment, the vertical resolution is set as it is for each moving image, that is, it is divided, but for the moving images to be combined and decoded, the vertical resolution is also made uniform by the compensation process. It can be considered. If the resolution in the vertical direction is also made uniform, the moving images to be decoded and combined as the same set can be exchanged uniformly, and the processing becomes simple in the above-described encoding design processing.

<デコーダを備えた画像処理装置の実動による画像データ処理(ステップS3)>
図5は、本発明の画像データ処理方法の一実施形態において使用される画像処理装置の構成を示すブロック図である。
同図に示す画像処理装置は、上位CPU1と、画像データROM2と、画像処理プロセッサ3と、表示部4とで構成されている。上位CPU1は事前処理部11を有し、事前処理部11は、各動画再生タイミング情報生成部111と動画間各ピクチャ合体部112とを有している。また、画像処理プロセッサ3は、事後処理部31と、ハードウェアデコーダ32と、ビデオメモリ33とを有し、更に事後処理部31は、命令解釈部311と描画回路312とを有している。描画回路312には、各動画分離部3121と、元画像切出し部3122と、各動画表示タイミング制御部3123が含まれている。ここで、画像データROM2には、上述の<符号化処理(ステップS2)>によって符号化された各動画のデータが格納されている。
<Image Data Processing by Actual Operation of Image Processing Device with Decoder (Step S3)>
FIG. 5 is a block diagram showing a configuration of an image processing apparatus used in an embodiment of the image data processing method of the present invention.
The image processing apparatus shown in FIG. 1 includes a host CPU 1, an image data ROM 2, an image processing processor 3, and a display unit 4. The host CPU 1 includes a preprocessing unit 11, and the preprocessing unit 11 includes each moving image reproduction timing information generation unit 111 and each inter-moving picture uniting unit 112. The image processor 3 includes a post-processing unit 31, a hardware decoder 32, and a video memory 33, and the post-processing unit 31 further includes a command interpreting unit 311 and a drawing circuit 312. The drawing circuit 312 includes each moving image separation unit 3121, an original image cutout unit 3122, and each moving image display timing control unit 3123. Here, the image data ROM 2 stores data of each moving image encoded by the above-described <encoding process (step S2)>.

図5に示す画像処理装置における画像データ処理の概要は以下の通りである。なお、事前処理部11及び事後処理部31の詳細説明については、後述する。
上位CPU1は、当該画像処理装置での設計動作に基づき、画像データROM2から必要な動画に係る符号化画像データを読み出してくるのであるが、特に、前述の<復号化設計処理(ステップS1)>で設計された合体可能な各動画に係る情報に基づき、画像データROM2から合体可能な複数の動画に係る符号化画像データを読み出してくる場合、後に詳述のように、動画間各ピクチャ合体部112が、各動画間でピクチャタイプが揃った状態で、各動画ピクチャを各スライスとして合体するのであるが、そのとき、合体させるスライスのヘッダー領域に含まれる先頭マクロブロック座標の情報を書き換える。そして、動画間各ピクチャ合体部112は、複数のスライスで構成された合体後の符号化画像データを画像処理プロセッサ3のハードウェアデコーダ32に供給する。
The outline of the image data processing in the image processing apparatus shown in FIG. 5 is as follows. Details of the pre-processing unit 11 and the post-processing unit 31 will be described later.
The upper CPU 1 reads out the encoded image data relating to the necessary moving image from the image data ROM 2 based on the design operation in the image processing apparatus. When the encoded image data relating to a plurality of moving images that can be merged is read out from the image data ROM 2 based on the information relating to each moving image that can be merged, as described in detail later, In 112, the moving picture is merged as each slice in a state where the picture types are aligned between the moving pictures. At this time, the information of the leading macro block coordinates included in the header area of the slice to be merged is rewritten. Then, each inter-moving picture uniting unit 112 supplies the encoded image data after the uniting composed of a plurality of slices to the hardware decoder 32 of the image processing processor 3.

複数のスライスで構成された合体後の符号化画像データに基づく各動画は、表示させるべきタイミングは通常それぞれ異なるので、上位CPU1は、各動画の再生タイミング情報を画像処理プロセッサ3側に知らせる必要がある。その再生タイミング情報を生成する処理を行うのが、各動画再生タイミング情報生成部111である。すなわち、各動画再生タイミング情報生成部111は、例えば、遊技機の一つのイベントで表示される複数の動画の再生タイミング等の調整時間を設定し、その情報を画像処理プロセッサ3に供給する。   Since each moving image based on encoded image data after combining composed of a plurality of slices usually has different timings to be displayed, the upper CPU 1 needs to inform the image processor 3 of the reproduction timing information of each moving image. is there. Each moving image reproduction timing information generation unit 111 performs processing for generating the reproduction timing information. That is, each moving image reproduction timing information generation unit 111 sets an adjustment time such as the reproduction timing of a plurality of moving images displayed in one event of the gaming machine, and supplies the information to the image processor 3.

ハードウェアデコーダ32は、上位CPU1から供給された合体後の符号化画像データに対して復号化処理を行い、復号結果をビデオメモリ3に供給すると共に、図示しない復号完了通知を上位CPU1に出力する。ハードウェアデコーダ32から復号化の完了通知を受け取った上位CPU1は、画像処理プロセッサ3の事後処理部31に事後処理の指令を行い、その命令解釈部311は、その指令に含まれる、少なくとも、合体に係る各動画を表す情報や各動画の再生タイミングに係る情報を描画回路312に供給する。描画回路312に含まれる各動画分離部3121、元画像切出し部3122、及び各動画表示タイミング制御部3123は、それらの情報と、ビデオメモリ33に格納された復号化画像データ自体に含まれる元画像のデータサイズの情報(図4参照)に基づき、ビデオメモリ33に格納された復号化画像データに対して所定の事後処理を施したのち、その結果を表示部4に供給して各動画として表示させる。
Hardware decoder 32 performs decoding processing on the encoded image data after merging supplied from the host CPU1, supplies decoding result to the video memory 3 3, outputs the decoding completion notification (not shown) to the upper CPU1 To do. The host CPU 1 that has received the decoding completion notification from the hardware decoder 32 issues a post-processing command to the post-processing unit 31 of the image processor 3, and the command interpretation unit 311 includes at least the coalescing included in the command. Information relating to each moving image and information relating to the reproduction timing of each moving image are supplied to the drawing circuit 312. Each moving image separation unit 3121, original image cutout unit 3122, and each moving image display timing control unit 3123 included in the drawing circuit 312 includes the information and the original image included in the decoded image data itself stored in the video memory 33. After performing predetermined post-processing on the decoded image data stored in the video memory 33 based on the data size information (see FIG. 4), the result is supplied to the display unit 4 and displayed as each moving image. Let

事前処理部11及び事後処理部31の詳細な処理内容については、図6乃至図10を参照しつつ、例示で以下説明する。
上位CPU1では画像処理装置に対して設計された動作処理(遊技機であれば、当該画像処理装置が組み込まれた遊技機における遊技の進行の設計動作)に基づき、動画の表示指令が発行される。例えば、図13に示した例においては、“動画A(B、・・・)を所定のタイミングから再生せよ”であるとか、動画Eが再生されている途中で、“動画Eの再生を中断し、代わりに動画Gを再生し始めよ”というような指令が発行される。
Detailed processing contents of the pre-processing unit 11 and the post-processing unit 31 will be described below by way of example with reference to FIGS. 6 to 10.
The host CPU 1 issues a moving image display command based on an operation process designed for the image processing apparatus (in the case of a gaming machine, a design operation for advancing the game in the gaming machine in which the image processing apparatus is incorporated). . For example, in the example shown in FIG. 13, “Play video A (B,...) From a predetermined timing” or while video E is being played, “playback of video E is interrupted. Then, instead, a command such as “Start playing video G” is issued.

上位CPU1は発行された指令に基づき、符号化画像データを画像データROM2から入手し、例えば“動画Aを所定のタイミングから再生せよ”という指令であれば、動画Aに関する符号化画像データを画像データROM2から入手し、画像処理プロセッサ3のハードウェアデコーダ32に供給し、ビデオメモリ33に復号された画像データが格納された後、描画回路312を用いて画像を作成し、所定のタイミングで表示部4に供給することで動画Aの再生が表示部4で行われる。   The upper CPU 1 obtains encoded image data from the image data ROM 2 based on the issued command. For example, if the command is “Reproduce the moving image A from a predetermined timing”, the upper CPU 1 converts the encoded image data related to the moving image A to image data. After obtaining the image data obtained from the ROM 2 and supplied to the hardware decoder 32 of the image processor 3 and stored in the video memory 33, an image is created using the drawing circuit 312 and displayed at a predetermined timing. 4 is played back on the display unit 4.

また、上位CPU1で複数の動画、例えば、動画C、D、E及びGを再生する指令が発生すると、必要な符号化画像データであるスライスを画像データROM2から読み出し、動画間各ピクチャ合体部112は、合体させるスライスのヘッダー領域に含まれる先頭マクロブロック座標の情報を書き換えて、複数のスライスを合体させ、合体後の圧縮データを生成し、それを画像処理プロセッサ3のハードウェアデコーダ32に供給する。なお、画像データROM2から読み出される動画C、D、Eについては読み出し後に補填処理を施してもよい。   Further, when a command for reproducing a plurality of moving images, for example, moving images C, D, E, and G, is generated by the upper CPU 1, a slice, which is necessary encoded image data, is read from the image data ROM 2, and each inter-moving picture combining unit 112 is read. Rewrites the information of the head macroblock coordinates included in the header area of the slice to be merged, merges a plurality of slices, generates merged compressed data, and supplies it to the hardware decoder 32 of the image processor 3 To do. Note that the moving images C, D, and E read from the image data ROM 2 may be subjected to compensation processing after reading.

また、スライスのヘッダー領域に含まれる先頭マクロブロックの座標情報書き換えとは、各スライスの先頭マクロブロックの座標情報は当初「0」が格納されているので、大きな1つの画像として合体する際の各スライスの配置に応じて先頭マクロブロックの座標情報を所望の値に変更するものである。例えば、図10(a)に示すように動画C、動画D、動画Eをまとめ、大きな1つの画像として合体させる場合、動画Cのスライスのヘッダー領域に含まれる先頭マクロブロックの座標情報は書き換える必要がないが、動画D及び動画Eのスライスのヘッダー領域に含まれる先頭マクロブロックの座標情報はそれぞれ配置される位置の情報に応じて書き換えられる。このように複数スライスを含む符号化画像データをハードウェアデコーダ32で正常に復号化できる有効なH.264ストリームを生成するためである。   Also, the coordinate information rewriting of the first macroblock included in the header area of the slice means that the coordinate information of the first macroblock of each slice is initially stored as “0”. The coordinate information of the leading macroblock is changed to a desired value in accordance with the slice arrangement. For example, as shown in FIG. 10A, when the moving image C, the moving image D, and the moving image E are combined and combined as one large image, the coordinate information of the first macroblock included in the header area of the slice of the moving image C needs to be rewritten. However, the coordinate information of the first macroblock included in the header areas of the slices of the moving image D and the moving image E is rewritten according to the information on the positions where they are arranged. This is to generate an effective H.264 stream that can normally decode the encoded image data including a plurality of slices by the hardware decoder 32.

ハードウェアデコーダ32で符号化画像データが復号され、ビデオメモリ33に格納された後、合体した復号化画像データから個々の画像へ切出すための情報や動画分離及び動画表示タイミング等の情報を上位CPU1が生成し、その情報が画像処理プロセッサ3の命令解釈部311で解釈される。   After the encoded image data is decoded by the hardware decoder 32 and stored in the video memory 33, information for cutting out the combined decoded image data into individual images, information such as moving image separation and moving image display timing, etc. The CPU 1 generates the information, and the information is interpreted by the instruction interpretation unit 311 of the image processor 3.

例えば、命令解釈部311で解釈した指令が、“動画Cを所定のタイミングから再生せよ”、“動画Dを所定のタイミングから再生せよ”、“動画Eを所定のタイミングから再生せよ”というものであった場合、ビデオメモリ33内に格納されている復号化画像データのうち、動画Cにかかる画像と、動画Eにかかる画像と、動画Eにかかる画像をそれぞれ切出し、指定されたタイミングで表示装置4に表示するよう描画回路312が制御される。   For example, the commands interpreted by the command interpretation unit 311 are “replay video C from a predetermined timing”, “reproduce video D from a predetermined timing”, and “reproduce video E from a predetermined timing”. If there is, the image related to the moving image C, the image related to the moving image E, and the image related to the moving image E are respectively cut out from the decoded image data stored in the video memory 33, and the display device is displayed at a designated timing. The drawing circuit 312 is controlled to display the image on the screen 4.

なお、複数の動画に関する画像データをスライスとして合体し、その合体後の圧縮データを同一のハードウェアデコーダ32で処理するため、スライスとして合体させる各画像データのピクチャタイプは同一である必要がある。そこで、合体の可能性のある各動画の1GOPに含まれるフレーム数を同一とし、図6に示すように、各動画(動画C、動画D、動画E)の任意の(先頭の)GOPのIピクチャを揃えてスライスを合体させなければならない。   In addition, since the image data regarding a some moving image is united as a slice and the compressed data after the uniting is processed by the same hardware decoder 32, the picture types of the image data to be united as a slice need to be the same. Therefore, the number of frames included in one GOP of each moving image that may be merged is the same, and as shown in FIG. 6, an arbitrary (first) GOP I of each moving image (moving image C, moving image D, moving image E) You have to align the pictures and merge the slices.

一方、図13に示したように動画C、動画D、動画Eの再生タイミングが全て異なる場合には、各動画に用いる画像を復号し、同時に各画像を描画することはできない。そのため、動画の再生タイミング(描画の開始タイミング)の情報を上位CPU1の各動画再生タイミング情報生成部111で生成し、その情報に基づいて画像処理プロセッサ3の描画回路312が画像を作成し、所定のタイミングで表示装置4に表示するよう制御が必要である。   On the other hand, as shown in FIG. 13, when the playback timings of the moving image C, the moving image D, and the moving image E are all different, it is impossible to decode the images used for each moving image and draw each image at the same time. For this reason, information on the playback timing (drawing start timing) of the moving image is generated by each moving image playback timing information generation unit 111 of the host CPU 1, and the drawing circuit 312 of the image processor 3 generates an image based on the information, It is necessary to control to display on the display device 4 at the timing.

上述のように各動画のピクチャタイプが揃った状態で、動画間各ピクチャ合体部112は、各動画をフレーム単位で、すなわち、各動画を、各ピクチャ符号化データであるスライスのレベルで合体させて、複数スライスの1ピクチャと見立てて編成させる。図7はこれを説明するための図である。前述のように、各動画の符号化データのビットストリームにおいては、通常、同図の左側に示すように、1ピクチャ1スライスで構成されているのに対して、合体の処理においては、各スライスを並べることにより、すなわち、スライスレベルで合体させる。なお、ここでは、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)及びSEI(Supplemental Enhancement Information)を一組としており、そのときはそれらを書き変えることとなる。例えば、SPSには参照フレーム数やフレームの幅及び高さの情報が含まれているが、合体させた後の高さ情報等は調整が必要である。また、PPSには符号化方式や量子化係数等の情報が含まれているが、各画像でこれらの情報が異なる場合には調整が必要である。また、図12を参照して説明した、スライスのヘッダーに含まれる開始マクロブロック座標についても、各スライスにおいて合体に応じて書き変えるようにする。   As described above, in a state where the picture types of the respective moving pictures are aligned, the inter-moving picture uniting unit 112 unites the moving pictures in units of frames, that is, the moving pictures are combined at the level of the slice that is the encoded data of each picture. Then, it is organized as if it were one picture of a plurality of slices. FIG. 7 is a diagram for explaining this. As described above, the bit stream of the encoded data of each moving image is normally composed of one slice per picture as shown on the left side of FIG. Are combined at the slice level. Here, SPS (Sequence Parameter Set), PPS (Picture Parameter Set), and SEI (Supplemental Enhancement Information) are set as one set, and at that time, they are rewritten. For example, the SPS includes information on the number of reference frames and the width and height of the frame, but the height information after being combined needs to be adjusted. The PPS includes information such as an encoding method and a quantization coefficient, but adjustment is necessary when the information is different in each image. In addition, the start macroblock coordinates included in the slice header described with reference to FIG. 12 are also rewritten in accordance with the merge in each slice.

事前処理部11は、各動画の符号化画像データを上述のようにスライスレベルで編成することにより、各動画を合体させつつ、当該符号化画像データをハードウェアデコーダ32に供給する。ここで、ハードウェアデコーダ32側では、当該符号化画像データを受けると、1ピクチャが複数スライス(例では3スライス)で構成されたものとは認識するが、あくまでこれは規格(H.264)で定められた範囲であり(MPEG-2、4でも同様)、そのまま復号化処理を行うことができる。しかしながら、ハードウェアデコーダ32は、複数の動画を合体させたものであるということまでは認識しない。これは、言い換えれば、ハードウェアデコーダ32については、何ら手を加える必要がないということを意味している。つまり、そのように事前処理、また後述する事後処理を行っているということである。   The pre-processing unit 11 organizes the encoded image data of each moving image at the slice level as described above, and supplies the encoded image data to the hardware decoder 32 while combining the moving images. Here, on the hardware decoder 32 side, when the encoded image data is received, it is recognized that one picture is composed of a plurality of slices (three slices in the example), but this is only a standard (H.264). (The same applies to MPEG-2 and 4), and the decoding process can be performed as it is. However, the hardware decoder 32 does not recognize that it is a combination of a plurality of moving images. In other words, this means that the hardware decoder 32 need not be modified. In other words, this means that pre-processing and post-processing described later are performed.

図6に戻り、各動画は再生時間が区々であることから、短いものから先に終了していく。このとき、空いたところに別の動画を差し入れることもできるが(垂直解像度、表示タイミング、画像データバッファ3124の容量の観点)、そのときも、他の動画とGOP単位で整合をおこなう。また、図13で例示するように動画Eが途中で動画Gに切り替わる場合を説明するものが図8及び図9である。図8(a)は、動画Eの中断がない場合を示しており、同図(b)は、動画Eが中断して代わりに動画Gが再生される場合を示している。この場合も、GOP単位で切り替わるが、同図(b)の例では、動画EのGOP[2]の後に、動画EのGOP[3]の代わりに、動画GのGOP[1]が組み込まれている。動画EのGOP[2]と動画GのGOP[1]の境目を、各動画のピクチャの合体の観点から見たものが、図9である。同図に示すように、切替え前の最終フレームにおいては、動画C、動画D、及び動画Eの各Pピクチャを合体させるようになっているが、切替え後の最初のフレームにおいては、動画C、動画D、及び動画Gの各Iピクチャを合体させるようになっている。   Returning to FIG. 6, the playback time of each moving image varies, so that the shortest one ends first. At this time, another moving image can be inserted in the empty space (in terms of vertical resolution, display timing, and capacity of the image data buffer 3124), but at that time, matching with other moving images is performed in GOP units. FIG. 8 and FIG. 9 illustrate a case where the moving image E is switched to the moving image G in the middle as illustrated in FIG. FIG. 8A shows a case where the video E is not interrupted, and FIG. 8B shows a case where the video E is interrupted and the video G is reproduced instead. In this case as well, switching is performed in units of GOPs. In the example of FIG. 5B, GOP [1] of video G is incorporated after GOP [2] of video E instead of GOP [3] of video E. ing. FIG. 9 shows the boundary between the GOP [2] of the moving picture E and the GOP [1] of the moving picture G from the viewpoint of combining the pictures of the moving pictures. As shown in the figure, in the final frame before switching, the P pictures of the moving picture C, the moving picture D, and the moving picture E are merged, but in the first frame after the switching, the moving picture C, The I pictures of the moving picture D and the moving picture G are combined.

次に、事後処理部31について説明する。図10は、事後処理部31の処理を説明するための図である。
ハードウェアデコーダ32からの復号化後の画像データがビデオメモリ33に格納されると、まず、各動画分離部3121は、図10(a)の左側にあるように、各スライスヘッダーに書き込んだ各動画の開始マクロブロック座標に基づき、フレームごとに各動画を分離する。次に、元画像切出し部3122は、同図(a)の右側にあるように、各動画のSEIもしくはコンテナに格納されていた元画像のデータサイズに基づいて、フレームごとに<符号化処理(ステップS2)>のときに補填された補填データを削除する。そして、このようにフレームごとに元画像が再現された各動画のデータは、ビデオメモリ33に蓄積されていく。そして、各動画表示タイミング制御部3123は、上位CPU1の各動画再生タイミング情報生成部111からの各動画の再生タイミングに関する情報に基づいて、同図(b)に示すように、各動画の所望の表示タイミングで、それぞれ表示部4に再生していく。
Next, the post-processing unit 31 will be described. FIG. 10 is a diagram for explaining the processing of the post-processing unit 31.
When the image data after decoding from the hardware decoder 32 is stored in the video memory 33, first, each moving image separation unit 3121, as shown on the left side of FIG. Each video is separated for each frame based on the start macroblock coordinates of the video. Next, as shown on the right side of FIG. 5A, the original image cutout unit 3122 performs <encoding processing (for each frame) based on the SEI of each moving image or the data size of the original image stored in the container. In step S2)>, the compensated compensation data is deleted. The moving image data in which the original image is reproduced for each frame in this way is accumulated in the video memory 33. Then, each moving image display timing control unit 3123, based on the information regarding the reproduction timing of each moving image from each moving image reproduction timing information generation unit 111 of the host CPU 1, as shown in FIG. Each is reproduced on the display unit 4 at the display timing.

なお、上述の説明においては、図13で示した動画C、動画D、動画E、動画Gを例にして説明したが、同図(又は図3(a))にある動画B及び動画Fでも同様である。   In the above description, the moving image C, the moving image D, the moving image E, and the moving image G illustrated in FIG. 13 have been described as examples. However, the moving image B and the moving image F illustrated in FIG. It is the same.

以上のように、本発明の画像データ処理方法における一実施形態によれば、垂直方向に解像度が小さい各動画については、合体させて一括で復号化処理をしているので、垂直方向に複数のデコーダコアにより並列処理を行っているような場合でも、その機能を享受することができる。また、合体させて数を減らした分だけ、デコーダの初期化等の付随処理が減ることとなり、処理時間は格段に短くなる。   As described above, according to the embodiment of the image data processing method of the present invention, since the moving images whose resolutions are small in the vertical direction are combined and collectively decoded, a plurality of video data processing methods are performed in the vertical direction. Even when parallel processing is performed by the decoder core, the function can be enjoyed. In addition, as the number is reduced by combining, the accompanying processing such as initialization of the decoder is reduced, and the processing time is remarkably shortened.

また、各動画のピクチャ単位でそれらのスライスを複数のスライスとして纏めるというやり方で、各動画を合体させているので、ハードウェアデコーダ32の構成や機能を何ら変更する必要はない。   Further, since the moving images are combined in a manner in which the slices are grouped into a plurality of slices in units of pictures of each moving image, it is not necessary to change the configuration or function of the hardware decoder 32 at all.

本発明の画像データ処理方法は、例えば、パチンコ機等の遊技機に採用できる。   The image data processing method of the present invention can be employed in gaming machines such as pachinko machines, for example.

1 上位CPU
11 事前処理部
111 各動画再生タイミング情報生成部
112 動画間各ピクチャ合体部
2 画像データROM
3 画像処理プロセッサ
31 事後処理部
311 命令解釈部
312 描画回路
3121 各動画分離部
3122 元画像切出し部
3123 各動画表示タイミング制御部
32 ハードウェアデコーダ
33 ビデオメモリ
4 表示部
100 上位CPU
200 画像データROM
300 画像処理プロセッサ
400 表示部
1 Host CPU
11 Pre-processing unit 111 Each moving image reproduction timing information generating unit 112 Inter-moving image uniting unit 2 Image data ROM
3 Image Processor 31 Post-Processing Unit 311 Command Interpreting Unit 312 Drawing Circuit 3121 Each Moving Image Separating Unit 3122 Original Image Cutting Unit 3123 Each Moving Image Display Timing Control Unit 32 Hardware Decoder 33 Video Memory 4 Display Unit 100 Host CPU
200 Image data ROM
300 Image processor 400 Display unit

Claims (8)

動画に係る符号化画像データを出力すると共に、その動画の再生に係る指令を発行する上位CPUと、
複数のデータコアによる並列処理を行うハードウェアデコーダを有し、入力される前記指令に基づき、前記動画に係る符号化画像データを復号化する画像処理プロセッサと、
前記画像処理プロセッサにより復号化された画像データに基づいて前記動画が再生される表示部と、
を備えた画像処理装置を使用した画像データ処理方法であって、
前記表示部に再生されるべき複数の前記動画のうちの、その垂直解像度が前記ハードウェアデコーダの前記並列処理に係る画素数以下のものの中から、前記表示部に再生されるタイミングに関し、相互に所定内の近接度にあるものを組とし、同一組とされた各動画については、同一GOP間隔で符号化して前記符号化画像データを生成しておき、
前記指令に基づき前記表示部に複数の動画が再生される場合に、前記上位CPUは、前記組とされた各動画を、各ピクチャ符号化画像データであるスライスのレベルでピクチャタイプを揃えて合体させて、各スライスのヘッダー領域に含まれる開始マクロブロック座標の情報を書き変えて複数スライスの1ピクチャと見立てて一括して符号化画像データを構成して前記画像処理プロセッサに供給し、前記ハードウェアデコーダは、その一括化された符号化画像データを復号化し、
前記上位CPUは、前記ハードウェアデコーダから得られた復号化された画像データから各動画を分離するよう前記画像処理プロセッサに要求し、分離された各動画が前記表示部に再生されることを特徴とする画像データ処理方法。
An upper CPU that outputs encoded image data related to a moving image and issues a command related to reproduction of the moving image;
An image processor that has a hardware decoder that performs parallel processing by a plurality of data cores, and that decodes encoded image data related to the moving image based on the input command;
A display unit that reproduces the moving image based on the image data decoded by the image processing processor;
An image data processing method using an image processing apparatus comprising:
Among the plurality of moving images to be reproduced on the display unit, the vertical resolution is less than or equal to the number of pixels related to the parallel processing of the hardware decoder. A set of images having closeness within a predetermined range is set, and for each moving image, the encoded image data is generated by encoding at the same GOP interval,
When a plurality of video is played on the display unit based on the command, the higher the CPU, each video is the said set, coalescing align the picture type at the level of the slice is the picture coded image data Then, the information of the start macroblock coordinates included in the header area of each slice is rewritten, and the encoded image data is collectively configured to be regarded as one picture of a plurality of slices, and supplied to the image processor. The wear decoder decodes the batched encoded image data ,
The upper CPU, the request from the resulting decoded image data to the image processor so as to separate the video from the hardware decoder, characterized Rukoto each video separated is reproduced on the display unit An image data processing method.
前記組とされた各動画の垂直解像度の合計が、前記複数のデータコアによる並列処理の画素数を超えることを特徴とする請求項1に記載の画像データ処理方法。 Image data processing method according to claim 1 Total vertical resolution of each video that is to the set, characterized in Rukoto exceeds the number of pixels parallel processing by the plurality of data cores. 前記画像処理プロセッサは、前記表示部に各動画を再生させる際に、各動画の各々のフレーム単位の所望の表示タイミングを担保するために、前記ハードウェアデコーダから得られた復号化された画像データを画像データ格納部に蓄積しておくことを特徴とする請求項に記載の画像データ処理方法。 When the image processor reproduces each moving image on the display unit, the decoded image data obtained from the hardware decoder is used to ensure a desired display timing for each frame of each moving image. The image data processing method according to claim 1 , wherein the image data is stored in an image data storage unit. 前記動画に係る符号化画像データのうち、前記合体に係る各動画は、水平方向にデータを補填することにより、水平解像度を揃えて符号化しておくことを特徴とする請求項1に記載の画像データ処理方法。   2. The image according to claim 1, wherein among the encoded image data related to the moving image, each moving image related to the coalescence is encoded with horizontal resolution aligned by supplementing data in a horizontal direction. Data processing method. 前記水平解像度に複数の基準値を設け、それらのうちの一の基準値に合わせることにより、前記水平解像度を揃えることを特徴とする請求項に記載の画像データ処理方法。 5. The image data processing method according to claim 4 , wherein a plurality of reference values are provided for the horizontal resolution, and the horizontal resolution is made uniform by matching one of them. 前記動画に係る符号化画像データのうち、前記合体に係る各動画は、垂直方向にもデータを補填することにより、垂直解像度も揃えて符号化しておくことを特徴とする請求項に記載の画像データ処理方法。 5. The encoded image data according to claim 4 , wherein among the encoded image data related to the moving image, each moving image related to the coalescence is encoded with the vertical resolution aligned by supplementing the data in the vertical direction as well. Image data processing method. 各動画の元画像のサイズの情報は、SEIもしくはコンテナに格納しておくことを特徴とする請求項乃至のいずれかに記載の画像データ処理方法。 Size information of the original image for each video, the image data processing method according to any one of claims 4 to 6, wherein the storing in the SEI or container. 前記合体に係る各動画に係る符号化画像データの前記ハードウェアデコーダによる復号化処理に際し、いずれかの動画に係る符号化処理が終了した場合、又はいずれかの動画の再生が中断されるべき場合、新たな動画が、前記GOP単位で組み込まれることを特徴とする請求項に記載の画像データ処理方法。 When the encoding process related to any moving image is completed or the reproduction of any moving image should be interrupted in the decoding process by the hardware decoder of the encoded image data related to each moving image related to the merging the image data processing method according to claim 1, a new video, characterized in that it is incorporated in the GOP.
JP2016121278A 2016-06-17 2016-06-17 Image data processing method Active JP6387511B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016121278A JP6387511B2 (en) 2016-06-17 2016-06-17 Image data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016121278A JP6387511B2 (en) 2016-06-17 2016-06-17 Image data processing method

Publications (2)

Publication Number Publication Date
JP2017225096A JP2017225096A (en) 2017-12-21
JP6387511B2 true JP6387511B2 (en) 2018-09-12

Family

ID=60688599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016121278A Active JP6387511B2 (en) 2016-06-17 2016-06-17 Image data processing method

Country Status (1)

Country Link
JP (1) JP6387511B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170332096A1 (en) * 2016-05-11 2017-11-16 Advanced Micro Devices, Inc. System and method for dynamically stitching video streams
JP6732337B2 (en) 2016-12-09 2020-07-29 株式会社アクセル Image data processing method
WO2018105515A1 (en) * 2016-12-09 2018-06-14 株式会社アクセル Image data processing method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1193611C (en) * 2000-01-28 2005-03-16 开放电视公司 Interactive TV. system and method for simultaneous transmission and rendering of multiple MPEG-encoded video streams
US8457214B2 (en) * 2007-09-10 2013-06-04 Cisco Technology, Inc. Video compositing of an arbitrary number of source streams using flexible macroblock ordering
US9414065B2 (en) * 2010-11-01 2016-08-09 Nec Corporation Dynamic image distribution system, dynamic image distribution method and dynamic image distribution program
JP2014110452A (en) * 2012-11-30 2014-06-12 Mitsubishi Electric Corp Image decoding device and image encoding device
JP2014192564A (en) * 2013-03-26 2014-10-06 Sony Corp Video processing device, video processing method, and computer program
EP3036689B8 (en) * 2013-10-25 2020-11-11 MediaTek Inc. Method and apparatus for processing picture having picture height not evenly divisible by slice height and/or slice width not evenly divisible by pixel group width
US9031138B1 (en) * 2014-05-01 2015-05-12 Google Inc. Method and system to combine multiple encoded videos for decoding via a video docoder

Also Published As

Publication number Publication date
JP2017225096A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
US11115670B2 (en) Image encoding apparatus, image encoding method, recording medium and program, image decoding apparatus, image decoding method, and recording medium and program
KR102424829B1 (en) Method for Processing Bitstream Generated by Encoding Video Data
JP4556146B2 (en) Information processing apparatus and method, program, and information processing system
WO2018116924A1 (en) Encoding device, encoding method, and program, and decoding device, decoding method, and program
JP6387511B2 (en) Image data processing method
JP7415936B2 (en) Information processing device and information processing method
GB2530751A (en) Video data encoding and decoding
JP6732337B2 (en) Image data processing method
JP6248298B2 (en) Still image information processing method
JP6307716B2 (en) Image information processing method
KR102453850B1 (en) Method for Processing Bitstream Generated by Encoding Video Data
WO2018105515A1 (en) Image data processing method
US11985335B2 (en) Method and apparatus for video decoding of area of interest in a bitstream
US11985336B2 (en) Method and apparatus for video decoding of area of interest in a bitstream
JP5267585B2 (en) Image processing method and image processing apparatus
US20220343545A1 (en) Method and apparatus for immersive video encoding and decoding

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180712

R150 Certificate of patent or registration of utility model

Ref document number: 6387511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250