JP2015210375A - Image processing apparatus, control method thereof, and program - Google Patents

Image processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2015210375A
JP2015210375A JP2014091767A JP2014091767A JP2015210375A JP 2015210375 A JP2015210375 A JP 2015210375A JP 2014091767 A JP2014091767 A JP 2014091767A JP 2014091767 A JP2014091767 A JP 2014091767A JP 2015210375 A JP2015210375 A JP 2015210375A
Authority
JP
Japan
Prior art keywords
graphic
data
divided
graphic data
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014091767A
Other languages
Japanese (ja)
Other versions
JP2015210375A5 (en
Inventor
黒木 大輔
Daisuke Kuroki
大輔 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014091767A priority Critical patent/JP2015210375A/en
Publication of JP2015210375A publication Critical patent/JP2015210375A/en
Publication of JP2015210375A5 publication Critical patent/JP2015210375A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve display speed of graphic data.SOLUTION: An image processing apparatus which allocates sub-image data formed by dividing image data constituting a video image, to be processed by different image processing sections in parallel includes: extraction means which extracts graphic data that moves with time, out of graphic data to be synthesized with the image data; dividing means which divides the graphic data at a position crossing a boundary between adjacent frames when the graphic data extracted by the extraction means crosses the boundary of the frames due to displacement; and determination means which determines the order of generating multiple pieces of sub-graphic data divided by the dividing means, on the basis of displacement information of the graphic data, for graphic generation means of the image processing section.

Description

本発明は、画像データを分割した各分割画像データに合成させるグラフィックデータを複数のグラフィック生成手段により生成させる技術に関するものである。   The present invention relates to a technique for generating graphic data to be combined with divided image data obtained by dividing image data by a plurality of graphic generation means.

現在、デジタルテレビでは、FullHD(1920x1080)が一般的な解像度となっている。しかし、4K2K(4096x2160)やスーパーハイビジョン(7680x4320)といった、より高解像度な画像データの規格化が進み、それらの高解像度画像データを表示することが可能なデバイスが提供され始めている。   Currently, Full HD (1920 × 1080) is a common resolution for digital television. However, standardization of higher-resolution image data such as 4K2K (4096 × 2160) and Super Hi-Vision (7680 × 4320) has progressed, and devices capable of displaying such high-resolution image data have begun to be provided.

高解像度画像データの受信処理、画像処理及び表示デバイスへの出力処理には、より広帯域な画像入出力インタフェースやメモリインタフェースが必要とされ、演算量も増大することから、1つの画像処理LSIチップでは処理しきれない場合がある。そこで、高解像度画像データの受信処理、画像処理及び出力処理を行うために、高解像度画像データを空間で分割し、分割した画像データ単位で画像処理を行う方法がよく用いられている。例えば、高解像度画像データを左右半分に分割し、分割された各画像データの画像処理を2つの画像処理LSIチップで並列に行うことがある。   High-resolution image data reception processing, image processing, and output processing to a display device require a wider-band image input / output interface and memory interface, and the amount of computation increases. It may not be possible to process. Therefore, in order to perform reception processing, image processing, and output processing of high resolution image data, a method of dividing high resolution image data in space and performing image processing in units of divided image data is often used. For example, high resolution image data may be divided into left and right halves, and image processing of each divided image data may be performed in parallel by two image processing LSI chips.

また、画像処理LSIチップが処理するのは画像データだけではない。即ち、画像処理LSIチップは、表示されている画像データに関する情報、設定メニュー、Web画面及び写真等のグラフィックデータを生成し、画像データに重畳して出力する機能も備えている。画像データの高解像度化に伴い、重畳させるグラフィックデータも高解像度になり、グラフィックデータ生成処理における演算量が増大する。そのため、高解像度画像データの画像処理と同様に、複数の画像処理LSIチップが備えるグラフィック生成部を用いてグラフィックデータを生成している。   Further, the image processing LSI chip processes not only image data. That is, the image processing LSI chip also has a function of generating graphic data such as information related to displayed image data, a setting menu, a Web screen, and a photograph, and superimposing them on the image data for output. As the resolution of the image data is increased, the graphic data to be superimposed is also increased in resolution, and the amount of calculation in the graphic data generation process increases. Therefore, similarly to the image processing of the high resolution image data, the graphic data is generated using the graphic generation unit provided in the plurality of image processing LSI chips.

画像処理LSIチップが画像データに重畳するグラフィックデータは、画像データと異なり表示領域が一定でない。例えば、グラフィックデータは、画像データの全面に表示される場合もあれば、画像データの右半分だけに表示される場合もある。更に、グラフィックデータの生成処理における負荷も、グラフィックデータ全体で一定でない。例えば、グラフィックデータ内に、写真等の複雑な画像がある領域と、文字だけの領域とが存在する場合、文字だけの領域に比べて画像のある領域のグラフィックデータの生成処理における負荷は大きくなる。従って、高速にグラフィックデータを生成するためには、グラフィックデータを生成する複数のグラフィック生成部間で処理負荷が均一になるように処理をさせる必要がある。そして、複数の画像処理LSIチップで構成される画像処理システムが備えるグラフィックデータ生成処理能力を最大限に使うことが必要になる。   The graphic data that the image processing LSI chip superimposes on the image data has a different display area, unlike the image data. For example, the graphic data may be displayed on the entire surface of the image data, or may be displayed only on the right half of the image data. Further, the load in the graphic data generation process is not constant for the entire graphic data. For example, if graphic data includes a region with a complex image such as a photograph and a region containing only characters, the load on the graphic data generation processing for the region containing the image is greater than that of a region containing only characters. . Therefore, in order to generate graphic data at high speed, it is necessary to perform processing so that the processing load is uniform among a plurality of graphic generation units that generate graphic data. Then, it is necessary to make maximum use of the graphic data generation processing capability provided in the image processing system composed of a plurality of image processing LSI chips.

特許文献1では、グラフィックデータを矩形に分割した画像ブロックの画像形成に係る処理負荷を推定し、処理負荷が均一になるように、複数の処理ユニットに処理を分散させることにより、分散処理の高速化を図る技術が開示されている。   In Patent Document 1, the processing load related to image formation of an image block obtained by dividing graphic data into rectangles is estimated, and the processing is distributed to a plurality of processing units so that the processing load is uniform, thereby speeding up the distributed processing. A technique for achieving the above is disclosed.

特開2010−162745号公報JP 2010-162745 A

しかしながら、特許文献1に開示されている技術では、グラフィックデータの処理負荷を推定する処理が必要となる。更に、この技術では、その推定結果だけでなく、グラフィックデータの表示領域も加味して、グラフィックデータ生成処理を割り当てる処理も必要となる。そのため、グラフィックデータ生成処理の割り当てを決定するための処理負荷が大きくなってしまい、グラフィックデータの表示スピードを低下させてしまうという問題がある。   However, the technique disclosed in Patent Document 1 requires processing for estimating the processing load of graphic data. Furthermore, in this technique, not only the estimation result but also the graphic data display area is taken into consideration, and the graphic data generation process is assigned. For this reason, there is a problem that the processing load for determining the allocation of the graphic data generation processing is increased, and the display speed of the graphic data is reduced.

また、この技術では、ある時点での空間情報、即ち、各画像処理チップに割り当てた空間における担当領域を示す情報とグラフィックの表示位置を示す情報とを用いて、矩形に分割したグラフィックデータの生成割り当てを決めることになる。そのため、この技術では、時間軸の情報、即ち、時間の経過前後のグラフィックデータを考えた場合、無駄なグラフィックデータの生成が行われることがある。より具体的には、複数の画像処理チップで構成される画像処理システム内において、同一のグラフィックデータの生成が必要以上に行われることがある。また、複数の画像処理チップで構成される画像処理システム内において、グラフィックデータの生成の代わりに、画像処理チップ間で必要以上にグラフィックデータのメモリ転送が発生してしまうことがある。そのため、複数の画像処理チップで構成される画像処理システムが備えるグラフィック生成処理能力を効率的に使えていないという問題がある。また、その結果、グラフィックデータの表示スピードを低下させてしまうことになる。   Further, in this technique, generation of graphic data divided into rectangles using spatial information at a certain point in time, that is, information indicating a responsible area in a space allocated to each image processing chip and information indicating a graphic display position is generated. The assignment will be decided. Therefore, in this technique, when considering time-axis information, that is, graphic data before and after the passage of time, useless graphic data may be generated. More specifically, the same graphic data may be generated more than necessary in an image processing system including a plurality of image processing chips. In an image processing system including a plurality of image processing chips, memory transfer of graphic data may occur more than necessary between image processing chips instead of generating graphic data. Therefore, there is a problem that the graphic generation processing capability provided in the image processing system including a plurality of image processing chips cannot be used efficiently. As a result, the display speed of graphic data is reduced.

例えば、空間が領域分割されて一の画像処理チップに割り当てられた担当領域と、他の画像処理チップに割り当てられた担当領域との境界を平行移動するグラフィックデータを考える。時間の経過とともに平行移動するグラフィックデータが、次のフレームで変化するのは表示位置のみである。即ち、各画像処理チップは、一旦、生成したグラフィックデータを保持しておけば、例えば次のフレームで前記グラフィックデータを表示する必要がある場合であっても、再度前記グラフィックデータを生成する必要がない。しかし、自身の担当領域におけるグラフィックデータの生成を終えた画像処理チップが、他の画像処理チップの担当領域におけるグラフィックデータの生成を行う際、次のフレームで自身の担当領域に侵入してくるグラフィックデータ以外のグラフィックデータを生成したとする。その場合、自身の担当領域におけるグラフィックデータの生成を終えた画像処理チップは、次のフレームにおいて自身の担当領域に侵入してくるグラフィックデータを生成する必要がある。また、仮に前記画像処理チップが、次のフレームで自身の担当領域に侵入してくるグラフィックデータを生成したとしても、生成したグラフィックデータを他の画像処理チップのメモリに転送する際に自身のメモリから消去してしまうと、次のフレームで再度同一のグラフィックデータを生成する必要がある。   For example, consider graphic data that translates the boundary between an assigned area assigned to one image processing chip after the space is divided and an assigned area assigned to another image processing chip. The graphic data that moves in parallel with the passage of time changes only at the display position in the next frame. That is, if each image processing chip once holds the generated graphic data, it is necessary to generate the graphic data again even if it is necessary to display the graphic data in the next frame, for example. Absent. However, when an image processing chip that has finished generating graphic data in its own area generates graphic data in the area in charge of another image processing chip, the graphic that intrudes into its area in the next frame Assume that graphic data other than data is generated. In that case, the image processing chip that has finished generating graphic data in its own area needs to generate graphic data that enters the area in its own area in the next frame. In addition, even if the image processing chip generates graphic data that enters its own area in the next frame, when the generated graphic data is transferred to the memory of another image processing chip, If deleted, the same graphic data must be generated again in the next frame.

そこで、本発明は、グラフィックデータを効率的に生成してグラフィックデータの表示スピードを向上させることを目的とする。   Therefore, an object of the present invention is to efficiently generate graphic data and improve the display speed of graphic data.

そこで、本発明は、動画を構成する画像データを分割した各分割画像データの処理を異なる画像処理部に割り当てて並列に処理する画像処理装置であって、前記画像データに合成させるグラフィックデータのうち時間経過とともに移動するグラフィックデータを抽出する抽出手段と、前記抽出手段により抽出されたグラフィックデータが移動することにより前後のフレームで前記分割画像データの境界をまたぐ場合、前記グラフィックデータを少なくとも前後のフレームで前記境界と交差する位置で分割する分割手段と、前記グラフィックデータの移動情報に基づいて、前記分割手段により分割された複数の分割グラフィックデータの生成順番を前記画像処理部のグラフィック生成手段に対して決定する決定手段と、を有する。   Therefore, the present invention is an image processing apparatus that assigns the processing of each divided image data obtained by dividing the image data constituting the moving image to different image processing units and processes them in parallel, and the graphic data to be combined with the image data Extraction means for extracting graphic data that moves with the passage of time, and when the graphic data extracted by the extraction means moves across the boundary of the divided image data in the previous and subsequent frames, the graphic data is at least in the previous and next frames And dividing means for dividing at a position intersecting with the boundary, and the generation order of the plurality of divided graphic data divided by the dividing means based on the movement information of the graphic data to the graphic generating means of the image processing unit. And determining means for determining.

本発明によれば、グラフィックデータを効率的に生成してグラフィックデータの表示スピードを向上させることができる。   According to the present invention, it is possible to efficiently generate graphic data and improve the display speed of graphic data.

画像処理システムの構成の一例を示す図である。It is a figure which shows an example of a structure of an image processing system. グラフィックデータの分割の一例を示す図(その1)である。FIG. 3 is a diagram (part 1) illustrating an example of division of graphic data. グラフィックデータの分割の一例を示す図(その2)である。FIG. 6 is a second diagram illustrating an example of division of graphic data. グラフィックデータの分割の一例を示す図(その3)である。FIG. 10 is a third diagram illustrating an example of division of graphic data. 生成グラフィック管理部が管理する管理テーブルの一例を示す図である。It is a figure which shows an example of the management table which a production | generation graphic management part manages.

以下、本発明を実施するための形態について図面を用いて説明する。
<実施形態1>
図1は、本実施形態における画像処理システムの構成の一例を示す図である。本実施形態における画像処理システムは、高解像度映像を構成する高解像度画像データを2つの画像データ(分割画像データ)に分割し、分割された各画像データの画像処理を2つの画像処理チップで並列に行う。図1に示す画像処理システムは、画像を処理する画像処理装置の一例である。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a configuration of an image processing system according to the present embodiment. The image processing system in the present embodiment divides high-resolution image data constituting a high-resolution video into two image data (divided image data), and image processing of each divided image data is performed in parallel by two image processing chips. To do. The image processing system shown in FIG. 1 is an example of an image processing apparatus that processes an image.

図1において、画像処理チップA101は、画像処理及びグラフィック生成処理を実行し、画像データにグラフィックデータを重畳した後、表示デバイスに出力する機能を有する。図1に示すように、画像処理チップA101は、画像データを受信する受信部102、画像データに対して所定の処理を施す画像処理部103、グラフィックデータ生成処理を制御するプロセッサ107、グラフィックデータ生成処理を行うグラフィック生成部106、画像データにグラフィックデータを重畳する合成部104及び表示デバイスに対して画像データを出力する出力部105を備える。メモリ108は、画像処理チップA101に対応するメモリ(記憶領域)である。また、プロセッサ107は、移動グラフィック抽出部109、グラフィック分割部110、順番決定部111及び保持命令付加部112を備える。また、グラフィック生成部106は、生成グラフィック管理部113を備える。   In FIG. 1, an image processing chip A101 has a function of executing image processing and graphic generation processing, superimposing graphic data on image data, and then outputting the graphic data to a display device. As shown in FIG. 1, the image processing chip A 101 includes a receiving unit 102 that receives image data, an image processing unit 103 that performs predetermined processing on the image data, a processor 107 that controls graphic data generation processing, and graphic data generation. A graphic generation unit 106 that performs processing, a synthesis unit 104 that superimposes graphic data on image data, and an output unit 105 that outputs image data to a display device are provided. The memory 108 is a memory (storage area) corresponding to the image processing chip A101. Further, the processor 107 includes a moving graphic extraction unit 109, a graphic division unit 110, an order determination unit 111, and a holding command addition unit 112. In addition, the graphic generation unit 106 includes a generated graphic management unit 113.

本実施形態における画像処理システムは、高解像度画像データを処理するため、画像処理チップA101と、画像処理チップA101と同等の画像処理チップB121との2つのチップを備える。画像処理チップA101は、表示デバイスの左半分の表示領域を担当する。即ち、画像処理チップA101は、表示デバイスの左半分の表示領域に表示される画像データ(以下、左側画像データと称す)130に対して画像処理を施し、画像処理後の左側画像データ131とグラフィックデータとを合成した後、表示デバイスに対して出力する。より具体的には、受信部102は、左側画像データ130を受信すると、左側画像データ130を画像処理部103に出力する。画像処理部103は、左側画像データ130に対して、IP(インタレース・プログレッシブ)変換やエッジ強調等の画像処理を施し、画像処理後の左側画像データ131を合成部104に出力する。合成部104は、メモリ108からグラフィックデータを読み出し、画像処理後の左側画像データ131に重畳することにより、左側表示画像データ139を生成する。そして、合成部104は、左側表示画像データ139を出力部105に出力する。出力部105は、表示デバイスに左側表示画像データ139を出力することにより、左側表示画像データ139を表示させる。図1において、左側表示画像データ139における領域C、D、Eは、画像処理後の左側画像データ131に対して重畳するように合成されたグラフィックデータである。   The image processing system in this embodiment includes two chips, an image processing chip A101 and an image processing chip B121 equivalent to the image processing chip A101, in order to process high-resolution image data. The image processing chip A101 is in charge of the display area of the left half of the display device. That is, the image processing chip A 101 performs image processing on image data (hereinafter referred to as left image data) 130 displayed in the left half display area of the display device, and the left image data 131 after the image processing and the graphics are processed. After combining the data, it is output to the display device. More specifically, when receiving the left image data 130, the receiving unit 102 outputs the left image data 130 to the image processing unit 103. The image processing unit 103 performs image processing such as IP (interlace / progressive) conversion and edge enhancement on the left image data 130, and outputs the left image data 131 after the image processing to the combining unit 104. The combining unit 104 reads the graphic data from the memory 108 and superimposes it on the left image data 131 after the image processing, thereby generating left display image data 139. Then, the combining unit 104 outputs the left display image data 139 to the output unit 105. The output unit 105 displays the left display image data 139 by outputting the left display image data 139 to the display device. In FIG. 1, areas C, D, and E in the left display image data 139 are graphic data synthesized so as to be superimposed on the left image data 131 after image processing.

同様に、画像処理チップB121は、表示デバイスの右半分の表示領域を担当する。即ち、画像処理チップB121は、表示デバイスの右半分の表示領域に表示される画像データ(以下、右側画像データと称す)132に画像処理を施す。そして、画像処理チップB121は、画像処理後の右側画像データ133とグラフィックデータとを合成した後、右側表示画像データ140として表示デバイスに対して出力する。図1において、右側表示画像データ140における領域Fは、画像処理後の右側画像データ133に対して重畳するように合成されたグラフィックデータである。   Similarly, the image processing chip B121 is responsible for the display area of the right half of the display device. In other words, the image processing chip B121 performs image processing on image data (hereinafter referred to as right image data) 132 displayed in the right half display area of the display device. Then, the image processing chip B121 synthesizes the right image data 133 after the image processing and the graphic data, and then outputs them to the display device as the right display image data 140. In FIG. 1, a region F in the right display image data 140 is graphic data synthesized so as to be superimposed on the right image data 133 after image processing.

メモリ124は、画像処理チップB121に対応するメモリ(記憶領域)である。即ち、画像処理後の右側画像データ133に合成されるグラフィックデータは、メモリ124から読み出されたグラフィックデータである。なお、画像処理チップB121における受信部102、画像処理部103、合成部104及び出力部105は夫々、画像処理チップA101における受信部102、画像処理部103、合成部104及び出力部105と同様の構成である。グラフィック生成部122は、生成グラフィック管理部125を備える。   The memory 124 is a memory (storage area) corresponding to the image processing chip B121. That is, the graphic data combined with the right image data 133 after image processing is graphic data read from the memory 124. The receiving unit 102, the image processing unit 103, the synthesizing unit 104, and the output unit 105 in the image processing chip B121 are the same as the receiving unit 102, the image processing unit 103, the synthesizing unit 104, and the output unit 105 in the image processing chip A101, respectively. It is a configuration. The graphic generation unit 122 includes a generated graphic management unit 125.

表示デバイスは、左側表示画像データ139と右側表示画像データ140とを合わせて、1つの高解像度画像データとして表示する。本実施形態では、説明の便宜上、メモリ108及び124は、グラフィックデータを格納するためのメモリであるとしているが、実際には、画像処理チップA101及び画像処理チップB121の画像処理部103が動画データを構成する各画像データを格納するためのフレームメモリとしても使用される。   The display device displays the left display image data 139 and the right display image data 140 together as one high resolution image data. In the present embodiment, for the sake of convenience of explanation, the memories 108 and 124 are memories for storing graphic data. However, in reality, the image processing units 103 of the image processing chip A 101 and the image processing chip B 121 have moving image data. It is also used as a frame memory for storing each image data constituting the.

リモコンやキーボード等を介して入力されるユーザー指示151が画像処理チップA101のプロセッサ107に入力される。グラフィックデータとしては、表示されている画像データに関する情報、設定メニュー、Web画面、及び、写真等が挙げられ、表示サイズや表示位置は様々である。グラフィックデータは、高解像度画像データを分割した両方の画像領域の境界をまたいで表示される場合もあれば、片側の画像領域のみに表示される場合もある。また、グラフィックデータは、ユーザーによりリモコン等で見やすい位置に移動されて表示される場合や、平行移動されて表示される場合もある。   A user instruction 151 input via a remote controller or a keyboard is input to the processor 107 of the image processing chip A101. Examples of the graphic data include information on displayed image data, a setting menu, a Web screen, a photograph, and the like, and display sizes and display positions are various. The graphic data may be displayed across the boundary between both image areas obtained by dividing the high resolution image data, or may be displayed only on one image area. Further, the graphic data may be displayed by being moved to a position where it can be easily viewed by a user using a remote controller or the like, or may be displayed by being translated.

プロセッサ107は、ユーザー指示151から生成するグラフィックデータを確定し、グラフィック生成部106及び122が解釈可能なグラフィック生成命令に変換する。グラフィック生成命令としては、例えば、連続する同一記号の列を記号列の長さを示す数字で置き換えるランレングス命令等が一例として挙げられる。グラフィックデータの特性、例えば、図形であるのか、文字であるのか、又は、写真であるのかに応じて、部分毎に適切な命令フォーマットに切り替えながらグラフィック生成命令に変換するということも、効率的なグラフィックデータ生成のために一般的に行われている。また、グラフィックデータをいくつかの矩形に分割し、分割単位毎にグラフィック生成命令を生成する方法も公知である。以降の説明では、分割された各グラフィックデータのことを、分割グラフィックデータと称す。   The processor 107 determines graphic data generated from the user instruction 151 and converts it into a graphic generation command that can be interpreted by the graphic generation units 106 and 122. An example of the graphic generation instruction is a run-length instruction that replaces a sequence of consecutive identical symbols with a number indicating the length of the symbol sequence. Depending on the characteristics of the graphic data, for example, whether it is a graphic, a character, or a photograph, it is also efficient to convert it into a graphic generation command while switching to an appropriate command format for each part. Generally used for generating graphic data. Also known is a method of dividing graphic data into several rectangles and generating a graphic generation command for each division unit. In the following description, each divided graphic data is referred to as divided graphic data.

グラフィック生成部106及び122は、グラフィック生成命令を受け付けると、ビットマップデータ等のグラフィックデータを生成する。グラフィック生成部106及び122は、グラフィック生成命令の仕様変更に柔軟に対応するために、プロセッサとファームウェアとで構成される場合もあれば、高速なグラフィックデータ生成を至上命題とし、フルハードで構成される場合もある。   When receiving the graphic generation command, the graphic generation units 106 and 122 generate graphic data such as bitmap data. The graphic generation units 106 and 122 may be configured with a processor and firmware in order to flexibly cope with a change in the specification of the graphic generation instruction, or may be configured with full hardware, with high-speed graphic data generation as a top priority. There is also a case.

画像処理チップA101のプロセッサ107は、画像処理システム全体のグラフィックデータ生成処理を制御する。即ち、画像処理チップA101のプロセッサ107は、画像処理チップA101のグラフィック生成部106、及び、画像処理チップB121のグラフィック生成部122を制御することにより、グラフィックデータを生成する。なお、画像処理チップB121のプロセッサ123は、本実施形態では使用されないため停止している。   The processor 107 of the image processing chip A 101 controls graphic data generation processing of the entire image processing system. In other words, the processor 107 of the image processing chip A101 generates graphic data by controlling the graphic generation unit 106 of the image processing chip A101 and the graphic generation unit 122 of the image processing chip B121. Note that the processor 123 of the image processing chip B121 is stopped because it is not used in this embodiment.

グラフィック生成部106及び122は、夫々、生成したグラフィックデータを、一旦、自身が属している画像処理チップに対応するメモリに格納する。その後、グラフィック生成部106及び122は、夫々、生成したグラフィックデータを合成する画像データの領域が自身が属さない他の画像処理チップが担当する領域である場合、前記生成したグラフィックデータを前記他の画像処理チップに対応するメモリに転送する。例えば、画像処理チップB121のグラフィック生成部122は、領域F及び領域Eの分割グラフィックデータ136及び137を生成し、メモリ124に格納する。ここで、領域Eの分割グラフィックデータ137は、画像処理後の左側画像データ131に合成される分割グラフィックデータである。そのため、領域Eの分割グラフィックデータ137は、画像処理チップB121のメモリ124から画像処理チップA101のメモリ108に領域Eの分割グラフィックデータ138として転送されることになる。   Each of the graphic generation units 106 and 122 temporarily stores the generated graphic data in a memory corresponding to the image processing chip to which the graphic generation unit 106 and 122 belong. After that, the graphic generation units 106 and 122 respectively generate the generated graphic data when the image data area to be combined with the generated graphic data is an area handled by another image processing chip to which the graphic data does not belong. Transfer to the memory corresponding to the image processing chip. For example, the graphic generation unit 122 of the image processing chip B 121 generates divided graphic data 136 and 137 for the region F and the region E and stores them in the memory 124. Here, the divided graphic data 137 of the region E is divided graphic data combined with the left image data 131 after the image processing. Therefore, the divided graphic data 137 of the area E is transferred as the divided graphic data 138 of the area E from the memory 124 of the image processing chip B 121 to the memory 108 of the image processing chip A 101.

画像処理チップA101のプロセッサ107と画像処理チップB121のグラフィック生成部122との通信には、PCIバスやシリアル通信等、複数チップで並列処理を行う場合の一般的な通信用ルートが用いられる。同様に、画像処理チップA101と画像処理チップB121とは、画像処理等で相手側にあるデータを参照するために、一般的にPCIExpress等の高速なデータ転送用バスで接続されており、相手側のメモリにアクセスすることができる。即ち、画像処理チップA101は、画像処理チップB121に対応するメモリ124にアクセスすることができる。同様に、画像処理チップB121は、画像処理チップA101に対応するメモリ108にアクセスすることができる。領域Eの分割グラフィックデータ138のメモリ124からメモリ108への転送は、上記ルートを用いて行われる。   For communication between the processor 107 of the image processing chip A 101 and the graphic generation unit 122 of the image processing chip B 121, a general communication route when parallel processing is performed by a plurality of chips, such as a PCI bus or serial communication, is used. Similarly, the image processing chip A 101 and the image processing chip B 121 are generally connected by a high-speed data transfer bus such as PCI Express in order to refer to data on the other side in image processing or the like. Can be accessed. In other words, the image processing chip A101 can access the memory 124 corresponding to the image processing chip B121. Similarly, the image processing chip B121 can access the memory 108 corresponding to the image processing chip A101. The divided graphic data 138 in the area E is transferred from the memory 124 to the memory 108 using the above route.

移動グラフィック抽出部109、グラフィック分割部110、順番決定部111及び保持命令付加部112は、プロセッサ107内部にハードウェアとして実装されてもよいし、プロセッサ107が不図示のHD(HardDisk)から読み出したプログラムを実行することにより実現されるソフトウェアとして実装されてもよい。   The moving graphic extracting unit 109, the graphic dividing unit 110, the order determining unit 111, and the holding instruction adding unit 112 may be implemented as hardware in the processor 107, or read out from an HD (Hard Disk) (not shown) by the processor 107. You may implement as software implement | achieved by running a program.

移動グラフィック抽出部109は、プロセッサ107がユーザー指示151に基づいて表示すると決定したグラフィックデータの中から、時間経過とともに平行移動するグラフィックデータを抽出する。そして、移動グラフィック抽出部109は、平行移動するグラフィックデータの情報を、グラフィック分割部110と順番決定部111とに通知する。より具体的には、プロセッサ107は、表示するグラフィックデータを、一旦、SVG(スケーラブル・ベクター・グラフィックス)等のベクターイメージ言語で表現する。SVGでは、平行移動するグラフィックデータが、グラフィック情報と移動情報とに分けて表現される。なお、移動情報には、後述する移動量情報と移動方向情報とが含まれる。従って、移動グラフィック抽出部109は、プロセッサ107が生成したベクターイメージ情報から、平行移動するグラフィックデータを抽出することができる。また、移動グラフィック抽出部109は、ベクターイメージ情報から、平行移動するグラフィックデータの単位時間当たりの移動量情報と移動方向情報とを抽出することができる。これにより、移動グラフィック抽出部109は、表示画像データ上を平行移動するグラフィックデータの動きを特定することができ、平行移動するグラフィックデータの時間に応じた位置を求めることができる。   The moving graphic extraction unit 109 extracts graphic data that moves in parallel with the passage of time from graphic data that the processor 107 determines to display based on the user instruction 151. Then, the moving graphic extracting unit 109 notifies the graphic dividing unit 110 and the order determining unit 111 of information on the graphic data to be translated. More specifically, the processor 107 once represents graphic data to be displayed in a vector image language such as SVG (Scalable Vector Graphics). In SVG, parallel moving graphic data is expressed separately as graphic information and movement information. The movement information includes movement amount information and movement direction information, which will be described later. Accordingly, the moving graphic extraction unit 109 can extract parallel moving graphic data from the vector image information generated by the processor 107. Further, the moving graphic extraction unit 109 can extract the moving amount information and moving direction information per unit time of the graphic data moving in parallel from the vector image information. Thereby, the moving graphic extraction unit 109 can specify the movement of the graphic data that translates on the display image data, and can obtain the position corresponding to the time of the graphic data that translates.

グラフィック分割部110は、生成されたグラフィックデータを、グラフィック生成部106及び122が生成する単位となる複数の矩形の領域に分割する。グラフィック分割部110は、グラフィックデータを分割する際、グラフィックデータが分割された画像データの境界をまたぐ場合、少なくともその境界でグラフィックデータを分割するようにする。更に、グラフィック分割部110は、移動グラフィック抽出部109が抽出した平行移動するグラフィックデータが分割された画像データの境界をまたいで移動する場合、少なくとも時間的に前後のフレームで前記グラフィックデータが前記境界をまたぐ位置、即ち、交差する位置において分割するようにする。   The graphic dividing unit 110 divides the generated graphic data into a plurality of rectangular areas which are units generated by the graphic generating units 106 and 122. When dividing the graphic data, the graphic dividing unit 110 divides the graphic data at least at the boundary when the graphic data crosses the boundary of the divided image data. Further, the graphic dividing unit 110, when the parallel moving graphic data extracted by the moving graphic extracting unit 109 moves across the boundaries of the divided image data, the graphic data is at least in the temporally preceding and following frames. It divides | segments in the position which crosses, ie, the position which cross | intersects.

図2を用いて、グラフィックデータの分割の一例について説明する。表示画像データ201は、図1の左側表示画像データ139に相当する。表示画像データ202は、図1の右側表示画像データ140に相当する。図2では、画像データに領域C、D、E、Fに分割された分割グラフィックデータが重畳されている。ここで、"C"、"D"、"E"、"F"といった文字情報は、分割グラフィックデータの各々に割り当てられる固有のIDである。異なる時間においても同一のグラフィックデータである場合は、割り当てられるIDは同一である。一方、異なるグラフィックデータである場合は、新たなIDが割り当てられる。なお、ここではIDを文字情報としたがこれに限る必要はなく、例えば、"1"、"2"、"3"といった数字であってもよい。   An example of division of graphic data will be described with reference to FIG. The display image data 201 corresponds to the left display image data 139 in FIG. The display image data 202 corresponds to the right display image data 140 in FIG. In FIG. 2, the divided graphic data divided into regions C, D, E, and F is superimposed on the image data. Here, the character information such as “C”, “D”, “E”, “F” is a unique ID assigned to each of the divided graphic data. When the graphic data is the same at different times, the assigned ID is the same. On the other hand, if the graphic data is different, a new ID is assigned. Note that although the ID is character information here, it is not necessary to be limited to this. For example, numbers such as “1”, “2”, and “3” may be used.

図2において、表示画像データ201及び202は、例えば現フレームである時間Tでの表示画像データである。そして、表示画像データ203及び204は、次フレームの時間T+1での表示画像データである。図2から、グラフィックデータが前後のフレーム間で右方向へ平行移動していることがわかる。グラフィック分割部110は、時間Tでは、少なくとも表示画像データ201及び202の境界で、グラフィックデータの領域Eと領域Fとを分割する。また、グラフィック分割部110は、グラフィックデータの移動量情報と移動方向情報とから、時間Tから時間T+1までの間に、グラフィックデータの領域Eが表示画像データ203及び204の境界をまたぐ領域であると特定する。そして、グラフィック分割部110は、少なくとも表示画像データ203及び204の境界で、グラフィックデータの領域Dと領域Eとを分割する。即ち、グラフィックデータが領域C、D、E、Fに分割される場合、領域Eと領域Fとは、表示画像データ201及び202の境界に基づいて分割され、領域Dと領域Eとは、表示画像データ203及び204の境界に基づいて分割される。従って、時間Tにおける表示画像データ201の領域分割の境界と、時間T+1における表示画像データ204の領域分割の境界とに、領域Eの分割グラフィックデータの端がくるようになる。   In FIG. 2, display image data 201 and 202 are display image data at time T, which is the current frame, for example. The display image data 203 and 204 are display image data at time T + 1 of the next frame. FIG. 2 shows that the graphic data is translated in the right direction between the previous and subsequent frames. The graphic dividing unit 110 divides the graphic data area E and area F at least at the boundary between the display image data 201 and 202 at time T. Further, the graphic dividing unit 110 is an area where the graphic data area E crosses the boundary between the display image data 203 and 204 from the time T to the time T + 1 from the movement amount information and movement direction information of the graphic data. Is specified. The graphic dividing unit 110 divides the area D and area E of the graphic data at least at the boundary between the display image data 203 and 204. That is, when the graphic data is divided into regions C, D, E, and F, the region E and the region F are divided based on the boundary between the display image data 201 and 202, and the region D and the region E are displayed. The image data 203 and 204 are divided based on the boundary. Therefore, the edge of the divided graphic data of the area E comes to the boundary of the area division of the display image data 201 at the time T and the boundary of the area division of the display image data 204 at the time T + 1.

順番決定部111は、グラフィック分割部110により分割された複数の領域の分割グラフィックデータを、どの順番で各画像処理チップのグラフィック生成部に生成させるかを決定する。順番決定部111は、以下のルールに従って、グラフィック生成部による分割グラフィックデータの生成順番を決定する。ここでは説明の便宜上、不図示の画像処理チップCに属するグラフィック生成部Cが分割グラフィックデータを生成する場合を例に説明する。   The order determination unit 111 determines in which order the graphic generation unit of each image processing chip generates the divided graphic data of a plurality of areas divided by the graphic division unit 110. The order determination unit 111 determines the generation order of the divided graphic data by the graphic generation unit according to the following rules. Here, for convenience of explanation, a case where the graphic generation unit C belonging to the image processing chip C (not shown) generates divided graphic data will be described as an example.

ルール1:グラフィック生成部Cは、自身が属する画像処理チップCの担当画像領域にある分割グラフィックデータを生成する。その際、順番決定部111は、グラフィック生成部Cが画像処理チップCの担当画像領域の画像境界から領域分割境界への方向順に分割グラフィックデータを生成するように生成順番を決定する。なお、ここでいう画像境界とは、図2の表示画像データ201でいうと左端を意味し、表示画像データ202でいうと右端を意味する。また、領域分割境界とは、図2でいうと表示画像データ201及び202の境界を意味する。
ルール2:順番決定部111は、グラフィック生成部Cが画像処理チップCとは異なる他の画像処理チップの担当画像領域にある分割グラフィックデータを生成する場合、今後、画像処理チップCの担当画像領域に平行移動してくる分割グラフィックデータから優先して生成するように生成順番を決定する。
ルール3:順番決定部111は、グラフィック生成部Cが上記以外の画像処理チップの担当画像領域にある分割グラフィックデータを生成する場合、ルール1と同じ方向、即ち、グラフィック生成部Cの担当画像領域の画像境界から領域分割境界への方向順に分割グラフィックデータを生成するように生成順番を決定する。
更に、順番決定部111は、ルール2で順番を決定した分割グラフィックデータの情報を保持命令付加部112へ通知する。
Rule 1: The graphic generation unit C generates divided graphic data in the assigned image area of the image processing chip C to which the graphic generation unit C belongs. At that time, the order determination unit 111 determines the generation order so that the graphic generation unit C generates the divided graphic data in the order from the image boundary of the image area in charge of the image processing chip C to the region division boundary. The image boundary here means the left end in the case of the display image data 201 in FIG. 2 and the right end in the case of the display image data 202. Further, the region division boundary means a boundary between the display image data 201 and 202 in FIG.
Rule 2: When the graphic generation unit C generates the divided graphic data in the image area in charge of another image processing chip different from the image processing chip C, the order determination unit 111 will be responsible for the image area in charge of the image processing chip C in the future. The generation order is determined so as to generate with priority from the divided graphic data that is translated in parallel.
Rule 3: The order determination unit 111, when the graphic generation unit C generates divided graphic data in the image area in charge of the image processing chip other than the above, the same direction as that of the rule 1, that is, the image area in charge of the graphic generation unit C The generation order is determined so that the divided graphic data is generated in the order of the direction from the image boundary to the region dividing boundary.
Further, the order determining unit 111 notifies the holding instruction adding unit 112 of the information of the divided graphic data whose order is determined by the rule 2.

上述したルールについて、図2及び図3を用いてより具体的に説明する。上述したように、図2における表示画像データ201及び202は、時間Tでの表示画像データを示しており、表示画像データ203及び204は、時間T+1での表示画像データを示している。領域C、D、E、Fに分割されたグラフィックデータは、右方向へ平行移動するグラフィックデータである。表示画像データ201上の矢印2011、及び、表示画像データ202上の矢印2021は、各画像領域の画像境界から領域分割境界への方向を示している。順番決定部111は、表示画像データ201の画像領域を担当する画像処理チップに属するグラフィック生成部に対して、ルール1から領域C、D、E、そして、ルール3から領域Fという分割グラフィックデータの生成順番を決定する。即ち、順番決定部111は、前記グラフィック生成部対して、領域C、D、E、Fという順番で分割グラフィックデータを生成するように生成順番を決定する。   The rules described above will be described more specifically with reference to FIGS. As described above, the display image data 201 and 202 in FIG. 2 indicate display image data at the time T, and the display image data 203 and 204 indicate display image data at the time T + 1. The graphic data divided into the regions C, D, E, and F is graphic data that translates in the right direction. An arrow 2011 on the display image data 201 and an arrow 2021 on the display image data 202 indicate the directions from the image boundary of each image region to the region division boundary. The order determining unit 111 applies the divided graphic data of the regions 1 to C, D and E from rule 1 to the region F from rule 3 to the graphic generation unit belonging to the image processing chip in charge of the image region of the display image data 201. Determine the generation order. That is, the order determination unit 111 determines the generation order so that the graphic generation unit generates divided graphic data in the order of regions C, D, E, and F.

また、順番決定部111は、表示画像データ202の画像領域を担当する画像処理チップに属するグラフィック生成部に対して、ルール1から領域F、ルール2から領域E、そして、ルール3から領域D、Cという分割グラフィックデータの生成順番を決定する。即ち、順番決定部111は、前記グラフィック生成部対して、領域F、E、D、Cという順番で分割グラフィックデータを生成するように生成順番を決定する。更に、順番決定部111は、ルール2を適用して領域Eの生成順番を決定したため、その情報を保持命令付加部112へ通知する。   Further, the order determination unit 111 applies the rule 1 to the region F, the rule 2 to the region E, and the rule 3 to the region D, for the graphic generation unit belonging to the image processing chip in charge of the image region of the display image data 202. The generation order of the divided graphic data C is determined. That is, the order determination unit 111 determines the generation order so that the graphic generation unit generates the divided graphic data in the order of the regions F, E, D, and C. Furthermore, since the order determination unit 111 determines the generation order of the region E by applying the rule 2, the order determination unit 111 notifies the holding instruction addition unit 112 of the information.

図3において、表示画像データ301及び302は、例えば現フレームである時間Tでの表示画像データを示しており、表示画像データ303及び304は、次フレームの時間T+1での表示画像データを示している。領域E、F、G、Hに分割されたグラフィックデータは、右方向へ平行移動するグラフィックデータである。また、領域C、Dに分割されたグラフィックデータと、領域I、Jに分割されたグラフィックデータとは、時間Tと時間T+1とにおいて同じ表示領域に重畳されているが、異なるグラフィックデータである。表示画像データ301上の矢印3011、及び、表示画像データ302上の矢印3021は、各画像領域の画像境界から領域分割境界への方向を示している。順番決定部111は、表示画像データ301の画像領域を担当する画像処理チップに属するグラフィック生成部に対して、ルール1から領域E、F、C、Gという分割グラフィックデータの生成順番を決定する。順番決定部111は、ルール3を適用する際、領域D、Hのどちらの分割グラフィックデータの生成順番を先にしてもよい。ここでは、順番決定部111は、前記グラフィック生成部に対して、領域E、F、C、G、D、Hという順番で分割グラフィックデータを生成するように生成順番を決定する。   In FIG. 3, display image data 301 and 302 indicate, for example, display image data at time T that is the current frame, and display image data 303 and 304 indicate display image data at time T + 1 of the next frame. Yes. The graphic data divided into the areas E, F, G, and H is graphic data that translates in the right direction. The graphic data divided into the areas C and D and the graphic data divided into the areas I and J are superimposed on the same display area at time T and time T + 1, but are different graphic data. An arrow 3011 on the display image data 301 and an arrow 3021 on the display image data 302 indicate the directions from the image boundary of each image region to the region division boundary. The order determination unit 111 determines the generation order of the divided graphic data of the areas E, F, C, and G from the rule 1 for the graphic generation unit belonging to the image processing chip in charge of the image area of the display image data 301. When applying the rule 3, the order determination unit 111 may set the generation order of the divided graphic data in either of the regions D and H first. Here, the order determination unit 111 determines the generation order so that the graphic generation unit generates divided graphic data in the order of regions E, F, C, G, D, and H.

また、順番決定部111は、表示画像データ302の画像領域を担当する画像処理チップに属するグラフィック生成部に対して、ルール1から領域H、D、ルール2から領域G、そして、ルール3から領域C、F、Eという分割グラフィックデータの生成順番を決定する。即ち、順番決定部111は、前記グラフィック生成部対して、領域H、D、G、C、F、Eという順番で分割グラフィックデータを生成するように生成順番を決定する。更に、順番決定部111は、ルール2を適用して領域Gの生成順番を決定したため、その情報を保持命令付加部112へ通知する。   Further, the order determining unit 111 applies the rules 1 to H, D, the rule 2 to the region G, and the rule 3 to the region with respect to the graphic generation unit belonging to the image processing chip in charge of the image region of the display image data 302. The generation order of divided graphic data C, F, and E is determined. That is, the order determination unit 111 determines the generation order so that the graphic generation unit generates divided graphic data in the order of regions H, D, G, C, F, and E. Furthermore, since the order determination unit 111 determines the generation order of the region G by applying the rule 2, the order determination unit 111 notifies the holding instruction addition unit 112 of the information.

プロセッサ107は、分割されたグラフィックデータの領域単位で、即ち、分割グラフィックデータ毎に、SVG等のベクターイメージ言語をグラフィック生成命令に変換する。そして、プロセッサ107は、順番決定部111が決定した生成順番で各分割グラフィックデータを生成するようグラフィック生成部106及び122へ通知する。より具体的には、プロセッサ107は、グラフィック生成部106に対して、各分割グラフィックデータの生成命令を生成させる順番で生成命令152として通知する。同様に、プロセッサ107は、グラフィック生成部122に対して、各分割グラフィックデータの生成命令を生成させる順番で生成命令153として通知する。なお、上述した生成命令には、分割グラフィックデータに割り当てられたIDと、分割グラフィックデータが重畳されて表示される表示画像データ上の座標情報とが含まれている。更に、保持命令付加部112は、順番決定部111からの通知で得た分割グラフィックデータの生成順番情報に基づいて、上述のルール2で生成順番が決定された分割グラフィックデータの生成命令に、生成した分割グラフィックデータを保持させておく保持命令を付加する。例えば図2の場合、保持命令付加部112は、表示画像データ202の画像領域を担当する画像処理チップB121のグラフィック生成部122への領域Eの分割グラフィックデータの生成命令153に対して、領域Eの分割グラフィックデータを生成したら保持させる保持命令を付加する。これにより、一度生成された分割グラフィックデータが後に必要となった場合でも再度生成する必要がないため、グラフィックデータの生成効率を向上させることができ、結果として、グラフィックデータの表示スピードを向上させることができる。   The processor 107 converts a vector image language such as SVG into a graphic generation command in units of divided graphic data, that is, for each divided graphic data. Then, the processor 107 notifies the graphic generation units 106 and 122 to generate the divided graphic data in the generation order determined by the order determination unit 111. More specifically, the processor 107 notifies the graphic generation unit 106 as the generation command 152 in the order in which the generation commands for each divided graphic data are generated. Similarly, the processor 107 notifies the graphic generation unit 122 as a generation instruction 153 in the order in which generation instructions for each divided graphic data are generated. The generation command described above includes the ID assigned to the divided graphic data and the coordinate information on the display image data displayed by superimposing the divided graphic data. Furthermore, the holding instruction adding unit 112 generates a divided graphic data generation instruction whose generation order is determined by the above-described rule 2 based on the generation order information of the divided graphic data obtained by the notification from the order determining unit 111. A retention command for retaining the divided graphic data is added. For example, in the case of FIG. 2, the retention command adding unit 112 responds to the region E divided graphic data generation command 153 to the graphic generation unit 122 of the image processing chip B 121 that is responsible for the image region of the display image data 202. When the divided graphic data is generated, a holding instruction to be held is added. As a result, even if the divided graphic data once generated is not necessary again, it is not necessary to generate it again, so the generation efficiency of graphic data can be improved, and as a result, the display speed of graphic data can be improved. Can do.

グラフィック生成部106及び122は、分割グラフィックデータ毎に生成命令を受け付けると、図5を用いて後述する生成グラフィック管理部113及び125が管理する管理テーブルを参照し、その結果に基づいて、分割グラフィックデータを生成する。生成グラフィック管理部113及び125は、それぞれが属する画像処理チップのメモリに格納されるグラフィックデータ及び管理テーブルを更新する。   When the graphic generation units 106 and 122 receive a generation command for each divided graphic data, the graphic generation units 106 and 122 refer to a management table managed by the generated graphic management units 113 and 125, which will be described later with reference to FIG. Generate data. The generated graphic management units 113 and 125 update the graphic data and the management table stored in the memory of the image processing chip to which they belong.

図5を用いて、上述した生成グラフィック管理部113及び125が管理する管理テーブルについて説明する。図5は、生成グラフィック管理部113及び125が管理する管理テーブルの一例を示す図である。図5に示す管理テーブルには、生成グラフィック管理部113及び125の各々が属する画像処理チップのメモリに存在する生成済みの分割グラフィックデータの情報が登録される。即ち、生成グラフィック管理部113は、画像処理チップA101のメモリ108に存在する生成済みの分割グラフィックデータの情報を自身の管理テーブルに管理する。また、生成グラフィック管理部125は、画像処理チップB121のメモリ124に存在する生成済みの分割グラフィックデータの情報を自身の管理テーブルに管理する。生成グラフィック管理部113及び125は、生成命令に含まれて送られてきた分割グラフィックデータに割り当てられたIDを用いて、生成された分割グラフィックデータの情報を管理テーブルで管理する。また、生成グラフィック管理部113及び125は、生成された分割グラフィックデータの付随情報として、生成された分割グラフィックデータが格納されているメモリアドレスやデータサイズ情報等も併せて管理テーブルに登録する。   A management table managed by the above-described generated graphic management units 113 and 125 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a management table managed by the generated graphic management units 113 and 125. In the management table shown in FIG. 5, information on generated divided graphic data existing in the memory of the image processing chip to which each of the generated graphic management units 113 and 125 belongs is registered. That is, the generated graphic management unit 113 manages the information of the generated divided graphic data existing in the memory 108 of the image processing chip A 101 in its own management table. Further, the generated graphic management unit 125 manages the information of the generated divided graphic data existing in the memory 124 of the image processing chip B 121 in its own management table. The generated graphic management units 113 and 125 manage the information of the generated divided graphic data in the management table by using the ID assigned to the divided graphic data sent included in the generation command. In addition, the generated graphic management units 113 and 125 register the memory address, data size information, and the like where the generated divided graphic data is stored in the management table as accompanying information of the generated divided graphic data.

グラフィック生成部106及び122は、自身が属する画像処理チップが担当する画像領域に重畳される分割グラフィックデータの生成命令をプロセッサ107から受け付けると、前記生成命令に含まれるIDに基づいて管理テーブルを参照する。そして、グラフィック生成部106及び122は、管理テーブルに一致するIDが登録されていた場合は、受け付けた生成命令における分割グラフィックデータを生成せず、生成完了通知154及び155をプロセッサ107に送る。一方、グラフィック生成部106及び122は、管理テーブルに一致するIDが登録されていなかった場合は、受け付けた生成命令における分割グラフィックデータを生成し、自身が属する画像処理チップのメモリに格納するとともに、生成完了通知154及び155をプロセッサ107に送る。この際、生成グラフィック管理部113及び125は、自身が管理している管理テーブルを更新する。より具体的には、生成グラフィック管理部113及び125は、生成された分割グラフィックデータの情報を管理テーブルに追加して更新する。   When the graphic generation units 106 and 122 receive a generation command of the divided graphic data to be superimposed on the image area handled by the image processing chip to which the graphic generation unit 106 belongs, the graphic generation units 106 and 122 refer to the management table based on the ID included in the generation command. To do. Then, if the ID that matches the management table is registered, the graphic generation units 106 and 122 do not generate the divided graphic data in the received generation instruction, and send generation completion notifications 154 and 155 to the processor 107. On the other hand, if the ID that matches the management table is not registered, the graphic generation units 106 and 122 generate the divided graphic data in the received generation instruction and store it in the memory of the image processing chip to which the graphic generation unit 106 and 122 belong. Generation completion notifications 154 and 155 are sent to the processor 107. At this time, the generated graphic management units 113 and 125 update the management table managed by themselves. More specifically, the generated graphic management units 113 and 125 add information on the generated divided graphic data to the management table and update it.

グラフィック生成部106及び122は、自身が属する画像処理チップが担当する画像領域以外の他の画像領域に重畳される分割グラフィックデータの生成命令をプロセッサ107から受け付けた場合、受け付けた生成命令における分割グラフィックデータを生成する。そして、グラフィック生成部106及び122は、生成した分割グラフィックデータを、一旦、自身が属する画像処理チップのメモリへ格納するとともに、前記他の画像領域を担当する画像処理チップのメモリへ転送する。そして、グラフィック生成部106及び122は、生成完了通知154及び155をプロセッサ107に送る。その後、生成グラフィック管理部113及び125は、メモリ容量には限りがあるため、自身が属する画像処理チップのメモリから、生成された分割グラフィックデータを消去する。しかし、生成グラフィック管理部113及び125は、生成された分割グラフィックデータの生成命令に保持命令付加部112による保持命令が付加されていた場合、前記生成された分割グラフィックデータは今後自身が属する画像処理チップが担当する画像領域で使われるためメモリから消去せず、前記生成された分割グラフィックデータの情報を管理テーブルに追加して更新する。また、生成グラフィック管理部113及び125は、自身が属する画像処理チップのメモリ内に存在する使われなくなった分割グラフィックデータの消去や管理テーブルに登録されている情報の消去等を行ったりもする。ここで、生成グラフィック管理部113及び125は、ユーザーの指示に基づいて使用されない分割グラフィックデータ等を特定してもよいし、メモリ内に所定時間以上格納され続けている分割グラフィックデータ等を使用されないものと特定するようにしてもよい。このようにして、生成グラフィック管理部113及び125は、画像処理チップのメモリをより有効に活用することができる。   When the graphic generation units 106 and 122 receive a generation command of divided graphic data to be superimposed on an image area other than the image area handled by the image processing chip to which the graphic generation unit 106 belongs, from the processor 107, the graphic generation unit 106 and 122 Generate data. The graphic generation units 106 and 122 temporarily store the generated divided graphic data in the memory of the image processing chip to which the graphic generation unit 106 and 122 belong, and transfer the divided graphic data to the memory of the image processing chip in charge of the other image area. Then, the graphic generation units 106 and 122 send generation completion notifications 154 and 155 to the processor 107. Thereafter, the generated graphic management units 113 and 125 delete the generated divided graphic data from the memory of the image processing chip to which the generated graphic management units 113 and 125 have a limited memory capacity. However, the generated graphic management units 113 and 125, when the retention command by the retention command adding unit 112 is added to the generated divided graphic data generation command, the generated divided graphic data will belong to the image processing to which it belongs in the future. Since the chip is used in an image area for which the chip is in charge, the generated divided graphic data information is added to the management table and updated without being deleted from the memory. In addition, the generated graphic management units 113 and 125 may delete the divided graphic data that is no longer used and exists in the memory of the image processing chip to which the generated graphic management unit 113 and 125 belong, or delete information registered in the management table. Here, the generated graphic management units 113 and 125 may specify the divided graphic data that is not used based on the user's instruction, or the divided graphic data that has been stored in the memory for a predetermined time or longer is not used. You may make it identify with a thing. In this way, the generated graphic management units 113 and 125 can use the memory of the image processing chip more effectively.

上述した一連の処理について、図1、2を用いてより具体的に説明する。ここでは、図2における時間Tの場合、即ち、表示画像データ201及び202が表示される場合を例に説明する。グラフィック生成部106は、領域Cの分割グラフィックデータ134を生成してメモリ108へ格納すると、生成完了通知154をプロセッサ107に送る。次に、グラフィック生成部106は、領域Dの分割グラフィックデータ135を生成してメモリ108へ格納すると、生成完了通知154を107プロセッサに送る。その後、グラフィック生成部106は、次の領域Eの分割グラフィックデータの生成を開始する。   The series of processes described above will be described more specifically with reference to FIGS. Here, the case of time T in FIG. 2, that is, the case where the display image data 201 and 202 are displayed will be described as an example. When the graphic generation unit 106 generates the divided graphic data 134 of the area C and stores it in the memory 108, it sends a generation completion notification 154 to the processor 107. Next, when the graphic generation unit 106 generates the divided graphic data 135 of the region D and stores it in the memory 108, the graphic generation unit 106 sends a generation completion notification 154 to the 107 processor. Thereafter, the graphic generation unit 106 starts generating divided graphic data for the next region E.

グラフィック生成部122は、領域Fの分割グラフィックデータ136を生成してメモリ124へ格納すると、生成完了通知155をプロセッサ107に送る。この段階で、まだ、全ての分割グラフィックデータの生成が完了していない場合、グラフィック生成部122は、自身が属する画像処理チップB121とは異なる他の画像処理チップの担当画像領域の分割グラフィックデータの生成を開始する。即ち、図2の場合、グラフィック生成部122は、画像処理チップA101の担当画像領域における領域Eの分割グラフィックデータ137の生成を開始する。領域Eの分割グラフィックデータ137は、画像処理チップA101の担当画像領域で重畳されるため、グラフィック生成部122は、領域Eの分割グラフィックデータ137を生成してメモリ124へ格納した後、メモリ108へ領域Eの分割グラフィックデータ138として転送する。その際、生成グラフィック管理部125は、メモリ124へ格納した領域Eの分割グラフィックデータ137を消去しない。グラフィック生成部122は、領域Eの分割グラフィックデータ138のメモリ108への転送を完了させると、生成完了通知155をプロセッサ107に送る。その後、グラフィック生成部122は、次の領域Dの分割グラフィックデータの生成を開始する。   When the graphic generation unit 122 generates the divided graphic data 136 for the region F and stores it in the memory 124, it sends a generation completion notification 155 to the processor 107. At this stage, when the generation of all the divided graphic data has not been completed yet, the graphic generation unit 122 generates the divided graphic data of the assigned image area of another image processing chip different from the image processing chip B121 to which the graphic generation unit 122 belongs. Start generation. That is, in the case of FIG. 2, the graphic generation unit 122 starts generating the divided graphic data 137 of the area E in the assigned image area of the image processing chip A101. Since the divided graphic data 137 of the area E is superimposed on the assigned image area of the image processing chip A 101, the graphic generation unit 122 generates the divided graphic data 137 of the area E, stores it in the memory 124, and then stores it in the memory 108. The divided graphic data 138 in the area E is transferred. At that time, the generated graphic management unit 125 does not delete the divided graphic data 137 of the area E stored in the memory 124. When the graphic generation unit 122 completes the transfer of the divided graphic data 138 of the area E to the memory 108, the graphic generation unit 122 sends a generation completion notification 155 to the processor 107. Thereafter, the graphic generation unit 122 starts generating divided graphic data for the next region D.

プロセッサ107は、グラフィック生成部106及び122から、全ての分割グラフィックデータの生成完了通知を受け取ると、グラフィック生成部106及び122に対して、グラフィックデータ生成の中止を指示し、合成部104に対して、グラフィックデータの重畳開始を指示する。生成中止命令156は、プロセッサ107がグラフィック生成部106に対して、グラフィックデータ生成の中止を指示する命令である。生成中止命令157は、プロセッサ107がグラフィック生成部122に対して、グラフィックデータ生成の中止を指示する命令である。   When the processor 107 receives notification of the completion of the generation of all the divided graphic data from the graphic generation units 106 and 122, the processor 107 instructs the graphic generation units 106 and 122 to stop generating the graphic data, and the synthesis unit 104. Instruct to start superimposing graphic data. The generation stop instruction 156 is an instruction for the processor 107 to instruct the graphic generation unit 106 to stop the generation of graphic data. The generation stop instruction 157 is an instruction for the processor 107 to instruct the graphic generation unit 122 to stop generation of graphic data.

次に、図2における時間T+1の場合、即ち、表示画像データ203及び204が表示される場合を例に説明する。グラフィック生成部106は、メモリ108に領域Cの分割グラフィックデータが既に存在するため、再度、領域Cの分割グラフィックデータを生成せず、生成完了通知154をプロセッサ107に送る。同様に、グラフィック生成部106は、メモリ108に領域Dの分割グラフィックデータが既に存在するため、再度、領域Dの分割グラフィックデータを生成せず、生成完了通知154をプロセッサ107に送る。グラフィック生成部122は、メモリ124に領域Fの分割グラフィックデータが既に存在するため、再度、領域Fの分割グラフィックデータを生成せず、生成完了通知155をプロセッサ107に送る。同様に、グラフィック生成部122は、メモリ124に領域Eの分割グラフィックデータが既に存在するため、再度、領域Eの分割グラフィックデータを生成せず、生成完了通知155をプロセッサ107に送る。   Next, the case of time T + 1 in FIG. 2, that is, the case where the display image data 203 and 204 are displayed will be described as an example. The graphic generation unit 106 does not generate the divided graphic data of the area C again because the divided graphic data of the area C already exists in the memory 108, and sends a generation completion notification 154 to the processor 107 again. Similarly, the graphic generation unit 106 does not generate the divided graphic data of the area D again because the divided graphic data of the area D already exists in the memory 108, and sends a generation completion notification 154 to the processor 107 again. Since the divided graphic data of the area F already exists in the memory 124, the graphic generation unit 122 does not generate the divided graphic data of the area F again and sends a generation completion notification 155 to the processor 107. Similarly, since the divided graphic data of the area E already exists in the memory 124, the graphic generation unit 122 does not generate the divided graphic data of the area E again and sends a generation completion notification 155 to the processor 107.

プロセッサ107は、グラフィック生成部106及び122から、全ての分割グラフィックデータの生成完了通知を受け付けると、グラフィック生成部106及び122に対して、グラフィックデータ生成の中止を指示し、合成部104に対して、グラフィックデータの重畳開始を指示する。このように、時間Tにおいて、グラフィック生成部122が、自身が属さない画像処理チップA101の担当画像領域における領域Eの分割グラフィックデータを生成してメモリ124に保持している。そのため、時間T+1において、グラフィック生成部122は、再度、領域Eの分割グラフィックデータ生成及びメモリ転送を行なう必要がない。これにより、同一の分割グラフィックデータの生成が必要以上に行われたり、必要以上に画像処理チップ間でメモリ転送が行われたりすることを抑止することができる。即ち、画像処理チップの処理負荷を軽減させることが可能になるとともに、グラフィックデータの表示スピードを向上させることが可能になる。   Upon receiving notification of completion of generation of all the divided graphic data from the graphic generation units 106 and 122, the processor 107 instructs the graphic generation units 106 and 122 to stop the graphic data generation, and instructs the synthesis unit 104 to Instruct to start superimposing graphic data. As described above, at time T, the graphic generation unit 122 generates divided graphic data of the region E in the assigned image region of the image processing chip A 101 to which the graphic processing unit A 101 does not belong, and holds it in the memory 124. Therefore, at time T + 1, the graphic generation unit 122 does not need to perform divided graphic data generation and memory transfer for the region E again. As a result, it is possible to prevent the generation of the same divided graphic data from being performed more than necessary or the memory transfer between image processing chips from being performed more than necessary. That is, the processing load on the image processing chip can be reduced, and the display speed of graphic data can be improved.

次に、図4を用いて、画像データを4つの画像領域に分割し、4つの画像領域を4つの別々の画像処理チップに割り当てて画像処理を行う画像処理システムの処理例について説明する。図4に示すように、1つの高解像度画像データを田の字型で4つに分割する場合を例に説明する。図4において、表示画像データ401、402、403、404は、例えば現フレームである時間Tでの表示画像データを示している。そして、表示画像データ405、406、407、408は、次フレームの時間T+1での表示画像データを示している。また、図4には、領域C、D、E、F、G、H、I、J、K、L、M、Nに分割された分割グラフィックデータが示されている。また、時間Tから時間T+1までの間に、図4に示すグラフィックデータが右に平行移動していることがわかる。   Next, a processing example of an image processing system that performs image processing by dividing image data into four image areas and assigning the four image areas to four separate image processing chips will be described with reference to FIG. As shown in FIG. 4, a case where one piece of high resolution image data is divided into four in a square shape will be described as an example. In FIG. 4, display image data 401, 402, 403, and 404 indicate display image data at time T that is the current frame, for example. Display image data 405, 406, 407, and 408 indicate display image data at time T + 1 of the next frame. FIG. 4 shows divided graphic data divided into regions C, D, E, F, G, H, I, J, K, L, M, and N. Further, it can be seen that the graphic data shown in FIG. 4 is translated to the right from time T to time T + 1.

時間Tにおいて表示画像データ402の画像領域を担当する画像処理チップに属するグラフィック生成部による分割グラフィックデータの生成順番について説明する。ここで、矢印4021は、上述したルール1でいう画像境界から領域分割境界への方向を示している。他の画像領域における矢印4011、4031、4041も同様である。順番決定部111は、前記グラフィック生成部に対して、ルール1から領域F、Jという分割グラフィックデータの生成順番を決定する。次に、順番決定部111は、前記グラフィック生成部に対して、ルール2から領域E、Iという分割グラフィックデータの生成順番を決定する。更に、順番決定部111は、前記グラフィック生成部に対して、ルール3から領域N、M、D、H、L、C、G、Kという分割グラフィックデータの生成順番を決定する。即ち、順番決定部111は、前記グラフィック生成部に対して、領域F、J、E、I、N、M、D、H、L、C、G、Kという順番で分割グラフィックデータを生成するように生成順番を決定する。   The generation order of the divided graphic data by the graphic generation unit belonging to the image processing chip in charge of the image area of the display image data 402 at time T will be described. Here, an arrow 4021 indicates the direction from the image boundary to the area division boundary in the rule 1 described above. The same applies to the arrows 4011, 4031, and 4041 in other image areas. The order determination unit 111 determines the generation order of the divided graphic data of the areas F and J from the rule 1 with respect to the graphic generation unit. Next, the order determination unit 111 determines the generation order of the divided graphic data of the areas E and I from the rule 2 with respect to the graphic generation unit. Further, the order determination unit 111 determines the generation order of divided graphic data of areas N, M, D, H, L, C, G, and K from the rule 3 with respect to the graphic generation unit. That is, the order determining unit 111 generates divided graphic data in the order of the areas F, J, E, I, N, M, D, H, L, C, G, and K to the graphic generating unit. The generation order is determined.

前記グラフィック生成部は、順番決定部111により決定された生成順番に従い、自身が属する画像処理チップとは異なる画像処理チップが画像処理を担当する表示画像データ401の画像領域における領域E、Iの分割グラフィックデータを生成する。この場合、前記グラフィック生成部は、生成した領域E、Iの分割グラフィックデータを自身が属する画像処理チップのメモリに保持し続けるとともに、表示画像データ401の画像領域を担当する画像処理チップのメモリへ転送する。そのため、時間T+1における表示画像データ406の画像領域、即ち、次フレームの同一画像領域で分割グラフィックデータを生成する際、前記グラフィック生成部が属する画像処理チップのメモリには、既に領域E、Fの分割グラフィックデータが存際する。従って、前記グラフィック生成部は、再度、領域E、Fの分割グラフィックデータを生成せずにすむ。   The graphic generation unit divides the regions E and I in the image region of the display image data 401 in which the image processing chip different from the image processing chip to which the graphic generation unit belongs is in accordance with the generation order determined by the order determination unit 111. Generate graphic data. In this case, the graphic generation unit continues to hold the generated divided graphic data of the regions E and I in the memory of the image processing chip to which the graphic generation unit belongs, and to the memory of the image processing chip in charge of the image region of the display image data 401. Forward. Therefore, when the divided graphic data is generated in the image area of the display image data 406 at time T + 1, that is, in the same image area of the next frame, the memory of the image processing chip to which the graphic generation unit belongs already has the areas E and F. Split graphic data exists. Therefore, the graphic generation unit does not need to generate divided graphic data of the regions E and F again.

仮に、上述したルール2が設定されておらず、時間Tにおいて、前記グラフィック生成部が、領域F、J、M、N、I、E、・・・という順番で分割グラフィックデータを生成する場合を考える。そして、時間Tにおいて、前記グラフィック生成部が、領域F、J、Mまでの分割グラフィックデータを生成したとする。この場合、時間T+1において、前記グラフィック生成部は、領域E、Iの分割グラフィックデータを生成する必要がある。そのため、その分の生成時間が必要になってしまう。また、前記グラフィック生成部が属する画像処理チップのメモリに、他の画像処理チップのメモリに格納されている領域E、Iの分割グラフィックデータを転送するとしても、その分の転送時間が必要になってしまう。このように、上述したルール2を適用することにより、不必要に分割グラフィックデータが再生成されたり、不必要に画像処理チップ間で分割グラフィックデータが転送されたりすることを抑止すること可能になる。なお、ここでは表示画像データ402の画像領域を例に説明したが、他の画像領域においても同様である。   If rule 2 described above is not set and the graphic generation unit generates divided graphic data in the order of regions F, J, M, N, I, E,. Think. Then, at time T, the graphic generation unit generates divided graphic data up to regions F, J, and M. In this case, at time T + 1, the graphic generation unit needs to generate divided graphic data of regions E and I. Therefore, the generation time for that is required. Further, even if the divided graphic data of the areas E and I stored in the memory of the other image processing chip is transferred to the memory of the image processing chip to which the graphic generation unit belongs, the transfer time is required. End up. As described above, by applying the above-described rule 2, it is possible to prevent the divided graphic data from being regenerated unnecessarily and the divided graphic data from being unnecessarily transferred between the image processing chips. . Here, the image area of the display image data 402 has been described as an example, but the same applies to other image areas.

以上、本実施形態によれば、複数の画像処理チップを備える画像処理システムにおいて、各画像処理チップの担当領域の領域分割境界、即ち、画像データが領域分割された境界を平行移動するグラフィックデータがある場合でも、無駄なグラフィックデータ生成や無駄なメモリ転送を抑止することができる。これは、ある時点での空間情報、即ち、各画像処理チップに割り当てた空間における担当領域を示す情報とグラフィックデータの表示位置を示す情報とだけでなく、時間軸の情報、即ち、時間的に前後のグラフィックデータも考慮して、分割グラフィックデータの生成順番を決定するようにしたためである。また、生成された分割グラフィックデータをメモリ上に保持する仕組みを設けたためである。従って、本実施形態によれば、グラフィックデータの生成効率を向上させることができ、グラフィックデータの表示スピード、即ち、更新レートを速くすることができるようになる。   As described above, according to the present embodiment, in the image processing system including a plurality of image processing chips, the graphic data that translates the area division boundary of the area in charge of each image processing chip, that is, the boundary where the image data is divided into areas. Even in some cases, useless graphic data generation and useless memory transfer can be suppressed. This is not only the spatial information at a certain point of time, that is, the information indicating the assigned area in the space allocated to each image processing chip and the information indicating the display position of the graphic data, but also the information on the time axis, that is, in terms of time. This is because the generation order of the divided graphic data is determined in consideration of the graphic data before and after. This is because a mechanism for holding the generated divided graphic data on the memory is provided. Therefore, according to the present embodiment, the generation efficiency of graphic data can be improved, and the display speed of graphic data, that is, the update rate can be increased.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

なお、グラフィックデータの分割単位に関して、グラフィックデータの大きさ、グラフィック生成部の処理能力、グラフィック生成部とプロセッサとの間の通信のオーバーヘッド、メモリ転送時の帯域・レイテンシ等の様々な要因によって、最適な分割単位は変化する。従って、本発明において、グラフィックデータの分割単位は、特に限定されるものではない。また、上述の実施形態では、平行移動するグラフィックデータの例として、右方向へ移動するグラフィックデータを用いて説明したが、本発明は、上下左右そして斜め方向への移動にも対応することができ、移動方向を限定するものではない。   Note that the graphic data division unit is optimal depending on various factors such as the size of the graphic data, the processing capacity of the graphic generation unit, the overhead of communication between the graphic generation unit and the processor, and the bandwidth and latency during memory transfer. Different division units vary. Therefore, in the present invention, the division unit of graphic data is not particularly limited. In the above-described embodiment, the graphic data moving in the right direction is described as an example of the graphic data moving in parallel. However, the present invention can cope with the movement in the vertical and horizontal directions and in the diagonal direction. The moving direction is not limited.

以上、上述した各実施形態によれば、グラフィックデータを効率的に生成してグラフィックデータの表示スピードを向上させることができる。   As mentioned above, according to each embodiment mentioned above, graphic data can be generated efficiently and the display speed of graphic data can be improved.

以上、本発明の好ましい形態について詳述したが、本実施形態は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiment of the present invention has been described in detail above, but the present embodiment is not limited to the specific embodiment, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

101:画像処理チップA、102:受信部、103:画像処理部、104:合成部、105:出力部、106、122:グラフィック生成部、107:プロセッサ、108、124:メモリ、109:移動グラフィック抽出部、110:グラフィック分割部、111:順番決定部、112:保持命令付加部、113、125:生成グラフィック管理部 101: Image processing chip A, 102: Reception unit, 103: Image processing unit, 104: Composition unit, 105: Output unit, 106, 122: Graphic generation unit, 107: Processor, 108, 124: Memory, 109: Moving graphic Extraction unit, 110: Graphic division unit, 111: Order determination unit, 112: Holding instruction addition unit, 113, 125: Generated graphic management unit

Claims (10)

動画を構成する画像データを分割した各分割画像データの処理を異なる画像処理部に割り当てて並列に処理する画像処理装置であって、
前記画像データに合成させるグラフィックデータのうち時間経過とともに移動するグラフィックデータを抽出する抽出手段と、
前記抽出手段により抽出されたグラフィックデータが移動することにより前後のフレームで前記分割画像データの境界をまたぐ場合、前記グラフィックデータを少なくとも前後のフレームで前記境界と交差する位置で分割する分割手段と、
前記グラフィックデータの移動情報に基づいて、前記分割手段により分割された複数の分割グラフィックデータの生成順番を前記画像処理部のグラフィック生成手段に対して決定する決定手段と、
を有する画像処理装置。
An image processing apparatus that performs processing in parallel by assigning the processing of each divided image data obtained by dividing image data constituting a moving image to different image processing units,
Extracting means for extracting graphic data that moves with time from the graphic data to be combined with the image data;
When the graphic data extracted by the extraction means moves and crosses the boundary of the divided image data in the preceding and following frames, dividing means for dividing the graphic data at a position intersecting the boundary at least in the preceding and following frames;
A determining unit that determines a generation order of a plurality of divided graphic data divided by the dividing unit based on movement information of the graphic data with respect to the graphic generating unit of the image processing unit;
An image processing apparatus.
前記決定手段は、一の分割画像データを処理する画像処理部のグラフィック生成手段が他の分割画像データの領域にある前記分割グラフィックデータを生成する場合、前記分割グラフィックデータのうち次フレームで前記一の分割画像データの領域に移動してくる分割グラフィックデータから優先して生成するように前記グラフィック生成手段に対する前記生成順番を決定する請求項1に記載の画像処理装置。   When the graphic generation unit of the image processing unit that processes one divided image data generates the divided graphic data in the area of the other divided image data, the determining unit is configured to perform the one frame in the next frame of the divided graphic data. The image processing apparatus according to claim 1, wherein the generation order for the graphic generation unit is determined so as to be generated with priority from the divided graphic data moving to the divided image data area. 前記一の分割画像データを処理する画像処理部のグラフィック生成手段に対して前記生成順番での生成命令を通知する際に、前記他の分割画像データの領域から前記一の分割画像データの領域に移動してくる分割グラフィックデータを生成した場合は保持させる保持命令を付加する保持命令付加手段を更に有する請求項2に記載の画像処理装置。   When notifying the generation command in the generation order to the graphic generation means of the image processing unit that processes the one divided image data, the area from the other divided image data is changed to the one divided image data area. The image processing apparatus according to claim 2, further comprising holding command adding means for adding a holding command to be held when moving divided graphic data is generated. 前記一の分割画像データを処理する画像処理部のグラフィック生成手段により前記保持命令が付加された生成命令に係る分割グラフィックデータが生成された場合、前記生成された分割グラフィックデータを、前記一の分割画像データを処理する画像処理部の記憶領域と、前記他の分割画像データを処理する画像処理部の記憶領域とに格納して管理する管理手段を更に有する請求項3に記載の画像処理装置。   When the divided graphic data according to the generation command to which the holding instruction is added is generated by the graphic generation unit of the image processing unit that processes the one divided image data, the generated divided graphic data is converted into the one divided image data. The image processing apparatus according to claim 3, further comprising management means for storing and managing in a storage area of an image processing unit that processes image data and a storage area of an image processing unit that processes the other divided image data. 前記抽出手段は、ユーザーの指示により生成されたグラフィックデータのイメージ情報に含まれる前記移動情報に基づいて前記移動するグラフィックデータを抽出する請求項1乃至4の何れか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the extraction unit extracts the moving graphic data based on the movement information included in image information of graphic data generated by a user instruction. 6. . 前記分割手段は、前記移動情報に含まれる前記グラフィックデータの移動量情報と移動方向情報とに基づいて前記抽出されたグラフィックデータが前後のフレームで前記境界と交差する位置を特定し、前記グラフィックデータを少なくとも前記特定した位置で分割する請求項1乃至5の何れか1項に記載の画像処理装置。   The dividing unit specifies a position where the extracted graphic data intersects the boundary in the preceding and following frames based on movement amount information and movement direction information of the graphic data included in the movement information, and the graphic data The image processing device according to claim 1, wherein the image processing device is divided at least at the specified position. 前記決定手段は、前記移動情報に含まれる前記グラフィックデータの移動量情報と移動方向情報とに基づいて次フレームにおける前記分割された複数の分割グラフィックデータの表示位置を特定することにより、前記グラフィック生成手段に対して前記生成順番を決定する請求項1乃至6の何れか1項に記載の画像処理装置。   The determination unit specifies the display position of the plurality of divided graphic data divided in the next frame based on movement amount information and movement direction information of the graphic data included in the movement information, thereby generating the graphic The image processing apparatus according to claim 1, wherein the generation order is determined for a unit. 前記グラフィック生成手段は、前記生成順番での生成命令を受け付けた際に、前記グラフィック生成手段が属する画像処理部の記憶領域に前記生成命令に係る分割グラフィックデータが既に格納されている場合は、前記生成命令に係る分割グラフィックデータを生成しない請求項1乃至7の何れか1項に記載の画像処理装置。   When the graphic generation means receives a generation command in the generation order and the divided graphic data related to the generation instruction is already stored in the storage area of the image processing unit to which the graphic generation means belongs, The image processing apparatus according to claim 1, wherein the divided graphic data according to the generation instruction is not generated. 動画を構成する画像データを分割した各分割画像データの処理を異なる画像処理部に割り当てて並列に処理する画像処理装置が実行する制御方法であって、
前記画像データに合成させるグラフィックデータのうち時間経過とともに移動するグラフィックデータを抽出する抽出ステップと、
前記抽出ステップにより抽出されたグラフィックデータが移動することにより前後のフレームで前記分割画像データの境界をまたぐ場合、前記グラフィックデータを少なくとも前後のフレームで前記境界と交差する位置で分割する分割ステップと、
前記グラフィックデータの移動情報に基づいて、前記分割ステップにより分割された複数の分割グラフィックデータの生成順番を前記画像処理部のグラフィック生成手段に対して決定する決定ステップと、
を含む制御方法。
A control method executed by an image processing apparatus that performs processing in parallel by allocating processing of each divided image data obtained by dividing image data constituting a moving image to different image processing units,
An extraction step of extracting graphic data that moves with time from the graphic data to be combined with the image data;
A division step of dividing the graphic data at a position intersecting the boundary at least in the preceding and following frames when the graphic data extracted in the extraction step moves and crosses the boundary of the divided image data in the preceding and following frames;
A determination step of determining a generation order of a plurality of divided graphic data divided by the dividing step based on movement information of the graphic data for a graphic generation means of the image processing unit;
Control method.
動画を構成する画像データを分割した各分割画像データの処理を異なる画像処理部に割り当てて並列に処理する画像処理装置を制御するコンピュータに、
前記画像データに合成させるグラフィックデータのうち時間経過とともに移動するグラフィックデータを抽出する抽出ステップと、
前記抽出ステップにより抽出されたグラフィックデータが移動することにより前後のフレームで前記分割画像データの境界をまたぐ場合、前記グラフィックデータを少なくとも前後のフレームで前記境界と交差する位置で分割する分割ステップと、
前記グラフィックデータの移動情報に基づいて、前記分割ステップにより分割された複数の分割グラフィックデータの生成順番を前記画像処理部のグラフィック生成手段に対して決定する決定ステップと、
を実行させるためのプログラム。
A computer that controls an image processing apparatus that performs processing in parallel by assigning processing of each divided image data obtained by dividing image data constituting a moving image to different image processing units,
An extraction step of extracting graphic data that moves with time from the graphic data to be combined with the image data;
A division step of dividing the graphic data at a position intersecting the boundary at least in the preceding and following frames when the graphic data extracted in the extraction step moves and crosses the boundary of the divided image data in the preceding and following frames;
A determination step of determining a generation order of a plurality of divided graphic data divided by the dividing step based on movement information of the graphic data for a graphic generation means of the image processing unit;
A program for running
JP2014091767A 2014-04-25 2014-04-25 Image processing apparatus, control method thereof, and program Pending JP2015210375A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014091767A JP2015210375A (en) 2014-04-25 2014-04-25 Image processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014091767A JP2015210375A (en) 2014-04-25 2014-04-25 Image processing apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2015210375A true JP2015210375A (en) 2015-11-24
JP2015210375A5 JP2015210375A5 (en) 2017-06-15

Family

ID=54612603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014091767A Pending JP2015210375A (en) 2014-04-25 2014-04-25 Image processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2015210375A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033346A (en) * 2019-08-14 2021-03-01 キヤノン株式会社 Image processing device, image processing method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199881A (en) * 1993-12-28 1995-08-04 Hitachi Ltd Display control system
JP2001166761A (en) * 1999-11-30 2001-06-22 Internatl Business Mach Corp <Ibm> Image display system, host device, image display device, and image display method
JP2004021149A (en) * 2002-06-20 2004-01-22 Nec Micro Systems Ltd Image processing apparatus and image processing method
JP2005295510A (en) * 2004-03-09 2005-10-20 Canon Inc Resolution conversion method and apparatus
JP2009069310A (en) * 2007-09-11 2009-04-02 Canon Inc Display controlling device, method, and program, recording medium, and display device
JP2009294273A (en) * 2008-06-03 2009-12-17 Hitachi Ltd Super resolution display device
JP2011065118A (en) * 2009-09-18 2011-03-31 Masato Ikeda Fpd array self-checking circuit and inspection method
JP2013214034A (en) * 2012-03-06 2013-10-17 Sharp Corp Display control device, transmitter and display device
JP2013213928A (en) * 2012-04-02 2013-10-17 Canon Inc Image processing device and control method of the same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199881A (en) * 1993-12-28 1995-08-04 Hitachi Ltd Display control system
JP2001166761A (en) * 1999-11-30 2001-06-22 Internatl Business Mach Corp <Ibm> Image display system, host device, image display device, and image display method
JP2004021149A (en) * 2002-06-20 2004-01-22 Nec Micro Systems Ltd Image processing apparatus and image processing method
JP2005295510A (en) * 2004-03-09 2005-10-20 Canon Inc Resolution conversion method and apparatus
JP2009069310A (en) * 2007-09-11 2009-04-02 Canon Inc Display controlling device, method, and program, recording medium, and display device
JP2009294273A (en) * 2008-06-03 2009-12-17 Hitachi Ltd Super resolution display device
JP2011065118A (en) * 2009-09-18 2011-03-31 Masato Ikeda Fpd array self-checking circuit and inspection method
JP2013214034A (en) * 2012-03-06 2013-10-17 Sharp Corp Display control device, transmitter and display device
JP2013213928A (en) * 2012-04-02 2013-10-17 Canon Inc Image processing device and control method of the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033346A (en) * 2019-08-14 2021-03-01 キヤノン株式会社 Image processing device, image processing method, and program
JP7317630B2 (en) 2019-08-14 2023-07-31 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
US12003743B2 (en) Video stream decoding method and apparatus, terminal device, and storage medium
US20140126837A1 (en) Apparatus and method for ultra-high resolution video processing
CN106651992B (en) Method and system for optimizing Android resource picture
JP6055433B2 (en) Game provision server
US10390076B2 (en) Image receiving/reproducing device, image generating/transmitting device, display system, image receiving/reproducing method, image generating/transmitting method, and computer readable medium
US11818323B2 (en) Image generation system, method for generating a virtual viewpoint image, and storage medium
CN110782387A (en) Image processing method and device, image processor and electronic equipment
CN110889799B (en) Method, apparatus and processor for generating higher resolution frames
JP6249692B2 (en) Image processing apparatus, control method thereof, and program
WO2016042834A1 (en) Method for enlarging content in split screen, information processing device and control method and control program therefor
JP2015210375A (en) Image processing apparatus, control method thereof, and program
JP4011082B2 (en) Information processing apparatus, graphic processor, control processor, and information processing method
JP2017005544A (en) Image information processing method
JP2015096920A (en) Image processor and control method of image processing system
WO2017050075A1 (en) Method and system for real-time slide displaying of scanned image
JP2013025618A (en) Image processing system, image processing method, and computer program
CN109361888A (en) Method of adjustment and device, the video call device and storage medium of call background
CN110347463B (en) Image processing method, related device and computer storage medium
US9972064B1 (en) Non-intrusive and low-power recording
JP2009042338A (en) Pixel number conversion method, device, and program
JP6260163B2 (en) Remote drawing system, remote drawing apparatus, remote drawing method and program
JP2018019195A (en) Moving image formation method and moving image formation device
JP2011239071A (en) Image processing apparatus, image processing method, and program
JP6320652B2 (en) Data processing apparatus, data processing method, and data processing program
JP2015210375A5 (en)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191126