JP2011040004A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2011040004A
JP2011040004A JP2009189489A JP2009189489A JP2011040004A JP 2011040004 A JP2011040004 A JP 2011040004A JP 2009189489 A JP2009189489 A JP 2009189489A JP 2009189489 A JP2009189489 A JP 2009189489A JP 2011040004 A JP2011040004 A JP 2011040004A
Authority
JP
Japan
Prior art keywords
image
image data
image processing
divided
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009189489A
Other languages
Japanese (ja)
Inventor
Akira Hirono
亮 広野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009189489A priority Critical patent/JP2011040004A/en
Publication of JP2011040004A publication Critical patent/JP2011040004A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which can eliminate discontinuity of images and reduce a circuit scale, and an image processing method. <P>SOLUTION: An image processing apparatus includes: an image shaping part 102 which successively receives image data of a plurality of divided areas obtained by dividing one image and adds image data included in the one divided area and present in the vicinity of a boundary between the one area and an adjacent divided area, to image data of the adjacent divided area to generate image data of a shaped divided area; and an image processing part 104 which successively receives image data of a plurality of shaped divided areas and successively performs image processing of the image data of shaped divided areas. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

近年、テレビ等の映像表示装置及び放送環境は、1920×1080ピクセルの解像度(FullHD(High Definition))に対応してきている。そして、FullHDを超える解像度、例えば3840×2160ピクセル又は4096×2160ピクセルの解像度(4k2k)や、7680×4320ピクセルの解像度(スーパーハイビジョン)への展開が視野に入ってきた。特に、4k2kの解像度を有する映像表示装置等は製品化が行われつつある。   In recent years, video display devices such as televisions and broadcasting environments have been adapted to a resolution of 1920 × 1080 pixels (Full HD (High Definition)). Development into resolutions exceeding FullHD, for example, resolution of 3840 × 2160 pixels or 4096 × 2160 pixels (4k2k) and resolution of 7680 × 4320 pixels (super high vision) has come into the field of view. In particular, video display devices having a resolution of 4k2k are being commercialized.

しかし、高解像度映像処理に対するハードウェア性能が追い付いていないのが現状であり、既存回路による並列処理などが検討されている。例えば、4k2k(3840×2160)の解像度を有する映像を十字4分割し、FullHD(1920×1080)の解像度を処理できる既存回路によって並列処理を行うなどが考えられる。   However, the current situation is that the hardware performance for high-resolution video processing has not caught up, and parallel processing using existing circuits is being studied. For example, a video having a resolution of 4k2k (3840 × 2160) may be divided into four crosses, and parallel processing may be performed by an existing circuit that can process the resolution of FullHD (1920 × 1080).

ところが、分割境界部分における空間方向の画像処理(例えばフィルタ処理やスケーリング処理など)を行う際、分割領域に対して画像処理を行った後、分割領域を結合すると画像の不連続が問題となる。そこで、特許文献1(特開2007−67499号公報)では、重複部分を設けて分割し、再結合するなどの方法が用いられている。   However, when image processing in the spatial direction (for example, filter processing or scaling processing) is performed at the division boundary portion, discontinuity of the image becomes a problem when the divided regions are combined after image processing is performed on the divided regions. Therefore, in Patent Document 1 (Japanese Patent Laid-Open No. 2007-67499), a method is used in which overlapping portions are provided and divided and recombined.

特開2007−67499号公報JP 2007-67499 A

上述の特許文献1のような並列処理による対応をとれば、4k2kの解像度を処理する高性能ハードウェアを新規に設計する必要はないが、複数の回路において画像処理を並列に実行する必要があるため、全体の回路規模が巨大となる。   If the correspondence by the parallel processing as described in Patent Document 1 described above is taken, it is not necessary to newly design high-performance hardware that processes 4k2k resolution, but it is necessary to execute image processing in parallel in a plurality of circuits. Therefore, the entire circuit scale becomes huge.

4k2kの解像度で60Hzを処理できる性能を有するハードウェアは、現在のFullHDの解像度で60Hzを処理するハードウェアが有する性能の4倍に相当する。既に240Hzなど4倍速駆動の映像表示装置などが開発されていることから、4k2kの解像度で60Hzを処理可能なハードウェアも近いうちに普及すると推測される。しかし、解像度増大によるアルゴリズム変更に伴う新規デバイスの設計・開発が必要であり、時間やコストがかかる。   Hardware capable of processing 60 Hz at a resolution of 4k2k corresponds to four times the performance of hardware processing 60 Hz at the current FullHD resolution. Since a quadruple speed video display device such as 240 Hz has already been developed, it is presumed that hardware capable of processing 60 Hz with a resolution of 4k2k will soon become widespread. However, it is necessary to design and develop a new device accompanying an algorithm change due to an increase in resolution, which takes time and cost.

また、例えば垂直方向のフィルタ処理など空間方向の画像処理を行う場合には、水平解像度が倍増することによって、複数ライン分のデータを保存するためのメモリ量の増大、即ちハードウェアリソースの増大が見込まれる。   For example, when performing spatial image processing such as vertical filtering, the horizontal resolution doubles, which increases the amount of memory for storing data for a plurality of lines, that is, increases hardware resources. Expected.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画像の不連続性を解消し、回路規模を低減することが可能な、新規かつ改良された画像処理装置及び画像処理方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a new and improved technique capable of eliminating image discontinuity and reducing the circuit scale. An object is to provide an image processing apparatus and an image processing method.

上記課題を解決するために、本発明のある観点によれば、一つの画像が複数に分割されて生成された複数の分割領域の画像データが順次入力され、一の分割領域に含まれる隣接する分割領域との間の境界付近の画像データを隣接する分割領域の画像データに追加して、整形済み分割領域の画像データを生成する画像整形部と、複数の整形済み分割領域の画像データが順次入力され、整形済み分割領域の画像データに対して順次画像処理をする画像処理部とを備える画像処理装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, image data of a plurality of divided regions generated by dividing one image into a plurality of images are sequentially input, and adjacent ones included in one divided region An image shaping unit that generates image data of a shaped divided area by adding image data in the vicinity of the boundary between the divided areas to image data of an adjacent divided area, and image data of a plurality of shaped divided areas sequentially An image processing apparatus is provided that includes an image processing unit that sequentially performs image processing on image data that has been input and has been subjected to shaping.

隣接する分割領域の画像データに追加される、一の分割領域に含まれる隣接する分割領域との間の境界付近の画像データは、画像処理部の画像処理に応じて決定されてもよい。   The image data in the vicinity of the boundary between the adjacent divided areas included in the one divided area, which is added to the image data of the adjacent divided area, may be determined according to the image processing of the image processing unit.

上記画像処理部において一つの整形済み分割領域の画像データを画像処理する速度は、画像の分割領域の数をNとしたとき、画像を表示するときのフレームレートのN倍以上であってもよい。   The image processing speed of the image data of one shaped divided area in the image processing unit may be N times or more the frame rate when displaying an image, where N is the number of divided areas of the image. .

一の分割領域に含まれる隣接する分割領域との間の境界付近の画像データを記憶する記憶部を更に備え、記憶された境界付近の画像データは、隣接する分割領域の画像データに追加される際に読み出されてもよい。   The image processing apparatus further includes a storage unit that stores image data near a boundary between adjacent divided areas included in one divided area, and the stored image data near the boundary is added to the image data of the adjacent divided area. It may be read at the time.

上記複数の分割領域の画像データは、画像を十字4分割で4つに分割されて生成されたデータであってもよい。   The image data of the plurality of divided regions may be data generated by dividing an image into four parts by four crosses.

また、上記課題を解決するために、本発明の別の観点によれば、一つの画像が複数に分割されて生成された複数の分割領域の画像データが順次入力されるステップと、一の分割領域に含まれる隣接する分割領域との間の境界付近の画像データを隣接する分割領域の画像データに追加して、整形済み分割領域の画像データを生成するステップと、複数の整形済み分割領域の画像データが順次入力されるステップと、整形済み分割領域の画像データに対して順次画像処理をするステップとを備える画像処理方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a step of sequentially inputting image data of a plurality of divided areas generated by dividing one image into a plurality of divisions, and one division Adding image data in the vicinity of the boundary between adjacent divided areas included in the area to the image data of the adjacent divided areas to generate image data of the shaped divided areas; and There is provided an image processing method including a step of sequentially inputting image data and a step of sequentially performing image processing on the image data of the shaped divided region.

以上説明したように本発明によれば、画像の不連続性を解消し、回路規模を低減することができる。   As described above, according to the present invention, image discontinuity can be eliminated and the circuit scale can be reduced.

本発明の第1の実施形態に係る画像処理装置100に入力される画像を示す説明図である。It is explanatory drawing which shows the image input into the image processing apparatus 100 which concerns on the 1st Embodiment of this invention. 同実施形態に係る画像処理装置100を示すブロック図である。FIG. 2 is a block diagram showing an image processing apparatus 100 according to the same embodiment. 画像の各画素の配列を示す説明図である。It is explanatory drawing which shows the arrangement | sequence of each pixel of an image. 画像の各画素の配列を示す説明図である。It is explanatory drawing which shows the arrangement | sequence of each pixel of an image. 画像の分割領域を示す説明図である。It is explanatory drawing which shows the division area of an image. 画像の分割領域を示す説明図である。It is explanatory drawing which shows the division area of an image. 画像整形部102の入力データおよび出力データと、メモリ112に保存されるデータの変化を示す説明図である。4 is an explanatory diagram showing changes in input data and output data of an image shaping unit 102 and data stored in a memory 112. FIG. 画像の分割領域を示す説明図である。It is explanatory drawing which shows the division area of an image. 画像の各画素の配列を示す説明図である。It is explanatory drawing which shows the arrangement | sequence of each pixel of an image. 撮像装置で撮像されたり映像表示装置で表示されたりする画像を示す説明図である。It is explanatory drawing which shows the image imaged with an imaging device or displayed with a video display apparatus. 本発明の第2の実施形態に係る画像処理装置200に入力され処理される画像を示す説明図である。It is explanatory drawing which shows the image input into the image processing apparatus 200 which concerns on the 2nd Embodiment of this invention, and is processed. 同実施形態に係る画像処理装置200を示すブロック図である。2 is a block diagram showing an image processing apparatus 200 according to the embodiment. FIG.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は以下の順序で行うものとする。
1.第1の実施形態(フィルタ処理)
2.第2の実施形態(アップコンバータ処理及び高画質化処理)
The description will be made in the following order.
1. First embodiment (filter processing)
2. Second embodiment (up-converter processing and high image quality processing)

<1.第1の実施形態>
本発明の第1の実施形態に係る画像処理装置100は、図2に示す通り、例えば画像整形部102と、メモリ112と、画像処理部104などを有する。図2は、本実施形態に係る画像処理装置100を示すブロック図である。画像処理装置100は、例えばテレビジョン装置等の映像表示装置や、パーソナルコンピュータ等の情報処理装置、ビデオカメラ等の撮像装置などに設けられる。画像処理装置100は、例えば画像処理回路(プロセッサ)である。
<1. First Embodiment>
As shown in FIG. 2, the image processing apparatus 100 according to the first embodiment of the present invention includes, for example, an image shaping unit 102, a memory 112, an image processing unit 104, and the like. FIG. 2 is a block diagram illustrating the image processing apparatus 100 according to the present embodiment. The image processing device 100 is provided in a video display device such as a television device, an information processing device such as a personal computer, an imaging device such as a video camera, and the like. The image processing apparatus 100 is, for example, an image processing circuit (processor).

画像処理装置100は、フレームレートより速い速度で処理できるような動作周波数を有する場合に、高解像度画像を分割し、分割領域ごとに時分割多重方式で画像処理をすることで回路規模削減を実現する。これにより、高解像度対応のために新規のアルゴリズムやハードウェアを設計するコストを省き、既存の解像度に対応した画像処理回路を若干変更するだけで、本実施形態を実現できる。   When the image processing apparatus 100 has an operating frequency that can be processed at a speed higher than the frame rate, the high resolution image is divided, and the image processing is performed by time division multiplexing for each divided region, thereby reducing the circuit scale. To do. Thus, the present embodiment can be realized by omitting the cost of designing a new algorithm and hardware for high resolution, and by slightly changing the image processing circuit corresponding to the existing resolution.

また、本実施形態によれば、一つの画像を分割し、分割された領域に対して画像処理を行った後、分割領域を結合する際、従来では領域境界部分に画像の不連続性が発生するという問題を解決でき、かつ一連の処理に必要となるメモリ容量を低減できる。   Further, according to the present embodiment, when one image is divided and image processing is performed on the divided areas and then the divided areas are combined, conventionally, an image discontinuity occurs at the boundary between the areas. The memory capacity required for a series of processing can be reduced.

図1は、画像処理装置100に入力される画像を示す説明図であり、画像が4分割されている様子を示している。画像の解像度は、図1に示す例では、3840×2160ピクセルの解像度(4k2k)である。なお、以下の説明では、画像処理装置100に入力される高解像度の画像は、図1に示すような3840×2160ピクセルの解像度を有する場合について説明するが、本実施形態はこの例に限定されない。例えば、4096×2160ピクセルの解像度(4k2k)や、7680×4320ピクセルの解像度を有する画像でもよい。   FIG. 1 is an explanatory diagram showing an image input to the image processing apparatus 100 and shows a state in which the image is divided into four. In the example shown in FIG. 1, the resolution of the image is a resolution of 3840 × 2160 pixels (4k2k). In the following description, a case where a high-resolution image input to the image processing apparatus 100 has a resolution of 3840 × 2160 pixels as shown in FIG. 1 will be described, but the present embodiment is not limited to this example. . For example, an image having a resolution of 4096 × 2160 pixels (4k2k) or a resolution of 7680 × 4320 pixels may be used.

そして、3840×2160ピクセルの解像度を有する画像が、1920×1080ピクセル毎の4つの領域に十字4分割されて、画像処理装置100の画像整形部102に入力される。1920×1080ピクセルは、FullHDの解像度に相当する。このとき、各分割領域は、左上(LU=<1>)、右上(RU=<2>)、左下(LD=<3>)、右下(RD=<4>)の順で画像整形部102に入力されるものとする。   An image having a resolution of 3840 × 2160 pixels is divided into four crosses into four areas of 1920 × 1080 pixels and input to the image shaping unit 102 of the image processing apparatus 100. 1920 × 1080 pixels corresponds to FullHD resolution. At this time, each divided region has an image shaping unit in the order of upper left (LU = <1>), upper right (RU = <2>), lower left (LD = <3>), and lower right (RD = <4>). It is assumed that the data is input to 102.

ところで、画像処理装置100において、FullHDの解像度の画像を1フレーム分処理するための処理速度(動作周波数)が、通常のフレームレートの4倍の速度であれば、3840×2160ピクセルの解像度の画像を正しいフレームレートで表示できることになる。この場合、3840×2160ピクセルの解像度の画像を十字4分割し、時分割多重方式で、各分割領域を順次処理していく。   By the way, if the processing speed (operation frequency) for processing an image with a FullHD resolution for one frame in the image processing apparatus 100 is four times the normal frame rate, an image with a resolution of 3840 × 2160 pixels. Can be displayed at the correct frame rate. In this case, an image having a resolution of 3840 × 2160 pixels is divided into four crosses, and each divided region is sequentially processed by a time division multiplexing method.

しかし、各分割領域を単純に順次処理していくだけでは、分割境界部分における空間方向の画像処理(例えばフィルタ処理やスケーリング処理など)を行う際、分割領域に対して画像処理を行った後、分割領域を結合すると画像の不連続が発生する。   However, simply by sequentially processing each divided region, when performing spatial image processing (for example, filter processing, scaling processing, etc.) at the division boundary portion, after performing image processing on the divided region, the division is performed. Image discontinuity occurs when regions are combined.

画像の不連続性が発生する原因について、図3を使用して具体的に説明する。図3は、画像の各画素の配列を示す説明図であり、左上領域21A(<1>)の右下隅の部分を拡大したものである。図3は、図1に示す例の左上領域21Aにおいて、注目画素10を処理対象として水平3×垂直3のフィルタ処理を行う場合の具体例を示す。注目画素10の出力結果を得るためには太枠12で囲んだ3×3のピクセルデータが必要になる。   The cause of the image discontinuity will be specifically described with reference to FIG. FIG. 3 is an explanatory diagram showing the arrangement of each pixel of the image, and is an enlarged view of the lower right corner of the upper left region 21A (<1>). FIG. 3 shows a specific example in the case of performing horizontal 3 × vertical 3 filter processing on the target pixel 10 in the upper left region 21A of the example shown in FIG. In order to obtain the output result of the pixel 10 of interest, 3 × 3 pixel data surrounded by a thick frame 12 is required.

しかし、注目画素10が左上領域21Aとそれ以外の領域30(<2>,<3>,<4>)との境界21a,21b付近にある場合、左上領域21Aには存在しない画素データを仮想的に入力してフィルタ処理を行う必要がある。例えば、左上領域21Aには存在しない画素データは、0値データ、最終画素(境界21a,21bに沿った画素)の繰り返しデータ、又は疑似的に算出された予測データを使用して、フィルタ処理の入力とすることが多い。しかし、実際のデータ(左上領域21A以外の領域30の画素データ)を入力してフィルタ処理した結果とは異なってしまうため、実際には図3の太い破線21c,21dで囲まれた範囲21Bのみが有効に画像処理できる範囲となる。   However, when the target pixel 10 is in the vicinity of the boundaries 21a and 21b between the upper left region 21A and the other regions 30 (<2>, <3>, <4>), pixel data that does not exist in the upper left region 21A is virtually Need to be input and filtered. For example, pixel data that does not exist in the upper left area 21A is obtained by performing filtering using zero-value data, repeated data of the last pixel (pixels along the boundaries 21a and 21b), or pseudo-predicted prediction data. Often used as input. However, since the actual data (pixel data in the region 30 other than the upper left region 21A) is input and filtered, the actual result is only the range 21B surrounded by the thick broken lines 21c and 21d in FIG. Is a range where image processing can be performed effectively.

3×3のフィルタ処理の場合、注目画素10に対して必要な画素データ範囲は水平方向、垂直方向とも−1画素〜+1画素である。ここで、Nを水平範囲、Mを垂直範囲としてN=1,M=1の画像処理と定義することとする。   In the case of 3 × 3 filter processing, the pixel data range necessary for the target pixel 10 is −1 pixel to +1 pixel in both the horizontal direction and the vertical direction. Here, N = 1 and M = 1 are defined as image processing where N is a horizontal range and M is a vertical range.

右上、左下、右下領域でも左上領域と同様のことが起こり、十字型の境界付近で画像処理結果の出力に不連続が生じる。ところで、特許文献1(特開2007−67499号公報)にあるように重複部分を設けて分割することで、この問題を回避することができる。しかし、特許文献1では、画像処理を行う画像処理部を4個並列に配置し、4個の画像処理部を同時に実行する並列処理システムが必要であり、回路規模が増大する。   The same thing occurs in the upper right, lower left, and lower right regions as in the upper left region, and discontinuity occurs in the output of the image processing result near the cross-shaped boundary. By the way, this problem can be avoided by providing an overlapping portion and dividing as disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2007-67499). However, Patent Document 1 requires a parallel processing system in which four image processing units that perform image processing are arranged in parallel and simultaneously execute the four image processing units, which increases the circuit scale.

一方、画像処理部を1個にして、1個の画像処理部が時分割多重方式で画像処理するためには、3840×2160ピクセルの解像度の画像に対応する画像データを保存できるフレームメモリを備えておく。そして、特許文献1のように分割領域毎に重複領域を読み込んで処理することもできる。   On the other hand, in order to have one image processing unit and one image processing unit to perform image processing by time division multiplexing, a frame memory capable of storing image data corresponding to an image having a resolution of 3840 × 2160 pixels is provided. Keep it. And like patent document 1, an overlap area | region can also be read and processed for every division area.

しかし、本実施形態では、時分割多重方式で画像処理する際、必要最小限の画像データのみを他の分割領域の画像データに送り追加することによって、1フレーム全ての画像データを保存するためのメモリ容量が不要となり、メモリ消費量を削減できる。   However, in the present embodiment, when image processing is performed by the time division multiplexing method, only the minimum necessary image data is sent to and added to the image data of other divided areas, so that the image data of one frame can be stored. Memory capacity is not required and memory consumption can be reduced.

具体的には、画像データの一部分を他の分割領域の画像データに送り追加することによって、画像の不連続を防止できる。図4は、画像の各画素の配列を示す説明図であり、図4(A)は左上領域を示し、図4(B)は右上領域を示し、図4(C)は左下領域を示す。図4は、一例として水平3×垂直3のフィルタ処理をする場合を示している。   Specifically, discontinuity of the image can be prevented by sending a part of the image data to the image data of another divided region and adding it. FIG. 4 is an explanatory diagram showing the arrangement of each pixel of the image. FIG. 4 (A) shows the upper left area, FIG. 4 (B) shows the upper right area, and FIG. 4 (C) shows the lower left area. FIG. 4 shows a case where a horizontal 3 × vertical 3 filter process is performed as an example.

図4の例の左上領域では(1920−1)×(1080−1)の範囲を有効処理結果とすることができる。そして、左上領域の右端の2×1080の矩形領域データを右上領域の処理へ送り、左上領域の下端の1920×2の矩形領域データを左下領域の処理へ送る。これによって、有効に処理できる範囲を繋ぎ合わせることで、境界付近で不連続が生じないようにできる。   In the upper left area of the example of FIG. 4, a range of (1920-1) × (1080-1) can be set as the effective processing result. Then, 2 × 1080 rectangular area data at the right end of the upper left area is sent to the processing of the upper right area, and 1920 × 2 rectangular area data of the lower end of the upper left area is sent to the processing of the lower left area. Thus, discontinuity does not occur in the vicinity of the boundary by connecting ranges that can be effectively processed.

図4の例では、上下左右対称な空間方向処理の場合のみ説明した。一方、上下左右対称としなくても、Nを水平範囲、Mを垂直範囲としたとき、左上領域から右上領域の画像処理に一部の領域データを送る場合には2N×1080の矩形領域データを送る。また、左上領域から左下領域の画像処理に一部の画像領域を送る場合には1920×2Mの矩形領域データを送る。これによって、左上領域と右上領域との間の境界、左上領域と左下領域との間の境界の不連続性を防止できる。   In the example of FIG. 4, only the case of spatial direction processing that is symmetrical in the vertical and horizontal directions has been described. On the other hand, if N is a horizontal range and M is a vertical range, when 2 parts of area data is sent from the upper left area to the image process of the upper right area, 2N × 1080 rectangular area data is not required. send. Further, when a part of the image area is sent from the upper left area to the lower left area, 1920 × 2M rectangular area data is sent. Thereby, discontinuity of the boundary between the upper left region and the upper right region and the boundary between the upper left region and the lower left region can be prevented.

同様に全ての境界の不連続を除去するために必要なデータコピー処理を、図5を用いて説明する。図5及び図6は、画像の分割領域を示す説明図であり、図5(A)及び図6(A)は左上領域を示し、図5(B)及び図6(B)は右上領域を示し、図5(C)及び図6(C)は左下領域を示し、図5(D)及び図6(D)は右下領域を示す。   Similarly, a data copy process necessary to remove all boundary discontinuities will be described with reference to FIG. 5 and 6 are explanatory diagrams showing the divided areas of the image. FIGS. 5 (A) and 6 (A) show the upper left area, and FIGS. 5 (B) and 6 (B) show the upper right area. 5 (C) and 6 (C) show the lower left region, and FIGS. 5 (D) and 6 (D) show the lower right region.

[画像整形部102]
画像整形部102には、4つの分割領域に分けられた画像データが、図2に示した通り、左上領域<1>、右上領域<2>、左下領域<3>、右下領域<4>の順で入力される。そして、左上領域<1>、右上領域<2>、左下領域<3>の各分割領域の一部の画像データがメモリ112(記憶部)に保存される。次に、画像整形部102は、メモリ112に保存された一部の画像データを右上領域<2>、左下領域<3>、右下領域<4>の各分割領域の画像データに追加する。そして、画像整形部102は、一部の画像データが追加された画像データ(整形済み分割領域の画像データ)を左上領域<1>-1、右上領域<2>-1、左下領域<3>-1、右下領域<4>-1として出力する。
[Image shaping unit 102]
In the image shaping unit 102, the image data divided into the four divided areas is, as shown in FIG. 2, an upper left area <1>, an upper right area <2>, a lower left area <3>, and a lower right area <4>. Are entered in the order. Then, a part of the image data of the divided areas of the upper left area <1>, the upper right area <2>, and the lower left area <3> is stored in the memory 112 (storage unit). Next, the image shaping unit 102 adds a part of the image data stored in the memory 112 to the image data of the divided areas of the upper right area <2>, the lower left area <3>, and the lower right area <4>. Then, the image shaping unit 102 converts the image data (image data of the shaped divided area) to which a part of the image data has been added into the upper left area <1> -1, the upper right area <2> -1, and the lower left area <3>. -1, Output as lower right area <4> -1.

図5は、画像整形部102へ入力される分割領域を示す。
例えば、図5(A)に示す「<1>aW」と示された2N×1080の矩形領域は、左上領域<1>が画像整形部102に入力されたとき、「左上領域<1>のうちメモリ112に書き込まれる(Write)部分領域a」である。同様に、「<1>bW」と示された1920×2Mの矩形領域は、「左上領域<1>のうちメモリ112に書き込まれる(Write)部分領域b」である。また、図5(B)に示す「<2>aW」と示された1920×2Mの矩形領域は、右上領域<2>が画像整形部102に入力されたとき、「右上領域<2>のうちメモリ112に書き込まれる(Write)部分領域a」である。図5(C)に示す「<3>aW」と示された2N×1080の矩形領域は、左下領域<3>が画像整形部102に入力されたとき、「左下領域<3>のうちメモリ112に書き込まれる(Write)部分領域a」である。
FIG. 5 shows the divided areas input to the image shaping unit 102.
For example, a 2N × 1080 rectangular area indicated as “<1> aW” illustrated in FIG. 5A is displayed when the upper left area <1> is input to the image shaping unit 102. Of these, it is a (Write) partial area a ”to be written to the memory 112. Similarly, a 1920 × 2M rectangular area indicated as “<1> bW” is “a partial area b to be written to the memory 112 in the upper left area <1>”. Further, a 1920 × 2M rectangular area indicated as “<2> aW” illustrated in FIG. 5B is displayed when the upper right area <2> is input to the image shaping unit 102. Of these, it is a (Write) partial area a ”to be written to the memory 112. A rectangular area of 2N × 1080 indicated as “<3> aW” illustrated in FIG. 5C is displayed when the lower left area <3> is input to the image shaping unit 102 as “memory in the lower left area <3>. 112 is a (Write) partial area a ”.

そして、図6は、画像整形部102が出力する分割領域を示す。
図6(B)に示す「<1>aR」と示された2N×1080の矩形領域は、右上領域<2>-1が画像整形部102から画像処理部104に出力されるとき、「メモリ112に保存されたデータのうち読み出される(Read)左上領域<1>の部分領域a」である。また、図6(C)に示す「<1>bR」と示された1920×2Mの矩形領域は、左下領域<3>-1が画像整形部102から画像処理部104に出力されるとき、「メモリ112に保存されたデータのうち読み出される(Read)左上領域<1>の部分領域b」である。
FIG. 6 shows divided areas output by the image shaping unit 102.
The 2N × 1080 rectangular area indicated as “<1> aR” shown in FIG. 6B is displayed when the upper right area <2> −1 is output from the image shaping unit 102 to the image processing unit 104. 112 is a partial area a of the upper left area <1> to be read out of the data stored in 112. Further, in the 1920 × 2M rectangular area indicated as “<1> bR” illustrated in FIG. 6C, when the lower left area <3> −1 is output from the image shaping unit 102 to the image processing unit 104, “Partial area b of upper left area <1> to be read out of data stored in memory 112”.

更に、図6(D)に示す「<1>aR」と示された2N×2Mの矩形領域は、右下領域<4>-1が画像整形部102から画像処理部104に出力されるとき、「メモリ112に保存されたデータのうち読み出される(Read)左上領域<1>の部分領域a」の一部の領域である。同様に、「<2>aR」と示された1920×2Mの矩形領域は、「メモリ112に保存されたデータのうち読み出される(Read)右上領域<2>の部分領域a」である。また、「<3>aR」と示された2N×1080の矩形領域は、「メモリ112に保存されたデータのうち読み出される(Read)左下領域<3>の部分領域a」である。   Furthermore, in the 2N × 2M rectangular area indicated as “<1> aR” shown in FIG. 6D, the lower right area <4> −1 is output from the image shaping unit 102 to the image processing unit 104. , “A partial area a of the upper left area <1> to be read out of the data stored in the memory 112”. Similarly, the 1920 × 2M rectangular area indicated as “<2> aR” is “partial area a of the upper right area <2> to be read from the data stored in the memory 112 (Read)”. The 2N × 1080 rectangular area indicated as “<3> aR” is “a partial area a of the lower left area <3> to be read from the data stored in the memory 112 (Read)”.

画像整形部102は、上述のように部分的なデータをメモリ112に書き込んだり、メモリ112から読み出したりすることによって、画像処理部104に出力するデータを作成する。   The image shaping unit 102 creates data to be output to the image processing unit 104 by writing partial data to the memory 112 or reading from the memory 112 as described above.

図7は、画像整形部102の入力データおよび出力データと、メモリ112に保存されるデータの変化を示す説明図であり、横軸方向は時間の経過を示す。<1>a及び<1>bは画像整形部102に左上領域<1>が入力された時からメモリ112に保存される。そして、<1>aは画像整形部102が右下領域<4>-1を出力するまでメモリ112に保存され、<1>bは画像整形部102が左下領域<3>-1を出力するまでメモリ112に保存される。また、<2>aは画像整形部102に右上領域<2>が入力された時からメモリ112に保存され、画像整形部102が右下領域<4>-1を出力するまでメモリ112に保存される。<3>aは画像整形部102に左下領域<3>が入力された時からメモリ112に保存され、画像整形部102が右下領域<4>-1を出力するまでメモリ112に保存される。   FIG. 7 is an explanatory diagram illustrating changes in input data and output data of the image shaping unit 102 and data stored in the memory 112, and the horizontal axis indicates the passage of time. <1> a and <1> b are stored in the memory 112 when the upper left region <1> is input to the image shaping unit 102. <1> a is stored in the memory 112 until the image shaping unit 102 outputs the lower right region <4> -1, and <1> b is output by the image shaping unit 102 in the lower left region <3> -1. Are stored in the memory 112. <2> a is stored in the memory 112 when the upper right area <2> is input to the image shaping unit 102, and is saved in the memory 112 until the image shaping unit 102 outputs the lower right area <4> -1. Is done. <3> a is stored in the memory 112 when the lower left area <3> is input to the image shaping unit 102, and is saved in the memory 112 until the image shaping unit 102 outputs the lower right area <4> -1. .

厳密には、図6(D)から分かるとおり、<1>a領域の一部(2N×(1080−2M)の領域)は、<2>-1を生成した直後に削除することができるが、説明を簡単にするため<1>a全体を残すものとした。従って、本実施形態はこの例に限定されず、<1>a領域の一部(2N×(1080−2M)の領域)は、<2>-1を生成した直後に削除してもよい。   Strictly, as can be seen from FIG. 6D, a part of <1> a region (2N × (1080-2M) region) can be deleted immediately after generating <2> -1. In order to simplify the explanation, <1> a is assumed to be left as a whole. Therefore, the present embodiment is not limited to this example, and a part of the <1> a region (2N × (1080-2M) region) may be deleted immediately after generating <2> -1.

[画像処理部104]
図8は、画像の分割領域を示す説明図であり、図8(A)は左上領域を示し、図8(B)は右上領域を示し、図8(C)は左下領域を示し、図8(D)は右下領域を示す。
[Image processing unit 104]
8A and 8B are explanatory views showing the divided areas of the image. FIG. 8A shows the upper left area, FIG. 8B shows the upper right area, FIG. 8C shows the lower left area, and FIG. (D) shows the lower right region.

図8は、画像処理部104が出力する分割領域を示す。画像処理部104には、左上領域<1>-1、右上領域<2>-1、左下領域<3>-1、右下領域<4>-1が順次入力される。そして、画像処理部104は、各分割領域に対して、空間方向の画像処理(例えばフィルタ処理やスケーリング処理など)を行う。上述した通り、3×3のフィルタ処理の場合、N=1,M=1の画像処理であって、左上領域<1>-1を画像処理した場合、(1920−1)×(1080−1)の範囲が有効に画像処理できる範囲(有効処理範囲)<1>-2となる。有効処理範囲を一般的に表すと、図8(A)に示すように、左上領域の有効処理範囲<1>-2は(1920−N)×(1080−M)の範囲である。   FIG. 8 shows divided areas output by the image processing unit 104. In the image processing unit 104, an upper left region <1> -1, an upper right region <2> -1, a lower left region <3> -1, and a lower right region <4> -1 are sequentially input. Then, the image processing unit 104 performs spatial image processing (for example, filter processing or scaling processing) on each divided region. As described above, in the case of 3 × 3 filter processing, when N = 1 and M = 1, and the upper left region <1> −1 is image processed, (1920-1) × (1080-1) ) Is an effective image processing range (effective processing range) <1> -2. When the effective processing range is generally expressed, as shown in FIG. 8A, the effective processing range <1> -2 in the upper left region is a range of (1920-N) × (1080-M).

同様に、右上領域の有効処理範囲<2>-2は、図8(B)に示すように(1920+N)×(1080−M)の範囲である。左下領域の有効処理範囲<3>-2は、図8(C)に示すように(1920−N)×(1080+M)の範囲である。右下領域の有効処理範囲<4>-2は、図8(D)に示すように(1920+N)×(1080+M)の範囲である。   Similarly, the effective processing range <2> -2 in the upper right region is a range of (1920 + N) × (1080−M) as shown in FIG. The effective processing range <3> -2 in the lower left region is a range of (1920−N) × (1080 + M) as shown in FIG. The effective processing range <4> -2 in the lower right region is a range of (1920 + N) × (1080 + M) as shown in FIG.

画像処理部104は、画像処理を行った後、有効処理範囲<1>-2、<2>-2、<3>-2、<4>-2のみを順次出力する。出力結果は、液晶テレビであれば、液晶テレビに設けられたパネルタイミングコントローラ等に順次転送され、有効処理範囲の画像データに基づいて表示される。このとき、分割領域の境界付近のデータは、実際のデータを使用して画像処理された結果であるため、各分割領域を単純に順次処理していくだけで、境界部分で連続性を有する画像を表示できる。なお、画像処理部104が、一つの整形済み分割領域の画像データを画像処理する速度は、画像の分割領域の数をNとしたとき、画像を表示するときのフレームレートのN倍以上であれば、正常なフレームレートで高解像度の画像を正常なフレームレートで表示できる。上述した例はN=4の場合である。   After performing the image processing, the image processing unit 104 sequentially outputs only the effective processing ranges <1> -2, <2> -2, <3> -2, <4> -2. In the case of a liquid crystal television, the output result is sequentially transferred to a panel timing controller or the like provided in the liquid crystal television and displayed based on image data in the effective processing range. At this time, since the data near the boundary of the divided areas is a result of image processing using actual data, an image having continuity at the boundary portion can be obtained simply by sequentially processing each divided area. Can be displayed. Note that the speed at which the image processing unit 104 processes the image data of one shaped divided area is N times or more the frame rate at which an image is displayed, where N is the number of divided areas of the image. For example, a high-resolution image can be displayed at a normal frame rate at a normal frame rate. The example described above is for N = 4.

以上、本実施形態によれば、高解像度(上述した例では3840×2160ピクセルの解像度(4k2k))専用の画像処理回路を新規に設計する必要がない。また、既存の1920×1080ピクセルの解像度に対応した画像処理回路を、分割領域の数だけ用意して、並列使用する必要もない。既存の1920×1080ピクセルの解像度に対応した既存の画像処理回路を1個だけ使用して、3840×2160ピクセルの解像度の画像を境界部分で破綻させることなく、時分割多重方式で画像処理することができる。また、時分割多重方式で画像処理する際、必要最小限の画像データのみを他の分割領域の画像データに送り追加することによって、1フレーム全ての画像データを保存するためのメモリ容量が不要となり、メモリ消費量を削減できる。   As described above, according to the present embodiment, it is not necessary to newly design an image processing circuit dedicated to high resolution (3840 × 2160 pixel resolution (4k2k) in the above-described example). In addition, it is not necessary to prepare image processing circuits corresponding to the resolution of existing 1920 × 1080 pixels by the number of divided areas and use them in parallel. Using only one existing image processing circuit corresponding to the resolution of the existing 1920 × 1080 pixels, the image processing of the resolution of 3840 × 2160 pixels is processed by the time division multiplexing method without causing the boundary portion to fail. Can do. Also, when image processing is performed using the time division multiplexing method, only the minimum necessary image data is sent to and added to the image data in other divided areas, thereby eliminating the need for a memory capacity for storing all the image data of one frame. , Memory consumption can be reduced.

なお、映像処理装置では、高解像度の画像に対応したフレームメモリが必要な場合がある。例えば、画像データが入力されるときに並べ替えなどのI/F変換が必要な場合や、時間方向の画像処理を行う場合には、高解像度用フレームメモリが必要である。このときは、時分割多重方式で画像処理をして、メモリ消費量を削減する必要はない。しかし、本実施形態を適用することで、既存の解像度に対応した回路を1個のみ使用するだけで済むため、時分割多重方式で画像処理をすることは十分に効果がある。   Note that the video processing apparatus may require a frame memory corresponding to a high-resolution image. For example, when I / F conversion such as rearrangement is necessary when image data is input, or when performing time-direction image processing, a high-resolution frame memory is required. In this case, it is not necessary to reduce the memory consumption by performing image processing by the time division multiplexing method. However, by applying this embodiment, it is only necessary to use one circuit corresponding to the existing resolution, and therefore it is sufficiently effective to perform image processing by the time division multiplexing method.

[画像処理範囲について]
図4を使用した説明では、上下左右方向に対称なデータ範囲を用いる画像処理を例に説明しており、図4は水平範囲Nと垂直範囲Mが同数である場合を示している。一方、画像処理対象とする分割領域の範囲は、上下左右非対称であってもよいし、画像処理に必要なデータ範囲の形状が矩形でなくてもよい。このとき、画像処理の範囲に応じて、別の分割領域に送るデータ範囲を変更すればよい。
[About image processing range]
In the description using FIG. 4, image processing using a data range symmetrical in the vertical and horizontal directions is described as an example, and FIG. 4 shows a case where the horizontal range N and the vertical range M are the same number. On the other hand, the range of the divided region to be subjected to image processing may be asymmetrical in the vertical and horizontal directions, and the shape of the data range necessary for image processing may not be rectangular. At this time, the data range to be sent to another divided region may be changed according to the image processing range.

図9は、画像の各画素の配列を示す説明図であり、図9(A)は左上領域を示し、図9(B)は右上領域を示し、図9(C)は左下領域を示す。図9は、一例として水平4×垂直3のフィルタ処理をする場合を示している。   FIG. 9 is an explanatory diagram showing the arrangement of each pixel of the image. FIG. 9 (A) shows the upper left area, FIG. 9 (B) shows the upper right area, and FIG. 9 (C) shows the lower left area. FIG. 9 shows an example in which a horizontal 4 × vertical 3 filter process is performed.

図9の例では、図4に示した水平3×垂直3のフィルタ処理をする場合に比べて、水平右方向により長くデータ範囲が必要である。そのため、図9に示す例では、別の分割領域に送るデータ範囲が図4の例と比べて変更されている。   In the example of FIG. 9, the data range is required to be longer in the horizontal right direction than in the case of the horizontal 3 × vertical 3 filter processing shown in FIG. Therefore, in the example shown in FIG. 9, the data range to be sent to another divided area is changed compared to the example of FIG.

例えば、図9の例の左上領域では(1920−2)×(1080−1)の範囲を有効処理結果とすることができる。そして、左上領域の右端の3×1080の矩形領域データを右上領域の処理へ送り、左上領域の下端の1920×2の矩形領域データを左下領域の処理へ送る。この例でも、有効処理範囲を繋ぎ合わせることで、境界付近で不連続が生じないようにできる。   For example, in the upper left area of the example of FIG. 9, a range of (1920-2) × (1080-1) can be set as the effective processing result. Then, 3 × 1080 rectangular area data at the right end of the upper left area is sent to the upper right area process, and 1920 × 2 rectangular area data at the lower end of the upper left area is sent to the lower left area process. In this example as well, discontinuity does not occur near the boundary by connecting the effective processing ranges.

[画像処理回路の処理能力について]
上述した説明では、本実施形態によれば、既存の1920×1080ピクセルの解像度(FullHDに相当)の画像を処理できる回路を使用できると説明した。厳密には、既存の回路が(1920+2N)×(1080+2M)ピクセルの解像度まで対応していることが前提となる。なお、画像処理に必要となる一般的なNやMの値は、多くても数10程度のオーダーである。従って、既存の1920×1080ピクセルの解像度(FullHDに相当)の画像を処理できる回路を使用して、本実施形態による処理が可能である。また、僅かな差で対応できていない場合も、既存の回路に比べて4倍の解像度を有する画像に対応する回路を設計する場合に比べれば、より簡単に変更が可能である。
[Processing capacity of image processing circuit]
In the above description, according to the present embodiment, it has been described that an existing circuit capable of processing an image having a resolution of 1920 × 1080 pixels (corresponding to FullHD) can be used. Strictly speaking, it is assumed that the existing circuit supports a resolution of (1920 + 2N) × (1080 + 2M) pixels. Note that general values of N and M necessary for image processing are on the order of several tens at most. Therefore, the processing according to the present embodiment can be performed using an existing circuit that can process an image having a resolution of 1920 × 1080 pixels (corresponding to FullHD). Further, even if it is not possible to cope with a slight difference, the change can be made more easily than when designing a circuit corresponding to an image having a resolution four times that of an existing circuit.

[画像の分割方法]
上述した説明では、画像を十字4分割して、十字4分割された分割領域の画像データが順次転送される場合について説明した。一方、3840×2160ピクセル等の高解像度を有するコンテンツがどのような形式で送られてくるかは、放送、ネットワークストリーミング、ディスクメディア配布などの形態によっても多くの形式が想定される。
[Image division method]
In the above description, the case where the image is divided into four crosses and the image data of the divided areas divided into the four crosses is sequentially transferred has been described. On the other hand, in what format content having high resolution such as 3840 × 2160 pixels is sent, many formats are assumed depending on forms such as broadcasting, network streaming, and disk media distribution.

例えば、上述したように、現行のFullHD規格の解像度×4として、高解像度のコンテンツが十字4分割されることが考えられる。更には、図10に示すように、横又は縦に高解像度のコンテンツが分割される例も考えられる。図10は、撮像装置で撮像されたり映像表示装置で表示されたりする画像を示す説明図であり、画像を4分割している様子を示している。   For example, as described above, it is conceivable that a high-resolution content is divided into four crosses as the resolution of the current FullHD standard × 4. Furthermore, as shown in FIG. 10, an example in which high-resolution content is divided horizontally or vertically can be considered. FIG. 10 is an explanatory diagram showing an image captured by the imaging device or displayed on the video display device, and shows a state where the image is divided into four.

図10(A)に示す横分割の例は、各分割領域の横方向が高解像度の画像のピクセル数と同一であり、縦方向が高解像度の画像を4分割したピクセル数である。横分割の例は、高解像度の映像がそのままのサイズで伝送される場合と走査方式が同じである。従って、既存の画像処理回路が水平方向の高解像度に対応しているか、又は水平方向の高解像度に対応することが容易であれば、本実施形態を容易に適用でき高解像度の画像を処理できる。   In the example of horizontal division shown in FIG. 10A, the horizontal direction of each divided region is the same as the number of pixels of the high resolution image, and the vertical direction is the number of pixels obtained by dividing the high resolution image into four. In the example of horizontal division, the scanning method is the same as when a high-resolution video is transmitted in the same size. Therefore, if the existing image processing circuit supports high resolution in the horizontal direction, or if it is easy to support high resolution in the horizontal direction, this embodiment can be easily applied and high resolution images can be processed. .

具体的には、図10(A)に示すように、上から<1>→<2>→<3>→<4>の順で順次分割領域の画像データが伝送されてくる場合は、各分割領域(<1>、<2>、<3>)の下端部分(水平解像度×2Mの矩形領域データ)を順次、別の分割領域に送り追加する。この処理によって、上述した本実施形態の効果を同様に実現できる。   Specifically, as shown in FIG. 10A, when image data of divided areas is sequentially transmitted from the top in the order of <1> → <2> → <3> → <4> The lower end portion (horizontal resolution × 2M rectangular area data) of the divided area (<1>, <2>, <3>) is sequentially sent to another divided area and added. By this processing, the above-described effects of the present embodiment can be similarly realized.

図10(B)に示す縦分割の例は、各分割領域の縦方向が高解像度の画像のピクセル数と同一であり、横方向が高解像度の画像を4分割したピクセル数である。縦分割の例は、アルゴリズム仕様においてラインメモリが必要な場合において、ラインメモリのメモリ容量を削減できる。水平ピクセル数を分割するため、図10(B)に示すように、左から<1>→<2>→<3>→<4>の順で順次転送されてくる場合は、各分割領域(<1>、<2>、<3>)の右端部分(2N×垂直解像度)を順次、別の分割領域に送り追加する。この処理によって、上述した本実施形態の効果を同様に実現できる。   In the example of vertical division shown in FIG. 10B, the vertical direction of each divided region is the same as the number of pixels of the high-resolution image, and the horizontal direction is the number of pixels obtained by dividing the high-resolution image into four. The example of vertical division can reduce the memory capacity of the line memory when the line memory is required in the algorithm specification. In order to divide the number of horizontal pixels, as shown in FIG. 10 (B), when sequentially transferred from the left in the order of <1> → <2> → <3> → <4> <1>, <2>, <3>) right end part (2N × vertical resolution) is sequentially sent to another divided area and added. By this processing, the above-described effects of the present embodiment can be similarly realized.

<2.第2の実施形態>
本発明の第2の実施形態に係る画像処理装置200は、図12に示すように、アップコンバータ画像整形部222と、メモリ232と、アップコンバータ画像処理部224と、高画質化画像整形部202と、メモリ212と、高画質化画像処理部204などからなる。図12は、本実施形態に係る画像処理装置200を示すブロック図である。
<2. Second Embodiment>
As shown in FIG. 12, the image processing apparatus 200 according to the second embodiment of the present invention includes an up-converter image shaping unit 222, a memory 232, an up-converter image processing unit 224, and a high-quality image shaping unit 202. And a memory 212, a high quality image processing unit 204, and the like. FIG. 12 is a block diagram showing an image processing apparatus 200 according to this embodiment.

本実施形態は、画像処理装置200に入力される画像の画像データをアップコンバートによって高解像度の画像に変換する。   In this embodiment, image data of an image input to the image processing apparatus 200 is converted to a high resolution image by up-conversion.

例えば、画像処理装置200は、1920×1080ピクセルの解像度を有するコンテンツを受けて、アップコンバート(拡大スケーリング)処理し、1920×1080ピクセルの解像度を超える高解像度のコンテンツに変換する。これによって、1920×1080ピクセルの解像度(FullHD)を超えるコンテンツに対応した伝送路が整備されていない段階、例えば高解像度コンテンツ普及への過渡期において、既存コンテンツのアップコンバートによる高解像度コンテンツを提供できる。   For example, the image processing apparatus 200 receives content having a resolution of 1920 × 1080 pixels, performs up-conversion (enlargement scaling) processing, and converts the content into high-resolution content exceeding the resolution of 1920 × 1080 pixels. As a result, it is possible to provide high-resolution content by up-conversion of existing content at a stage where a transmission path corresponding to content exceeding 1920 × 1080 pixel resolution (FullHD) is not established, for example, in a transition period to the spread of high-resolution content. .

図11は、画像処理装置200に入力され処理される画像を示す説明図である。
アップコンバータ画像整形部222では、アップコンバート処理前の画像、例えば1920×1080ピクセルの解像度を有する画像であって、図11(A)に示す通り、4つの分割領域に分けられた画像データが入力される。そして、各分割領域の一部の画像データがメモリ232(記憶部)に保存される。次に、アップコンバータ画像整形部222は、メモリ232に保存された一部の画像データを隣接する分割領域の画像データに追加する。そして、アップコンバータ画像整形部222は、一部の画像データが追加された画像データを分割領域毎に出力する。
FIG. 11 is an explanatory diagram showing an image that is input to the image processing apparatus 200 and processed.
In the upconverter image shaping unit 222, an image before upconversion processing, for example, an image having a resolution of 1920 × 1080 pixels, and image data divided into four divided regions as shown in FIG. Is done. Then, a part of the image data of each divided area is stored in the memory 232 (storage unit). Next, the up-converter image shaping unit 222 adds a part of the image data stored in the memory 232 to the image data of the adjacent divided area. Then, the up-converter image shaping unit 222 outputs the image data to which part of the image data is added for each divided area.

アップコンバータ画像処理部224には、一部の画像データが追加された画像データが順次入力される。そして、アップコンバータ画像処理部224は、各分割領域に対して、空間方向のアップコンバート処理を行う。これによって、各分割領域間の境界の不連続性を防止できる。アップコンバート処理後の有効処理範囲の画像データを合わせると、図11(B)に示すように例えば1920×1080ピクセルの解像度(FullHD)の画像を4つ合わせた画像に高精細化できる。   The upconverter image processing unit 224 is sequentially inputted with image data to which a part of the image data is added. Then, the up-converter image processing unit 224 performs up-conversion processing in the spatial direction on each divided region. Thereby, the discontinuity of the boundary between each divided area can be prevented. When the image data in the effective processing range after the up-conversion process are combined, as shown in FIG. 11B, for example, it is possible to increase the definition to an image obtained by combining four images with a resolution (FullHD) of 1920 × 1080 pixels, for example.

更に、高画質化画像整形部202では、図11(B)に示す通り、各分割領域が1920×1080ピクセルの解像度を有する4つの分割領域に分けられた画像データが入力される。そして、各分割領域の一部の画像データがメモリ212(記憶部)に保存される。次に、高画質化画像整形部202は、メモリ212に保存された一部の画像データを隣接する分割領域の画像データに追加する。そして、高画質化画像整形部202は、一部の画像データが追加された画像データを分割領域毎に出力する。   Furthermore, as shown in FIG. 11B, the high-quality image shaping unit 202 receives image data in which each divided area is divided into four divided areas having a resolution of 1920 × 1080 pixels. Then, a part of the image data of each divided area is stored in the memory 212 (storage unit). Next, the high quality image shaping unit 202 adds a part of the image data stored in the memory 212 to the image data of the adjacent divided areas. Then, the high quality image shaping unit 202 outputs image data to which a part of the image data is added for each divided region.

高画質化画像処理部204には、一部の画像データが追加された画像データが順次入力される。そして、高画質化画像処理部204は、各分割領域に対して、空間方向のフィルタ処理を行う。これによって、各分割領域間の境界の不連続性を防止できる。   Image data to which part of the image data is added is sequentially input to the high quality image processing unit 204. Then, the high quality image processing unit 204 performs spatial filtering on each divided region. Thereby, the discontinuity of the boundary between each divided area can be prevented.

本実施形態では、高解像度画像の高画質化を図る画像処理だけでなく、アップコンバート処理も時分割多重化方式で画像処理する。そして、高画質化処理もアップコンバート処理のいずれも第1の実施形態で詳述した方法を適用することで、画像処理後の画像の不連続性を防止できる。   In the present embodiment, not only image processing for improving the image quality of a high-resolution image, but also up-conversion processing is performed by time division multiplexing. Then, by applying the method described in detail in the first embodiment for both the high image quality processing and the up-conversion processing, discontinuity of the image after image processing can be prevented.

以上、本発明の第1及び第2の実施形態によれば、例えばFullHDを超える高解像度に対応していない既存の画像処理回路を1個のみ使用して、高解像度画像に対する画像処理を行うことができる。また、高解像度画像処理において、画像を分割することによって生じる境界付近の出力結果が不連続性を生じるという問題を解決することができる。更に、画像を分割し画像処理する際、最小限の画像データをコピーするだけで画像の不連続性を解決できるため、必要なメモリ容量を削減できる。また、複数の画像処理回路を並列させて処理させる必要がないため、回路規模の削減が得られる。   As described above, according to the first and second embodiments of the present invention, image processing for a high-resolution image is performed using only one existing image processing circuit that does not support high-resolution exceeding Full HD, for example. Can do. Further, in the high resolution image processing, it is possible to solve the problem that the output result near the boundary generated by dividing the image causes discontinuity. Further, when the image is divided and processed, the discontinuity of the image can be solved by copying a minimum amount of image data, so that the necessary memory capacity can be reduced. Further, since it is not necessary to process a plurality of image processing circuits in parallel, the circuit scale can be reduced.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

100,200 画像処理装置
102 画像整形部
104 画像処理部
112,212,232 メモリ
202 高画質化画像整形部
204 高画質化画像処理部
222 アップコンバータ画像整形部
224 アップコンバータ画像処理部
DESCRIPTION OF SYMBOLS 100,200 Image processing apparatus 102 Image shaping part 104 Image processing part 112,212,232 Memory 202 High quality image shaping part 204 High quality image processing part 222 Upconverter image shaping part 224 Upconverter image processing part

Claims (6)

一つの画像が複数に分割されて生成された複数の分割領域の画像データが順次入力され、一の前記分割領域に含まれる隣接する前記分割領域との間の境界付近の画像データを前記隣接する前記分割領域の画像データに追加して、整形済み分割領域の画像データを生成する画像整形部と、
複数の前記整形済み分割領域の画像データが順次入力され、前記整形済み分割領域の画像データに対して順次画像処理をする画像処理部と
を備える、画像処理装置。
Image data of a plurality of divided regions generated by dividing one image into a plurality of images are sequentially input, and image data in the vicinity of the boundary between the adjacent divided regions included in one of the divided regions is adjacent to the image data. In addition to the image data of the divided area, an image shaping unit that generates image data of the shaped divided area;
An image processing apparatus comprising: an image processing unit that sequentially inputs image data of a plurality of the shaped divided areas and sequentially performs image processing on the image data of the shaped divided areas.
前記隣接する前記分割領域の画像データに追加される、一の前記分割領域に含まれる隣接する前記分割領域との間の境界付近の画像データは、前記画像処理部の画像処理に応じて決定される、請求項1に記載の画像処理装置。   The image data in the vicinity of the boundary between the adjacent divided areas included in the one divided area, which is added to the image data of the adjacent divided areas, is determined according to the image processing of the image processing unit. The image processing apparatus according to claim 1. 前記画像処理部において一つの前記整形済み分割領域の画像データを画像処理する速度は、前記画像の前記分割領域の数をNとしたとき、前記画像を表示するときのフレームレートのN倍以上である、請求項1又は2に記載の画像処理装置。   The speed at which the image processing unit processes the image data of one of the shaped divided areas is N times or more the frame rate at which the image is displayed, where N is the number of the divided areas of the image. The image processing apparatus according to claim 1, wherein there is an image processing apparatus. 一の前記分割領域に含まれる隣接する前記分割領域との間の境界付近の画像データを記憶する記憶部を更に備え、
記憶された前記境界付近の画像データは、前記隣接する前記分割領域の画像データに追加される際に読み出される、請求項1〜3のいずれか1項に記載の画像処理装置。
A storage unit for storing image data in the vicinity of a boundary between the adjacent divided areas included in the one divided area;
The image processing apparatus according to claim 1, wherein the stored image data in the vicinity of the boundary is read when added to the image data of the adjacent divided region.
前記複数の分割領域の画像データは、前記画像を十字4分割で4つに分割されて生成されたデータである、請求項1〜4のいずれか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the image data of the plurality of divided regions is data generated by dividing the image into four parts by four crosses. 6. 一つの画像が複数に分割されて生成された複数の分割領域の画像データが順次入力されるステップと、
一の前記分割領域に含まれる隣接する前記分割領域との間の境界付近の画像データを前記隣接する前記分割領域の画像データに追加して、整形済み分割領域の画像データを生成するステップと、
複数の前記整形済み分割領域の画像データが順次入力されるステップと、
前記整形済み分割領域の画像データに対して順次画像処理をするステップと
を備える、画像処理方法。
A step of sequentially inputting image data of a plurality of divided areas generated by dividing one image into a plurality of parts;
Adding image data in the vicinity of the boundary between the adjacent divided areas included in one of the divided areas to the image data of the adjacent divided areas to generate image data of the shaped divided areas;
A step of sequentially inputting image data of a plurality of the shaped divided regions;
And sequentially performing image processing on the image data of the shaped divided area.
JP2009189489A 2009-08-18 2009-08-18 Image processing apparatus and image processing method Withdrawn JP2011040004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009189489A JP2011040004A (en) 2009-08-18 2009-08-18 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009189489A JP2011040004A (en) 2009-08-18 2009-08-18 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2011040004A true JP2011040004A (en) 2011-02-24

Family

ID=43767670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009189489A Withdrawn JP2011040004A (en) 2009-08-18 2009-08-18 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2011040004A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039295A1 (en) 2010-09-24 2012-03-29 三菱重工業株式会社 Accessory attaching structure, design system and design method of steel plate reinforced concrete structure, construction method of steel plate reinforced concrete structure, and steel plate reinforced concrete structure
WO2013077203A1 (en) * 2011-11-21 2013-05-30 シャープ株式会社 Video output device and display device
WO2013099377A1 (en) * 2011-12-28 2013-07-04 シャープ株式会社 Audio-visual equipment
JP2013207769A (en) * 2012-03-29 2013-10-07 Toshiba Corp Video processing apparatus and video processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039295A1 (en) 2010-09-24 2012-03-29 三菱重工業株式会社 Accessory attaching structure, design system and design method of steel plate reinforced concrete structure, construction method of steel plate reinforced concrete structure, and steel plate reinforced concrete structure
WO2013077203A1 (en) * 2011-11-21 2013-05-30 シャープ株式会社 Video output device and display device
WO2013099377A1 (en) * 2011-12-28 2013-07-04 シャープ株式会社 Audio-visual equipment
JP2013153410A (en) * 2011-12-28 2013-08-08 Sharp Corp Av apparatus
JP2013207769A (en) * 2012-03-29 2013-10-07 Toshiba Corp Video processing apparatus and video processing method

Similar Documents

Publication Publication Date Title
JP4254811B2 (en) Image display device, signal processing device, image display method, and computer program
JP5113971B2 (en) Processing technique and apparatus for superimposing images for projection
US9373154B2 (en) Image processing apparatus having reduced line buffer size and associated method
TWI382755B (en) Image processing circuit and method thereof
JP5049703B2 (en) Image display device, image processing circuit and method thereof
EP2161687B1 (en) Video signal processing device, video signal processing method, and video signal processing program
JP2010244184A (en) Video processing device and video processing method
JP2014179818A (en) Image processing device and image processing method
US8948502B2 (en) Image processing method, and image processor
JP2011040004A (en) Image processing apparatus and image processing method
JP5585885B2 (en) Image processing apparatus and image processing method
US9741097B2 (en) Image processing device
WO2012157618A1 (en) Video-signal processing device and display device
JP2013250554A (en) Image processing method and image display system utilizing the same
JP2005287006A (en) Image processing method, image processing program, recording medium provided with image processing program recorded thereon, and image processing apparatus
JP2009008945A (en) Image signal processor, image signal processing method and program
JP2005348320A (en) Dynamic image conversion device, dynamic image conversion method, and computer program
JP2000324337A (en) Image magnification and reducing device
JP2009294273A (en) Super resolution display device
JP2009010626A (en) Image processing device and image processing method
JP4264666B2 (en) Image processing apparatus and method, and program
US20090059066A1 (en) Image processing apparatus and image processing method
JP2009042338A (en) Pixel number conversion method, device, and program
JP2010263394A (en) Video signal processor
JP2007094391A (en) Moving image display apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106