JP2017083533A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2017083533A
JP2017083533A JP2015209055A JP2015209055A JP2017083533A JP 2017083533 A JP2017083533 A JP 2017083533A JP 2015209055 A JP2015209055 A JP 2015209055A JP 2015209055 A JP2015209055 A JP 2015209055A JP 2017083533 A JP2017083533 A JP 2017083533A
Authority
JP
Japan
Prior art keywords
operation period
buffer
image
image processing
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015209055A
Other languages
Japanese (ja)
Inventor
冨澤 研二
Kenji Tomizawa
研二 冨澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Development and Engineering Corp
Original Assignee
Toshiba Development and Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Development and Engineering Corp filed Critical Toshiba Development and Engineering Corp
Priority to JP2015209055A priority Critical patent/JP2017083533A/en
Publication of JP2017083533A publication Critical patent/JP2017083533A/en
Pending legal-status Critical Current

Links

Landscapes

  • Picture Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To avoid failures of display picture images.SOLUTION: According to an embodiment, an image processing device includes: a first buffer; an image processing unit; and a second buffer. The first buffer is configured to store input images in a first operation period, third operation period and fourth operation period successive to the third operation period. The second buffer is configured to store processed images to be output from the image processing unit in the first operation period, second operation period occupying in between the first operation period and the third operation period, and a fourth operation period, and store a first buffer image to be output from the first buffer in the third operation period. An output control unit is configured to output a second buffer image stored in the second buffer to a display device. The first buffer is configured to store processed images fed back from the second buffer in the second operation period.SELECTED DRAWING: Figure 1

Description

実施形態は、画像処理に関する。   Embodiments relate to image processing.

例えば、TV(テレビ受像機)、PC(Personal Computer)モニタなどの表示装置は、様々な画像処理(典型的にはフィルタ処理)を施した画像を表示することができる。このような画像処理は、ソフトウェアを用いて実装することもハードウェアを用いて実装することも可能である。両者を比べると、ソフトウェア実装は処理速度が低いという問題があり、ハードウェア実装は回路規模が大きいという問題がある。   For example, a display device such as a TV (TV receiver) or a PC (Personal Computer) monitor can display an image subjected to various image processing (typically filter processing). Such image processing can be implemented using software or hardware. Comparing the two, there is a problem that the software implementation has a low processing speed, and the hardware implementation has a problem that the circuit scale is large.

一般的に、所与の画像に施される画像処理は、様々な画像処理のうちの一部の組み合わせに過ぎない。故に、例えばFPGA(Field Programmable Gate Array)などのプログラマブルデバイスを用いて画像処理を実装することで、回路規模を節約することができる。すなわち、プログラマブルデバイスを必要に応じて一部を再構築(パーシャルリコンフィギュレーション)する、或いは、全てを再構築(リコンフィギュレーション))することによって、多様な画像処理の組み合わせをより小さな回路規模でハードウェア実装することができる。係るパーシャルリコンフィギュレーション技術によれば、安価な中小規模FPGAを用いて高価な大規模FPGAを用いた場合と同等の多様な画像処理を実装できる可能性がある。   In general, the image processing applied to a given image is only a combination of some of the various image processing. Therefore, for example, by implementing image processing using a programmable device such as FPGA (Field Programmable Gate Array), the circuit scale can be saved. In other words, by reconfiguring a part of a programmable device as needed (partial reconfiguration) or reconstructing all (reconfiguration), various combinations of image processing can be performed on a smaller circuit scale. Can be implemented in hardware. According to such partial reconfiguration technology, there is a possibility that various image processing equivalent to the case where an expensive large-scale FPGA is used may be implemented using an inexpensive medium-scale FPGA.

しかしながら、パーシャルリコンフィギュレーションの実行にはある程度の時間が必要であり、その長さはその対象領域の回路規模に依存する。故に、対象領域の回路規模が十分に小さければ、パーシャルリコンフィギュレーションを画像(フレーム)の非表示(ブランキング)期間中に行ったとしても、次の画像の表示(アクティブ)期間の開始に間に合わせることができる。他方、対象領域の回路規模が大きくなれば、パーシャルリコンフィギュレーションをブランキング期間中に行うと、次の画像の表示期間の開始までに当該パーシャルリコンフィギュレーションが完了しないおそれがある。この場合には、次の画像に対して画像処理を施すことができないので、表示映像が破綻することになる。   However, execution of partial reconfiguration requires a certain amount of time, and its length depends on the circuit scale of the target area. Therefore, if the circuit size of the target area is sufficiently small, even if the partial reconfiguration is performed during the non-display (blanking) period of the image (frame), it is in time for the start of the display (active) period of the next image. Can be made. On the other hand, if the circuit scale of the target region is increased, if the partial reconfiguration is performed during the blanking period, the partial reconfiguration may not be completed by the start of the next image display period. In this case, since the image processing cannot be performed on the next image, the display video is broken.

例えば非特許文献1のp13 Table2のCode16に規定されている、アクティブエリアが1920(画素)x1080(ライン)のProgressive画像、いわゆる「1080p (フルHD、又は、2K) 」と呼ばれている画像を考える。1080p画像のブランキングエリアは2200(画素)x45(ライン)、画素(ピクセル)周波数は148.5MHzとなる。   For example, a progressive image having an active area of 1920 (pixels) × 1080 (lines) as defined in Code 16 of p13 Table 2 of Non-Patent Document 1, an image called “1080p (full HD or 2K)” is used. Think. The blanking area of a 1080p image is 2200 (pixels) x 45 (lines), and the pixel (pixel) frequency is 148.5 MHz.

よって、1080p画像のブランキング期間はわずか0.667msしかない。BPI(Byte Peripheral Interface)の16ビット幅パラレル・フラッシュメモリからコンフィギュレーションクロック周波数を33MHzにして、このわずかな時間にコンフィギュレーション可能な回路規模は約350,000(350K)ビットとなる。他方、フィルタ回路の規模は1,000,000(1000K)ビット単位になることが多い。仮に、コンフィギュレーション速度(ビット幅xコンフィギュレーションクロック周波数)を5倍から10倍引き上げられれば表示映像の破綻を回避できるが、コンフィギュレーション速度の引き上げには限界と技術的な困難があり現実的ではない。   Therefore, the blanking period of 1080p image is only 0.667ms. With a configuration clock frequency of 33 MHz from a 16-bit parallel flash memory of BPI (Byte Peripheral Interface), the circuit scale that can be configured in this short time is about 350,000 (350K) bits. On the other hand, the scale of the filter circuit is often in units of 1,000,000 (1000K) bits. If the configuration speed (bit width x configuration clock frequency) can be increased by 5 to 10 times, display video failure can be avoided. However, increasing the configuration speed has limitations and technical difficulties, and is not realistic. Absent.

そこで、技術的に容易で実現可能な表示映像の破綻回避方法又は装置が望まれている。   Thus, a display image failure avoiding method or apparatus that is technically easy and feasible is desired.

特開2014−165651号公報JP 2014-165651 A

A DTV Profile for Uncompressed High Speed Digital Interfaces:CEA−861−DA DTV Profile for Uncompressed High Speed Digital Interfaces: CEA-861-D

実施形態は、表示映像の破綻を回避することを目的とする。   An object of the embodiment is to avoid failure of a display image.

実施形態によれば、画像処理装置は、第1のバッファと、画像処理部と、第2のバッファとを少なくとも含む。第1のバッファは、第1の動作期間と、第3の動作期間と、第3の動作期間に続く第4の動作期間とにおいて入力画像を格納し、第1の動作期間と第3の動作期間との間を占める第2の動作期間において、第2のバッファからフィードバックされるフィルタ処理済み画像を格納する。画像処理部は、第1の動作期間、第2の動作期間および第4の動作期間において、第1のバッファに格納されている第1のバッファ画像に対してフィルタ処理を施すことによってフィルタ処理済み画像を生成する。第2のバッファは、第1の動作期間、第2の動作期間および第4の動作期間において画像処理部から出力されるフィルタ処理済み画像を格納し、第3の動作期間において第1のバッファから出力される第1のバッファ画像を格納する。   According to the embodiment, the image processing apparatus includes at least a first buffer, an image processing unit, and a second buffer. The first buffer stores the input image in the first operation period, the third operation period, and the fourth operation period following the third operation period, and the first operation period and the third operation The filtered image fed back from the second buffer is stored in the second operation period that occupies the period. In the first operation period, the second operation period, and the fourth operation period, the image processing unit has performed the filter process by performing the filter process on the first buffer image stored in the first buffer. Generate an image. The second buffer stores the filtered image output from the image processing unit in the first operation period, the second operation period, and the fourth operation period, and from the first buffer in the third operation period. The output first buffer image is stored.

第1の実施形態に係る画像処理装置を例示するブロック図。1 is a block diagram illustrating an image processing apparatus according to a first embodiment. 図1の画像処理装置によって行われる画像処理を例示するフローチャート。3 is a flowchart illustrating image processing performed by the image processing apparatus in FIG. 1. 比較例に係る画像処理装置の動作の概略を説明する図。FIG. 6 is a diagram for explaining an outline of an operation of an image processing apparatus according to a comparative example. 第1の実施形態に係る画像処理装置の動作の概略を説明する図。FIG. 3 is a diagram for explaining the outline of the operation of the image processing apparatus according to the first embodiment. 第1の実施形態に係る画像処理装置および比較例に係る画像処理装置の動作の概略を説明する図。FIG. 3 is a diagram for explaining an outline of operations of the image processing apparatus according to the first embodiment and the image processing apparatus according to the comparative example.

以下、図面を参照しながら実施形態の説明が述べられる。尚、以降、説明済みの要素と同一または類似の要素には同一または類似の符号が付され、重複する説明は基本的に省略される。以降の説明では、主にパーシャルリコンフィギュレーションの実行に起因して画像処理部が一時的に使用不可能となるケースに着目しているが、他の要因により画像処理部が一時的に使用不可能となるケースにも実施形態は適用可能である。   Hereinafter, embodiments will be described with reference to the drawings. Hereinafter, the same or similar elements as those already described are denoted by the same or similar reference numerals, and redundant description is basically omitted. The following explanation focuses on the case where the image processing unit becomes temporarily unusable mainly due to execution of partial reconfiguration, but the image processing unit is temporarily disabled due to other factors. The embodiment can also be applied to cases where it is possible.

(第1の実施形態)
図1に例示されるように、第1の実施形態に係る画像処理装置は、入力制御部101と、マルチプレクサ(MUX)102と、第1のバッファ103と、画像遅延部104と、画像処理部105と、MUX106と、第2のバッファ107と、出力制御部108とを含む。
(First embodiment)
As illustrated in FIG. 1, an image processing apparatus according to the first embodiment includes an input control unit 101, a multiplexer (MUX) 102, a first buffer 103, an image delay unit 104, and an image processing unit. 105, MUX 106, second buffer 107, and output control unit 108.

入力制御部101は、図示されない外部の映像出力装置(例えば、ビデオデコーダ、ハードディスクレコーダ、ディスクプレーヤ、TV、PC、携帯端末、ゲーム機など)から出力される入力画像を受け取る。入力制御部101は、後述される画像処理装置の第1の動作期間と、第3の動作期間と、第3の動作期間に続く第4の動作期間において、入力画像をMUX102経由で第1のバッファ103に格納させる。   The input control unit 101 receives an input image output from an external video output device (not shown) (for example, a video decoder, a hard disk recorder, a disk player, a TV, a PC, a portable terminal, a game machine, etc.). The input control unit 101 receives the input image via the MUX 102 in the first operation period, the third operation period, and the fourth operation period that follows the third operation period. It is stored in the buffer 103.

MUX102は、第1の入力端子、第2の入力端子、制御端子および出力端子を持つ。MUX102は、その第1の入力端子を介して、入力制御部101から入力画像を受け取る。MUX102は、その第2の入力端子を介して、第2のバッファ107から後述されるフィードバック画像を受け取る。MUX102は、その制御端子を介して、切替制御部109から第1の選択制御信号を受け取る。MUX102の出力端子は、第1のバッファ103に接続されている。   The MUX 102 has a first input terminal, a second input terminal, a control terminal, and an output terminal. The MUX 102 receives an input image from the input control unit 101 via the first input terminal. The MUX 102 receives a feedback image described later from the second buffer 107 via the second input terminal. The MUX 102 receives the first selection control signal from the switching control unit 109 via the control terminal. The output terminal of the MUX 102 is connected to the first buffer 103.

MUX102は、第1の選択制御信号のレベルに応じて、2つの入力画像のいずれか一方を選択して出力端子へと導く。第1の選択制御信号は、第1の動作期間と、第3の動作期間と、第4の動作期間とにおいて第1のレベル(例えば、Highレベル)を持ち、第1の動作期間と第3の動作期間との間を占める第2の動作期間において第2のレベル(例えば、Lowレベル)を持つ。MUX102は、第1の選択制御信号が第1のレベルを持つならば、入力画像を第1のバッファ103へと導く。他方、MUX102は、第1の選択制御信号が第2のレベルを持つならば、フィードバック画像を第1のバッファ103へと導く。   The MUX 102 selects either one of the two input images according to the level of the first selection control signal and guides it to the output terminal. The first selection control signal has a first level (for example, a high level) in the first operation period, the third operation period, and the fourth operation period, and includes the first operation period and the third operation period. In the second operation period that occupies the period between the first and second operation periods, the second operation period has a second level (for example, a low level). The MUX 102 guides the input image to the first buffer 103 if the first selection control signal has the first level. On the other hand, the MUX 102 guides the feedback image to the first buffer 103 if the first selection control signal has the second level.

第1のバッファ103は、MUX102から出力された画像を格納する。具体的には、第1の動作期間、第3の動作期間および第4の動作期間において、第1のバッファ103は入力画像を格納する。他方、第2の動作期間において、第1のバッファ103はフィードバック画像を格納する。なお、第2の動作期間は、第1のバッファ103へのフィードバックが行われることから、フィードバック期間と呼ぶこともできる。第1のバッファ103に格納された画像(以降、第1のバッファ画像と称される)は、適時に読み出されて画像遅延部104又は画像処理部105へと導かれる。第1のバッファ103は、例えばフレームバッファであってもよい。   The first buffer 103 stores the image output from the MUX 102. Specifically, in the first operation period, the third operation period, and the fourth operation period, the first buffer 103 stores an input image. On the other hand, in the second operation period, the first buffer 103 stores the feedback image. Note that the second operation period can be referred to as a feedback period because feedback to the first buffer 103 is performed. An image stored in the first buffer 103 (hereinafter referred to as a first buffer image) is read out in a timely manner and guided to the image delay unit 104 or the image processing unit 105. The first buffer 103 may be a frame buffer, for example.

なお、本実施の形態においては、第1のバッファ画像(入力画像またはフィードバック画像)は、その全体(少なくとも1フレーム)が第1のバッファ103に格納されてから画像遅延部104又は画像処理部105へと出力されることとする。   In the present embodiment, the first buffer image (input image or feedback image) is stored in the first buffer 103 as a whole (at least one frame), and then the image delay unit 104 or the image processing unit 105. To be output.

画像遅延部104は、後述するが画像処理部105が持つ処理遅延と略同じ時間の遅延を、第1のバッファ画像に与えて、MUX106へと導く。つまり、画像遅延部104は、画像処理部105が使用不可能な期間であっても第1のバッファ103での第1のバッファ画像の出力からMUX106の入力に第1のバッファ画像又は画像処理部105による処理済み画像(典型的には、フィルタ処理済み画像)が到達するまでの時間を一定に保つ役割を果たす。なお、図1において理解を容易とするため、第1のバッファ103又は第2のバッファ107と画像遅延部104を別々のブロックとして図示してあるが、第1のバッファ103又は第2のバッファ107に画像遅延部104の機能を包含させることもでき、本実施形態はいずれの構成においても適応可能である。   As will be described later, the image delay unit 104 gives a delay of substantially the same time as the processing delay of the image processing unit 105 to the first buffer image, and guides it to the MUX 106. That is, the image delay unit 104 outputs the first buffer image or the image processing unit from the output of the first buffer image in the first buffer 103 to the input of the MUX 106 even during a period in which the image processing unit 105 cannot be used. It plays the role of keeping the time until the processed image (typically the filtered image) arrives at 105 constant. In order to facilitate understanding in FIG. 1, the first buffer 103 or the second buffer 107 and the image delay unit 104 are illustrated as separate blocks, but the first buffer 103 or the second buffer 107 is illustrated. The function of the image delay unit 104 can also be included in this embodiment, and this embodiment can be applied to any configuration.

画像処理部105は、第1の動作期間、第2の動作期間および第4の動作期間において、第1のバッファ103から第1のバッファ画像を受け取る。他方、画像処理部105は、第3の動作期間において使用不可能となる。画像処理部105は、第1のバッファ画像に対して画像処理を施すことによってフィルタ処理済み画像を生成する。この画像処理は、数ラインから数十ライン相当の処理遅延を持つ。画像処理部105は、フィルタ処理済み画像をMUX106へと出力する。   The image processing unit 105 receives the first buffer image from the first buffer 103 in the first operation period, the second operation period, and the fourth operation period. On the other hand, the image processing unit 105 cannot be used in the third operation period. The image processing unit 105 generates a filtered image by performing image processing on the first buffer image. This image processing has a processing delay corresponding to several lines to several tens of lines. The image processing unit 105 outputs the filtered image to the MUX 106.

なお、本実施形態においては、画像処理部105を、パーシャルリコンフィギュレーション(或いは、リコンフィギュレーション)が可能なデバイスを用いて実装していることとする。そして、切替制御部109がパーシャルリコンフィギュレーションを行うことで画像処理部105によって行われるフィルタ処理を変更することが可能である。後述されるように、図1の画像処理装置は、パーシャルリコンフィギュレーションまたはその他の要因に起因して画像処理部105の使用不可期間(第3の動作期間に相当する)が発生しても、表示映像の破綻を回避することができる。従って、フィルタの組み合わせ数に応じて2つ以上のパーシャルリコンフィギュレーション領域(パーシャルエリア:PA)を併設せずとも、少なくとも1つの組み合わせが包含できる1つのパーシャルエリアのみ設定することで、表示映像の品質を殆ど犠牲にすることなく、画像処理部105を安価な中小規模FPGAを用いて実装することができる。   In the present embodiment, it is assumed that the image processing unit 105 is mounted using a device capable of partial reconfiguration (or reconfiguration). Then, it is possible to change the filter processing performed by the image processing unit 105 when the switching control unit 109 performs partial reconfiguration. As will be described later, the image processing apparatus in FIG. 1 may be disabled even if an unusable period (corresponding to the third operation period) of the image processing unit 105 occurs due to partial reconfiguration or other factors. The failure of the display image can be avoided. Therefore, by setting only one partial area that can include at least one combination without providing two or more partial reconfiguration areas (partial areas: PA) according to the number of combinations of filters, The image processing unit 105 can be mounted using an inexpensive medium-scale FPGA without sacrificing quality.

概括すれば、画像処理部105は、第1の動作期間および第2の動作期間において第1の画像処理を行い、第3の動作期間においてパーシャルリコンフィギュレーションを施され、第4の動作期間において第1の画像処理とは異なる第2の画像処理を行うことができる。すなわち、第2の動作期間は、パーシャルリコンフィギュレーションの準備期間に相当する。また、第3の動作期間は、パーシャルリコンフィギュレーションの実行期間を包含する。   In summary, the image processing unit 105 performs the first image processing in the first operation period and the second operation period, undergoes partial reconfiguration in the third operation period, and in the fourth operation period. Second image processing different from the first image processing can be performed. That is, the second operation period corresponds to a preparation period for partial reconfiguration. Further, the third operation period includes a partial reconfiguration execution period.

画像処理部105に構築することのできる画像処理は、例えば、画像の回転、画像の色の変更、画像の拡大または縮小、画像から所定のパターン(例えば、エッジ、白線など)を検出して抽出または強調する処理、所定の画像効果の付加(例えば、平滑化)、などを含むことができるが、これらに限定されない。   Image processing that can be constructed in the image processing unit 105 includes, for example, image rotation, image color change, image enlargement or reduction, and detection and extraction of a predetermined pattern (eg, edge, white line, etc.) from the image. Alternatively, the processing may include enhancement processing, addition of a predetermined image effect (for example, smoothing), and the like, but is not limited thereto.

MUX106は、第1の入力端子、第2の入力端子、制御端子および出力端子を持つ。MUX106は、その第1の入力端子を介して、画像処理部105からフィルタ処理済み画像を受け取る。MUX106は、その第2の入力端子を介して、画像遅延部104経由で、第1のバッファ103から第1のバッファ画像を受け取る。MUX106は、その制御端子を介して、切替制御部109から第2の選択制御信号を受け取る。MUX106の出力端子は、第2のバッファ107に接続されている。   The MUX 106 has a first input terminal, a second input terminal, a control terminal, and an output terminal. The MUX 106 receives the filtered image from the image processing unit 105 via the first input terminal. The MUX 106 receives the first buffer image from the first buffer 103 via the image delay unit 104 via the second input terminal. The MUX 106 receives the second selection control signal from the switching control unit 109 via the control terminal. The output terminal of the MUX 106 is connected to the second buffer 107.

MUX106は、第2の選択制御信号のレベルに応じて、2つの入力画像のいずれか一方を選択して出力端子へと導く。第2の選択制御信号は、第1の動作期間、第2の動作期間および第4の動作期間において第1のレベル(例えば、Highレベル)を持ち、第3の動作期間において第2のレベル(例えば、Lowレベル)を持つ。MUX106は、第2の選択制御信号が第1のレベルを持つならば、フィルタ処理済み画像を第2のバッファ107へと導く。他方、MUX106は、第2の選択制御信号が第2のレベルを持つならば、第1のバッファ画像を第2のバッファ107へと導く。   The MUX 106 selects either one of the two input images according to the level of the second selection control signal and guides it to the output terminal. The second selection control signal has a first level (for example, a high level) in the first operation period, the second operation period, and the fourth operation period, and a second level ( For example, Low level). The MUX 106 guides the filtered image to the second buffer 107 if the second selection control signal has the first level. On the other hand, the MUX 106 guides the first buffer image to the second buffer 107 if the second selection control signal has the second level.

第2のバッファ107は、MUX106から出力された画像を格納する。具体的には、第1の動作期間、第2の動作期間および第4の動作期間において、第2のバッファ107は(未表示の)フィルタ処理済み画像を格納する。他方、第3の動作期間において、第2のバッファ107は第1のバッファ画像(過去に表示したことのあるフィルタ処理済み画像)を格納する。第2のバッファ107に格納された画像(以降、第2のバッファ画像と称される)は、出力制御部108によって適時に読み出される。さらに、第2のバッファ画像は、上記フィードバック画像としてMUX102に戻される。第2のバッファ107は、例えばラインバッファであってもよい。なお、本実施形態においては、第2のバッファ画像(第1のバッファ画像又はフィルタ処理済み画像)は、その一部(少なくとも1ライン)が第2のバッファ107に格納されてから出力制御部108へと出力されることとする。   The second buffer 107 stores the image output from the MUX 106. Specifically, in the first operation period, the second operation period, and the fourth operation period, the second buffer 107 stores a (undisplayed) filtered image. On the other hand, in the third operation period, the second buffer 107 stores the first buffer image (filtered image that has been displayed in the past). An image stored in the second buffer 107 (hereinafter referred to as a second buffer image) is read by the output control unit 108 in a timely manner. Further, the second buffer image is returned to the MUX 102 as the feedback image. The second buffer 107 may be a line buffer, for example. In the present embodiment, the second buffer image (first buffer image or filtered image) is stored in the second buffer 107 after a part (at least one line) is stored in the output control unit 108. To be output.

出力制御部108は、第2のバッファ107から第2のバッファ画像を読み出し、図示されない外部の映像表示装置(例えば、テレビ受像機、PCモニタなど)へと適時に出力する。そして、出力制御部108によって出力された画像が、上記表示装置により表示映像を形成する。   The output control unit 108 reads the second buffer image from the second buffer 107 and outputs it to an external video display device (for example, a television receiver, a PC monitor, etc.) not shown in a timely manner. The image output by the output control unit 108 forms a display image by the display device.

切替制御部109は、図示されない中央演算装置(例えば、マイコン、CPU、GPU)、ホスト装置(例えば、PC、ワークステーション)またはユーザインタフェース(例えば、リモートコントローラ)から画像処理の変更を指示するモード切替信号を受け取る。切替制御部109は、モード切替信号の示す所望のフィルタ処理を、画像処理部105が現在提供することができるか否かを判定する。   The switching control unit 109 is a mode switch for instructing a change in image processing from a central processing unit (for example, a microcomputer, CPU, GPU), a host device (for example, a PC, a workstation) or a user interface (for example, a remote controller) (not shown). Receive a signal. The switching control unit 109 determines whether or not the image processing unit 105 can currently provide the desired filter processing indicated by the mode switching signal.

画像処理部105が所望のフィルタ処理を現在提供することができなければ、準備期間に相当する第2の動作期間を経て第3の動作期間が開始することになる。すなわち、切替制御部109は所望の画像処理を提供できるように画像処理部105に対してパーシャルリコンフィギュレーションを施し、適切なレベルを持つ第1の選択制御信号および第2の選択制御信号をMUX102およびMUX106へとそれぞれ供給する。さらに、画像処理部105のパーシャルリコンフィギュレーションが完了すると、切替制御部109は、それぞれ第1のレベルを持つ第1の選択制御信号および第2の選択制御信号をMUX102およびMUX106へとそれぞれ供給する(第4の動作期間の開始)。   If the image processing unit 105 cannot currently provide the desired filter processing, the third operation period starts after the second operation period corresponding to the preparation period. That is, the switching control unit 109 performs partial reconfiguration on the image processing unit 105 so as to provide desired image processing, and sends the first selection control signal and the second selection control signal having appropriate levels to the MUX 102. And MUX 106 respectively. Further, when the partial reconfiguration of the image processing unit 105 is completed, the switching control unit 109 supplies the first selection control signal and the second selection control signal having the first level to the MUX 102 and the MUX 106, respectively. (Start of the fourth operation period).

図1の画像処理装置は、図2に例示されるように画像処理を行う。
画像処理部105が使用不可能となる前の準備期間中でない(すなわち、第1の動作期間、第2の動作期間または第4の動作期間に該当する)ならば(ステップS201)、入力制御部101はMUX102経由で入力画像を第1のバッファ103に格納する(ステップS202)。続いて、ステップS202において第1のバッファ103に格納された第1のバッファ画像は、画像処理部105によってフィルタ処理を施される(ステップS203)。そして、ステップS203において生成されたフィルタ処理済み画像が第2のバッファ107に格納され(ステップS204)、出力制御部108によって図示されない表示装置へと出力される(ステップS205)。
The image processing apparatus in FIG. 1 performs image processing as illustrated in FIG.
If it is not during the preparation period before the image processing unit 105 becomes unusable (that is, corresponds to the first operation period, the second operation period, or the fourth operation period) (step S201), the input control unit 101 stores the input image in the first buffer 103 via the MUX 102 (step S202). Subsequently, the first buffer image stored in the first buffer 103 in step S202 is subjected to filter processing by the image processing unit 105 (step S203). The filtered image generated in step S203 is stored in the second buffer 107 (step S204), and is output to a display device (not shown) by the output control unit 108 (step S205).

他方、画像処理部105が使用不可能となる前の準備期間中である(すなわち、第2の動作期間に該当する)ならば(ステップS201)、この時点で第1のバッファに入力画像を格納したとしても、当該入力画像を出力する頃には画像処理部105は使用不可能となっている(第3の動作期間に入っている)。故に、第2のバッファ107に格納されている第2のバッファ画像(これは、画像処理部105が使用不可能となる直前に生成されたフィルタ処理済み画像に相当)がフィードバック画像として第1のバッファ103に格納され(ステップS206)、ステップ206において第1のバッファに格納された第1のバッファ画像は、画像遅延部104によって遅延処理が施される(ステップS207)。そして、ステップS207において遅延された画像が再び第2のバッファ107に格納され(ステップS208)、出力制御部108によって図示されない映像表示装置へと出力される(ステップS205)。   On the other hand, if it is during the preparation period before the image processing unit 105 becomes unusable (that is, corresponds to the second operation period) (step S201), the input image is stored in the first buffer at this time. Even when the input image is output, the image processing unit 105 cannot be used (enters the third operation period). Therefore, the second buffer image stored in the second buffer 107 (which corresponds to the filtered image generated immediately before the image processing unit 105 becomes unusable) is used as the first feedback image. The first buffer image stored in the buffer 103 (step S206) and stored in the first buffer in step 206 is subjected to delay processing by the image delay unit 104 (step S207). Then, the image delayed in step S207 is stored again in the second buffer 107 (step S208), and is output to a video display device (not shown) by the output control unit 108 (step S205).

ここで、本実施形態に係る画像処理装置の作用効果を図3、図4および図5を用いて比較例と対比して説明する。この比較例に係る画像処理装置は、パーシャルエリアを必要に応じてリコンフィギュレーションすることで様々な画像処理を実装することができるが、リコンフィギュレーション中の表示映像の破綻について特段の対策を採っていない。例えば、この比較例に係る画像処理装置は、図1の画像処理装置からMUX102およびMUX106を削除したものであってもよい。なお、理解を容易とするために、図5では画像の入力タイミングおよび出力タイミングを一致させているが、実際にはこれらを一致させなくてもよい。   Here, the effect of the image processing apparatus according to the present embodiment will be described in comparison with the comparative example with reference to FIGS. 3, 4, and 5. The image processing apparatus according to this comparative example can implement various image processing by reconfiguring the partial area as necessary. However, special measures are taken against the failure of the display video during the reconfiguration. Not. For example, the image processing apparatus according to this comparative example may be obtained by deleting the MUX 102 and the MUX 106 from the image processing apparatus of FIG. In order to facilitate understanding, the input timing and output timing of the image are matched in FIG. 5, but in practice, they may not be matched.

比較例に係る画像処理装置は、パーシャルリコンフィギュレーションが発生する前(第1の動作期間および第2の動作期間)には、第1の画像処理を施した画像(図5のF5’およびF6’)を表示装置へと順次出力できる(図3のStep1)。しかしながら、パーシャルリコンフィギュレーションの発生中(第3の動作期間)には、画像処理部(パーシャルエリア)が使用不可能となりフィルタ処理済み画像は生成されないので、第2のバッファへの入力が途絶えてしまう(図3のStep2)。すなわち、表示対象の画像が表示装置に供給されなくなり、表示映像は破綻する。パーシャルリコンフィギュレーションが完了した後(第4の動作期間)には、この画像処理装置は、第2の画像処理を施した画像(図5のF8’’)を表示装置へと順次出力できる(図3のStep3)。   In the image processing apparatus according to the comparative example, before the partial reconfiguration occurs (first operation period and second operation period), the image subjected to the first image processing (F5 ′ and F6 in FIG. 5). ') Can be sequentially output to the display device (Step 1 in FIG. 3). However, during the occurrence of partial reconfiguration (third operation period), the image processing unit (partial area) becomes unusable and a filtered image is not generated, so input to the second buffer is interrupted. (Step 2 in FIG. 3). That is, the display target image is not supplied to the display device, and the display video is broken. After the partial reconfiguration is completed (fourth operation period), the image processing apparatus can sequentially output the image subjected to the second image processing (F8 ″ in FIG. 5) to the display device ( Step 3 in FIG. 3).

なお、変形例として、パーシャルリコンフィギュレーション中に第1のバッファに格納されている入力画像をそのまま表示装置へと供給することも想定可能である。しかしながら、この変形例によれば、第1の画像処理を施された画像(図5のおよびF6’)が表示されてから第2の画像処理を施された画像(図5のF8’’)が表示されるまでの間に何らの画像処理も施されていない画像(図5のF7)が唐突に表示されることになる。従って、表示映像が短期間に目まぐるしく変化することになるので、観者に大きな違和感を与えるおそれがある。   As a modification, it is also possible to supply the input image stored in the first buffer as it is to the display device during the partial reconfiguration. However, according to this modified example, after the image subjected to the first image processing (F6 ′ in FIG. 5) is displayed, the image subjected to the second image processing (F8 ″ in FIG. 5). An image that has not been subjected to any image processing (F7 in FIG. 5) is displayed suddenly until is displayed. Therefore, the display image changes rapidly in a short period of time, which may give the viewer a feeling of strangeness.

他方、図1の画像処理装置は、パーシャルリコンフィギュレーションが発生する前(第1の動作期間および第2の動作期間)には、第1の画像処理を施した画像(図5のF5’およびF6’)を図示されない表示装置へと順次出力できる。   On the other hand, before the partial reconfiguration occurs (first operation period and second operation period), the image processing apparatus in FIG. 1 performs an image subjected to the first image processing (F5 ′ and FIG. 5). F6 ′) can be sequentially output to a display device (not shown).

なお、図1の画像処理装置は、第3の動作期間に先行する第2の動作期間が開始すると、第2のバッファ画像(第3の動作期間に入る直前に第1の画像処理を施されたフィルタ処理済み画像であって、図5のF6’に相当する)を、図示されない表示装置へと出力するだけでなくフィードバック画像としてMUX102経由で第1のバッファ103へと退避させる(図4のStep1)。そして、この画像処理装置は、第1のバッファ103→画像遅延部104→MUX106→第2のバッファ107→出力制御部108の経路を通じて、第3の動作期間が終了するまでこのフィードバック画像をリピート出力することができる(図4のStep2)。なお、第3の動作期間は、フィードバック画像がリピート出力されることから、リピート期間と呼ぶこともできる。   1 starts the second buffer image (first image processing immediately before entering the third operation period) when the second operation period preceding the third operation period starts. The filtered image that corresponds to F6 ′ in FIG. 5 is not only output to a display device (not shown) but also saved as a feedback image to the first buffer 103 via the MUX 102 (FIG. 4). Step 1). Then, the image processing apparatus repeats the feedback image until the third operation period ends through the path of the first buffer 103 → the image delay unit 104 → the MUX 106 → the second buffer 107 → the output control unit 108. (Step 2 in FIG. 4). Note that the third operation period can also be referred to as a repeat period because the feedback image is output repeatedly.

図1の画像処理装置は、第3の動作期間が終了して第4の動作期間が開始すると、第2の画像処理を施されたフィルタ処理済み画像(図5のF8’’)を第2のバッファ107に格納し、表示装置へと出力する(図4のStep3)。   When the third operation period ends and the fourth operation period starts, the image processing apparatus in FIG. 1 outputs the filtered image (F8 ″ in FIG. 5) subjected to the second image processing to the second image processing apparatus. Are output to the display device (Step 3 in FIG. 4).

すなわち、図1の画像処理装置に接続された表示装置は、第3の動作期間では直前の第2の動作期間中に最後に生成したフィルタ処理済み画像(図5のF6’)をリピート表示する。故に、この表示装置は、画像処理部105が一時的に機能していないことを観者に殆ど意識させないまま、第2の画像処理を施されたフィルタ処理済み画像(図5のF8’’)の表示をスムーズに開始できる(擬似シームレス再生)。   That is, the display device connected to the image processing device in FIG. 1 repeats and displays the filtered image (F6 ′ in FIG. 5) generated last in the second operation period immediately before in the third operation period. . Therefore, in this display device, the filtered image that has been subjected to the second image processing (F8 ″ in FIG. 5) without causing the viewer to be aware that the image processing unit 105 is temporarily not functioning. Can be displayed smoothly (pseudo seamless playback).

以上説明したように、第1の実施形態に係る画像処理装置は、パーシャルリコンフィギュレーションまたはその他の要因で画像処理部が一時的に使用不可能となると、その直前に生成されたフィルタ処理済み画像をリピート出力する。そして、この画像処理装置に接続された表示装置は、画像処理部が一時的に機能していないことを観者に殆ど意識させないまま(すなわち、表示映像の破綻を回避しつつ)、その後に再び使用可能となった画像処理部が生成したフィルタ処理済み画像の表示をスムーズに開始することができる。故に、この画像処理装置は、パーシャルエリアを1つしか持たないものの、表示映像の品質を殆ど犠牲にすることなく、安価な中小規模FPGAを用いて大規模FPGAが必要となる画像処理回路と等価な機能を実装することができる。このような利点から、この画像処理装置は、特にローエンドまたはミドルエンドのTV、PC、プレーヤなどの映像表示が必要となる製品の内部装置又は外部装置に向いている。   As described above, the image processing apparatus according to the first embodiment has the filtered image generated immediately before the image processing unit becomes temporarily unavailable due to partial reconfiguration or other factors. Is output repeatedly. Then, the display device connected to the image processing device makes the viewer almost unaware that the image processing unit is temporarily not functioning (that is, while avoiding the failure of the display image), and then again. The display of the filtered image generated by the usable image processing unit can be started smoothly. Therefore, although this image processing apparatus has only one partial area, it is equivalent to an image processing circuit that requires a large-scale FPGA using an inexpensive medium- and small-scale FPGA without sacrificing the quality of the displayed video. Various functions can be implemented. Due to such advantages, this image processing apparatus is particularly suitable for an internal device or an external device of a product that requires video display such as a low-end or middle-end TV, PC, player or the like.

上記各実施形態において説明された種々の機能部は、ハードウェア又はソフトウェアを用いることで実現されてもよい。例えば、特定の機能を実現する専用ハードウェアであってもよいし、プロセッサのような汎用ハードウェアに専用ソフトウェアを組み合わせてもよい。   The various functional units described in the above embodiments may be realized by using hardware or software. For example, dedicated hardware for realizing a specific function may be used, or dedicated software may be combined with general-purpose hardware such as a processor.

上記各実施形態の処理の少なくとも一部は、汎用のコンピュータを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。   At least a part of the processing of each of the above embodiments can also be realized by using a general-purpose computer as basic hardware. A program for realizing the above processing may be provided by being stored in a computer-readable recording medium. The program is stored in the recording medium as an installable file or an executable file. Examples of the recording medium include a magnetic disk, an optical disk (CD-ROM, CD-R, DVD, etc.), a magneto-optical disk (MO, etc.), and a semiconductor memory. The recording medium may be any recording medium as long as it can store the program and can be read by the computer. The program for realizing the above processing may be stored on a computer (server) connected to a network such as the Internet and downloaded to the computer (client) via the network.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

101・・・入力制御部
102・・・MUX
103・・・第1のバッファ
104・・・画像遅延部
105・・・画像処理部
106・・・MUX
107・・・第2のバッファ
108・・・出力制御部
109・・・切替制御部
101 ... Input control unit 102 ... MUX
103: First buffer 104: Image delay unit 105: Image processing unit 106: MUX
107 ... Second buffer 108 ... Output control unit 109 ... Switch control unit

Claims (4)

第1の動作期間と、第3の動作期間と、当該第3の動作期間に続く第4の動作期間とにおいて入力画像を格納する第1のバッファと、
前記第1の動作期間と、当該第1の動作期間と前記第3の動作期間との間を占める第2の動作期間と、前記第4の動作期間とにおいて、前記第1のバッファに格納されている第1のバッファ画像に対して画像処理を施すことによって処理済み画像を生成する画像処理部と、
前記第1の動作期間、前記第2の動作期間および前記第4の動作期間において前記画像処理部から出力される処理済み画像を格納し、前記第3の動作期間において前記第1のバッファから出力される第1のバッファ画像を格納する第2のバッファと
を具備し、
前記第1のバッファは、前記第2の動作期間において、前記第2のバッファからフィードバックされる処理済み画像を格納する、
画像処理装置。
A first buffer for storing an input image in a first operation period, a third operation period, and a fourth operation period following the third operation period;
Stored in the first buffer in the first operation period, the second operation period that occupies between the first operation period and the third operation period, and the fourth operation period. An image processing unit that generates a processed image by performing image processing on the first buffer image;
Stores processed images output from the image processing unit in the first operation period, the second operation period, and the fourth operation period, and outputs them from the first buffer in the third operation period A second buffer for storing the first buffer image to be stored,
The first buffer stores a processed image fed back from the second buffer in the second operation period.
Image processing device.
前記画像処理部は、前記第1の動作期間および前記第2の動作期間において前記第1のバッファ画像に対して第1の画像処理を施し、前記第4の動作期間において前記第1のバッファ画像に対して前記第1の画像処理とは異なる第2の画像処理を施す、請求項1記載の画像処理装置。   The image processing unit performs first image processing on the first buffer image in the first operation period and the second operation period, and performs the first buffer image in the fourth operation period. The image processing apparatus according to claim 1, wherein second image processing different from the first image processing is performed on the image processing apparatus. 前記第3の動作期間において前記画像処理部のパーシャルリコンフィギュレーションを行う切替制御部をさらに具備する、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a switching control unit that performs partial reconfiguration of the image processing unit in the third operation period. 第1の動作期間と、第3の動作期間と、当該第3の動作期間に続く第4の動作期間とにおいて入力画像を第1のバッファに格納することと、
前記第1の動作期間と、当該第1の動作期間と前記第3の動作期間との間を占める第2の動作期間と、前記第4の動作期間とにおいて、前記第1のバッファに格納されている第1のバッファ画像に対して画像処理部が画像処理を施すことによって処理済み画像を生成することと、
前記第1の動作期間、前記第2の動作期間および前記第4の動作期間において前記画像処理部から出力される処理済み画像を第2のバッファに格納することと、
前記第3の動作期間において前記第1のバッファから出力される第1のバッファ画像を前記第2のバッファに格納することと、
前記第2の動作期間において、前記第2のバッファから処理済み画像をフィードバックして前記第1のバッファに格納することと
を具備する、画像処理方法。
Storing an input image in the first buffer in a first operation period, a third operation period, and a fourth operation period following the third operation period;
Stored in the first buffer in the first operation period, the second operation period that occupies between the first operation period and the third operation period, and the fourth operation period. An image processing unit performs image processing on the first buffer image being generated to generate a processed image;
Storing the processed image output from the image processing unit in the first operation period, the second operation period, and the fourth operation period in a second buffer;
Storing the first buffer image output from the first buffer in the third operation period in the second buffer;
An image processing method comprising: feeding back a processed image from the second buffer and storing the processed image in the first buffer in the second operation period.
JP2015209055A 2015-10-23 2015-10-23 Image processing device and image processing method Pending JP2017083533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015209055A JP2017083533A (en) 2015-10-23 2015-10-23 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209055A JP2017083533A (en) 2015-10-23 2015-10-23 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2017083533A true JP2017083533A (en) 2017-05-18

Family

ID=58711858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209055A Pending JP2017083533A (en) 2015-10-23 2015-10-23 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2017083533A (en)

Similar Documents

Publication Publication Date Title
EP3232669A1 (en) Video frame processing method, video processing chip, motion estimation and motion compensation chip
CN110868625A (en) Video playing method and device, electronic equipment and storage medium
CN111741274B (en) Ultrahigh-definition video monitoring method supporting local amplification and roaming of picture
US9972355B2 (en) Image processing apparatus, method for controlling image processing apparatus, and non-transitory computer readable storage medium
US10205921B2 (en) Image processing device, control method for image processing device, and storage medium storing program
US9756278B2 (en) Image processing system and image capturing apparatus
JP2015221095A (en) Wireless endoscope system, endoscope, display device, image transmission method, image display method and program
US10110887B2 (en) Display diagnostics for enhancing performance of display devices
US10080014B2 (en) Apparatus for displaying image, driving method thereof, and method for displaying image that allows a screen to be naturally changed in response to displaying an image by changing a two-dimensional image method to a three-dimensional image method
US11282483B2 (en) Full-screen displays
US10674188B2 (en) Playback apparatus, method of controlling playback apparatus, playback method and server apparatus
EP3582504A1 (en) Image processing method, device, and terminal device
JP2017083533A (en) Image processing device and image processing method
JP6821269B2 (en) Image processing device and image processing method
JP6751754B2 (en) Methods and devices for rendering video content on the display
US10397587B2 (en) Image processing apparatus and control method thereof
JP2015004882A (en) Display data processing device and display data processing method
JP4723427B2 (en) Image processing circuit, image processing system, and image processing method
US10015362B2 (en) Image capturing apparatus for resizing raw image data and control method thereof
US10542207B2 (en) Image processing apparatus and image processing method
CN111954068B (en) Method and device for video definition switching and electronic device
JP2014216668A (en) Imaging apparatus
JP2007201816A (en) Video image display system and video image receiver
US11330140B2 (en) Image processing apparatus and image processing method
JP2014183493A (en) Device, method and program for information correction, and information recording medium