JP2011035873A - Apparatus and method for simulating image processing circuit, method of designing image processing circuit, and simulation program for image processing circuit - Google Patents

Apparatus and method for simulating image processing circuit, method of designing image processing circuit, and simulation program for image processing circuit Download PDF

Info

Publication number
JP2011035873A
JP2011035873A JP2009183137A JP2009183137A JP2011035873A JP 2011035873 A JP2011035873 A JP 2011035873A JP 2009183137 A JP2009183137 A JP 2009183137A JP 2009183137 A JP2009183137 A JP 2009183137A JP 2011035873 A JP2011035873 A JP 2011035873A
Authority
JP
Japan
Prior art keywords
image processing
image
frame
result
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009183137A
Other languages
Japanese (ja)
Inventor
Makoto Ouchi
真 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009183137A priority Critical patent/JP2011035873A/en
Publication of JP2011035873A publication Critical patent/JP2011035873A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a simulation apparatus or the like for an image processing circuit, in which qualitative and quantitative evaluations of effects of a result of image processing to a moving image by viewing can be facilitated. <P>SOLUTION: The simulation apparatus 1 for the image processing circuit simulates operation of the image processing circuit performing image processing on a moving image constituted of a plurality of frame images. The simulation apparatus includes: an image processing module comprising a function corresponding to the image processing circuit; a module execution means 63 for executing the image processing module and performing the image processing onto each of the frame images; a result grouping execution means 66 for performing grouping on image data on which the image processing has been performed by the image processing module executed by the module execution means 63; and a storage means for storing given arithmetic results for past frame-processed image data obtained by performing image processing on one frame or each of a plurality of frames prior to the relevant frame. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理回路のシミュレーション装置、画像処理回路のシミュレーション方法、画像処理回路の設計方法、及び画像処理回路シミュレーションプログラム等に関する。   The present invention relates to an image processing circuit simulation apparatus, an image processing circuit simulation method, an image processing circuit design method, an image processing circuit simulation program, and the like.

従来、複数の機能を実行できるソフトウェアシステムの機能評価、デバッグのために、種々の機能を実行させた結果をシミュレーションするプログラムが知られている。
例えば、特許文献1に記載のテストシーケンサーでは、管理モジュール及び実行モジュールを含んで構成され、テスト対象となるテストエグゼクティブに新たな機能を追加したり、機能の修正を行ったりしたときに、他の機能と干渉するかしないかを簡単にチェックできるものが提案されている。
2. Description of the Related Art Conventionally, programs for simulating results of executing various functions are known for function evaluation and debugging of software systems that can execute a plurality of functions.
For example, the test sequencer described in Patent Document 1 includes a management module and an execution module. When a new function is added to a test executive to be tested or a function is corrected, Proposals have been made to easily check whether or not the function interferes.

また、特許文献2に記載のソフトウェアテスト装置では、検証対象となるソフトウェアへの入力及び出力にインターフェースして、動作手順、設定内容等に応じた出力群を受け取って評価するものが提案されている。
また、特許文献3に記載のソフトウェアコンポーネントシステムでは、ソフトウェアコンポーネントの実行において、他のソフトウェアコンポーネントを実行する前の状態を表す事前条件定義情報、後の状態を表す事後条件定義情報をデータベース上に格納しておき、ソフトウェアコンポーネントのテストを正確に行うものが提案されている。
Further, in the software test apparatus described in Patent Document 2, an apparatus that interfaces with input and output to software to be verified and receives and evaluates an output group according to an operation procedure, setting contents, and the like has been proposed. .
Further, in the software component system described in Patent Document 3, pre-condition definition information indicating a state before executing another software component and post-condition definition information indicating a subsequent state are stored in the database in executing the software component. Aside, it has been proposed to accurately test software components.

さらに、特許文献4に記載の画質評価装置では、画像を取り込んで数値化した画像を微分し、ムラの輪郭部を顕在化して、階調値毎の面積を利用して求めた画質指数により、検査画面の画質を定量的に評価するものが提案されている。
さらに、特許文献5に記載の画質評価方法では、粒状性テストパターンを用いて、例えばコントラスト強度を判定して、装置間の画質の比較や経時的な画質の比較を行うものが提案されている。
さらに、特許文献6に記載の画質評価装置では、階調が連続的に変化するグラデーション画像を用いて、画像を定量的に評価するものが提案されている。
さらにまた、特許文献7に記載の画像処理装置では、対象物から検出した画像におけるベクトル成分のヒストグラムを計測することで、画像の統計的性質を評価するものが提案されている。
Furthermore, in the image quality evaluation apparatus described in Patent Document 4, the image obtained by taking in the image is differentiated, the contour portion of the unevenness is revealed, and the image quality index obtained by using the area for each gradation value, A method for quantitatively evaluating the image quality of an inspection screen has been proposed.
Further, in the image quality evaluation method described in Patent Document 5, a method has been proposed in which, for example, contrast intensity is determined using a granularity test pattern to compare image quality between devices and image quality over time. .
Furthermore, in the image quality evaluation apparatus described in Patent Document 6, there has been proposed an apparatus that quantitatively evaluates an image using a gradation image whose gradation changes continuously.
Furthermore, in the image processing apparatus described in Patent Document 7, there has been proposed an apparatus that evaluates statistical properties of an image by measuring a histogram of vector components in an image detected from an object.

ところで、プロジェクタ、FPD(Flat Panel Display)等の画像表示装置においては、入力画像データに対して画像処理を行って適切な表示画像の形成を行っているが、近年画像処理回路に要求される機能が拡大している。
そこで、色変換、解像度変換、ガンマ変換等の種々の画像処理を、画像処理単位でチップ化した部分画像処理回路を組み合わせ、多機能の画像処理を行うことのできる画像処理回路を形成することが行われている。
そして、従来は、このような画像処理回路を設計するに際しては、部分画像処理回路を試作し、実際に組み合わせて画像処理回路を形成してこれを評価するという手法を採用していた。
By the way, in an image display device such as a projector and an FPD (Flat Panel Display), an image process is performed on input image data to form an appropriate display image. Is expanding.
Therefore, it is possible to form an image processing circuit capable of performing multi-functional image processing by combining various image processing such as color conversion, resolution conversion, gamma conversion and the like into a partial image processing circuit that is chipped in units of image processing. Has been done.
Conventionally, when designing such an image processing circuit, a technique has been adopted in which partial image processing circuits are prototyped, combined with each other to form an image processing circuit and evaluated.

特開2006−53924号公報JP 2006-53924 A 特開2006−48310号公報JP 2006-48310 A 特開2006−91944号公報JP 2006-91944 A 特開2000−215310号公報JP 2000-215310 A 特開2000−278722号公報JP 2000-278722 A 特開2003−16443号公報JP 2003-16443 A 特開2003−196666号公報JP 2003-196666 A

しかしながら、このような部分画像処理回路の試作は、エラー検証に時間がかかるばかりでなく、試作コストが嵩むという問題がある。
また、実際に画像処理回路に組み込んで検証を行っても、機能拡大に伴い画像処理回路に組み込まれる部分画像処理回路も多数あり、画像処理におけるパラメーターの設定が効果的であるか否かを判断することが非常に困難であるという問題がある。
さらに、画像処理後毎のパラメーターを組み合わせたときに初めて露見するエラーもあり、これを検証することは非常に困難である。
また、一般に画像表示装置によって形成される動画像を構成する各フレームの表示画像は多数の画素から構成されているが、部分画像処理回路によって処理された結果を各画素について評価するのは難しく、前述した特許文献1乃至7を、画像処理装置による画像処理後の画像の画質の評価に適用することはできない。
さらに、特許文献1乃至7に開示された技術は、静止画に対する処理である。そのため、これらの技術をそのまま動画に適用したとしても静止画と同様の効果が得られるとは限らず、動画に適用した場合の効果が不明である。
However, the trial production of such a partial image processing circuit has a problem that not only error verification takes time but also the trial production cost increases.
In addition, there are a number of partial image processing circuits that are incorporated into the image processing circuit as functions are expanded even if they are actually incorporated into the image processing circuit, and it is determined whether the parameter setting in the image processing is effective. There is a problem that it is very difficult to do.
Furthermore, there is an error that appears only when parameters after image processing are combined, and it is very difficult to verify this.
In general, the display image of each frame constituting the moving image formed by the image display device is composed of a large number of pixels, but it is difficult to evaluate the result processed by the partial image processing circuit for each pixel. Patent Documents 1 to 7 described above cannot be applied to the evaluation of the image quality of an image after image processing by the image processing apparatus.
Furthermore, the techniques disclosed in Patent Documents 1 to 7 are processes for still images. Therefore, even if these techniques are applied to a moving image as they are, the same effect as a still image is not always obtained, and the effect when applied to a moving image is unknown.

本発明は、以上のような技術的課題に鑑みてなされたものであり、その目的の1つは、目視による動画像に対する画像処理結果の効果の定性的及び定量的な評価を容易化できる画像処理回路のシミュレーション装置、画像処理回路のシミュレーション方法、画像処理回路の設計方法、及び画像処理回路のシミュレーションプログラム等を提供することにある。   The present invention has been made in view of the technical problems as described above, and one of its purposes is an image that can facilitate qualitative and quantitative evaluation of the effect of image processing results on a moving image by visual observation. A processing circuit simulation apparatus, an image processing circuit simulation method, an image processing circuit design method, and an image processing circuit simulation program are provided.

(1)本発明の一態様は、複数のフレーム画像により構成される動画像に対して画像処理を行う画像処理回路の動作をシミュレーションする画像処理回路のシミュレーション装置が、前記画像処理回路に対応する機能を具備する画像処理モジュールと、前記画像処理モジュールを実行し、各フレーム画像に対して前記画像処理を行うモジュール実行手段と、前記モジュール実行手段で実行された画像処理モジュールによる前記画像処理が行われた画像データに対してグループ化を実行する結果グループ化実行手段と、当該フレームより前の1又は複数のフレームの各フレーム画像に対して前記画像処理が行われた過去フレーム処理後画像データに対する所与の演算結果を記憶する記憶手段とを含み、前記結果グループ化実行手段は、前記当該フレームのフレーム画像に対して前記画像処理が行われた現フレーム処理後画像データに対する所与の演算結果と、前記記憶手段に記憶される前記過去フレーム処理後画像データに対する前記演算結果とを用いて、前記現フレーム処理後画像データに対してグループ化を実行する。   (1) In one embodiment of the present invention, an image processing circuit simulation apparatus that simulates an operation of an image processing circuit that performs image processing on a moving image including a plurality of frame images corresponds to the image processing circuit. An image processing module having a function, a module execution unit that executes the image processing module and performs the image processing on each frame image, and the image processing by the image processing module executed by the module execution unit performs the image processing. Result grouping execution means for performing grouping on the broken image data, and past frame processed image data obtained by performing the image processing on each frame image of one or a plurality of frames before the frame. Storage means for storing a given calculation result, and the result grouping execution means Using a given computation result for the current frame processed image data obtained by performing the image processing on the frame image of the frame and the computation result for the past frame processed image data stored in the storage means Then, grouping is performed on the image data after the current frame processing.

本態様によれば、複数のフレーム画像により構成される動画像に対する画像処理モジュールによる画像処理後の画像データをグループ化するようにしたので、画像処理の目視による効果の定性的及び定量的な評価が容易となり、結果画像の検証をより効率化できるようになる。さらに、本態様によれば、画像処理に適用されるパラメーターの変更による効果を、容易に把握できるという効果が得られる。   According to this aspect, since the image data after the image processing by the image processing module for the moving image composed of a plurality of frame images is grouped, the qualitative and quantitative evaluation of the visual effect of the image processing is performed. And the verification of the result image can be made more efficient. Furthermore, according to this aspect, it is possible to easily grasp the effect of changing the parameter applied to the image processing.

(2)本発明の他の態様に係るシミュレーション装置では、前記結果グループ化実行手段は、前記現フレーム処理後画像データを、前記記憶手段に記憶される前記過去フレーム処理後画像データが振り分けられたグループと異なるグループに振り分けるとき、前記記憶手段の少なくとも一部の記憶内容をクリアする。   (2) In the simulation apparatus according to another aspect of the present invention, the result grouping execution unit distributes the current frame processed image data to the past frame processed image data stored in the storage unit. When allocating to a group different from the group, at least a part of the stored contents of the storage means is cleared.

本態様によれば、連続するフレーム画像に対する画像処理の効果が異なると判断されて別グループに振り分けられる場合であっても、過去フレームにおける効果を参照することができるので、目視による残像効果を考慮した評価が可能となる。   According to this aspect, even if it is determined that the effect of image processing on consecutive frame images is different and is distributed to another group, the effect in the past frame can be referred to. Evaluation is possible.

(3)本発明の他の態様に係るシミュレーション装置では、前記結果グループ化実行手段は、前記現フレーム処理後画像データを、前記記憶手段に記憶される前記過去フレーム処理後画像データが振り分けられたグループと異なるグループに振り分けるとき、前記現フレーム処理後画像データに対する前記演算結果と、前記記憶手段に記憶される少なくとも1フレーム分の前記過去フレーム処理後画像データに対する前記演算結果とを用いて、前記現フレーム処理後画像データに対してグループ化を実行する。   (3) In the simulation apparatus according to another aspect of the present invention, the result grouping execution unit distributes the current frame processed image data to the past frame processed image data stored in the storage unit. When allocating to a group different from the group, using the calculation result for the current frame processed image data and the calculation result for the past frame processed image data for at least one frame stored in the storage unit, Grouping is performed on the image data after the current frame processing.

本態様によれば、現フレーム処理後画像データをグループ化する際に、少なくとも1フレーム分の過去フレーム処理後画像データに対する演算結果を参照するようにしたので、目視による動画像に対する画像処理結果の効果の定性的及び定量的な評価を容易化できるようになる。   According to this aspect, when grouping the image data after the current frame processing, the calculation result for the image data after the past frame processing for at least one frame is referred to. Qualitative and quantitative evaluation of effects can be facilitated.

(4)本発明の他の態様に係るシミュレーション装置では、前記結果グループ化実行手段は、入力フレーム画像データと該入力フレーム画像データに対して前記画像処理モジュールによる画像処理が行われた処理後画像データとの差分情報に基づいて前記グループ化を実行する。   (4) In the simulation apparatus according to another aspect of the present invention, the result grouping execution unit includes input frame image data and a processed image obtained by performing image processing on the input frame image data by the image processing module. The grouping is executed based on the difference information with the data.

本態様によれば、入力フレーム画像と画像処理後の結果フレーム画像との差分情報に基づいてグループ化するようにしたので、動画像に対する画像処理の目視の効果に対応したグループ化を、簡素な演算処理で実現できるようになる。   According to this aspect, since the grouping is performed based on the difference information between the input frame image and the result frame image after the image processing, the grouping corresponding to the visual effect of the image processing on the moving image can be simplified. It can be realized by arithmetic processing.

(5)本発明の他の態様に係るシミュレーション装置では、前記画像処理モジュールの画像処理結果のグループ化条件を設定する結果グループ化条件設定手段を含み、前記結果グループ化実行手段は、前記結果グループ化条件設定手段によって設定された前記グループ化条件に基づいて、入力フレーム画像の画像処理後の画像データ毎にグループ化を実行する。   (5) The simulation apparatus according to another aspect of the present invention includes a result grouping condition setting unit that sets a grouping condition for image processing results of the image processing module, and the result grouping execution unit includes the result group Based on the grouping condition set by the grouping condition setting means, grouping is executed for each image data after image processing of the input frame image.

本態様によれば、グループ化条件を設定できるようにしたので、所望の画像処理の目視による効果の定性的及び定量的な評価が容易となり、結果フレーム画像の検証をより効率化できるようになる。   According to this aspect, since grouping conditions can be set, qualitative and quantitative evaluation of visual effects of desired image processing is facilitated, and verification of result frame images can be made more efficient. .

(6)本発明の他の態様に係るシミュレーション装置では、前記記憶手段に記憶される前記過去フレーム処理後画像データに対する前記演算結果のフレーム数は、設定可能に構成されている。   (6) In the simulation apparatus according to another aspect of the present invention, the number of frames of the calculation result for the past frame processed image data stored in the storage unit can be set.

本態様によれば、過去フレームを参照する度合いを可変に設定でき、動画に応じた最適な検証の効率化に寄与できるようになる。   According to this aspect, the degree of referring to the past frame can be variably set, and it is possible to contribute to the efficiency of the optimal verification according to the moving image.

(7)本発明の他の態様に係るシミュレーション装置では、前記画像処理回路を構成する複数の部分画像処理回路のそれぞれに対応する機能を具備する複数の画像処理モジュールと、前記複数の画像処理モジュールのうち、実行する画像処理モジュールを選択するモジュール選択手段とを含み、前記モジュール実行手段が、前記モジュール選択手段で選択された画像処理モジュールを順次実行し、入力されるフレーム画像の画像データの画像処理を行い、前記結果グループ化実行手段が、前記モジュール実行手段で実行された複数の画像処理モジュールによる画像処理が行われた画像データに対してグループ化を実行する。   (7) In the simulation apparatus according to another aspect of the present invention, a plurality of image processing modules each having a function corresponding to each of a plurality of partial image processing circuits constituting the image processing circuit, and the plurality of image processing modules An image processing module for selecting an image processing module to be executed, wherein the module execution means sequentially executes the image processing modules selected by the module selection means, and the image data of the input frame image Processing is performed, and the result grouping execution unit executes grouping on the image data that has been subjected to image processing by the plurality of image processing modules executed by the module execution unit.

本態様によれば、前述の効果に加えて、複数の画像処理が組み合わされる場合に、複数の画像処理モジュールによる画像処理が行われた画像データについてグループ化するようにしたので、定性的及び定量的な画像処理の目視の効果を解析でき、各画像処理に適用されるパラメーターの最適な組み合わせを容易に見つけ出すことができるようになる。   According to this aspect, in addition to the above-described effects, when a plurality of image processes are combined, the image data subjected to the image processing by the plurality of image processing modules is grouped. The visual effects of typical image processing can be analyzed, and the optimum combination of parameters applied to each image processing can be easily found.

(8)本発明の他の態様に係るシミュレーション装置では、前記モジュール選択手段で選択された画像処理モジュールの実行手順を設定するモジュール実行手順設定手段を含み、前記モジュール実行手段が、前記モジュール実行手順設定手段で設定された実行手順に従って、前記モジュール選択手段で選択された画像処理モジュールを順次実行し、入力フレーム画像の画像データの画像処理を行う。   (8) The simulation apparatus according to another aspect of the present invention includes module execution procedure setting means for setting an execution procedure of the image processing module selected by the module selection means, and the module execution means includes the module execution procedure. According to the execution procedure set by the setting means, the image processing modules selected by the module selection means are sequentially executed to perform image processing of the image data of the input frame image.

本態様によれば、画像処理の順序を簡単に変更して複数の画像処理を組み合わせて得られる画像処理後の画像データをグループ化するようにしたので、所望の画像処理結果が得られる画像処理モジュールの選択、及び実行手順を容易に見つけることができ、エラー検証時間を短縮化でき、画像処理回路の製造コストの削減が可能となる。また、本態様によれば、画像処理回路を構成する部分画像処理回路の種類が増えたとしても、それぞれの実行順序や最適なパラメーターの選択が、確実、かつ、容易に行うことができ、これらのパラメーターの組み合わせに依存して露見するエラーの検証も容易化できる。   According to this aspect, since the image data after the image processing obtained by easily changing the order of the image processing and combining the plurality of image processing is grouped, the image processing that can obtain a desired image processing result The module selection and execution procedure can be easily found, the error verification time can be shortened, and the manufacturing cost of the image processing circuit can be reduced. In addition, according to this aspect, even if the types of partial image processing circuits constituting the image processing circuit increase, each execution order and optimum parameter selection can be performed reliably and easily. This makes it easy to verify errors that appear depending on the combination of parameters.

(9)本発明の他の態様に係るシミュレーション装置では、前記複数の画像処理モジュールは、少なくとも、解像度変換モジュール、色変換モジュール、及びガンマ特性変換モジュールを含む。   (9) In the simulation apparatus according to another aspect of the present invention, the plurality of image processing modules include at least a resolution conversion module, a color conversion module, and a gamma characteristic conversion module.

本態様によれば、種々ある画像処理のうち、解像度変換、色変換、ガンマ特性変換は、色変換処理、シャープネス処理、コントラスト処理を、各画像処理を実行するモジュール中に含むため、これらの画像処理の順番によって画像処理後の結果フレーム画像の画質に差が出る場合でも、最適な結果フレーム画像を得ることのできる画像処理モジュールの組み合わせを見出すことができるようになる。   According to this aspect, among various image processing, resolution conversion, color conversion, and gamma characteristic conversion include color conversion processing, sharpness processing, and contrast processing in the modules that execute each image processing. Even when there is a difference in the image quality of the result frame image after image processing depending on the processing order, it is possible to find a combination of image processing modules that can obtain an optimum result frame image.

(10)本発明の他の態様は、複数のフレーム画像により構成される動画像に対して画像処理を行う画像処理回路の動作をシミュレーションする画像処理回路のシミュレーション方法が、前記画像処理回路に対応する機能を具備する画像処理モジュールを実行し、各フレーム画像に対して前記画像処理を行うモジュール実行ステップと、前記モジュール実行ステップにおいて実行された画像処理モジュールによる前記画像処理が行われた各フレーム画像の画像データに対してグループ化を実行する結果グループ化実行ステップとを含み、前記結果グループ化実行ステップは、前記当該フレームのフレーム画像に対して前記画像処理が行われた現フレーム処理後画像データに対する所与の演算結果と、前記記憶手段に記憶される前記過去フレーム処理後画像データに対する前記演算結果とを用いて、前記現フレーム処理後画像データに対してグループ化を実行する。   (10) In another aspect of the present invention, an image processing circuit simulation method for simulating an operation of an image processing circuit that performs image processing on a moving image composed of a plurality of frame images corresponds to the image processing circuit. A module execution step of executing an image processing module having a function to perform the image processing on each frame image, and each frame image subjected to the image processing by the image processing module executed in the module execution step A result grouping execution step of performing grouping on the image data of the current frame, and the result grouping execution step includes image data after current frame processing in which the image processing is performed on a frame image of the frame And the past frame stored in the storage means. Using said calculation result for processing image data, said performing a grouping for the current frame processed image data.

本態様によれば、複数のフレーム画像により構成される動画像に対する画像処理モジュールによる画像処理後の画像データをグループ化するようにしたので、画像処理の目視による効果の定性的及び定量的な評価が容易となり、結果画像の検証をより効率化できるようになる。さらに、本態様によれば、画像処理に適用されるパラメーターの変更による効果を、容易に把握できるという効果が得られる。   According to this aspect, since the image data after the image processing by the image processing module for the moving image composed of a plurality of frame images is grouped, the qualitative and quantitative evaluation of the visual effect of the image processing is performed. And the verification of the result image can be made more efficient. Furthermore, according to this aspect, it is possible to easily grasp the effect of changing the parameter applied to the image processing.

(11)本発明の他の態様は、画像処理回路の設計方法が、上記記載の画像処理回路のシミュレーション方法を実施して、画像処理モジュールの組み合わせを求めた後、前記画像処理回路における部分画像処理回路の組み合わせを決定する。   (11) In another aspect of the present invention, after the image processing circuit design method performs the image processing circuit simulation method described above to obtain a combination of image processing modules, the partial image in the image processing circuit Determine the combination of processing circuits.

本態様によれば、画像処理の順序を簡単に変更して複数の画像処理を組み合わせて得られる画像処理の結果をグループ化するようにしたので、所望の画像処理結果が得られる画像処理モジュールの選択、及び実行手順を容易に見つけることができ、エラー検証時間を短縮化でき、画像処理回路の製造コストの削減が可能となる。また、本態様によれば、画像処理回路を構成する部分画像処理回路の種類が増えたとしても、それぞれの実行順序や最適なパラメーターの選択が、確実、かつ、容易に行うことができ、これらのパラメーターの組み合わせに依存して露見するエラーの検証も容易化できる。   According to this aspect, since the image processing results obtained by combining the plurality of image processing by simply changing the order of the image processing are grouped, the image processing module that obtains the desired image processing results can be obtained. The selection and execution procedure can be easily found, the error verification time can be shortened, and the manufacturing cost of the image processing circuit can be reduced. In addition, according to this aspect, even if the types of partial image processing circuits constituting the image processing circuit increase, each execution order and optimum parameter selection can be performed reliably and easily. This makes it easy to verify errors that appear depending on the combination of parameters.

(12)本発明の他の態様は、画像処理回路のシミュレーションプログラムが、上記記載の画像処理回路のシミュレーション方法を、コンピューターに実行させる。   (12) In another aspect of the present invention, an image processing circuit simulation program causes a computer to execute the above-described image processing circuit simulation method.

本態様によれば、目視による動画像に対する画像処理結果の効果の定性的及び定量的な評価を容易化できる画像処理回路のシミュレーションプログラムを提供できるようになる。   According to this aspect, it is possible to provide a simulation program for an image processing circuit capable of facilitating qualitative and quantitative evaluation of the effect of image processing results on a moving image by visual observation.

本発明の実施の一形態に係るシミュレーション装置の構成例のブロック図。The block diagram of the structural example of the simulation apparatus which concerns on one Embodiment of this invention. 図1のディスプレイ上に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display of FIG. メモリー上に書き込まれる画像処理モジュールの選択及び実行手順の説明図。FIG. 4 is an explanatory diagram of selection and execution procedures of an image processing module to be written on a memory. ディスプレイ上に表示される結果グループ化条件設定画面の一例を示す図。The figure which shows an example of the result grouping condition setting screen displayed on a display. 本実施形態におけるシミュレーション装置の処理例のフローチャート。The flowchart of the example of a process of the simulation apparatus in this embodiment. 本実施形態における結果グループ化条件設定処理の処理例のフローチャート。The flowchart of the process example of the result grouping condition setting process in this embodiment. 本実施形態における結果グループ化処理の処理例のフローチャート。The flowchart of the process example of the result grouping process in this embodiment. 図8(A)、図8(B)は結果グループ化実行手段により参照されるFIFOバッファーの説明図。8A and 8B are explanatory diagrams of the FIFO buffer referred to by the result grouping execution unit. 図9(A)〜図9(E)はパラメーターファイルの一例を示す図。FIG. 9A to FIG. 9E show examples of parameter files. 図10(A)〜図10(C)は図9(A)〜図9(E)のパラメーターの説明図。10 (A) to 10 (C) are explanatory diagrams of the parameters of FIGS. 9 (A) to 9 (E). 本実施形態の動作例の説明図。Explanatory drawing of the operation example of this embodiment.

以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成のすべてが本発明の課題を解決するのに必須の構成要件であるとは限らない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below do not unduly limit the contents of the present invention described in the claims. Moreover, not all of the configurations described below are indispensable configuration requirements for solving the problems of the present invention.

図1に、本発明の実施の一形態に係るシミュレーション装置の構成例のブロック図を示す。   FIG. 1 shows a block diagram of a configuration example of a simulation apparatus according to an embodiment of the present invention.

シミュレーション装置1は、演算処理装置2及びメモリー3を備えたコンピューターとして構成される。即ち、演算処理装置2が、メモリー3に蓄積されたプログラムを読み出してメモリー3に蓄積されたプログラム及びデータを用いて処理を実行することで、画像処理回路の動作のシミュレーションを実現する。或いは、演算処理装置2が、専用のハードウェア回路により、メモリー3に蓄積されたデータに対する演算処理を行うことで、画像処理回路の動作のシミュレーションを実現する。ここで、画像処理回路は、複数のフレーム画像により構成される動画像が入力され、各フレーム画像に対して画像処理を行う。このシミュレーション装置1は、複数の部分画像処理回路を組み合わせて構成される画像処理回路の動作をシミュレーションすることができる。
メモリー3内には、本実施形態に係る画像処理回路シミュレーションを実行するためのプログラム、及び、複数の画像処理モジュールが格納されている。各画像処理モジュールは、コンピューター上で実行可能なソフトウェア(プログラム)であり、各部分画像処理回路に対応する機能を具備している。
シミュレーション装置1の入力側には、図示を略したが、スキャナー、デジタルカメラ、ハードディスク装置等の画像データ出力装置が接続され、各機器から画像処理結果後の画像を評価するための評価用の入力フレーム画像データVIDEOが入力されるようになっている。
The simulation device 1 is configured as a computer including an arithmetic processing device 2 and a memory 3. That is, the arithmetic processing device 2 reads out the program stored in the memory 3 and executes processing using the program and data stored in the memory 3, thereby realizing a simulation of the operation of the image processing circuit. Alternatively, the arithmetic processing device 2 performs arithmetic processing on the data stored in the memory 3 using a dedicated hardware circuit, thereby realizing a simulation of the operation of the image processing circuit. Here, the image processing circuit receives a moving image composed of a plurality of frame images, and performs image processing on each frame image. The simulation apparatus 1 can simulate the operation of an image processing circuit configured by combining a plurality of partial image processing circuits.
In the memory 3, a program for executing the image processing circuit simulation according to the present embodiment and a plurality of image processing modules are stored. Each image processing module is software (program) that can be executed on a computer, and has a function corresponding to each partial image processing circuit.
Although not shown in the figure, the input side of the simulation apparatus 1 is connected to an image data output device such as a scanner, digital camera, hard disk device or the like, and an input for evaluation for evaluating an image after image processing results from each device. Frame image data VIDEO is input.

一方、シミュレーション装置1の出力側には、記録媒体としてのハードディスク装置4及び画像表示装置としてのディスプレイ5が接続されている。
ハードディスク装置4には、シミュレーション装置1で選択した画像処理モジュールや、その実行手順、及び各画像処理モジュールで画像処理を行った結果データ(結果フレーム画像データ(処理後フレーム画像データ)等)が記憶される。
また、ディスプレイ5には、画像処理モジュールの画像処理を行って得られた結果フレーム画像データに基づいて、結果フレーム画像が表示画像として形成される。
On the other hand, on the output side of the simulation apparatus 1, a hard disk device 4 as a recording medium and a display 5 as an image display device are connected.
The hard disk device 4 stores the image processing module selected by the simulation device 1, its execution procedure, and result data (result frame image data (processed frame image data), etc.) obtained by performing image processing on each image processing module. Is done.
In addition, a result frame image is formed on the display 5 as a display image based on the result frame image data obtained by performing the image processing of the image processing module.

演算処理装置2は、モジュール管理手段6、出力手段7、及び書込手段8を備えて構成され、これらの各機能的手段6〜8は、演算処理装置2のOS(Operating System)上で実行されるプログラム群として構成されている。   The arithmetic processing unit 2 includes a module management unit 6, an output unit 7, and a writing unit 8. These functional units 6 to 8 are executed on the OS (Operating System) of the arithmetic processing unit 2. Is configured as a program group.

図2に、図1のディスプレイ5上に表示される画面の一例を示す。   FIG. 2 shows an example of a screen displayed on the display 5 of FIG.

モジュール管理手段6、出力手段7、及び書込手段8は、メモリー3に格納されていて、シミュレーション装置1の起動中、ディスプレイ5上に表示された所定のアイコンを選択すると起動するようになっている。そして、図2に示されるような画面G1を表示させることにより、操作者に入力を促し、この操作者の入力に基づく選択結果により、画像処理モジュールの選択、画像処理モジュールに適用されるパラメーターの選択及び実行手順の設定を行う。   The module management means 6, the output means 7, and the writing means 8 are stored in the memory 3, and are activated when a predetermined icon displayed on the display 5 is selected while the simulation apparatus 1 is activated. Yes. Then, the screen G1 as shown in FIG. 2 is displayed to prompt the operator to input, and based on the selection result based on the operator's input, the selection of the image processing module and the parameter applied to the image processing module Set the selection and execution procedure.

画面G1においてデフォルトで表示されるモジュール名は、メモリー3に予め格納された画像処理モジュールを読み出して表示している。新たな画像処理モジュールを読み出すには、画面G1上の右下の読出ボタンG8をクリックし、選択画面上で選択することにより、新たな画像処理モジュールを読み出すことができるようになっている。
なお、画像処理モジュールは、画像処理の対象となる画像表示装置で行う画像処理すべてを網羅することが望ましいが、特に、RGB色空間からYuv色空間への変換処理、及び色空間変換処理の逆変換処理や、ガンマ特性変換、高解像度から低解像度の変換処理等が例示できる。
これらの画像処理は、モジュール内処理でシャープネス処理、コントラスト処理、色変換処理を行う点で共通しており、画像処理の順番によっては、画像処理の結果フレーム画像において、お互いの処理が干渉しあい、部分的な欠点や画像全体の色ムラが強調されるといった現象が生じることがある。
The module name displayed by default on the screen G1 reads and displays the image processing module stored in the memory 3 in advance. In order to read out a new image processing module, a new image processing module can be read out by clicking on the readout button G8 in the lower right on the screen G1 and selecting it on the selection screen.
Note that the image processing module desirably covers all image processing performed by the image display device to be subjected to image processing. In particular, the conversion processing from the RGB color space to the Yuv color space, and the inverse of the color space conversion processing. Examples include conversion processing, gamma characteristic conversion, and conversion processing from high resolution to low resolution.
These image processings are common in that sharpness processing, contrast processing, and color conversion processing are performed in the in-module processing, and depending on the order of image processing, in the frame image as a result of image processing, each other's processing interferes, There may be a phenomenon in which partial defects or color unevenness of the entire image is emphasized.

モジュール管理手段6は、画像処理モジュールの選択と、選択された画像処理モジュールの実行手順の設定、画像処理モジュールの実行、画像処理結果である画像処理モジュールによる画像処理が行われた後の画像データのグループ化の条件(グループ化条件、結果グループ化条件)の設定、及び画像処理結果のグループ化を行う部分であり、モジュール選択手段61、モジュール実行手順設定手段62、モジュール実行手段63、パラメーター選択手段64、結果グループ化条件設定手段65、及び結果グループ化実行手段66を備えて構成される。ここで、画像データ(画像処理結果)のグループ化とは、複数のグループのいずれかに当該画像処理結果を振り分ける動作をいう。   The module management means 6 selects the image processing module, sets the execution procedure of the selected image processing module, executes the image processing module, and performs image processing by the image processing module as the image processing result. This is a part for setting the grouping conditions (grouping conditions, result grouping conditions) and grouping the image processing results. The module selection means 61, the module execution procedure setting means 62, the module execution means 63, and the parameter selection. Means 64, result grouping condition setting means 65, and result grouping execution means 66 are provided. Here, grouping of image data (image processing results) refers to an operation of distributing the image processing results to any of a plurality of groups.

モジュール選択手段61は、画像処理モジュールの選択を行う部分であり、図2に示されるように、ディスプレイ5上に操作者の選択を促す画面G1を表示させ、操作者が画面G1上で選択した画像処理モジュールを、実行する画像処理モジュールとして選択する。   The module selection means 61 is a part for selecting an image processing module, and as shown in FIG. 2, the screen G1 prompting the operator to select is displayed on the display 5, and the operator selects on the screen G1. The image processing module is selected as the image processing module to be executed.

まず、操作者によるキーボード等の入力デバイスを介して、テキストフィールドB1に入力動画ファイル名、テキストフィールドB2に出力動画ファイル名の入力が受け付けられる。図2では、入力動画ファイル名“in.avi”で指定された動画ファイルには、それぞれがフレーム番号により特定可能な複数のフレーム画像により構成された動画データ(複数のフレーム画像データ)が格納されている。そして、画像処理が行われたフレーム画像データが、出力動画ファイル名“out.avi”の出力ファイル又はこのファイル名にグループ化条件等を付加したファイル名の出力ファイルに格納される。
その後、操作者による画面G1での画像処理モジュールの選択が、画面G1の左側に表示されたチェックボックスG2を、キーボード、マウス等の入力デバイスでチェックすることにより行われる。
また、チェックボックスG2の右側のボックスG3は、結果フレーム画像データの出力、結果フレーム画像の表示出力の有無を設定するものであり、このボックスG3をマウスクリックすると、例えば、ボックスG3が白、青、赤等に変化し、白の場合(図2中白のボックス)には、結果フレーム画像及び結果フレーム画像データ(結果データ)を出力せず、青の場合(図2中右下がり斜線のボックス)には、結果フレーム画像をディスプレイ5に表示せず、結果フレーム画像データのみをハードディスク装置4に出力し、赤の場合(図2中左下がり斜線のボックス)には、結果フレーム画像をディスプレイ5上に表示し、かつ結果フレーム画像データをハードディスク装置4に出力するといった設定を行うことができるようになっている。
First, an input of an input moving image file name in the text field B1 and an output moving image file name in the text field B2 is accepted via an input device such as a keyboard by the operator. In FIG. 2, the moving image file specified by the input moving image file name “in.avi” stores moving image data (a plurality of frame image data) each composed of a plurality of frame images that can be specified by frame numbers. ing. Then, the frame image data subjected to the image processing is stored in an output file having an output moving image file name “out.avi” or an output file having a file name obtained by adding a grouping condition to the file name.
Thereafter, the operator selects an image processing module on the screen G1 by checking the check box G2 displayed on the left side of the screen G1 with an input device such as a keyboard or a mouse.
A box G3 on the right side of the check box G2 is used to set whether or not to output result frame image data and display output of the result frame image. When the box G3 is clicked with a mouse, for example, the box G3 is white, blue, or blue. In the case of white (the white box in FIG. 2), the result frame image and the result frame image data (result data) are not output, and in the case of blue (the box in the lower right diagonal line in FIG. 2) ), The result frame image is not displayed on the display 5 and only the result frame image data is output to the hard disk device 4. It is possible to perform settings such as displaying on the top and outputting the result frame image data to the hard disk device 4.

モジュール実行手順設定手段62は、モジュール選択手段61で選択された画像処理モジュールの実行手順を設定する部分である。このモジュール実行手順設定手段62は、図2に示される画面G1上で操作対象となる画像処理モジュールを操作者に選択させる。操作者に選択された画像処理モジュールは、画面G1上では矩形G4に囲まれた状態で表示される。操作者は、画面G1の下部にある実行手順変更ボタンG5、G6をマウスクリックすることにより、選択された画像処理モジュールを上下させて画像処理モジュールの順序を変更することで実行手順を変更できるようになっている。そして、このようにして設定された画像処理モジュールの選択及び実行手順は、メモリー3上に書き込まれる。   The module execution procedure setting unit 62 is a part for setting the execution procedure of the image processing module selected by the module selection unit 61. The module execution procedure setting means 62 allows the operator to select an image processing module to be operated on the screen G1 shown in FIG. The image processing module selected by the operator is displayed in a state surrounded by a rectangle G4 on the screen G1. The operator can change the execution procedure by changing the order of the image processing modules by moving the selected image processing module up and down by clicking the execution procedure change buttons G5 and G6 at the bottom of the screen G1. It has become. Then, the selection and execution procedure of the image processing module set in this way is written on the memory 3.

図3に、メモリー3上に書き込まれる画像処理モジュールの選択及び実行手順の説明図を示す。   FIG. 3 shows an explanatory diagram of the selection and execution procedure of the image processing module written on the memory 3.

メモリー3上への書き込みは、例えば、図3に示されるように、テーブルT1として書き込まれる。このテーブルT1は、選択されたモジュール名、実行の有無、画像出力の有無、フレーム画像データ出力(データ出力)の有無が記録され、それに付随して各画像処理モジュールで用いるパラメーター名が記録される。
なお、パラメーターとは、各画像処理モジュールの実行時の動作パラメーター値であり、例えば、曲線ガンマ値変換モジュールであればγ=2.2等の値が格納されている。このパラメーターは、モジュール管理手段6とともに、メモリー3に格納されている。
The writing on the memory 3 is written as a table T1, for example, as shown in FIG. This table T1 records the selected module name, presence / absence of execution, presence / absence of image output, presence / absence of frame image data output (data output), and the parameter names used in each image processing module are recorded in association therewith. .
The parameter is an operation parameter value at the time of execution of each image processing module. For example, in the case of a curve gamma value conversion module, a value such as γ = 2.2 is stored. This parameter is stored in the memory 3 together with the module management means 6.

モジュール実行手段63は、モジュール選択手段61により選択された画像処理モジュールを、モジュール実行手順設定手段62により設定された実行手順に基づいて順次実行していく部分であり、入力フレーム画像データVIDEOを構成する各フレーム画像データに対して、それぞれ、選択された画像処理モジュールによる画像処理を順次実行する。   The module execution means 63 is a part that sequentially executes the image processing modules selected by the module selection means 61 based on the execution procedure set by the module execution procedure setting means 62, and constitutes input frame image data VIDEO. The image processing by the selected image processing module is sequentially executed for each frame image data to be performed.

具体的には、モジュール実行手段63は、前述した図3に示されるテーブルT1の上位から画像処理モジュールを実行していき、その際、テーブルT1中の実行の有無及びパラメーターを参照しながら、メモリー3中に格納された画像処理モジュールを検索し、検索された画像処理モジュールによる画像処理を行う。本実施形態では、画像処理モジュールの実行は、図2における実行ボタンG7をクリックすることにより行われ、操作者が実行ボタンG7を1回クリックする毎に、1つの画像処理モジュールが実行される。
このモジュール実行手段63による画像処理後の結果フレーム画像データは、出力手段7に出力される。
Specifically, the module execution means 63 executes the image processing module from the upper level of the table T1 shown in FIG. 3 described above. At this time, referring to the presence / absence of execution and parameters in the table T1, the memory 3 is searched, and image processing by the searched image processing module is performed. In this embodiment, the image processing module is executed by clicking the execution button G7 in FIG. 2, and one image processing module is executed each time the operator clicks the execution button G7.
The result frame image data after the image processing by the module execution unit 63 is output to the output unit 7.

パラメーター選択手段64は、モジュール実行手段63で実行される画像処理モジュールのパラメーターの選択を行う部分であり、図2に示されるように、ディスプレイ5上に操作者の選択を促す画面G1を表示させ、操作者が画面G1上で選択したパラメーターファイルを、選択した画像処理モジュールのパラメーターとして選択する。   The parameter selection means 64 is a part for selecting parameters of the image processing module executed by the module execution means 63, and displays a screen G1 for prompting the operator to select on the display 5 as shown in FIG. The parameter file selected on the screen G1 by the operator is selected as the parameter of the selected image processing module.

結果グループ化条件設定手段65は、モジュール実行手段63により実行された一連の画像処理モジュールによる画像処理後の結果フレーム画像データ(処理後フレーム画像データ、画像処理結果)をグループ化するための条件を設定する部分であり、図2に示される画面G1において、操作者が、結果グループ化条件設定ボタンG9をマウスクリックすることにより、ディスプレイ5上に結果グループ化条件設定画面G20が表示される。   The result grouping condition setting unit 65 sets conditions for grouping the result frame image data (processed frame image data, image processing result) after image processing by the series of image processing modules executed by the module execution unit 63. The result grouping condition setting screen G20 is displayed on the display 5 when the operator clicks the result grouping condition setting button G9 on the screen G1 shown in FIG.

本実施形態では、複数のフレーム画像により構成される動画像が入力され、各フレーム画像のフレーム画像データに対する一連の画像処理モジュールによる画像処理が行われた結果フレーム画像データを例えば過去の数フレーム数分だけ参照した指定演算結果をグループ化することで処理結果の解析処理を実現し、処理結果の目視による効果の定性的及び定量的な評価が容易となる上に、画像処理の検証を効率化できるようになる。本実施形態では、一連の画像処理モジュールの処理結果を解析するために、各フレーム画像について、元の入力フレーム画像と該入力フレーム画像に対する一連の画像処理モジュールの処理結果の結果フレーム画像データとの差分情報を求め、各フレームにおける差分情報を過去の数フレーム分を集計して、その結果に基づきグループ化する。そのため、本実施形態では、書込手段8がFIFOバッファー82(広義には、記憶手段)を備え、過去の少なくとも1フレーム分の差分情報を保存することができるようになっている。このFIFOバッファー82には、同じグループに属する連続する複数フレーム分の差分情報が保存され、異なるグループに属すると判断されたときに過去の一部又は全部のフレームにおける差分情報がクリアされる。   In the present embodiment, a moving image composed of a plurality of frame images is input, and the result of image processing performed by a series of image processing modules on the frame image data of each frame image is the number of past frames, for example. By grouping the specified calculation results that are referenced by the amount, processing results can be analyzed, making it easy to qualitatively and quantitatively evaluate the visual effects of the processing results, and to improve the efficiency of image processing verification. become able to. In this embodiment, in order to analyze the processing results of the series of image processing modules, for each frame image, the original input frame image and the result of the processing of the series of image processing modules for the input frame image are obtained. The difference information is obtained, the difference information in each frame is totaled for several past frames, and grouped based on the result. Therefore, in the present embodiment, the writing unit 8 includes a FIFO buffer 82 (storage unit in a broad sense), and can store difference information for at least one past frame. The FIFO buffer 82 stores difference information for a plurality of consecutive frames belonging to the same group, and when it is determined that the frames belong to different groups, the difference information in some or all of the past frames is cleared.

図4に、ディスプレイ5上に表示される結果グループ化条件設定画面G20の一例を示す。   FIG. 4 shows an example of the result grouping condition setting screen G20 displayed on the display 5.

この結果グループ化条件設定画面G20は、操作者に結果グループ化条件の設定を促し、結果グループ化条件設定手段65は、この操作者の入力に基づく設定結果により、結果グループ化条件の設定を行う。
結果グループ化条件設定画面G20での設定は、予め設けられた複数種類の演算方法からいずれか1つを指定するラジオボタンG21、差分情報の演算対象となる画素を指定するラジオボタンG22、差分情報の集計方法を指定するラジオボタンG23をマウスクリックすることで行われ、テキストフィールドG24で、集計結果をグループ化する範囲(グループ化する際の刻み情報)が指定される。このテキストフィールドG24は、例えばコンボボックスで構成されていてもよい。また、テキストフィールドG25には、各フレームの指定演算結果を保存しておく過去フレーム数が指定され、テキストフィールドG26には、目視による残像効果を評価するため、FIFOバッファー82にクリアせずに差分指定演算結果を保存しておく過去フレーム数が指定される。
The result grouping condition setting screen G20 prompts the operator to set the result grouping condition, and the result grouping condition setting unit 65 sets the result grouping condition based on the setting result based on the input of the operator. .
The setting on the result grouping condition setting screen G20 includes a radio button G21 for designating one of a plurality of types of computation methods provided in advance, a radio button G22 for designating a pixel to be subjected to calculation of difference information, and difference information. This is done by clicking the radio button G23 for designating the totaling method, and the range (grouping information for grouping) of the totaling results is designated in the text field G24. This text field G24 may be composed of, for example, a combo box. The text field G25 designates the number of past frames in which the result of designating each frame is stored, and the text field G26 evaluates the afterimage effect by visual inspection, so that the difference is not cleared to the FIFO buffer 82. The number of past frames in which the specified calculation result is stored is specified.

ラジオボタンG21では、元の入力フレーム画像と画像処理後の結果フレーム画像との間のCIELUV色空間におけるLの差分ΔL、元の入力フレーム画像と画像処理後の結果フレーム画像との間のCIELUV色空間におけるuの差分Δu、元の入力フレーム画像と画像処理後の結果フレーム画像との間のCIELUV色空間におけるvの差分Δv、元の入力フレーム画像と画像処理後の結果フレーム画像との間のCIELUV色空間における色差ΔEuv、又は元の入力フレーム画像と画像処理後の結果フレーム画像との間のエッジ値の差分ΔEdgeのいずれかを指定できるようになっている。なお、ラジオボタンG21では、CIELUV色空間以外の色空間の差分情報を指定できるようになっていてもよい。 With the radio button G21, the difference ΔL in L * in the CIELV color space between the original input frame image and the processed result frame image, and CIELV between the original input frame image and the processed result frame image. The difference Δu in u * in the color space, the difference Δv in v * in the CIELV color space between the original input frame image and the result frame image after image processing, and the result frame image after the original input frame image and image processing Either the color difference ΔEuv in the CIELV color space between or the edge value difference ΔEdge between the original input frame image and the result frame image after image processing can be designated. Note that the radio button G21 may be configured to specify difference information in a color space other than the CIELV color space.

ラジオボタンG22では、ラジオボタンG21で指定された演算方法を、入力フレーム画像を構成する各画素とこれに対応する画像処理後の出力画像を構成する各画素との間で行うか、入力フレーム画像を構成する画素のうち所与のサンプリング画素とこれに対応する画像処理後の出力画像を構成するサンプリング画素との間で行うかを指定できるようになっている。なお、ラジオボタンG22では、ラジオボタンG21で指定された演算方法を、これら以外の画素間で演算するように指定できるようになっていてもよい。   In the radio button G22, the calculation method designated by the radio button G21 is performed between each pixel constituting the input frame image and each pixel constituting the output image after image processing corresponding thereto, or the input frame image Can be designated between a given sampling pixel and a corresponding sampling pixel constituting an output image after image processing corresponding thereto. Note that the radio button G22 may be configured so that the calculation method specified by the radio button G21 can be specified so as to calculate between other pixels.

ラジオボタンG23では、ラジオボタンG21、G22で指定された各フレーム画像間及び過去フレーム数分の演算結果のうち最大値を取得するか、ラジオボタンG21、G22で指定された各フレーム画像間及び過去フレーム数分の演算結果の平均値を取得するかを指定できるようになっている。なお、ラジオボタンG23では、ラジオボタンG21、G22で指定された各フレーム画像間及び過去フレーム数分の演算結果を別の方法で集計できるようにしてもよい。   The radio button G23 obtains the maximum value among the calculation results corresponding to the number of past frames between the frame images designated by the radio buttons G21 and G22, or between the frame images designated by the radio buttons G21 and G22 and the past. It is possible to specify whether to obtain the average value of the calculation results for the number of frames. Note that with the radio button G23, the calculation results between the frame images designated by the radio buttons G21 and G22 and the number of past frames may be calculated by another method.

テキストフィールドG24では、ラジオボタンG21、G22で指定された演算結果をラジオボタンG23で指定された集計方法で取得した値を、どのグループにグループ化するかを指定できるようになっている。例えば、テキストフィールドG24に「1.0」が指定されると、取得した値に応じて、一連の画像処理モジュールにより処理結果が、「0.0」〜「1.0」、「1.0」〜「2.0」、「2.0」〜「3.0」、・・・のいずれかにグループ化される。例えば、テキストフィールドG24に「1.0」が指定され、取得した値が「5.5」のとき、「5.0」〜「6.0」のグループにグループ化されることになる。   In the text field G24, it is possible to specify to which group the values acquired by the calculation method specified by the radio button G23 are calculated by the calculation results specified by the radio buttons G21 and G22. For example, when “1.0” is designated in the text field G24, the processing result is “0.0” to “1.0”, “1.0” by a series of image processing modules according to the acquired value. ”To“ 2.0 ”,“ 2.0 ”to“ 3.0 ”, and so on. For example, when “1.0” is designated in the text field G24 and the acquired value is “5.5”, the text field G24 is grouped into groups “5.0” to “6.0”.

FIFOバッファー82に保存される過去フレーム数は、外部から設定可能に構成されている。そして、テキストフィールドG25では、グループ化する際に参照する過去フレーム数が指定されると、ラジオボタンG21、G23で指定された演算方法により入力フレーム画像と画像処理後の結果フレーム画像の各画素間で求められた演算結果を、指定された過去フレーム数分の中で集計して、グループ化が行われる。例えば、ラジオボタンG21で差分ΔLが指定され、ラジオボタンG23で集計方法として「最大」が指定され、テキストフィールドG25で過去フレーム数が「100」が指定されると、当該フレームのフレーム画像と画像処理後の結果フレーム画像との間で画素毎に求めた差分ΔLの最大値を1フレーム分の演算結果として求め、これを過去の100フレーム数分の中での最大値が抽出される。そして、この最大値に基づいてグループ化される。
上記のような集計を行うため、異なるグループ間で過去フレームの演算結果を参照しないように、過去フレームの演算結果がグリアされる。しかしながら、人間の目視による残像効果を反映させるため、敢えて過去の残像フレーム数分の演算結果を残しておき、これらを参照させて集計するようにしている。テキストフィールドG26には、この残像フレーム数が指定される。
The number of past frames stored in the FIFO buffer 82 can be set from the outside. In the text field G25, when the number of past frames to be referred to when grouping is specified, between the pixels of the input frame image and the result frame image after image processing by the calculation method specified by the radio buttons G21 and G23. The calculation results obtained in the above are aggregated within the designated number of past frames, and grouping is performed. For example, if the difference ΔL is designated by the radio button G21, “Maximum” is designated by the radio button G23 as the counting method, and “100” is designated as the past frame number by the text field G25, the frame image and image of that frame are designated. The maximum value of the difference ΔL obtained for each pixel from the processed result frame image is obtained as a calculation result for one frame, and the maximum value for the past 100 frames is extracted. Then, grouping is performed based on the maximum value.
In order to perform the aggregation as described above, the calculation results of the past frames are glare so as not to refer to the calculation results of the past frames between different groups. However, in order to reflect the afterimage effect observed by human eyes, the calculation results for the number of past afterimage frames are left behind, and these are referred to and aggregated. The number of afterimage frames is designated in the text field G26.

なお、図4の結果グループ化条件設定画面G20において、ボタンG27をマウスクリックすることで、ラジオボタンG21〜G23、テキストフィールドG24〜G26で指定された方法が結果グループ化条件として設定され、結果グループ化条件設定処理が終了する。一方、結果グループ化条件設定画面G20において、ボタンG28をマウスクリックすることで、ラジオボタンG21〜G23、テキストフィールドG24〜G26で指定された方法が結果グループ化条件として設定されることなく、結果グループ化条件設定処理が終了する。   In the result grouping condition setting screen G20 of FIG. 4, the method specified by the radio buttons G21 to G23 and the text fields G24 to G26 is set as a result grouping condition by clicking the button G27 with the mouse. The initialization condition setting process ends. On the other hand, when the button G28 is clicked on the result grouping condition setting screen G20, the method specified by the radio buttons G21 to G23 and the text fields G24 to G26 is not set as the result grouping condition. The initialization condition setting process ends.

図1において、出力手段7は、モジュール実行手段63における画像処理モジュールによる入力フレーム画像データVIDEOの画像処理の結果や、グループ化された結果を出力する部分であり、結果表示部71及び結果書込部72を備える。
結果表示部71は、画像処理モジュールによる入力フレーム画像データVIDEOの画像処理結果を、ディスプレイ5上に表示する部分であり、表示するかしないかは、図3におけるテーブルT1の画像出力の有無の欄に基づいて判断する。
結果書込部72は、画像処理モジュールによる入力フレーム画像データVIDEOの画像処理結果を、同一グループの連続する結果フレーム画像データを1つの動画ファイルとしてハードディスク装置4に書き込む部分であり、書き込むか否かは、図3におけるテーブルT1のデータ出力の有無の欄に基づいて判断する。また、結果書込部72は、結果グループ化実行手段66によりグループ化された処理結果を、ハードディスク装置4に書き込む部分でもある。
In FIG. 1, the output means 7 is a part for outputting the result of image processing of the input frame image data VIDEO by the image processing module in the module execution means 63 and the grouped result. Part 72 is provided.
The result display unit 71 is a part for displaying the image processing result of the input frame image data VIDEO by the image processing module on the display 5, and whether or not to display it is a column of presence / absence of image output in the table T1 in FIG. Judgment based on.
The result writing unit 72 is a part that writes the image processing result of the input frame image data VIDEO by the image processing module into the hard disk device 4 as a single moving image file of continuous result frame image data of the same group. Is determined based on the data output presence / absence column of the table T1 in FIG. The result writing unit 72 is also a part for writing the processing results grouped by the result grouping execution unit 66 to the hard disk device 4.

書込手段8は、モジュール管理手段6で設定された画像処理モジュールの実行手順や結果グループ化条件設定手段65により設定された結果グループ化条件をハードディスク装置4に書き込む部分であり、結果グループ化条件書込手段81を備える。書込手段8は、操作者が画面G1の右下の書込ボタンG10をマウス等でクリックすることにより、図2に示される画面G1上で設定した画像処理モジュールの実行手順をテーブルT1としてハードディスク装置4に書き込む。或いは、書込手段8の結果グループ化条件書込手段81は、操作者が画面G1の右下の書込ボタンG10をマウス等でクリックすることにより、図3に示される結果グループ化条件設定画面G20上で設定した結果グループ化条件をハードディスク装置4に書き込む。
また書込手段8は、上記のように記憶手段としてのFIFOバッファー82を備え、過去の複数フレーム分の結果フレーム画像データに対する上記の演算結果とが蓄積され、結果グループ化実行手段66等により適宜参照されるように構成される。
The writing unit 8 is a part for writing the execution procedure of the image processing module set by the module management unit 6 and the result grouping condition set by the result grouping condition setting unit 65 to the hard disk device 4, and the result grouping condition Writing means 81 is provided. When the operator clicks the write button G10 at the lower right of the screen G1 with a mouse or the like, the writing means 8 uses the execution procedure of the image processing module set on the screen G1 shown in FIG. Write to device 4. Alternatively, the result grouping condition writing means 81 of the writing means 8 is a result grouping condition setting screen shown in FIG. 3 when the operator clicks the write button G10 at the lower right of the screen G1 with a mouse or the like. The result grouping condition set on G20 is written to the hard disk device 4.
The writing means 8 includes the FIFO buffer 82 as the storage means as described above, and the above calculation results for the result frame image data for a plurality of past frames are accumulated, and the result grouping execution means 66 and the like appropriately. Configured to be referenced.

次に、本実施形態の作用について説明する。
図5に、本実施形態におけるシミュレーション装置1の処理例のフローチャートを示す。例えば演算処理装置2は、メモリー3に記憶された図4に示す処理例に対応したプログラムを読み込み該プログラムに対応した処理を実行することで、図4に示す処理を行うことができる。この場合、演算処理装置2を構成する各手段の機能は、メモリー3から読み込んだプログラムを実行する演算処理装置2により実現される。
Next, the operation of this embodiment will be described.
FIG. 5 shows a flowchart of a processing example of the simulation apparatus 1 in the present embodiment. For example, the arithmetic processing unit 2 can perform the processing shown in FIG. 4 by reading a program corresponding to the processing example shown in FIG. 4 stored in the memory 3 and executing processing corresponding to the program. In this case, the function of each means constituting the arithmetic processing device 2 is realized by the arithmetic processing device 2 that executes the program read from the memory 3.

モジュール管理手段6は、起動すると、図2に示される画面G1をディスプレイ5上に表示させ、操作者に画像処理モジュールの選択と、選択した画像処理モジュールが実行する画像処理に適用されるパラメーターの選択とを促す。
操作者がマウス等でチェックボックスG2をクリックして実行する画像処理モジュールを選択すると、モジュール選択手段61は、テーブルT1の選択された画像処理モジュールの実行を「有」として、実行する画像処理モジュールの選択を行う(ステップS1)。
続いて、操作者がマウス等で読出ボタンG8をクリックして画像処理モジュール毎に画像処理に適用されるパラメーターが記録されているパラメーターファイルを選択すると、パラメーター選択手段64は、画像処理モジュール毎に、対応するパラメーターファイルの選択を行う(ステップS2)。パラメーター選択手段64は、画面G1において画像処理モジュール毎にパラメーターの選択を促し、パラメーターが設定されたパラメーターファイルを画像処理モジュール毎に操作者が選択すると、画像処理モジュール毎に選択したパラメーターを設定していく。
When activated, the module management means 6 displays the screen G1 shown in FIG. 2 on the display 5, and allows the operator to select an image processing module and parameters applied to image processing executed by the selected image processing module. Encourage selection.
When the operator selects an image processing module to be executed by clicking the check box G2 with a mouse or the like, the module selection unit 61 sets the execution of the selected image processing module in the table T1 as “present” and executes the image processing module. Is selected (step S1).
Subsequently, when the operator clicks the read button G8 with a mouse or the like and selects a parameter file in which parameters to be applied to image processing are recorded for each image processing module, the parameter selection means 64 selects each image processing module. The corresponding parameter file is selected (step S2). The parameter selection unit 64 prompts the user to select a parameter for each image processing module on the screen G1. When the operator selects a parameter file in which the parameter is set for each image processing module, the parameter selection unit 64 sets the selected parameter for each image processing module. To go.

次に、モジュール実行手順設定手段62は、矩形G4によって操作者が選択した画像処理モジュールについて実行手順変更ボタンG5、G6を押して変更した実行手順に従って、テーブルT1内の実行手順を変更し、選択した画像処理モジュールの実行手順を設定する(ステップS3)。
そして、モジュール実行手順設定手段62は、図2の画面G1上で操作者がマウス等をクリックして設定したボックスG3の状態に基づいて、テーブルT1の結果フレーム画像の出力の有無、及び結果フレーム画像データの出力の有無を設定する(ステップS4)。
なお、本実施形態では、モジュール実行手順設定手段62による実行手順の設定を先に、結果フレーム画像又は結果フレーム画像データの出力の有無の設定を後に行っていたが、これに限らず先に結果フレーム画像又は結果フレーム画像データの出力設定を先に行ってもよい。
Next, the module execution procedure setting means 62 changes and selects the execution procedure in the table T1 according to the execution procedure changed by pressing the execution procedure change buttons G5 and G6 for the image processing module selected by the operator using the rectangle G4. An execution procedure of the image processing module is set (step S3).
Then, the module execution procedure setting means 62 determines whether or not the result frame image of the table T1 is output and the result frame based on the state of the box G3 set by the operator clicking the mouse or the like on the screen G1 in FIG. Whether to output image data is set (step S4).
In the present embodiment, the execution procedure is set by the module execution procedure setting unit 62 first, and the setting of whether to output the result frame image or the result frame image data is performed later. The output setting of the frame image or result frame image data may be performed first.

以上のように画像処理モジュール及びこれに対応するパラメーターファイルの選択及び実行手順の設定が終了したら、書込手段8は、操作者が画面G1上の書込ボタンG10をクリックするか否かを監視し(ステップS5)、クリックされた画面G1上で設定されたテーブルT1をハードディスク装置4に書き込み記録保存する(ステップS6)。
なお、操作者による実行手順の書き込みは、本実施形態ではこのタイミングで行っているが、実際には、モジュール実行手段63によるすべての画像処理モジュールの実行処理後、又はモジュール実行手段63の実行中のいずれのタイミングでも可能とすることができる。
When the selection of the image processing module and the parameter file corresponding thereto and the setting of the execution procedure are completed as described above, the writing unit 8 monitors whether or not the operator clicks the writing button G10 on the screen G1. Then, the table T1 set on the clicked screen G1 is written and stored in the hard disk device 4 (step S6).
Although the execution procedure is written by the operator at this timing in the present embodiment, actually, after the execution processing of all the image processing modules by the module execution means 63 or during the execution of the module execution means 63 It can be made at any timing.

次に、結果グループ化条件設定手段65は、操作者が画面G1上の結果グループ化条件設定ボタンG9をクリックすることで開始される結果グループ化条件設定処理を行う(ステップS7)。
なお、操作者による結果グループ条件設定処理は、本実施形態ではこのタイミングで行っているが、実際には、モジュール実行手段63によるすべての画像処理モジュールの実行処理前、又はモジュール実行手段63の実行中のいずれのタイミングでも可能とすることができる。
Next, the result grouping condition setting unit 65 performs a result grouping condition setting process started when the operator clicks the result grouping condition setting button G9 on the screen G1 (step S7).
The result group condition setting process by the operator is performed at this timing in the present embodiment, but actually, before the execution of all the image processing modules by the module execution unit 63 or the execution of the module execution unit 63 It can be made at any timing.

図6に、本実施形態における結果グループ化条件設定処理の処理例のフローチャートを示す。例えば演算処理装置2は、メモリー3に記憶された図6に示す処理例に対応したプログラムを読み込み該プログラムに対応した処理を実行することで、図6に示す処理を行うことができる。図6の処理は、結果グループ化条件設定手段65により実行される。   FIG. 6 shows a flowchart of a processing example of the result grouping condition setting processing in the present embodiment. For example, the arithmetic processing unit 2 can perform the process shown in FIG. 6 by reading a program corresponding to the process example shown in FIG. 6 stored in the memory 3 and executing the process corresponding to the program. The process of FIG. 6 is executed by the result grouping condition setting unit 65.

結果グループ化条件設定手段65は、操作者が画面G1上の結果グループ化条件設定ボタンG9をクリックするか否かを監視し(ステップS20)、クリックされるとディスプレイ5上に図4に示される結果グループ化条件設定画面G20を表示させ、結果グループ化条件の設定を促す。   The result grouping condition setting means 65 monitors whether or not the operator clicks the result grouping condition setting button G9 on the screen G1 (step S20), and when clicked, the result grouping condition setting means 65 is shown on the display 5 in FIG. The result grouping condition setting screen G20 is displayed to prompt the user to set the result grouping condition.

結果グループ化条件設定手段65は、図4に示されるような結果グループ化条件設定画面G20において、操作者がラジオボタンG21〜G23やテキストフィールドG24〜G26で選択し、ボタンG27をクリックすることで、ラジオボタンG21〜G23及びテキストフィールドG24〜G26で設定した結果グループ化条件を設定する(ステップS21)。   The result grouping condition setting means 65 is selected by the operator using the radio buttons G21 to G23 and the text fields G24 to G26 on the result grouping condition setting screen G20 as shown in FIG. 4 and clicking the button G27. The result grouping conditions set by the radio buttons G21 to G23 and the text fields G24 to G26 are set (step S21).

以上のように結果グループ化条件の設定が終了したら、結果グループ化条件書込手段81は、操作者が画面G1上の書込ボタンG10又は図示しない専用の書込ボタンをクリックするか否かを監視し(ステップS22)、クリックされた結果グループ化条件設定画面G20上で設定された結果グループ化条件に対応する結果グループ化条件設定情報をハードディスク装置4に書き込み記録保存する(ステップS23)。   When the setting of the result grouping condition is completed as described above, the result grouping condition writing unit 81 determines whether or not the operator clicks the write button G10 on the screen G1 or a dedicated write button (not shown). The result grouping condition setting information corresponding to the result grouping condition set on the clicked result grouping condition setting screen G20 is written and stored in the hard disk device 4 (step S23).

次に、図5に示すように、モジュール実行手段63は、テーブルT1で設定された順番に従って選択された画像処理モジュールを実行する。
まず、モジュール実行手段63は、テーブルT1の第1行目の記載に基づいて、入力フレーム画像データVIDEOの読み込みを行う(ステップS8)。
続いて、モジュール実行手段63は、テーブルT1の第3行目(第2行目は実行せず)に記載されたパラメーターファイル名に基づいて、パラメーターを読み出し(ステップS9)、同行の画像処理モジュール名に基づいて、メモリー3内を検索して該当する画像処理モジュールを取得する(ステップS10)。
モジュール実行手段63は、検索した画像処理モジュールを実行し、入力フレーム画像データVIDEOに画像処理を施す(ステップS11)。
Next, as shown in FIG. 5, the module execution means 63 executes the image processing module selected according to the order set in the table T1.
First, the module execution means 63 reads the input frame image data VIDEO based on the description in the first row of the table T1 (step S8).
Subsequently, the module execution unit 63 reads out the parameters based on the parameter file name described in the third row (not executed in the second row) of the table T1 (step S9), and the image processing module in the same row. Based on the name, the corresponding image processing module is obtained by searching the memory 3 (step S10).
The module execution means 63 executes the searched image processing module and performs image processing on the input frame image data VIDEO (step S11).

画像処理モジュールによる画像処理が終了したら、出力手段7の結果表示部71は、当該画像処理モジュールのテーブルT1の結果画像出力の有無を判定し(ステップS12)、「有」が設定されていたら、ディスプレイ5上に画像処理の結果フレーム画像を表示する(ステップS13)。
また、出力手段7の結果書込部72は、同様に、テーブルT1のデータ出力の有無を判定し(ステップS14)、「有」に設定されていたら、結果フレーム画像データをハードディスク装置4に書き込み、記憶保存する(ステップS15)。
When the image processing by the image processing module is completed, the result display unit 71 of the output unit 7 determines whether or not the result image is output from the table T1 of the image processing module (step S12). A frame image is displayed on the display 5 as a result of image processing (step S13).
Similarly, the result writing unit 72 of the output means 7 determines whether or not the data of the table T1 is output (step S14), and if it is set to “present”, writes the result frame image data to the hard disk device 4. The memory is stored (step S15).

続いて、モジュール実行手段63による画像処理モジュールの実行が終了すると、結果グループ化実行手段66は、結果グループ化処理を行う(ステップS16)。
なお、操作者による結果グループ化処理は、本実施形態ではこのタイミングで行っているが、実際には、各画像処理モジュールの実行後であれば、結果表示処理中又は結果保存処理中のいずれのタイミングでも可能とすることができる。
Subsequently, when the execution of the image processing module by the module execution unit 63 is completed, the result grouping execution unit 66 performs a result grouping process (step S16).
Note that the result grouping process by the operator is performed at this timing in this embodiment. Actually, however, after the execution of each image processing module, either the result display process or the result storage process is performed. It can also be possible at timing.

図7に、本実施形態における結果グループ化処理の処理例のフローチャートを示す。例えば演算処理装置2は、メモリー3に記憶された図7に示す処理例に対応したプログラムを読み込み、該プログラムに対応した処理を実行することで図7に示す処理を行うことができる。図7の処理は、結果グループ化実行手段66により実行される。
図8(A)、図8(B)に、結果グループ化実行手段66により参照されるFIFOバッファー82の説明図を示す。
FIG. 7 shows a flowchart of a processing example of the result grouping processing in this embodiment. For example, the arithmetic processing device 2 can perform the processing shown in FIG. 7 by reading a program corresponding to the processing example shown in FIG. 7 stored in the memory 3 and executing processing corresponding to the program. The processing in FIG. 7 is executed by the result grouping execution means 66.
FIGS. 8A and 8B are explanatory diagrams of the FIFO buffer 82 referred to by the result grouping execution unit 66. FIG.

結果グループ化実行手段66は、モジュール実行手段63による画像処理モジュールの実行状況を監視しており、モジュール実行手段63による画像処理モジュールの実行が全画素について終了したか否かを判定する(ステップS30)。
モジュール実行手段63による画像処理モジュールの実行が全画素について終了していないとき(ステップS30:N)、結果グループ化実行手段66は、結果グループ化条件設定手段65により設定された結果グループ化条件のうち演算方法とその演算対象の指定画素の情報に従って、入力フレーム画像の画素値と結果フレーム画像の画素値に対して指定された演算を行う(ステップS31)。結果グループ化実行手段66は、入力フレーム画像の画素値と結果フレーム画像の画素値とを用いて、図4の結果グループ化条件設定画面G20上のラジオボタンG21、G22で指定されるように入力フレーム画像と結果フレーム画像との差分情報を公知の演算方法により求める。
The result grouping execution unit 66 monitors the execution status of the image processing module by the module execution unit 63, and determines whether or not the execution of the image processing module by the module execution unit 63 has been completed for all pixels (step S30). ).
When the execution of the image processing module by the module execution unit 63 has not been completed for all pixels (step S30: N), the result grouping execution unit 66 sets the result grouping condition set by the result grouping condition setting unit 65. In accordance with the calculation method and the information of the designated pixel to be computed, designated computation is performed on the pixel value of the input frame image and the pixel value of the result frame image (step S31). The result grouping execution means 66 uses the pixel values of the input frame image and the pixel values of the result frame image as input by the radio buttons G21 and G22 on the result grouping condition setting screen G20 of FIG. Difference information between the frame image and the result frame image is obtained by a known calculation method.

次に、結果グループ化実行手段66により求められた演算結果は、結果書込部72によりハードディスク装置4に書き込まれて保存され(ステップS32)、再び、結果グループ化実行手段66が、モジュール実行手段63による画像処理モジュールの実行状況の監視を継続する(ステップS30)。   Next, the calculation result obtained by the result grouping execution means 66 is written and stored in the hard disk device 4 by the result writing unit 72 (step S32), and the result grouping execution means 66 again returns to the module execution means. The monitoring of the execution status of the image processing module by 63 is continued (step S30).

モジュール実行手段63による画像処理モジュールの実行が全画素について終了したとき(ステップS30:Y)、結果グループ化実行手段66は、1フレーム分の指定演算の演算結果を指定された集計方法で集計した結果を算出する(ステップS33)。例えば、指定された集計方法が平均の場合には、各画素間での指定演算結果の合計値を1フレーム画像の全画素数で除算して求める。或いは、例えば、指定された集計方法が最大の場合には、各画素間での指定演算結果の最大値を抽出する。結果グループ化実行手段66は、このように求められた集計結果は、FIFOバッファー82に追加保存する(ステップS34)。   When the execution of the image processing module by the module execution unit 63 is completed for all pixels (step S30: Y), the result grouping execution unit 66 totals the calculation results of the specified calculation for one frame by the specified totaling method. The result is calculated (step S33). For example, when the designated counting method is an average, the total value of the designated calculation results between the pixels is obtained by dividing by the total number of pixels of one frame image. Alternatively, for example, when the designated aggregation method is the maximum, the maximum value of the designated calculation result between each pixel is extracted. The result grouping execution means 66 additionally stores the total results obtained in this way in the FIFO buffer 82 (step S34).

続いて、結果グループ化実行手段66は、FIFOバッファー82に保存された過去の1又は複数フレーム数分の集計結果を、指定された集計方法で更に平均値又は最大値を求め、過去フレーム分集計値をして求める(ステップS35)。例えば、当該フレームが第M(Mは自然数)のフレームとし、FIFOバッファー82がL(Lは2以上の整数)フレーム数分の集計結果を保存するものとすると、結果グループ化実行手段66は、例えば第Mのフレーム〜第(M−(L−1))フレームの集計結果を参照して、これらの平均値又は最大値を過去フレーム分集計値として求める。そして、結果グループ化実行手段66は、図4のテキストフィールドG24で指定された集計結果範囲で、「0」を基準に、ステップS35で求めた過去フレーム分集計値に基づいて当該フレームのグループ化を行う(ステップS36)。   Subsequently, the result grouping execution means 66 further calculates the average value or the maximum value for the past one or a plurality of frames stored in the FIFO buffer 82 by the designated counting method, and totals the past frames. A value is obtained (step S35). For example, if the frame is the Mth frame (M is a natural number), and the FIFO buffer 82 stores the aggregation results for the number of L frames (L is an integer of 2 or more), the result grouping execution unit 66 For example, with reference to the summation results of the Mth frame to the (M− (L−1)) th frame, the average value or the maximum value is obtained as the past frame summation value. Then, the result grouping execution unit 66 groups the frames based on the past frame total values obtained in step S35 with “0” as a reference within the total result range specified in the text field G24 of FIG. Is performed (step S36).

ステップS36によるグループ化の結果、前フレームと同じグループであるとき(ステップS37:Y)、結果グループ化実行手段66は、当該フレームの結果フレーム画像データを前のフレームと連結して動画ファイルとして追加保存して(ステップS40)、ステップS30に戻る。例えばシーンチェンジ後は、画像処理の結果が急変する可能性があり、別のグループに振り分けられる。或いは、突飛なノイズ等は、FIFOバッファー82を用いた集計により、考慮される同一グループに振り分けられるようにすることができる。なお、動画ファイルとして追加保存するのに加えて、グループ化の結果、振り分けられたグループ名と当該フレーム画像のフレーム番号等の識別情報を関連付けて保存することが望ましい。   When the result of grouping in step S36 is the same group as the previous frame (step S37: Y), the result grouping execution means 66 concatenates the result frame image data of the frame with the previous frame and adds it as a moving image file. Save (step S40) and return to step S30. For example, after a scene change, there is a possibility that the result of image processing may change suddenly, and the result is distributed to another group. Alternatively, sudden noise or the like can be distributed to the same group to be considered by counting using the FIFO buffer 82. In addition to additionally storing as a moving image file, it is desirable to store the group name that has been distributed as a result of grouping in association with identification information such as the frame number of the frame image.

ステップS37において、ステップS36によるグループ化の結果、前フレームと同じグループではないとき(ステップS37:N)、結果グループ化実行手段66は、新規に当該フレームの結果フレーム画像が振り分けられたグループの動画ファイルを作成し(ステップS38)、FIFOバッファー82の記憶内容をクリアし(ステップS39)、当該フレームの結果フレーム画像データを新規作成した動画ファイルに保存し(ステップS40)、ステップS30に戻る。なお、ステップS38では、図4のテキストフィールドG26で指定された直近の残像フレーム数分の記憶内容を残して、残りのフレームの集計結果をFIFOバッファー82からクリアする。例えば、図8(B)に示すように、当該フレームが第Mのフレーム、残像フレーム数分として「3」が指定されているとすると、ステップS38では、第(M−1)のフレーム〜第(M−3)のフレームの集計結果を残して、残りのフレームの集計結果がFIFOバッファー82からクリアされる。   In step S37, if the result of grouping in step S36 is not the same group as the previous frame (step S37: N), the result grouping execution unit 66 newly moves the moving image of the group to which the result frame image of the frame has been assigned. A file is created (step S38), the contents stored in the FIFO buffer 82 are cleared (step S39), the resulting frame image data of the frame is stored in a newly created moving image file (step S40), and the process returns to step S30. In step S38, the storage contents corresponding to the number of the most recent afterimage frames specified in the text field G26 in FIG. 4 are left, and the totaled result of the remaining frames is cleared from the FIFO buffer 82. For example, as shown in FIG. 8B, if “3” is designated as the Mth frame and the number of afterimage frames, as shown in FIG. 8B, in step S38, the (M−1) th frame to the The counting result of the remaining frames is cleared from the FIFO buffer 82, leaving the counting result of the frame (M-3).

ところで、結果グループ化実行手段66により実行される結果グループ化処理としては、一連の画像処理結果を、予め設けられた複数のグループのうちのいずれかに振り分けて保存させたりしてもよいし、単に、フレーム番号と振り分け先のグループとを関連付けて保存するようにしてもよい。   By the way, as a result grouping process executed by the result grouping execution means 66, a series of image processing results may be distributed and stored in any of a plurality of groups provided in advance. Simply, the frame number and the group to be assigned to may be stored in association with each other.

以降、図5に示すように、モジュール実行手段63は、次に実行すべき画像処理モジュールがあるか否かをテーブルT1から判定し(ステップS17)、あればステップS9からを繰り返し、モジュール実行手段63は、次の入力フレーム画像があるか否かを判定し(ステップS18)、あればステップS8からの処理を繰り返し、なければシミュレーションを終了する(エンド)。   Thereafter, as shown in FIG. 5, the module execution means 63 determines from the table T1 whether there is an image processing module to be executed next (step S17). If there is, the module execution means 63 repeats from step S9. 63 determines whether or not there is a next input frame image (step S18), and if so, repeats the processing from step S8, and if not, ends the simulation (end).

以上のように、結果グループ化実行手段66は、当該フレームのフレーム画像に対して画像処理が行われた現フレーム処理後画像データに対する所与の演算結果と、FIFOバッファー82に記憶される当該フレームより過去の1又は複数の過去フレーム画像に対する過去フレーム処理後画像データに対する所与の演算結果とを用いて、現フレーム処理後画像データに対してグループ化を実行することができる。
また、結果グループ化実行手段66は、現フレーム処理後画像データを、FIFOバッファー82に記憶される過去フレーム処理後画像データが振り分けられたグループと異なるグループに振り分けるとき、FIFOバッファー82の少なくとも一部の記憶内容をクリアする。これにより、目の残像による影響を考慮したシミュレーションを可能となる。
As described above, the result grouping execution unit 66 performs the given operation result on the current frame processed image data obtained by performing the image processing on the frame image of the frame, and the frame stored in the FIFO buffer 82. Grouping can be performed on the current frame processed image data using a given calculation result on the past frame processed image data for one or more past frame images.
When the result grouping execution means 66 distributes the current frame processed image data to a group different from the group to which the past frame processed image data stored in the FIFO buffer 82 is allocated, at least a part of the FIFO buffer 82 Clear the stored contents of. As a result, it is possible to perform a simulation in consideration of the influence of the afterimage of the eyes.

ここで、本実施形態の動作例について説明する。   Here, an operation example of the present embodiment will be described.

図9(A)〜図9(E)に、パラメーターファイルの一例を示す。図9(A)〜図9(E)は、画像処理モジュールが色変換処理(画像処理)を行う場合に、RGBのうちR成分の色変換処理に適用されるパラメーターファイルの一例を模式的に表す。
図10(A)〜図10(C)に、図9(A)〜図9(E)のパラメーターの説明図を示す。図10(A)は、図9(A)のパラメーターの説明図を表し、図10(B)は、図9(D)のパラメーターの説明図を表し、図10(C)は、図9(E)のパラメーターの説明図を表す。
図11に、本実施形態の動作例の説明図を示す。
FIG. 9A to FIG. 9E show examples of parameter files. 9A to 9E schematically illustrate an example of a parameter file applied to R component color conversion processing of RGB when the image processing module performs color conversion processing (image processing). To express.
10 (A) to 10 (C) are explanatory diagrams of the parameters of FIGS. 9 (A) to 9 (E). FIG. 10A shows an explanatory diagram of the parameters in FIG. 9A, FIG. 10B shows an explanatory diagram of the parameters in FIG. 9D, and FIG. 10C shows the parameters in FIG. The explanatory view of the parameter of E) is represented.
FIG. 11 is an explanatory diagram of an operation example of this embodiment.

図9(A)〜図9(E)のそれぞれには、R成分の画素値xに対する補正量yが離散的に設定され、画像処理モジュールは、設定されない画素値に対しては、公知の補間処理によって補正量を求めることができるようになっている。従って、例えば図10(A)〜図10(C)は、補正前後の画素値が等しくなる基準線P1〜P3を基準にすると、それぞれ異なる色変換処理を行う。   In each of FIGS. 9A to 9E, the correction amount y for the pixel value x of the R component is set discretely, and the image processing module performs known interpolation for the pixel value that is not set. The correction amount can be obtained by processing. Therefore, for example, FIGS. 10A to 10C perform different color conversion processes based on the reference lines P1 to P3 where the pixel values before and after correction are equal.

本実施形態では、例えば動画像を構成する複数のフレーム画像IMGin〜IMGin・・・の各フレーム画像毎に、前述の色変換処理を含む1又は複数の画像処理の実行順序を変更しながら、各画像処理のパラメーターを複数の種類設定することで、複数の結果フレーム画像が得られる。そして、図11に示すように、結果フレーム画像毎に対応する入力フレーム画像との差分情報を演算して数値化し、演算結果をグループ化して、例えば画像処理結果が異なる結果フレーム画像IMGO〜IMGO・・・をそれぞれ別のグループにグループ化することで、目視による画像処理結果の効果の定性的及び定量的な評価を容易化できるようになる。 In the present embodiment, for example, for each frame image of a plurality of frame images IMGin 1 to IMGin 6 ... Constituting a moving image, the execution order of one or a plurality of image processes including the color conversion process is changed. A plurality of result frame images can be obtained by setting a plurality of types of parameters for each image processing. Then, as shown in FIG. 11, difference information with the corresponding input frame image for each result frame image is calculated and digitized, and the calculation results are grouped, for example, result frame images IMGO 1 to IMGO having different image processing results. By grouping 6 ... Into different groups, qualitative and quantitative evaluation of the effect of visual image processing results can be facilitated.

このようにして、それぞれが適用されるパラメーターを異ならせることが可能な画像処理モジュールの組み合わせを種々シミュレーションして、最適な画像処理結果となるような画像処理モジュールの選択、及び実行手順を求め、部分画像処理回路を実装する画像処理回路の設計を行う。
具体的には、画像処理モジュールの実行手順と同じような画像処理手順となるように、画像処理回路における部分画像処理回路に実装レイアウトを設計すればよい。
In this way, various combinations of image processing modules capable of varying the parameters to which they are applied are simulated, and the selection of the image processing module and the execution procedure so as to obtain an optimal image processing result are obtained. Designing an image processing circuit for mounting a partial image processing circuit.
Specifically, the mounting layout may be designed in the partial image processing circuit in the image processing circuit so that the image processing procedure is similar to the execution procedure of the image processing module.

なお、画像処理による画質の劣化は、局所的に生じるものばかりではなく、フレーム画像の画面全体に生じる色ムラや、高解像度から低解像度への変換時に生じるジャギーやブロックノイズ、画面全体のぼやけとして現れることがあり、これらの画質劣化は、目視の比較により評価することができる。   Note that image quality degradation due to image processing is not only locally caused, but also color irregularities that occur on the entire screen of the frame image, jaggies and block noise that occur when converting from high resolution to low resolution, and blur on the entire screen. These image quality degradations can be evaluated by visual comparison.

また、画像処理モジュールの組み合わせを、画面G1上で操作者が自由に設定できるため、多数ある画像処理モジュールの選択と、画像処理の順番を簡単に変更してシミュレーションを行うことができるため、最適な画像処理モジュールの組み合わせを容易にかつ短時間で見出しやすくなる。
さらに、結果書込部72がハードディスク装置4に結果画像データを書き込むことが可能となっているため、入力フレーム画像データVIDEOとの比較評価を、コンピューター上で公知の評価ソフトウェアを実行することにより、行うことも可能である。比較評価の方法としては、例えば、各画素の輝度、色ムラ等を数値化して対比し、統計的処理を行って一定の閾値を超えるような変化をしていれば、画質劣化とみなし、それを超えなければ画質劣化はないと判定するような方法を採用することができる。
In addition, since the operator can freely set the combination of image processing modules on the screen G1, the simulation can be performed by easily changing the selection of image processing modules and the order of image processing. It is easy to find a combination of various image processing modules easily and in a short time.
Further, since the result writing unit 72 can write the result image data to the hard disk device 4, a comparative evaluation with the input frame image data VIDEO is performed on a computer by executing a known evaluation software. It is also possible to do this. As a comparative evaluation method, for example, if the luminance, color unevenness, etc. of each pixel are converted into numerical values and compared, and statistical processing is performed and the change exceeds a certain threshold, it is regarded as image quality deterioration. A method that determines that there is no deterioration in image quality can be employed unless the value exceeds.

なお、本実施形態における画像処理モジュールが実行する画像処理として、例えばフレーム画像の画面全体に一律にガンマ曲線を異ならせる色変換処理を例に説明したが、本発明はこれに限定されるものではない。例えば、画像処理モジュールが実行する画像処理として、フレーム画像の画面を分割した領域毎にガンマ曲線を異ならせる色ムラ補正処理を採用し、光学系の色ムラを補正する目標画像を入力フレーム画像とし、結果フレーム画像のサンプリング画素間のΔEuvの最大値が小さくなるようなパラメーターの組み合わせを求め、色ムラ補正の効果が得られる画像処理モジュールの組み合わせを見つけるようにしてもよい。
或いは、例えば、画像処理モジュールが実行する画像処理として、3次元ルックアップテーブル変換処理を採用し、グラデーション画像の入力フレーム画像に対して結果フレーム画像の各画素のエッジ値を求め、その最大値が小さくなるようなパラメーターの組み合わせを求め、コントラスト強調やエッジ強調の際に擬似輪郭の発生を低減できる画像処理モジュールの組み合わせを見つけるようにしてもよい。
Note that, as the image processing executed by the image processing module in the present embodiment, for example, color conversion processing for uniformly varying the gamma curve over the entire frame image screen has been described as an example, but the present invention is not limited to this. Absent. For example, as the image processing executed by the image processing module, color unevenness correction processing that varies the gamma curve for each divided area of the frame image screen is adopted, and the target image for correcting the color unevenness of the optical system is set as the input frame image. Then, a combination of parameters such that the maximum value of ΔEuv between the sampling pixels of the result frame image becomes small may be obtained, and a combination of image processing modules that can obtain the effect of color unevenness correction may be found.
Alternatively, for example, as an image process executed by the image processing module, a three-dimensional lookup table conversion process is adopted, and an edge value of each pixel of the result frame image is obtained for the input frame image of the gradation image, and the maximum value is A combination of parameters that can be reduced may be obtained, and a combination of image processing modules that can reduce the occurrence of pseudo contours during contrast enhancement or edge enhancement may be found.

なお、本実施形態では、結果グループ化条件の設定処理を、図4に示すように、元の入力フレーム画像データと該入力フレーム画像データに対して画像処理モジュールによる画像処理が行われた結果フレーム画像データとの差分情報を演算する演算方法、この差分情報の演算対象となる画素の指定方法、上記の差分情報の集計方法、及び上記の差分情報をグループ化する範囲の指定方法を例に説明したが、本発明はこれに限定されるものではない。例えば、元の入力フレーム画像データと結果フレーム画像データとの差分情報を演算する演算方法、この差分情報の演算対象となる画素の指定方法、上記の差分情報の集計方法、及び上記の差分情報をグループ化する範囲の指定方法うち、少なくとも1つを、結果グループ化条件の設定処理において設定するようにしてもよい。   In the present embodiment, the result grouping condition setting process includes the original input frame image data and a result frame obtained by performing image processing by the image processing module on the input frame image data as shown in FIG. An example of a calculation method for calculating difference information with image data, a method for specifying a pixel that is a calculation target of the difference information, a method for counting the difference information, and a method for specifying a range for grouping the difference information will be described. However, the present invention is not limited to this. For example, a calculation method for calculating the difference information between the original input frame image data and the result frame image data, a method for specifying a pixel that is the calculation target of the difference information, a method for counting the difference information, and the difference information At least one of the grouping range designation methods may be set in the result grouping condition setting process.

また、本実施形態では、差分情報を演算する演算方法として、差分情報の演算対象となる画素間の明度の差分、画素間の彩度及び色相の差分、画素間の色差、及び入力フレーム画像データと画像処理後のフレーム画像データとに基づくエッジ値の差分を例に説明したが、本発明はこれに限定されるものではない。差分情報を演算する演算方法として、例えば差分情報の演算対象となる画素間の明度の差分、画素間の彩度及び色相の差分、画素間の色差、及び入力フレーム画像データと画像処理後のフレーム画像データとに基づくエッジ値の差分の少なくとも1つを含んでいればよい。   Further, in the present embodiment, as a calculation method for calculating difference information, a difference in brightness between pixels that is a calculation target of difference information, a difference in saturation and hue between pixels, a color difference between pixels, and input frame image data The difference between the edge values based on the image and the frame image data after image processing has been described as an example, but the present invention is not limited to this. As a calculation method for calculating the difference information, for example, a difference in brightness between pixels for which difference information is calculated, a difference in saturation and hue between pixels, a color difference between pixels, and input frame image data and a frame after image processing It suffices to include at least one of edge value differences based on image data.

また、本実施形態では、現フレーム処理後画像データを、FIFOバッファー82に記憶される過去フレーム処理後画像データが振り分けられたグループと異なるグループに振り分けるとき、現フレーム処理後画像データに対する演算結果と、FIFOバッファー82に記憶される少なくとも1フレーム分の過去フレーム処理後画像データに対する演算結果とを用いて、現フレーム処理後画像データに対してグループ化を実行するようにしてもよい。
さらに、本実施形態では、FIFOバッファー82を書込手段8に内蔵させているモノとして説明したが、本発明はこれに限定されるものではなく、FIFOバッファー82が書込手段8の外部に設けられていてもよい。
さらにまた、本実施形態では、FIFOバッファー82を用いて複数の過去フレームの指定演算結果を参照して、当該フレームの指定演算結果に基づきグループ化を行っていたが、本発明はこれに限定されるものではない。例えば、直前のフレームの指定演算結果のみを参照して当該フレームの指定演算結果に基づきグループ化を行ってもよい。この場合、シーンチェンジを抽出できたり、意図しない画像処理後の画像変化を抽出できるようになる。なお、直前のフレームの指定演算結果のみを参照して当該フレームの指定演算結果に基づくグループ化は、上記のFIFOバッファー82を用いて複数の過去フレームの指定演算結果を参照した当該フレームの指定演算結果に基づくグループ化に代えて、或いは上記のFIFOバッファー82を用いて複数の過去フレームの指定演算結果を参照した当該フレームの指定演算結果に基づくグループ化と同時に行ってもよい。
In this embodiment, when the current frame processed image data is allocated to a group different from the group to which the past frame processed image data stored in the FIFO buffer 82 is allocated, The grouping may be executed on the current frame processed image data using the calculation result for the past frame processed image data for at least one frame stored in the FIFO buffer 82.
Furthermore, in the present embodiment, the description has been given assuming that the FIFO buffer 82 is built in the writing unit 8, but the present invention is not limited to this, and the FIFO buffer 82 is provided outside the writing unit 8. It may be done.
Furthermore, in this embodiment, the FIFO buffer 82 is used to refer to the specified calculation results of a plurality of past frames, and grouping is performed based on the specified calculation results of the frames. However, the present invention is not limited to this. It is not something. For example, the grouping may be performed based on the specified calculation result of the frame by referring to only the specified calculation result of the immediately preceding frame. In this case, a scene change can be extracted, or an unintended image change after image processing can be extracted. Note that grouping based on the specified calculation result of the frame by referring only to the specified calculation result of the immediately preceding frame is performed by using the FIFO buffer 82 to specify the specified calculation of the frame by referring to the specified calculation results of a plurality of past frames. Instead of grouping based on the result, or using the above-described FIFO buffer 82, it may be performed simultaneously with grouping based on the specified calculation result of the frame by referring to the specified calculation result of a plurality of past frames.

以上説明したように、本実施形態によれば、画像処理の順序を簡単に変更して複数の画像処理の組み合わせを簡単にシミュレーションできるようにしたので、所望の画像処理結果が得られる画像処理モジュールの選択、及び実行手順を容易に見つけることができ、これに対応した画像処理回路の提供ができるようになる。その結果、エラー検証時間を短縮化でき、画像処理回路の製造コストの削減が可能となる。
また、画像処理回路を構成する部分画像処理回路の種類が増えたとしても、それぞれの実行順序や最適なパラメーターの選択が、確実、かつ、容易に行うことができ、これらのパラメーターの組み合わせに依存して露見するエラーの検証も容易化できる。なお、画素数が増大したとしても、画像処理の実行順序や最適なパラメーターの選択が、確実、かつ、容易にできることには変わりない。
As described above, according to the present embodiment, the image processing order can be easily obtained by easily changing the order of image processing and easily simulating a combination of a plurality of image processing. The selection and execution procedure can be easily found, and an image processing circuit corresponding to this can be provided. As a result, the error verification time can be shortened and the manufacturing cost of the image processing circuit can be reduced.
In addition, even if the types of partial image processing circuits that make up the image processing circuit increase, the execution order of each and the selection of optimal parameters can be performed reliably and easily, depending on the combination of these parameters. This makes it easier to verify errors that are revealed. Note that even if the number of pixels increases, the execution order of image processing and the selection of the optimum parameters are still reliable and easy.

さらに、一連の画像処理後の結果フレーム画像をグループ化することにより、目視による効果の定性的及び定量的な評価が容易となり、結果フレーム画像の検証をより効率化できるようになる。
また、一連の画像処理の追加及び削除、各画像処理に適用されるパラメーターの変更があったとしても上記の評価が容易となり、拡張性に富む画像処理の評価が可能となる。
さらに、多種多様なフレーム画像に対して画像処理を行い、その画像処理結果をグループ化することで、各画像処理に適用されるパラメーターの変更による効果を、容易に把握できるという効果が得られる。
さらに、映像によっては、ディスプレイの特性に合わせて、フレーム毎に画素を明滅させたり、色を変えたりする等、目では捉えきれない連続フレームゆえの効果のための処理をしている場合がある。本実施形態では、FIFOバッファー82を用いて過去のフレームの処理結果の集計値を参照するようにしたので、目に捉えられないフレーム毎の影響を抑えたり、残像等の目で捉えられる連続したフレーム効果をシミュレートしたりすることができる。
Furthermore, by grouping the result frame images after a series of image processing, qualitative and quantitative evaluation of visual effects can be facilitated, and verification of the result frame images can be made more efficient.
In addition, even if a series of image processing is added and deleted, and a parameter applied to each image processing is changed, the above evaluation becomes easy, and an image processing with high expandability can be evaluated.
Furthermore, by performing image processing on a wide variety of frame images and grouping the image processing results, it is possible to easily grasp the effect of changing the parameters applied to each image processing.
In addition, depending on the video, processing for effects due to continuous frames that cannot be detected by the eyes, such as blinking pixels or changing colors for each frame, may be performed according to the characteristics of the display. . In this embodiment, since the FIFO buffer 82 is used to refer to the aggregate value of the processing results of the past frames, it is possible to suppress the influence of each frame that cannot be recognized by the eyes, or to be continuously captured by the eyes such as afterimages. Frame effects can be simulated.

1…シミュレーション装置、 2…演算処理装置、 3…メモリー、
4…ハードディスク装置、 5…ディスプレイ、 6…モジュール管理手段、
7…出力手段、 8…書込手段、 61…モジュール選択手段、
62…モジュール実行手順設定手段、 63…モジュール実行手段、
64…パラメーター選択手段、 65…結果グループ化条件設定手段、
66…結果グループ化実行手段、 71…結果表示部、 72…結果書込部、
81…結果グループ化条件書込手段、 82…FIFOバッファー、
B1,B2,G24〜G26…テキストフィールド、 G1…画面、
G2…チェックボックス、 G3,G27,G28…ボタン、 G4…矩形、
G5,G6…実行手順変更ボタン、 G7…実行ボタン、 G8…読出ボタン、
G9…結果グループ化条件設定ボタン、 G10…書込ボタン、
G20…結果グループ化条件設定画面、 G21,G22,G23…ラジオボタン、
P1〜P3…基準線、 T1…テーブル、 VIDEO…入力フレーム画像データ
DESCRIPTION OF SYMBOLS 1 ... Simulation apparatus, 2 ... Arithmetic processing apparatus, 3 ... Memory,
4 ... Hard disk device, 5 ... Display, 6 ... Module management means,
7 ... output means, 8 ... writing means, 61 ... module selection means,
62 ... Module execution procedure setting means, 63 ... Module execution means,
64 ... parameter selection means, 65 ... result grouping condition setting means,
66 ... result grouping execution means, 71 ... result display section, 72 ... result writing section,
81 ... Result grouping condition writing means, 82 ... FIFO buffer,
B1, B2, G24 to G26 ... text field, G1 ... screen,
G2 ... check box, G3, G27, G28 ... button, G4 ... rectangle,
G5, G6 ... execution procedure change button, G7 ... execution button, G8 ... read button,
G9 ... Result grouping condition setting button, G10 ... Write button,
G20 ... Result grouping condition setting screen, G21, G22, G23 ... Radio buttons,
P1 to P3 ... reference line, T1 ... table, VIDEO ... input frame image data

Claims (12)

複数のフレーム画像により構成される動画像に対して画像処理を行う画像処理回路の動作をシミュレーションする画像処理回路のシミュレーション装置であって、
前記画像処理回路に対応する機能を具備する画像処理モジュールと、
前記画像処理モジュールを実行し、各フレーム画像に対して前記画像処理を行うモジュール実行手段と、
前記モジュール実行手段で実行された画像処理モジュールによる前記画像処理が行われた画像データに対してグループ化を実行する結果グループ化実行手段と、
当該フレームより前の1又は複数のフレームの各フレーム画像に対して前記画像処理が行われた過去フレーム処理後画像データに対する所与の演算結果を記憶する記憶手段とを含み、
前記結果グループ化実行手段は、
前記当該フレームのフレーム画像に対して前記画像処理が行われた現フレーム処理後画像データに対する所与の演算結果と、前記記憶手段に記憶される前記過去フレーム処理後画像データに対する前記演算結果とを用いて、前記現フレーム処理後画像データに対してグループ化を実行することを特徴とする画像処理回路のシミュレーション装置。
A simulation apparatus for an image processing circuit for simulating the operation of an image processing circuit that performs image processing on a moving image composed of a plurality of frame images,
An image processing module having a function corresponding to the image processing circuit;
Module execution means for executing the image processing module and performing the image processing on each frame image;
A result grouping execution unit that executes grouping on the image data on which the image processing by the image processing module executed by the module execution unit is performed;
Storage means for storing a given calculation result for image data after past frame processing in which the image processing is performed on each frame image of one or a plurality of frames before the frame,
The result grouping execution means includes:
A given computation result for the current frame processed image data obtained by performing the image processing on the frame image of the frame, and the computation result for the past frame processed image data stored in the storage unit. A simulation apparatus for an image processing circuit, wherein the grouping is performed on the image data after the current frame processing.
請求項1において、
前記結果グループ化実行手段は、
前記現フレーム処理後画像データを、前記記憶手段に記憶される前記過去フレーム処理後画像データが振り分けられたグループと異なるグループに振り分けるとき、前記記憶手段の少なくとも一部の記憶内容をクリアすることを特徴とする画像処理回路のシミュレーション装置。
In claim 1,
The result grouping execution means includes:
When the image data after the current frame processing is distributed to a group different from the group to which the image data after the past frame processing stored in the storage means is allocated, at least a part of the storage contents of the storage means is cleared. A characteristic image processing circuit simulation apparatus.
請求項1において、
前記結果グループ化実行手段は、
前記現フレーム処理後画像データを、前記記憶手段に記憶される前記過去フレーム処理後画像データが振り分けられたグループと異なるグループに振り分けるとき、前記現フレーム処理後画像データに対する前記演算結果と、前記記憶手段に記憶される少なくとも1フレーム分の前記過去フレーム処理後画像データに対する前記演算結果とを用いて、前記現フレーム処理後画像データに対してグループ化を実行することを特徴とする画像処理回路のシミュレーション装置。
In claim 1,
The result grouping execution means includes:
When the current frame processed image data is distributed to a group different from the group to which the past frame processed image data stored in the storage means is distributed, the calculation result for the current frame processed image data and the storage A grouping is performed on the image data after the current frame processing using the calculation result for the image data after the past frame processing for at least one frame stored in the means. Simulation device.
請求項1乃至3のいずれかにおいて、
前記結果グループ化実行手段は、
入力フレーム画像データと該入力フレーム画像データに対して前記画像処理モジュールによる画像処理が行われた処理後画像データとの差分情報に基づいて前記グループ化を実行することを特徴とする画像処理回路のシミュレーション装置。
In any one of Claims 1 thru | or 3,
The result grouping execution means includes:
An image processing circuit that performs the grouping based on difference information between input frame image data and processed image data obtained by performing image processing on the input frame image data by the image processing module. Simulation device.
請求項1乃至4のいずれかにおいて、
前記画像処理モジュールの画像処理結果のグループ化条件を設定する結果グループ化条件設定手段を含み、
前記結果グループ化実行手段は、
前記結果グループ化条件設定手段によって設定された前記グループ化条件に基づいて、入力フレーム画像の画像処理後の画像データ毎にグループ化を実行することを特徴とする画像処理回路のシミュレーション装置。
In any one of Claims 1 thru | or 4,
A result grouping condition setting means for setting a grouping condition for image processing results of the image processing module;
The result grouping execution means includes:
An apparatus for simulating an image processing circuit, wherein grouping is executed for each image data after image processing of an input frame image based on the grouping condition set by the result grouping condition setting means.
請求項1乃至5のいずれかにおいて、
前記記憶手段に記憶される前記過去フレーム処理後画像データに対する前記演算結果のフレーム数は、設定可能に構成されていることを特徴とする画像処理回路のシミュレーション装置。
In any one of Claims 1 thru | or 5,
The simulation apparatus for an image processing circuit, wherein the number of frames of the calculation result for the image data after past frame processing stored in the storage means can be set.
請求項1乃至6のいずれかにおいて、
前記画像処理回路を構成する複数の部分画像処理回路のそれぞれに対応する機能を具備する複数の画像処理モジュールと、
前記複数の画像処理モジュールのうち、実行する画像処理モジュールを選択するモジュール選択手段とを含み、
前記モジュール実行手段が、
前記モジュール選択手段で選択された画像処理モジュールを順次実行し、入力されるフレーム画像の画像データの画像処理を行い、
前記結果グループ化実行手段が、
前記モジュール実行手段で実行された複数の画像処理モジュールによる画像処理が行われた画像データに対してグループ化を実行することを特徴とする画像処理回路のシミュレーション装置。
In any one of Claims 1 thru | or 6.
A plurality of image processing modules each having a function corresponding to each of a plurality of partial image processing circuits constituting the image processing circuit;
Module selection means for selecting an image processing module to be executed from among the plurality of image processing modules;
The module execution means
The image processing modules selected by the module selection means are sequentially executed, and image processing of input frame image data is performed.
The result grouping execution means
A simulation apparatus for an image processing circuit, wherein grouping is performed on image data on which image processing has been performed by a plurality of image processing modules executed by the module execution means.
請求項7において、
前記モジュール選択手段で選択された画像処理モジュールの実行手順を設定するモジュール実行手順設定手段を含み、
前記モジュール実行手段が、
前記モジュール実行手順設定手段で設定された実行手順に従って、前記モジュール選択手段で選択された画像処理モジュールを順次実行し、入力フレーム画像の画像データの画像処理を行うことを特徴とする画像処理回路のシミュレーション装置。
In claim 7,
Module execution procedure setting means for setting the execution procedure of the image processing module selected by the module selection means;
The module execution means
An image processing circuit comprising: sequentially executing the image processing modules selected by the module selection unit according to an execution procedure set by the module execution procedure setting unit; and performing image processing of image data of an input frame image. Simulation device.
請求項7又は8において、
前記複数の画像処理モジュールは、少なくとも、解像度変換モジュール、色変換モジュール、及びガンマ特性変換モジュールを含むことを特徴とする画像処理回路のシミュレーション装置。
In claim 7 or 8,
The image processing circuit simulation apparatus, wherein the plurality of image processing modules include at least a resolution conversion module, a color conversion module, and a gamma characteristic conversion module.
複数のフレーム画像により構成される動画像に対して画像処理を行う画像処理回路の動作をシミュレーションする画像処理回路のシミュレーション方法であって、
前記画像処理回路に対応する機能を具備する画像処理モジュールを実行し、各フレーム画像に対して前記画像処理を行うモジュール実行ステップと、
前記モジュール実行ステップにおいて実行された画像処理モジュールによる前記画像処理が行われた各フレーム画像の画像データに対してグループ化を実行する結果グループ化実行ステップとを含み、
前記結果グループ化実行ステップは、
前記当該フレームのフレーム画像に対して前記画像処理が行われた現フレーム処理後画像データに対する所与の演算結果と、前記記憶手段に記憶される前記過去フレーム処理後画像データに対する前記演算結果とを用いて、前記現フレーム処理後画像データに対してグループ化を実行することを特徴とする画像処理回路のシミュレーション方法。
An image processing circuit simulation method for simulating the operation of an image processing circuit that performs image processing on a moving image composed of a plurality of frame images,
A module execution step of executing an image processing module having a function corresponding to the image processing circuit and performing the image processing on each frame image;
A result grouping execution step of performing grouping on image data of each frame image subjected to the image processing by the image processing module executed in the module execution step;
The result grouping execution step includes:
A given computation result for the current frame processed image data obtained by performing the image processing on the frame image of the frame, and the computation result for the past frame processed image data stored in the storage unit. And a method of performing a grouping on the image data after the current frame processing.
画像処理回路の設計方法であって、
請求項10記載の画像処理回路のシミュレーション方法を実施して、画像処理モジュールの組み合わせを求めた後、
前記画像処理回路における部分画像処理回路の組み合わせを決定することを特徴とする画像処理回路の設計方法。
An image processing circuit design method comprising:
After carrying out the image processing circuit simulation method according to claim 10 to obtain a combination of image processing modules,
A design method of an image processing circuit, wherein a combination of partial image processing circuits in the image processing circuit is determined.
請求項10記載の画像処理回路のシミュレーション方法を、コンピューターに実行させることを特徴とする画像処理回路のシミュレーションプログラム。   An image processing circuit simulation program for causing a computer to execute the image processing circuit simulation method according to claim 10.
JP2009183137A 2009-08-06 2009-08-06 Apparatus and method for simulating image processing circuit, method of designing image processing circuit, and simulation program for image processing circuit Withdrawn JP2011035873A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009183137A JP2011035873A (en) 2009-08-06 2009-08-06 Apparatus and method for simulating image processing circuit, method of designing image processing circuit, and simulation program for image processing circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009183137A JP2011035873A (en) 2009-08-06 2009-08-06 Apparatus and method for simulating image processing circuit, method of designing image processing circuit, and simulation program for image processing circuit

Publications (1)

Publication Number Publication Date
JP2011035873A true JP2011035873A (en) 2011-02-17

Family

ID=43764440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009183137A Withdrawn JP2011035873A (en) 2009-08-06 2009-08-06 Apparatus and method for simulating image processing circuit, method of designing image processing circuit, and simulation program for image processing circuit

Country Status (1)

Country Link
JP (1) JP2011035873A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103067684A (en) * 2011-10-18 2013-04-24 株式会社东芝 Video reproduction apparatus and video reproduction method
JP2013093858A (en) * 2012-11-21 2013-05-16 Toshiba Corp Video reproduction device and video reproduction method
JP2018082290A (en) * 2016-11-15 2018-05-24 株式会社東芝 Preview system, preview method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103067684A (en) * 2011-10-18 2013-04-24 株式会社东芝 Video reproduction apparatus and video reproduction method
JP2013093858A (en) * 2012-11-21 2013-05-16 Toshiba Corp Video reproduction device and video reproduction method
JP2018082290A (en) * 2016-11-15 2018-05-24 株式会社東芝 Preview system, preview method, and program

Similar Documents

Publication Publication Date Title
JP5672848B2 (en) How to adjust the displayed image
US7936357B2 (en) Image display device, method of generating correction value of image display device, program for generating correction value of image display device, and recording medium recording program thereon
US20070103483A1 (en) Adaptive alpha blending
JP2009038498A5 (en)
US20110052047A1 (en) System and method for generating an intrinsic image using tone mapping and log chromaticity
JP2010016804A5 (en)
JP6408472B2 (en) Real-time image processing to optimize sub-image views
JP2006091980A5 (en)
CN101360250A (en) Immersion method and system, factor dominating method, content analysis method and scaling parameter prediction method
JP2010016818A (en) Color enhancement for graphic images
US8036456B2 (en) Masking a visual defect
Cadfk et al. The naturalness of reproduced high dynamic range images
JP2011035873A (en) Apparatus and method for simulating image processing circuit, method of designing image processing circuit, and simulation program for image processing circuit
CN101115144B (en) Image processing apparatus and image processing method
JP4851509B2 (en) Test pattern generation program and method, and display adjustment program using the test pattern
JP5095263B2 (en) Image evaluation apparatus and image evaluation program
JP4923033B2 (en) Image enhancement method using domain gain correction
US20070165197A1 (en) Pixel position acquiring method, image processing apparatus, program for executing pixel position acquiring method on computer, and computer-readable recording medium having recorded thereon program
JP2010198068A (en) Simulation device for image processing circuit, simulation method for image processing circuit, design method for image processing circuit, and simulation program for image processing circuit
JP6564158B2 (en) Image processing apparatus, image processing method, and image processing program
KR20240018700A (en) Directional scaling systems and methods
EP2284799B1 (en) The method for colour picking over an image data to be used in graphical user interface
Ravuri et al. Deep no-reference tone mapped image quality assessment
JP6325656B2 (en) Apparatus, program and method for assisting focus evaluation
KR102470242B1 (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106