JP2013218631A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2013218631A
JP2013218631A JP2012090853A JP2012090853A JP2013218631A JP 2013218631 A JP2013218631 A JP 2013218631A JP 2012090853 A JP2012090853 A JP 2012090853A JP 2012090853 A JP2012090853 A JP 2012090853A JP 2013218631 A JP2013218631 A JP 2013218631A
Authority
JP
Japan
Prior art keywords
instruction set
unit
processing
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012090853A
Other languages
Japanese (ja)
Inventor
Juichi Shiraki
寿一 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012090853A priority Critical patent/JP2013218631A/en
Publication of JP2013218631A publication Critical patent/JP2013218631A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device and an information processing method monitoring parameters operated by a user in an image processing system and properly using an image processing instruction to be executed by a GPU (Graphics Processing Unit), according to an operation state of the parameters.SOLUTION: The information processing device includes: a graphics processing unit capable of executing a plurality of image processing instructions; a detection unit that detects an operation by a user for operation parameters corresponding to the image processing instructions; an instruction set storage unit that retains a combination of image processing instructions to be executed by the graphics processing unit, as an instruction set; and an instruction set selection unit that selects an instruction set to be executed by the graphics processing unit in the instruction sets retained by the instruction set storage unit, on the basis of the comparison result by a parameter comparison unit.

Description

本技術は、GPU(Graphics Processing Unit)を用いて画像のエフェクト処理を行う情報処理装置に関する。   The present technology relates to an information processing apparatus that performs image effect processing using a GPU (Graphics Processing Unit).

画像処理の分野においても、以前は専用ハードウェアでのみ実装可能であった処理が、汎用計算機上において実行されるプログラムにより実装される状況が本格的になってきた。それは、CPUやメモリの性能向上により、プログラムによる実装でも、ユーザが満足する程度の処理速度が得られるようになったからである。   Also in the field of image processing, the situation where processing that could previously be implemented only with dedicated hardware has been implemented by a program executed on a general-purpose computer has become serious. This is because the processing speed that can satisfy the user can be obtained even with the implementation by the program due to the improvement of the performance of the CPU and the memory.

また、さらなる高速化を目指してCPUで実行させるソフトウエア以外に「登録4325123」にあるようにDSPを組み込んだ実装例がある。   In addition to software that is executed by the CPU for further speedup, there is an implementation example in which a DSP is incorporated as described in “Registration 4325123”.

近年では計算機に組み込まれているグラフィック・レンダリング用のGPU(Graphics Processing Unit)を、レンダリングのみならず、他の数値演算にも利用するGPGPU (General-purpose computing on graphics processing units; GPUによる汎目的計算)という技術分野が存在する。   In recent years, GPUs (Graphics Processing Units) for graphics rendering incorporated in computers are used not only for rendering but also for other numerical operations. General purpose computing on graphics processing units (GPGPU) ) Is a technical field.

GPUは安価なうえ、入手が容易であり、かつ高速な演算が実現できるため、画像の特殊効果(エフェクト)などの処理を行うGPUを組み込んだ編集システムがローコストで開発できるようになった。   Since GPUs are inexpensive, easy to obtain, and capable of high-speed computation, editing systems incorporating GPUs that perform special effects (effects) of images can be developed at low cost.

しかしながら、単純にGPU上で動作するプログラムを作成し、実行すれば、簡単に高速化が図れるというわけではない。サイズの大きな画像の処理や、演算量の多い画像処理を、リアルタイムに実現するには、そのプログラム開発において、画像処理アルゴリズムの工夫や、実装上の工夫が必要である。   However, simply creating and executing a program that runs on the GPU does not mean that the speed can be easily increased. In order to realize real-time processing of large-size images and image processing with a large amount of calculation, it is necessary to devise image processing algorithms and implementation in the program development.

最近では、GPUを使った演算の高速化の工夫に言及する発明が、いくつか公開されている。   Recently, several inventions have been disclosed that mention a device for speeding up operations using a GPU.

例えば特許文献1は、ビデオ信号の復号に関して、GPUとCPUで処理ステップを使い分け、GPUとCPUの作業負担の釣り合いをとるものである。CPUとGPUの間のデータ通信が最小限にされ、CPUおよびGPUの作業負荷の釣合いがとられ、GPUにオフロードされるモジュールを、効率的に実現できるという技術が開示されている。   For example, Patent Document 1 relates to the decoding of a video signal by properly using the processing steps between the GPU and the CPU to balance the work load between the GPU and the CPU. A technology is disclosed in which data communication between a CPU and a GPU is minimized, a workload of the CPU and the GPU is balanced, and a module that is offloaded to the GPU can be efficiently realized.

また、特許文献2のように、GPUの利点である多数の並列演算に適した形態に処理アルゴリズムを適合させる例もある。特許文献2において開示されている髪シミュレーション方法は、粒子モデルを用いて毛髪をモデル化しており、GPU上で作動させることができるようになっている。ここで開示されている髪シミュレーション方法で用いる粒子モデルは、粒子モデルを構成する各粒子を並列に処理することが可能であるため、GPUを用いた実装に適しているという。   Further, as disclosed in Patent Document 2, there is an example in which the processing algorithm is adapted to a form suitable for a large number of parallel operations, which is an advantage of the GPU. The hair simulation method disclosed in Patent Document 2 models hair using a particle model and can be operated on a GPU. The particle model used in the hair simulation method disclosed herein is suitable for mounting using a GPU because each particle constituting the particle model can be processed in parallel.

特開2010−130696号公報JP 2010-130696 A 特開2009−20874号公報JP 2009-20874 A

GPGPUに関連する発明は、未だ少ないのが現状である。   There are still few inventions related to GPGPU.

以上のような事情に鑑み、本技術の目的は、画像処理システムにおいて、ユーザが操作したパラメータを監視し、パラメータの操作状況に応じて、GPUに実行させる画像処理命令を使い分ける情報処理装置、情報処理方法、および情報処理プログラムを提供することにある。   In view of the circumstances as described above, an object of the present technology is to monitor an information processing apparatus in which an image processing command to be executed by a GPU according to an operation state of a parameter is monitored in a image processing system. A processing method and an information processing program are provided.

(1)上記目的を達成するため、本技術の一形態に係る情報処理装置は、複数の画像処理命令を実行可能なグラフィックス・プロセッシング・ユニットと、前記画像処理命令に対応した操作パラメータの、ユーザによる操作を検知する検知部と、前記グラフィックス・プロセッシング・ユニットにおいて実行される前記画像処理命令の組み合わせを命令セットとして保持する命令セット記憶部と、前記パラメータ比較部における比較結果に基づき、前記命令セット記憶部が保持する前記命令セットの中から、前記グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択する命令セット選択部とを備える。   (1) In order to achieve the above object, an information processing apparatus according to an aspect of the present technology includes a graphics processing unit that can execute a plurality of image processing instructions, and an operation parameter corresponding to the image processing instructions. Based on a comparison result in the parameter comparison unit, a detection unit that detects an operation by a user, an instruction set storage unit that holds a combination of the image processing instructions executed in the graphics processing unit as an instruction set, and An instruction set selection unit that selects the instruction set to be executed by the graphics processing unit from the instruction set held by the instruction set storage unit;

本技術では、画像処理を行う際に、ユーザがGUIを用いて入力した操作パラメータを検知部が検知する。また、命令セット記憶部には、グラフィックス・プロセッシング・ユニットにおいて実行される画像処理命令の組み合わせが、命令セットとして保持されている。なお、命令セット中の画像処理命令は、操作パラメータに対応している。命令セット選択部が、命令セット記憶部が保持している命令セットの中から、検知部による検知結果に基づいて、対応した命令セットを選択する。そして、選択された命令セットはグラフィックス・プロセッシング・ユニットに送られて実行される。   In the present technology, when performing image processing, the detection unit detects an operation parameter input by the user using the GUI. The instruction set storage unit holds a combination of image processing instructions executed in the graphics processing unit as an instruction set. Note that the image processing command in the command set corresponds to the operation parameter. The instruction set selection unit selects a corresponding instruction set from the instruction sets held in the instruction set storage unit based on the detection result by the detection unit. The selected instruction set is then sent to the graphics processing unit for execution.

これにより、ユーザがGUI上で操作していない操作パラメータに対応した画像処理命令が、命令セットに含まれることは無いので、無駄な処理がグラフィックス・プロセッシング・ユニット上において実行されることを防ぐことができる。そして画像処理全体の高速化を実現することができる。   As a result, an image processing instruction corresponding to an operation parameter that is not operated on the GUI by the user is never included in the instruction set, so that unnecessary processing is prevented from being executed on the graphics processing unit. be able to. Further, it is possible to realize speeding up of the entire image processing.

(2)また、前記検知部は、前記操作パラメータの初期値を保持する初期値記憶部と、ユーザが操作した前記操作パラメータと前記初期値記憶部が保持する初期値とが相違するかを比較するパラメータ比較部を備えてもよい。   (2) In addition, the detection unit compares whether the initial value storage unit that stores the initial value of the operation parameter differs from the operation parameter operated by the user and the initial value stored in the initial value storage unit. A parameter comparison unit may be provided.

初期値記憶部が、ユーザが画像処理の操作を行うGUI上の操作パラメータの初期値を保持している。画像処理を行う際に、ユーザがGUIを用いて入力した操作パラメータと、初期値記憶部が保持している、操作パラメータの初期値とが、パラメータ比較部により比較され、ユーザが入力した操作パラメータと初期値とに相違があるか否かが判断される。   The initial value storage unit holds initial values of operation parameters on the GUI on which the user performs image processing operations. When performing image processing, the operation parameter input by the user using the GUI and the initial value of the operation parameter stored in the initial value storage unit are compared by the parameter comparison unit, and the operation parameter input by the user It is determined whether there is a difference between the initial value and the initial value.

これにより、ユーザがGUI上で操作していない、すなわち初期値から操作されていない操作パラメータに対応した画像処理命令が、命令セットに含まれることは無いので、無駄な処理がグラフィックス・プロセッシング・ユニット上において実行されることを防ぐことができる。そして画像処理全体の高速化を実現することができる。   As a result, an image processing command corresponding to an operation parameter that is not operated by the user on the GUI, that is, not operated from the initial value is not included in the command set. It can be prevented from being executed on the unit. Further, it is possible to realize speeding up of the entire image processing.

(3)また、前記命令セット記憶部は、画像処理命令の組み合わせ、すなわち命令セットを、操作パラメータの組み合わせ分だけ保持してもよい。予め、操作パラメータの組み合わせ分だけ保持することにより、操作パラメータがどのような組み合わせで操作されても、対応した命令セットを適切に選択し、グラフィックス・プロセッシング・ユニットに送って実行させることができる。   (3) The instruction set storage unit may hold a combination of image processing instructions, that is, an instruction set for the combination of operation parameters. By holding only the combinations of the operation parameters in advance, it is possible to appropriately select the corresponding instruction set and send it to the graphics processing unit for execution regardless of the combination of operation parameters. .

(4)本技術に係る情報処理方法は、情報処理装置内の検知部が、ユーザの操作した操作パラメータを検知し、前記情報処理装置内の命令セット選択部が、前記検知部による検知結果に基づき、命令セット記憶部が保持する、自装置内のグラフィックス・プロセッシング・ユニットにおいて実行される、操作パラメータに対応した画像処理命令の組み合わせである命令セットの中から、該グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択するものである。   (4) In the information processing method according to the present technology, the detection unit in the information processing device detects the operation parameter operated by the user, and the instruction set selection unit in the information processing device detects the detection result by the detection unit. Based on the instruction set, which is a combination of image processing instructions corresponding to the operation parameters, which is executed in the graphics processing unit in its own device, held in the instruction set storage unit, from the graphics processing unit The instruction set to be executed is selected.

(5)本技術に係る情報処理プログラムは、複数の画像処理命令を実行可能なグラフィックス・プロセッシング・ユニットを具備するコンピュータを動作させる情報処理プログラムであって、前記画像処理命令に対応した操作パラメータの、ユーザによる操作を検知する検知部、前記グラフィックス・プロセッシング・ユニットにおいて実行される前記画像処理命令の組み合わせを命令セットとして保持する命令セット記憶部、および前記パラメータ比較部における比較結果に基づき、前記命令セット記憶部が保持する前記命令セットの中から、前記グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択する命令セット選択部として、前記コンピュータを機能させるものである。   (5) An information processing program according to the present technology is an information processing program for operating a computer including a graphics processing unit capable of executing a plurality of image processing instructions, and an operation parameter corresponding to the image processing instructions A detection unit for detecting an operation by a user, an instruction set storage unit for holding a combination of the image processing instructions executed in the graphics processing unit as an instruction set, and a comparison result in the parameter comparison unit, The computer is caused to function as an instruction set selection unit that selects the instruction set to be executed by the graphics processing unit from the instruction set held by the instruction set storage unit.

以上のように、本技術によれば、画像処理における冗長な演算を排除することができ、複数の画像処理を行って処理結果を得る場合には、処理の高速化が実現できる。   As described above, according to the present technology, it is possible to eliminate redundant computations in image processing, and it is possible to increase the processing speed when processing results are obtained by performing a plurality of image processing.

本技術の一実施形態に係るカラーグレーディングシステムの構成を示す図である。1 is a diagram illustrating a configuration of a color grading system according to an embodiment of the present technology. カラーグレーディングシステムのGUIおよび画像処理結果の例を示す図である。It is a figure which shows the example of GUI of a color grading system, and an image processing result. 情報処理装置のハードウェア構成を表すブロック図である。It is a block diagram showing the hardware constitutions of information processing apparatus. カラーグレーディング処理の処理結果の例を示す図である。It is a figure which shows the example of the process result of a color grading process. 複数のレイヤ処理の組み合わせ例を示す図である。It is a figure which shows the example of a combination of a some layer process. 1つのレイヤ処理に相当する処理ブロックを示す図である。It is a figure which shows the process block corresponded to one layer process. 「空間領域指定1」と「空間領域指定2」の違いを表す概念図である。It is a conceptual diagram showing the difference between "space area designation 1" and "space area designation 2". レイヤ処理におけるAND合成の概念図である。It is a conceptual diagram of AND composition in layer processing. レイヤ合成のブロック図である。It is a block diagram of layer composition. OR合成の概念図である。It is a conceptual diagram of OR composition. GPU画像処理命令の選択処理を表すブロック図である。It is a block diagram showing selection processing of a GPU image processing command. GPU画像処理命令の選択処理(一般化したもの)を表すブロック図である。It is a block diagram showing selection processing (generalized) of GPU image processing instructions. 情報処理装置の機能ブロック図である。It is a functional block diagram of an information processor. カラーグレーディングシステムの操作GUIの例である。It is an example of operation GUI of a color grading system. カラーグレーディングシステムの操作GUIの例である。It is an example of operation GUI of a color grading system. カラーグレーディングシステムの操作GUIの例である。It is an example of operation GUI of a color grading system. カラーグレーディングシステムの操作GUIの例である。It is an example of operation GUI of a color grading system. カラーグレーディングシステムの操作GUIの例である。It is an example of operation GUI of a color grading system. 本技術の適用範囲を示すスレッド命令を説明する図である。It is a figure explaining the thread | sled instruction which shows the application range of this technique.

以下、本技術に係る実施形態を、図面を参照しながら説明する。   Hereinafter, embodiments according to the present technology will be described with reference to the drawings.

なお、以下の説明では、本技術をデジタルシネマなどの映像編集分野における画像の加工を行うエフェクト処理に適用することを想定している。   In the following description, it is assumed that the present technology is applied to an effect process for processing an image in a video editing field such as a digital cinema.

<概要>
本技術は、画像のうち、加工する領域を指定する演算命令や指定された領域に対して行うエフェクト処理の演算命令をGPU(Graphics Processing Unit)に送る際に、予め領域指定やエフェクト処理のパラメータをチェックすることにより、実行しない演算命令を省略して選択的に命令を送ることにより、GPUにおける処理時間を短縮するものである。
<Overview>
In the present technology, when an arithmetic instruction for specifying an area to be processed in an image or an arithmetic instruction for effect processing to be performed on the specified area is sent to a GPU (Graphics Processing Unit), parameters for the area specification and the effect processing are previously set. By checking the above, the processing time in the GPU is shortened by selectively sending instructions while omitting operation instructions that are not executed.

<第1の実施形態>
エフェクト処理には様々な種類のものがあるが、以下では、撮影された画像の色あいを自由に補正するカラーグレーディングシステムを例に説明する。なお、カラーグレーディングでは、ユーザが調整可能な多数の操作パラメータが存在するが、説明を簡略化するため、ここでは、操作パラメータは「空間領域指定パラメータ」、「色領域指定パラメータ」、「色補正パラメータ」の3種類として説明する。
<First Embodiment>
There are various types of effect processing. In the following, a color grading system that freely corrects the hue of a captured image will be described as an example. In color grading, there are a large number of operation parameters that can be adjusted by the user. However, in order to simplify the explanation, here, the operation parameters are “spatial region specification parameter”, “color region specification parameter”, “color correction”. This will be described as three types of parameters.

図1は、カラーグレーディングシステムの構成を示す図である。ユーザは、そのGUIを見ながらパラメータを調整できる。操作入力装置18は、マウスやキーボードなどの入力手段である。表示装置19は、パラメータを操作するためのGUI(Graphical User Interface)と画像処理の結果とを表示する。
ユーザは、表示装置19に表示されたGUIを見ながら、GUIをマウスなどで操作することやキーボードから数値を入力することなどにより、各種パラメータを調整できる。
FIG. 1 is a diagram illustrating a configuration of a color grading system. The user can adjust the parameters while viewing the GUI. The operation input device 18 is an input means such as a mouse or a keyboard. The display device 19 displays a GUI (Graphical User Interface) for manipulating parameters and the result of image processing.
While viewing the GUI displayed on the display device 19, the user can adjust various parameters by operating the GUI with a mouse or inputting numerical values from the keyboard.

情報処理装置10は、汎用的な計算機などであり、内部に演算用のGPUが搭載されている。この情報処理装置10が、画像処理を実行し、処理結果を表示装置19上に表示する。
図2は、表示装置19上に表示されるGUIおよび画像処理結果の例を示す図である。
The information processing apparatus 10 is a general-purpose computer or the like, and has a calculation GPU mounted therein. The information processing apparatus 10 executes image processing and displays the processing result on the display device 19.
FIG. 2 is a diagram illustrating an example of a GUI displayed on the display device 19 and an image processing result.

[情報処理装置10の構成]
次に、図3は、情報処理装置10のハードウェア構成を表すブロック図である。
[Configuration of Information Processing Apparatus 10]
Next, FIG. 3 is a block diagram illustrating a hardware configuration of the information processing apparatus 10.

情報処理装置10は、CPU部11、GPU部12、記憶装置13、表示インターフェース14、操作インターフェース15、ネットワークインターフェース16、これらを相互に接続するバス17を備える。   The information processing apparatus 10 includes a CPU unit 11, a GPU unit 12, a storage device 13, a display interface 14, an operation interface 15, a network interface 16, and a bus 17 that connects these components to each other.

CPU部11は、CPU111とメモリ112(以下「CPUメモリ」と呼ぶ。)を有し、CPUメモリ112に格納されたプログラムを実行させることによってCPUメモリ112上で各種の演算処理に関する命令を実行する。CPU部11は、操作インターフェース15に接続された操作入力装置18を通じてユーザより入力された指令を解釈してプログラムの動作に反映させる。例えば、CPU部11は、記憶装置13に記憶された画像データを読み出してCPUメモリ112に取り込み、この画像データに対してエフェクト等の処理を行ったりすることができる。CPUメモリ112に保持された画像データは表示インターフェース14に供給され、ここで描画処理されることによって可視的な描画データとされ、必要に応じて後述するGPU部12によって処理された画像の描画データとマージされて表示装置19に出力される。さらにCPU部11は、CPUメモリ112に保持された処理後の画像データを、必要に応じて、GPU部12によって処理された画像データとマージして記憶装置13に書き戻したりするように制御を行うことが可能である。   The CPU unit 11 includes a CPU 111 and a memory 112 (hereinafter referred to as “CPU memory”), and executes instructions related to various arithmetic processes on the CPU memory 112 by executing a program stored in the CPU memory 112. . The CPU unit 11 interprets a command input by the user through the operation input device 18 connected to the operation interface 15 and reflects it in the operation of the program. For example, the CPU unit 11 can read out image data stored in the storage device 13 and import the image data into the CPU memory 112 to perform processing such as effects on the image data. The image data held in the CPU memory 112 is supplied to the display interface 14, and is rendered as rendering data by being rendered here, and the rendering data of the image processed by the GPU unit 12, which will be described later, as necessary. And are output to the display device 19. Further, the CPU unit 11 performs control so that the processed image data held in the CPU memory 112 is merged with the image data processed by the GPU unit 12 and written back to the storage device 13 as necessary. Is possible.

GPU部12は、GPU121とメモリ122(以下「GPUメモリ122」と呼ぶ。)とを有し、GPUメモリ122に格納されたプログラムを実行させることによってGPUメモリ122上でエフェクトなどの画像処理を並列演算処理により実行することが可能である。GPUメモリ122に保持された画像データは表示インターフェース14に供給され、ここで描画処理によって可視的な描画データとされ、必要に応じて、上記のGPU部12によって処理された画像の描画データとマージされて表示装置19に出力される。   The GPU unit 12 includes a GPU 121 and a memory 122 (hereinafter referred to as “GPU memory 122”), and by executing a program stored in the GPU memory 122, image processing such as effects is performed in parallel on the GPU memory 122. It can be executed by arithmetic processing. The image data held in the GPU memory 122 is supplied to the display interface 14 where it is made visible drawing data by drawing processing, and merged with the drawing data of the image processed by the GPU unit 12 as necessary. And output to the display device 19.

表示インターフェース14は、表示装置19とのインターフェースであり、CPU部11およびGPU部12より供給された画像データの描画処理を行い、必要に応じて、CPU部11により処理された画像の描画データとGPU部12により処理された画像の描画データをマージして1つの画像の描画データとして表示装置19に供給する。この表示インターフェース14の処理は、例えば、上記のGPU121もしくは別途設けられたGPU(図示せず)により実現される。   The display interface 14 is an interface with the display device 19, performs drawing processing of image data supplied from the CPU unit 11 and the GPU unit 12, and draws image drawing data processed by the CPU unit 11 as necessary. The drawing data of the image processed by the GPU unit 12 is merged and supplied to the display device 19 as drawing data of one image. The processing of the display interface 14 is realized by, for example, the above-described GPU 121 or a separately provided GPU (not shown).

操作インターフェース15は、操作入力装置18とのインターフェースであり、操作入力装置18から入力されたユーザからのデータおよび指令をCPU部11に供給する処理などを行う。   The operation interface 15 is an interface with the operation input device 18, and performs a process of supplying data and commands from the user input from the operation input device 18 to the CPU unit 11.

記憶装置13は、例えば、編集前の画像データおよび編集後の画像データの保存、編集処理をCPU部11およびGPU部12に実行させるための各種のプログラムなどを蓄積する。   The storage device 13 stores, for example, various programs for causing the CPU unit 11 and the GPU unit 12 to store and edit image data before editing and image data after editing.

ネットワークインターフェース16は、ネットワーク30との接続をとるためのインターフェースである。   The network interface 16 is an interface for connecting to the network 30.

[カラーグレーディングとレイヤ処理について]
図4は、カラーグレーディング処理の処理結果の例を示す図である。この処理結果画像が示すように、色を調整する領域は一箇所とは限らず、通常は一画面中において何箇所も調整する。(図4右側の処理結果画面に示されている画像において、それぞれ白線により囲まれた領域の色が補正されている。) 以下では、それぞれの領域に対する処理(色補正など)を、レイヤ処理と呼ぶ。
[About color grading and layer processing]
FIG. 4 is a diagram illustrating an example of a processing result of the color grading process. As shown in the processing result image, the color adjustment region is not limited to one place, and usually, several places are adjusted in one screen. (In the image shown on the processing result screen on the right side of FIG. 4, the colors of the areas surrounded by the white lines are corrected.) In the following, processing (color correction, etc.) for each area is referred to as layer processing. Call.

[複数レイヤ処理の組み合わせ例]
図5は、各レイヤ処理(後述)と、それらの結果のレイヤ合成とによって、最終的な処理結果画像を得る例を示す図である。太線は、領域画像の流れを示す。この例では、レイヤ処理LP1の結果とレイヤ処理LP2の結果とがレイヤ合成LM1により合成(例えばOR合成。詳細は後述)され、その結果に対しレイヤ処理LP3が行われる。そして、別途レイヤ処理LP4が行われた画像と、レイヤ処理LP3が行われた画像とがレイヤ合成LM2により合成され、最終的な結果画像が得られる。
[Combination example of multi-layer processing]
FIG. 5 is a diagram illustrating an example in which a final processing result image is obtained by each layer processing (described later) and layer synthesis of those results. A thick line indicates the flow of the region image. In this example, the result of the layer processing LP1 and the result of the layer processing LP2 are combined by the layer combining LM1 (for example, OR combining, details will be described later), and the layer processing LP3 is performed on the result. Then, an image on which layer processing LP4 has been separately performed and an image on which layer processing LP3 has been performed are synthesized by layer synthesis LM2, and a final result image is obtained.

図5に示す処理は、あくまで、レイヤ処理およびレイヤ合成の一例である。実際には、補正したい対象画像とユーザの操作との組み合わせに応じて、様々のレイヤ処理およびレイヤ合成の組み合わせが存在する。レイヤ処理およびレイヤ合成の処理内容に関して、詳細は後述する。   The process illustrated in FIG. 5 is merely an example of layer processing and layer synthesis. Actually, there are various combinations of layer processing and layer synthesis depending on the combination of the target image to be corrected and the user's operation. Details of layer processing and layer composition processing will be described later.

[レイヤ処理について]
図6は、1つのレイヤ処理に相当する処理ブロックを示す図である。なお、以下の説明では、図の参照符号を括弧内に示す。
まず、どの領域を対象として、色を補正するのかを決めるために、領域の形状が演算される。ユーザがGUIを介して領域の形状を与える方法として、大きく分けて2種類の方法がある。「空間領域指定」および「色領域指定(CS)」である。「空間領域指定」はさらに「空間領域指定1(SS1)」および「空間領域指定2(SS2)」に分かれる。「空間領域指定1(SS1)」は、空間領域パラメータ1を入力として用いて行われる。また、「空間領域指定2(SS2)」は、「空間領域指定1(SS1)」の処理結果および空間領域パラメータ2を入力として用いて行われる。詳細は後述する。
[About layer processing]
FIG. 6 is a diagram illustrating a processing block corresponding to one layer process. In the following description, reference numerals in the drawings are shown in parentheses.
First, the shape of the region is calculated in order to determine which region is targeted for color correction. There are roughly two types of methods for giving the shape of a region through a GUI by a user. “Space area designation” and “Color area designation (CS)”. The “space area designation” is further divided into “space area designation 1 (SS1)” and “space area designation 2 (SS2)”. “Space area designation 1 (SS1)” is performed using the space area parameter 1 as an input. Further, “spatial region designation 2 (SS2)” is performed using the processing result of “spatial region designation 1 (SS1)” and the spatial region parameter 2 as inputs. Details will be described later.

次に、「空間領域指定」および「色領域指定(CS)」によりそれぞれ定められた領域の形状に対し、「AND合成(AM)」が行われる。「AND合成(AM)」が行われた後、合成された領域の形状は、領域画像として他のレイヤ処理のために出力されてもよいし、スイッチ(SW)を介して「色補正処理(CM)」に渡されてもよい。「AND合成」の詳細は後述する。   Next, “AND synthesis (AM)” is performed on the shapes of the areas respectively determined by “space area designation” and “color area designation (CS)”. After “AND synthesis (AM)” is performed, the shape of the synthesized area may be output as an area image for other layer processing, or “color correction processing ( CM) ”. Details of “AND composition” will be described later.

次に、スイッチ(SW)であるが、ここでは、「AND合成(AM)」により作成された領域画像と、他のレイヤ処理において作られた既存の領域画像とのいずれを色補正処理に用いるかを切り替えることができる。なお、太線は、領域画像の流れを示している。   Next, regarding the switch (SW), here, either the area image created by “AND composition (AM)” or the existing area image created by other layer processing is used for color correction processing. Can be switched. The thick line indicates the flow of the area image.

最後に「色補正処理(CM)」がある。ここでは、入力された領域画像を基に、色補正パラメータ、および入力画像を用いて、指定された領域のみに対して色の補正処理が行われ、処理結果の画像が出力される。なお、領域画像が多値の場合は、その値に比例するように色補正の補正量が調整される。   Finally, there is “color correction processing (CM)”. Here, based on the input region image, color correction processing is performed only on the designated region using the color correction parameter and the input image, and an image of the processing result is output. When the area image is multivalued, the correction amount of color correction is adjusted so as to be proportional to the value.

[空間領域指定について]
空間領域指定について説明する。空間領域指定とは、画面内のどの領域を補正するかを空間的に直接指定する領域指定方法である。
[About space area specification]
The space area designation will be described. Spatial area designation is an area designation method for directly designating which area in the screen is to be corrected.

空間領域指定における実際の処理は、CPU部11上で実行される「空間領域指定1(SS1)」と、GPU上で演算される「空間領域指定2(SS2)」との2段階のステップから構成される。   The actual processing in the space area designation is performed in two steps: “space area designation 1 (SS1)” executed on the CPU unit 11 and “space area designation 2 (SS2)” calculated on the GPU. Composed.

図7は、「空間領域指定1(SS1)」と「空間領域指定2(SS2)」との違いを表すイメージを示す図である。   FIG. 7 is a diagram illustrating an image representing a difference between “space area designation 1 (SS1)” and “space area designation 2 (SS2)”.

最初に、「空間領域指定1(SS1)」のステップでは、ユーザが、GUIを介して領域を構成する形状の境界部を、直接ポインティングすることにより領域の形状SPを指定する。CPU部11は、ポインティングされた各点Pを、直線または曲線を用いて結ぶことによって、領域の形状SPを生成する。   First, in the “space region designation 1 (SS1)” step, the user designates the shape SP of the region by directly pointing the boundary portion of the shape constituting the region via the GUI. The CPU unit 11 generates the shape SP of the region by connecting the pointed points P using straight lines or curves.

このポインティングの位置情報が、図6に示す「空間領域パラメータ1」に相当する。この領域形状の生成演算は、各フレームにおいて行われるわけではなく、ポインティングされた点Pに対して、消去、追加、移動といった修正をユーザが行った場合に、その時点においてのみ再演算される。すなわち、一旦形成された領域の形状SPは、領域画像の情報として、ユーザによる修正がなされるまで保持される。   This pointing position information corresponds to “spatial region parameter 1” shown in FIG. This region shape generation calculation is not performed in each frame, but is recalculated only when the user makes corrections such as deletion, addition, or movement to the point P that is pointed. That is, the shape SP of the area once formed is held as information on the area image until the user corrects it.

この領域の形状SPを生成または修正する演算は、CPU部11上において行われる。その理由は、処理が複雑なためGPUに適した並列演算化が難しい事や、各フレームにおいて演算するのではなく、ユーザが修正したときのみ再演算すれば良い事などである。   The calculation for generating or correcting the shape SP of this region is performed on the CPU unit 11. The reason is that parallel processing suitable for the GPU is difficult due to the complicated processing, and it is only necessary to re-calculate only when the user corrects it instead of performing computation in each frame.

次に、GPUが、「空間領域指定2(SS2)」のステップを行う。「空間領域指定2(SS2)」のステップでは、GPUは、「空間領域指定1(SS1)」のステップにおいて生成または修正した、領域の形状SPをベースに、その領域の形状SPを、拡大したり、縮小したり、移動したり、回転させたりする演算を行う。   Next, the GPU performs the step of “space area designation 2 (SS2)”. In the “space area designation 2 (SS2)” step, the GPU expands the area shape SP based on the area shape SP generated or modified in the “space area designation 1 (SS1)” step. Or perform operations that reduce, move, or rotate.

拡大、縮小、移動、回転の演算において用いられる、拡大率、移動量、および回転角が、図6に示す「空間領域パラメータ2」に相当する。   The enlargement ratio, the movement amount, and the rotation angle used in the calculation of enlargement, reduction, movement, and rotation correspond to “spatial region parameter 2” shown in FIG.

「空間領域指定2(SS2)」のステップが用いられるのは、ユーザが、あるオブジェクトの色を補正するために、「空間領域指定1(SS1)」のステップにおいて、オブジェクトの形状を領域指定した後である。ユーザが領域指定したフレーム以降においてオブジェクトの形状や位置が変化した場合に、色の補正を行う領域を正しく対応させるためにこのステップが用いられる。   The step of “spatial area designation 2 (SS2)” is used because the user designates the shape of the object in the “space area designation 1 (SS1)” step in order to correct the color of an object. Later. This step is used to correctly correspond to the area where the color correction is performed when the shape or position of the object changes after the frame designated by the user.

領域形状の拡大、縮小、移動、および/または回転の幾何的演算は、GPUにおいて、フレーム毎に行われる。その理由は、演算が「空間領域指定1(SS1)」のステップにおいて得られた画像情報の画素ごとに行われるので、演算の並列化が容易なためである。   The geometrical operations of area shape enlargement, reduction, movement, and / or rotation are performed frame by frame in the GPU. The reason is that the calculation is performed for each pixel of the image information obtained in the “space area designation 1 (SS1)” step, and thus the calculation can be easily parallelized.

なお、「空間領域指定1(SS1)」のステップを行う代わりに、ユーザが矩形や楕円といった定形を領域の形状SPとして選択することにより、「空間領域指定1(SS1)」のステップでの形状指定を省略することも可能である。   Instead of performing the “space area designation 1 (SS1)” step, the user selects a regular shape such as a rectangle or an ellipse as the area shape SP, so that the shape in the “space area designation 1 (SS1)” step is performed. Specification can be omitted.

また、「空間領域指定2(SS2)」のステップにおいて用いる、拡大、縮小、移動、回転等のパラメータは、ユーザがGUI操作で与える以外に、ブロックマッチング等の動き検出アルゴリズムの結果から、自動的に入力することも可能である。   In addition, parameters such as enlargement, reduction, movement, and rotation used in the step of “space area designation 2 (SS2)” are automatically determined based on the result of a motion detection algorithm such as block matching in addition to being given by the user through GUI operation Can also be entered.

[色領域指定について]
レイヤ処理における、もう1つの領域指定手段は、色空間の閾値処理による領域指定である。例えば、ユーザは、色空間内の色相を表すHueに対し、A≦Hue≦B に収まる範囲の画素のみを領域として指定する。この閾値A、Bをユーザが操作することにより、ユーザは、画像中のどの色のオブジェクトを補正したいかを指定できる。この閾値A、Bに代表されるパラメータは、図6において示す「色領域パラメータ」に相当する。
[Color area specification]
Another area designating means in the layer processing is area designation by color space threshold processing. For example, the user designates only pixels in a range that falls within A ≦ Hue ≦ B as a region for Hue representing a hue in the color space. When the user operates the threshold values A and B, the user can specify which color object in the image is to be corrected. The parameters represented by the threshold values A and B correspond to the “color region parameters” shown in FIG.

「色領域指定(CS)」のステップにおける領域指定の方法は、色相の範囲指定に限らず、輝度や彩度、RGBプレーンの各レベルなど、状況に応じて様々に組み合わせることができる。   The area designation method in the “color area designation (CS)” step is not limited to the hue range designation, but can be variously combined depending on the situation, such as brightness, saturation, and each level of the RGB plane.

[AND合成について]
図8は、AND合成のイメージを示す図である。「空間領域指定」および「色領域指定」の2つの方法によってそれぞれ指定された、空間領域SAおよび色領域CAが重なった領域が、AND領域AAとなる。
[About AND composition]
FIG. 8 is a diagram showing an image of AND composition. An area where the space area SA and the color area CA are overlapped and designated by the two methods of “space area designation” and “color area designation” is the AND area AA.

図に示すように、例えば、指定された領域に含まれる画素には1の値、それ以外の画素には0の値を持たせるなど、画像中のそれぞれの位置に応じた値を持った領域画像が生成される。   As shown in the figure, for example, an area having a value corresponding to each position in the image, for example, a pixel included in the designated area has a value of 1 and other pixels have a value of 0. An image is generated.

なお、領域の境界では、補正される部分とそうでない部分の段差が目立つため、その違和感を軽減するために、領域の境界付近の値は、0と1の中間である0.5の値にするといった多値情報として領域画像が生成されてもよい。   In addition, since the level difference between the corrected portion and the non-corrected portion is conspicuous at the boundary of the region, the value near the boundary of the region is set to a value of 0.5 that is between 0 and 1 in order to reduce the sense of discomfort. The region image may be generated as multi-value information such as

AND合成では、2種類の指定領域(SAおよびCA)に対し、AND領域が抽出され、最終的な領域画像として生成される。このAND領域AAの抽出は、それぞれの領域画像が2値の場合は各位相の値のAND演算処理であり、多値の場合は各位相の値の積で求められる。   In the AND composition, AND regions are extracted from two types of designated regions (SA and CA), and are generated as final region images. The extraction of the AND area AA is obtained by AND operation processing of each phase value when each area image is binary, and is obtained by the product of the respective phase values when multi-valued.

[レイヤ合成について]
次に、レイヤ合成の処理内容について説明する。図9はそのブロック図である。
[About layer composition]
Next, processing contents of layer synthesis will be described. FIG. 9 is a block diagram thereof.

レイヤ合成では、基本的に、それぞれのレイヤ処理においてなされた各領域の色補正結果に対し、OR演算が行われる。以下では、このOR演算による合成をOR合成(OM1)と呼ぶ。同時に、各レイヤ処理から入力される領域画像に対しても、それらの領域のOR合成(OM2)が行われる。   In layer synthesis, basically, an OR operation is performed on the color correction results of the respective regions that have been obtained in each layer process. Hereinafter, this synthesis by OR operation is referred to as OR synthesis (OM1). At the same time, OR synthesis (OM2) of these regions is also performed on the region images input from each layer process.

図10はOR合成のイメージを示す図である。このOR合成では、それぞれのレイヤ処理の処理領域が画像上で重ならない場合は、各レイヤ処理における色補正結果を合成結果とすればよいので問題はない。もし、処理領域が画像上で重なった場合は、その重なり領域OLにおいて、優先順位の高い方のレイヤ処理結果を優先的に選択したり、全てのレイヤ処理の結果の平均値をとったりする方法により合成することができる。   FIG. 10 shows an image of OR synthesis. In this OR synthesis, when the processing areas of the respective layer processes do not overlap on the image, there is no problem because the color correction result in each layer process may be used as the synthesis result. If the processing areas overlap on the image, in the overlapping area OL, a layer processing result with a higher priority is preferentially selected, or an average value of all layer processing results is taken. Can be synthesized.

[レイヤ処理の例]
前述したように、ユーザが画像の補正を行う場合、ユーザは、一画像に対し、複数のレイヤ処理を行い、その結果を重ね合わせる場合が、多く存在する。カラーグレーディングシステムでは、定型的な使い方が存在せず、状況に応じて様々な操作パラメータやレイヤ処理の組み合わせ方法が、ユーザに委ねられている。
[Example of layer processing]
As described above, when the user corrects an image, the user often performs a plurality of layer processes on one image and superimposes the results. In color grading systems, there is no standard usage, and various operation parameters and combinations of layer processing are left to the user depending on the situation.

カラーグレーディングシステムを使用する際の一例として、各レイヤ処理において行われる処理の具体例を、図5および図6に基づいて説明する。なお、ここでは、CPU部11上において行われる空間領域指定1(SS1)と、GPU部12上において行われる空間領域指定2(SS2)とをまとめて、空間領域指定(SS)と呼び、空間領域パラメータ1と空間領域パラメータ2とをまとめて空間領域パラメータと呼ぶ。   As an example when using the color grading system, a specific example of processing performed in each layer processing will be described with reference to FIGS. 5 and 6. Here, the space area designation 1 (SS1) performed on the CPU section 11 and the space area designation 2 (SS2) performed on the GPU section 12 are collectively referred to as space area designation (SS), Region parameter 1 and space region parameter 2 are collectively referred to as a space region parameter.

レイヤ処理LP1では、ユーザがGUI上の空間領域指定に関する操作パラメータを操作したので、その空間領域パラメータを用いて、「空間領域指定(SS)」が実行され、領域画像が生成される。それ以外の「色領域指定(CS)」「色補正処理(CM)」は、ユーザがGUI上の、関連する操作パラメータを操作しなかったので、実行されない。   In the layer processing LP1, since the user has operated an operation parameter related to space area designation on the GUI, “space area designation (SS)” is executed using the space area parameter, and an area image is generated. Other “color area designation (CS)” and “color correction processing (CM)” are not executed because the user did not operate the related operation parameters on the GUI.

レイヤ処理LP2では、ユーザによるGUI操作に基づき、「色領域指定(CS)」および「色補正処理(CM)」が実行される。   In the layer processing LP2, “color area designation (CS)” and “color correction processing (CM)” are executed based on the GUI operation by the user.

レイヤ合成LM1では、レイヤ処理LP1およびレイヤ処理LP2の処理結果が合成される。   In the layer synthesis LM1, the processing results of the layer processing LP1 and the layer processing LP2 are synthesized.

レイヤ処理LP3では、レイヤ合成LM1から得られた領域画像を利用し、さらに「色補正処理(CM)」が行われる。   In the layer processing LP3, the area image obtained from the layer synthesis LM1 is used, and “color correction processing (CM)” is further performed.

レイヤ処理LP4では、ユーザが「空間領域指定(SS)」および「色領域指定(CS)」の操作を行わなかったので、それらの処理は行われず、領域は指定されない。そこで、画面全体を対象として、一様に「色補正処理(CM)」のみが行われる。   In the layer processing LP4, since the user did not perform the “space area designation (SS)” and “color area designation (CS)” operations, these processes are not performed, and no area is designated. Therefore, only “color correction processing (CM)” is performed uniformly on the entire screen.

レイヤ合成LM2では、レイヤ処理LP3の結果とレイヤ処理LP4の結果とが合成される。   In the layer synthesis LM2, the result of the layer processing LP3 and the result of the layer processing LP4 are synthesized.

表1は、以上の、各レイヤ処理の処理内容をまとめた表である。○は、そのレイヤ処理において、空間領域指定などの処理が実行されることを表し、○の無い欄は、処理が実行されないことを表す。
このように、それぞれのレイヤ処理において、必ずしも「空間領域指定(SS)」、「色領域指定(CS)」、および「色補正処理(CM)」の全てが実行されるわけではない。つまり、例えば、レイヤ処理LP1では、「空間領域指定(SS)」のみが行われるにもかかわらず、GPUへ画像処理命令を送る際に、「色領域指定(CS)」および「色補正処理(CM)」に関する画像処理命令も送られる事には無駄があった。
Table 1 summarizes the processing contents of the above-described layer processing. ○ indicates that processing such as space area designation is executed in the layer processing, and a column without ○ indicates that processing is not executed.
As described above, in each layer process, not all “space area designation (SS)”, “color area designation (CS)”, and “color correction process (CM)” are executed. That is, for example, in the layer processing LP1, when only the “spatial region designation (SS)” is performed, the “color region designation (CS)” and the “color correction processing ( It was useless to send an image processing command for “CM)”.

[GPU画像処理命令の選択処理について]
そこで、本技術では、各レイヤ処理の実行に当たり、情報処理装置10において、図11に示す処理を行う事を提案する。
[GPU image processing instruction selection process]
Therefore, in the present technology, it is proposed that the processing illustrated in FIG. 11 is performed in the information processing apparatus 10 when each layer process is executed.

まず、CPU部11は、1つのレイヤ処理で行われる処理内容である「空間領域指定(SS)」、「色領域指定(CS)」、および「色補正処理(CM)」の3つ処理に関連する操作パラメータに関して、初期値すなわちユーザがGUIを操作していない状態の操作パラメータを保持しておく。図では、「空間領域パラメータ初期値(IV1)」、「色領域パラメータ初期値(IV2)」、および「色補正パラメータ初期値(IV3)」で表される部分である。   First, the CPU unit 11 performs three processes, “space area designation (SS)”, “color area designation (CS)”, and “color correction process (CM)”, which are processing contents performed in one layer process. Regarding the related operation parameters, the initial values, that is, the operation parameters in a state where the user is not operating the GUI are stored. In the figure, these are portions represented by “space area parameter initial value (IV1)”, “color area parameter initial value (IV2)”, and “color correction parameter initial value (IV3)”.

次に、ユーザがGUIの操作を行った際には、CPU部11は、保持しておいた初期値と、そのレイヤ処理に対してユーザが指定した操作パラメータとを比較し、相違があった場合は、フラグとして1を出力し、そうでない場合は0を出力する。図では、「空間領域パラメータ(SAP)」、「色領域パラメータ(CAP)」、および「色補正パラメータ(CMP)」の部分、そして「比較(CMP1〜3)」の部分が相当する。   Next, when the user operates the GUI, the CPU unit 11 compares the stored initial value with the operation parameter specified by the user for the layer processing, and there is a difference. In this case, 1 is output as a flag, otherwise 0 is output. In the figure, “space area parameter (SAP)”, “color area parameter (CAP)”, and “color correction parameter (CMP)”, and “comparison (CMP1 to CMP3)” correspond.

ここで、「空間領域指定(SS)」、「色領域指定(CS)」、および「色補正処理(CM)」の3つの処理は、それぞれ独立して行われるので、3つの処理に対するフラグに応じて、GPU部12上において実行させる画像処理命令を選択する。3つの処理は、それぞれ独立して実行されうるので、3つの事象の組み合わせとして、合計8パターンの命令セットが考えられる。   Here, since the three processes of “space area designation (SS)”, “color area designation (CS)”, and “color correction process (CM)” are performed independently, flags for the three processes are used. In response, an image processing command to be executed on the GPU unit 12 is selected. Since the three processes can be executed independently, a total of eight patterns of instruction sets can be considered as combinations of the three events.

8種類の命令セットのそれぞれでは、フラグが1の処理はGPU部12において演算を実行するために、その演算用のGPU画像処理命令が組み込まれ、フラグが0の処理はGPU部12における演算を省略するので、その演算用のGPU画像処理命令は含まれない。   In each of the eight types of instruction sets, processing with a flag of 1 executes an operation in the GPU unit 12, so a GPU image processing instruction for the operation is incorporated, and processing with a flag of 0 performs an operation in the GPU unit 12. Since it is omitted, the GPU image processing instruction for the calculation is not included.

次の表2は、「空間領域指定(SS)」、「色領域指定(CS)」、および「色補正処理(CM)」の3つの処理を行うためのGPU画像処理命令と、それらが含まれる命令セットとの組み合わせを示す表である。   The following Table 2 shows GPU image processing instructions for performing three processes of “spatial area designation (SS)”, “color area designation (CS)”, and “color correction process (CM)”, and those instructions. It is a table | surface which shows the combination with an instruction set.

例えば、命令セットBは、空間領域指定(SS)用のGPU画像処理命令を含むので該当する欄に○がついており、それ以外の欄には○がついていないので、色領域指定用および色補正用のGPU画像処理命令は含まれない。命令セットAの場合、何も○がついていないので、GPU画像処理命令は含まれず、実質的にスルーの状態になる。
For example, the instruction set B includes a GPU image processing instruction for space area designation (SS), so that the corresponding column is marked with a circle, and the other fields are not marked with a circle. GPU image processing instructions are not included. In the case of the instruction set A, since no circle is attached, the GPU image processing instruction is not included and the state is substantially through.

図では、命令セットAから命令セットHまでの8種類の命令セットが「8種類のGPU画像処理命令」の部分(CS)に保持されている。そして、「空間領域パラメータ(SAP)」、「色領域パラメータ(CAP)」および「色補正パラメータ(CMP)」を各初期値と「比較(CMP1〜3)」した結果である各フラグの値に基づき、「スイッチング(SW1)」の部分において、適切な命令セットが読み出されて、GPU部12に送られる。GPU部12では、入力画像に対し、CPU部11から送られてきた命令セットが実行され、出力画像として出力される。   In the figure, eight types of instruction sets from instruction set A to instruction set H are held in the “8 types of GPU image processing instructions” part (CS). Then, the “space area parameter (SAP)”, “color area parameter (CAP)”, and “color correction parameter (CMP)” are “compared (CMP 1 to 3)” with the respective initial values, and the value of each flag is obtained. Based on this, in the “switching (SW1)” portion, an appropriate instruction set is read out and sent to the GPU unit 12. In the GPU unit 12, the instruction set sent from the CPU unit 11 is executed on the input image and output as an output image.

これらの命令セットをレイヤ処理ごとに細かく使い分けることにより、各レイヤ処理における冗長な演算を排除することができる。また、上述したカラーグレーディングの例のように、複数レイヤ処理を行って処理結果を得る場合には、処理の高速化が実現できる。   By using these instruction sets in detail for each layer process, redundant operations in each layer process can be eliminated. Further, as in the above-described example of color grading, when a multi-layer process is performed to obtain a processing result, the processing speed can be increased.

なお、操作パラメータの初期値との比較処理も、CPU部11上において行うのではなく、GPUの命令として命令セットに組み込み、GPU上での条件分岐演算によって行い、GPU画像処理命令を使い分けることも考えうるが、適当とは言えない。   In addition, the comparison processing with the initial value of the operation parameter is not performed on the CPU unit 11, but is incorporated into the instruction set as a GPU instruction and is performed by conditional branching on the GPU, and the GPU image processing instruction may be used properly. It can be considered, but it is not appropriate.

その理由として、操作パラメータの初期値との比較処理自体は、軽い演算でありCPU部11上において実行しても、ほとんど処理の遅延が無い事や、画素単位のスレッドを配置し並列演算を行うGPU画像処理の実現形態おいては、画素毎に操作パラメータを初期値と比較し処理を切り替えることになり、かえって冗長となる事が挙げられる。   The reason is that the comparison process with the initial value of the operation parameter itself is a light operation and there is almost no processing delay even when executed on the CPU unit 11, or a parallel operation is performed by arranging a pixel unit thread. In the implementation form of the GPU image processing, the operation parameter is compared with the initial value for each pixel and the processing is switched, which is rather redundant.

[GPU画像処理命令の選択処理(一般化)について]
なお、図12は、本技術に関し、本実施の形態に限らない、一般化したブロック図である。
[GPU image processing command selection processing (generalization)]
FIG. 12 is a generalized block diagram related to the present technology, not limited to the present embodiment.

ここでは、本実施の形態を示した図11と一般化した形態を示す図12との相違点のみを説明する。   Here, only the difference between FIG. 11 showing the present embodiment and FIG. 12 showing the generalized form will be described.

「色領域指定(CS)」の部分は、「画素のレベル判定による領域設定」に一般化されており、初期値が「画素のレベル判定による領域設定パラメータセット初期値(IV4)」となり、操作パラメータが「画素のレベル判定による領域設定パラメータセット(LAP)」となっている。   The “color area designation (CS)” part is generalized to “area setting by pixel level determination”, and the initial value is “area setting parameter set initial value (IV4) by pixel level determination”. The parameter is “region setting parameter set (LAP) by pixel level determination”.

また、「色補正処理(CM)」の部分は、「エフェクト処理」に一般化されており、初期値が「エフェクト処理パラメータセット初期値(IV5)」となり、操作パラメータが「エフェクト処理パラメータセット(EPP)」となっている。   The “color correction processing (CM)” portion is generalized to “effect processing”, the initial value is “effect processing parameter set initial value (IV5)”, and the operation parameter is “effect processing parameter set ( EPP) ”.

なお、「GPU画像処理命令セット(CS2)」に保持される命令セットの種類は8種類とは限らない事になる。   Note that the types of instruction sets held in the “GPU image processing instruction set (CS2)” are not limited to eight.

[情報処理装置10の機能ブロック図について]
図13において、情報処理装置10の機能ブロック図を示す。
[Functional Block Diagram of Information Processing Apparatus 10]
In FIG. 13, a functional block diagram of the information processing apparatus 10 is shown.

情報処理装置10は、上述のとおり、CPU部11およびGPU部12を備える。CPU部11は、初期値記憶部51、パラメータ比較部52、命令セット記憶部53、命令セット選択部54を備える。なお、初期値記憶部51およびパラメータ比較部52に代えて、検知部を設ける構成でもよい。この場合、検知部が、ユーザによるGUI操作状況を検知し、検知結果を命令セット選択部54に与えることになる。   The information processing apparatus 10 includes the CPU unit 11 and the GPU unit 12 as described above. The CPU unit 11 includes an initial value storage unit 51, a parameter comparison unit 52, an instruction set storage unit 53, and an instruction set selection unit 54. Instead of the initial value storage unit 51 and the parameter comparison unit 52, a configuration may be provided in which a detection unit is provided. In this case, the detection unit detects the GUI operation status by the user, and gives the detection result to the instruction set selection unit 54.

初期値記憶部51は、レイヤ処理に際して、ユーザがGUIを用いて操作する「空間領域パラメータ」、「色領域パラメータ」、および「色補正パラメータ」の初期値を保持し、それらの初期値をパラメータ比較部52に出力する。   The initial value storage unit 51 stores initial values of “spatial region parameter”, “color region parameter”, and “color correction parameter” that are operated by the user using the GUI at the time of layer processing, and uses these initial values as parameters. It outputs to the comparison part 52.

パラメータ比較部52は、GUIを介してユーザが入力した操作パラメータと、初期値記憶部51から取得した、操作パラメータの初期値とを比較し、比較結果としてフラグの値を命令セット選択部54に出力する。比較の結果、ユーザが入力した操作パラメータとその初期値とに相違があった場合、パラメータ比較部52は、フラグの値として1を出力し、相違が無い場合、0を出力する。パラメータ比較部52での比較は、「空間領域指定(SS)」、「色領域指定(CS)」、および「色補正処理(CM)」のそれぞれの操作パラメータについて行われる。また、フラグも、「空間領域指定(SS)」、「色領域指定(CS)」、および「色補正処理(CM)」のそれぞれの操作パラメータについて設けられている。   The parameter comparison unit 52 compares the operation parameter input by the user via the GUI with the initial value of the operation parameter acquired from the initial value storage unit 51, and sends the flag value to the instruction set selection unit 54 as a comparison result. Output. As a result of the comparison, if there is a difference between the operation parameter input by the user and its initial value, the parameter comparison unit 52 outputs 1 as the flag value, and outputs 0 if there is no difference. The comparison by the parameter comparison unit 52 is performed for each operation parameter of “space area designation (SS)”, “color area designation (CS)”, and “color correction processing (CM)”. Flags are also provided for the operation parameters of “space area designation (SS)”, “color area designation (CS)”, and “color correction processing (CM)”.

なお、初期値記憶部51およびパラメータ比較部52は、「空間領域指定(SS)」、「色領域指定(CS)」、および「色補正処理(CM)」の3つの処理に関する操作パラメータに対応させて、3つずつ備えてもよい。すなわち、「空間領域指定(SS)」用の初期値記憶部51は、空間領域パラメータに関する初期値のみを記憶し、「空間領域指定(SS)」用のパラメータ比較部52は、空間領域パラメータに関してのみ、初期値とユーザに操作されたパラメータとを比較し、空間領域パラメータのみに関するフラグの値をセットする構成でもよい。   The initial value storage unit 51 and the parameter comparison unit 52 correspond to operation parameters related to three processes of “space area designation (SS)”, “color area designation (CS)”, and “color correction process (CM)”. You may have three each. That is, the initial value storage unit 51 for “spatial region designation (SS)” stores only the initial value related to the spatial region parameter, and the parameter comparison unit 52 for “spatial region designation (SS)” relates to the spatial region parameter. Alternatively, the configuration may be such that the initial value and the parameter operated by the user are compared, and the flag value relating to only the spatial domain parameter is set.

命令セット記憶部53は、GPU上において実行される画像処理命令が組み合わされた命令セットを、フラグの組み合わせに対応した数だけ保持している。本実施の形態の例では、命令セットは、命令セットAから命令セットHまでの8種類である。命令セット記憶部53は、命令セット選択部54からの要求に従って、要求された命令セットを命令セット選択部54に出力する。   The instruction set storage unit 53 holds as many instruction sets corresponding to combinations of flags as combinations of image processing instructions executed on the GPU. In the example of the present embodiment, there are eight types of instruction sets from instruction set A to instruction set H. The instruction set storage unit 53 outputs the requested instruction set to the instruction set selection unit 54 in accordance with the request from the instruction set selection unit 54.

命令セット選択部54は、パラメータ比較部52から受け取ったフラグの値に基づき、その値に対応した命令セットを命令セット記憶部53から読み出し、読み出した命令セットをGPU部12に出力する。   Based on the value of the flag received from the parameter comparison unit 52, the instruction set selection unit 54 reads an instruction set corresponding to the value from the instruction set storage unit 53, and outputs the read instruction set to the GPU unit 12.

例えば、フラグの値が「010」の場合、それぞれの位の値が、左から順に「空間領域指定(SS)」、「色領域指定(CS)」、および「色補正処理(CM)」の操作パラメータの比較結果を表すとすると、このフラグは、「色領域指定(CS)」の操作パラメータのみが初期値と相違している事を表す。そこで、表2より、命令セットCが、このフラグの値に対応する命令セットとして命令セット記憶部53から読み出され、命令セット選択部54を介して、GPU部12へ送られる。   For example, when the value of the flag is “010”, the values of the respective positions are “space area designation (SS)”, “color area designation (CS)”, and “color correction processing (CM)” in order from the left. If the operation parameter comparison result is expressed, this flag indicates that only the operation parameter of “color area designation (CS)” is different from the initial value. Therefore, from Table 2, the instruction set C is read from the instruction set storage unit 53 as an instruction set corresponding to the value of this flag, and is sent to the GPU unit 12 via the instruction set selection unit 54.

[操作パラメータの具体例]
上記の例では、「空間領域指定(SS)」「色領域指定(CS)」および「色補正処理(CM)」の3つの処理に関する操作パラメータの使用状況に着目して、命令セットの組み合わせを設定した。さらに、処理の演算内容を細分化し、より多くの命令セットを細かく切り替えることも考えうる。
[Specific examples of operation parameters]
In the above example, the combination of instruction sets is focused on the usage status of the operation parameters related to the three processes of “space area designation (SS)”, “color area designation (CS)”, and “color correction process (CM)”. Set. Further, it is possible to subdivide the calculation contents of the processing and switch more instruction sets in detail.

実際に、「空間領域指定(SS)」、「色領域指定(CS)」、「色補正処理(CM)」の各処理の詳細においては、類似する操作パラメータも含めて、多数の処理の操作パラメータと、それを使った多数の演算手段が存在している。その理由として、ユーザは、様々な条件の入力画像に対して、想定する出力画像結果に、より的確に近づけるため、状況に応じて、操作パラメータや補正方法を使い分けるからである。   Actually, in the details of each process of “spatial area designation (SS)”, “color area designation (CS)”, and “color correction process (CM)”, operations of many processes including similar operation parameters are performed. There are many parameters and a number of computing means using them. The reason for this is that the user uses different operation parameters and correction methods depending on the situation in order to more closely approximate the expected output image result for an input image under various conditions.

空間領域パラメータの具体例として、
・楕円、矩形などの定形か、任意形状かを示す情報
・領域のポインティング位置情報
・ポインティングを結合する際に、直線でつなぐか曲線でつなぐかの情報
・領域全体の幅、高さ、回転角度、位置情報など
・領域の境界付近をなじませるソフトネスの情報
などが挙げられる。
As a specific example of the spatial domain parameter,
・ Information indicating whether it is a fixed shape such as an ellipse or a rectangle, or an arbitrary shape , Position information, etc. ・ Softness information that adapts to the vicinity of the boundary of the area.

また、色領域パラメータの具体例として、
・HSL、YUV、RGB等の色空間での各閾値など
・閾値付近のレベルに多値情報を加える傾斜情報
などが挙げられる。
As a specific example of the color area parameter,
-Each threshold value in a color space such as HSL, YUV, RGB, etc.-Inclination information that adds multi-value information to a level near the threshold value.

また、色補正パラメータの具体例として、
・高輝度、中輝度、低輝度各領域の色相と彩度
・輝度の上限、下限
・輝度のγ補正値
・R、G、B、および輝度それぞれの各レベル入出力曲線
・画面全体の色相、彩度調整
・領域画像以外の範囲の彩度を0にするフラグ
などが挙げられる。
As a specific example of the color correction parameter,
-Hue and saturation of each area of high, medium, and low luminance-Upper and lower limits of luminance-γ correction values for luminance-Input / output curves for each level of R, G, B, and luminance-Hue of the entire screen, For example, a flag for setting the saturation in a range other than the saturation adjustment / region image to 0 is used.

上記のとおり、多くの操作パラメータがある一方、1つのレイヤ処理において、これらの操作パラメータにかかわる演算の全てが実行される事は少なく、ごく一部の操作パラメータに対応した演算を行う場合が多い。   As described above, there are many operation parameters, but in a single layer process, all of the operations related to these operation parameters are rarely executed, and operations corresponding to a few operation parameters are often performed. .

このように、カラーグレーディングシステムでは、図5に示すように、多数のレイヤ処理を必要とするものの、それぞれのレイヤ処理においては、操作パラメータのごく一部しか演算しないので、本技術は効果的である。   As described above, the color grading system requires a large number of layer processings as shown in FIG. 5, but only a small part of the operation parameters are calculated in each layer processing. Therefore, the present technology is effective. is there.

なお、本技術の考え方は、カラーグレーディングシステムに限らず、領域指定を組み合わせたブラー処理やモザイク処理など、多数の操作パラメータが存在するような他の編集用画像処理にも応用可能である。   Note that the concept of the present technology is not limited to the color grading system, but can be applied to other image processing for editing in which a large number of operation parameters exist, such as blur processing combining mosaic designation and mosaic processing.

[操作用GUIの具体例]
図14から18において、カラーグレーディングシステムにおいてユーザが操作するGUIの一例を示す。なお、本技術とは関係の無い個所の説明は行わない。
[Specific examples of GUI for operation]
FIGS. 14 to 18 show an example of a GUI operated by the user in the color grading system. In addition, the description which is not related to this technique is not performed.

図14において、左上の領域AR1は、操作するレイヤを選択するタブである。右上の領域AR2は、「Use Key of Previous Node」と表記され、前段のレイヤの画像領域を使うか否かの選択を指定する。選択した場合、空間領域指定および色領域指定は自動的にオフに設定される。下側の領域AR3〜AR5は、色補正処理に関するもので、左からそれぞれ、低輝度領域、中輝度領域、および高輝度領域の色相と彩度を補正するものである。   In FIG. 14, an upper left area AR1 is a tab for selecting a layer to be operated. The upper right area AR2 is written as “Use Key of Previous Node”, and designates whether or not to use the image area of the previous layer. When selected, the space area designation and the color area designation are automatically turned off. The lower areas AR3 to AR5 are related to the color correction process, and correct the hue and saturation of the low luminance area, medium luminance area, and high luminance area, respectively, from the left.

図15において、一番上の領域AR6は、色補正処理に関するものであり、各スライダがそれぞれ低輝度領域、中輝度領域、および高輝度領域の輝度補正を行うものである。二番目の領域AR7も色補正処理に関するものであり、各スライダは、上から順に、全体色補正、全体彩度補正、低輝度領域の彩度補正、高輝度領域の彩度補正、輝度のオフセット、輝度のゲイン、輝度のγ補正値を調整するものである。三番目の領域AR8も色補正処理に関するものであり、出力レベルの調整を行う。入力方法は、横軸を入力レベル、縦軸を出力レベルとし、その出力曲線を直接操作するものである。R、G、B、および輝度に対して操作が可能である。   In FIG. 15, the uppermost area AR6 relates to the color correction process, and each slider performs brightness correction of the low brightness area, the middle brightness area, and the high brightness area, respectively. The second area AR7 is also related to the color correction processing, and each slider is arranged in order from the top, including overall color correction, overall saturation correction, low brightness area saturation correction, high brightness area saturation correction, and luminance offset. The brightness gain and the brightness γ correction value are adjusted. The third area AR8 is also related to the color correction process and adjusts the output level. In the input method, the horizontal axis represents the input level, the vertical axis represents the output level, and the output curve is directly manipulated. Operations can be performed on R, G, B, and luminance.

図16において、一番上の領域AR9は、色領域指定に関するものであり、色相の閾値指定による領域指定を行うものである。二番目の領域AR10も、色領域指定に関するものであり、彩度の閾値指定による領域指定を行うものである。三番目の領域AR11も、色領域指定に関するものであり、輝度の閾値指定による領域指定を行うものである。   In FIG. 16, an uppermost area AR9 relates to the color area designation, and performs area designation by hue threshold designation. The second area AR10 is also related to the color area designation, and designates the area by specifying the saturation threshold value. The third area AR11 is also related to the color area designation, and performs area designation by luminance threshold designation.

図17において、一番上の領域AR12は、空間領域指定1に関するものであり、空間領域を指定する形状を選択するものである。形状は、矩形、楕円、任意多角形、またはベジエ曲線による任意指定閉局面が選択できる。   In FIG. 17, an uppermost area AR12 relates to the space area designation 1 and selects a shape for designating the space area. As the shape, a rectangular shape, an ellipse shape, an arbitrary polygon shape, or an arbitrarily designated closed surface by a Bezier curve can be selected.

二番目の領域AR13も空間領域指定1に関するものであり、ここに示されている操作GUIは、上段の領域AR12において選択された形状が、任意多角形または任意閉局面の場合のものであり、点Pの追加や移動により形状SPを生成する。上段の領域AR12で選択された形状が矩形または楕円の場合、ユーザはその形状を直接操作する。選択された形状が矩形または楕円の場合の操作GUIの例を図18に示す。   The second area AR13 is also related to the spatial area designation 1, and the operation GUI shown here is for the case where the shape selected in the upper area AR12 is an arbitrary polygon or an arbitrary closed phase, The shape SP is generated by adding or moving the point P. When the shape selected in the upper area AR12 is a rectangle or an ellipse, the user directly operates the shape. An example of the operation GUI when the selected shape is a rectangle or an ellipse is shown in FIG.

三番目の領域AR14も空間領域指定1に関するものであり、空間領域の境界をなじませるものである。三番目の領域AR14は、2値(0および1)の空間領域画像に対し、ブラーを入れることにより多値画像を生成し、境界を滑らかにする。   The third area AR14 is also related to the space area designation 1, and is adapted to blend the boundaries of the space area. The third area AR14 generates a multi-valued image by blurring a binary (0 and 1) spatial area image and smoothes the boundary.

四番目の領域AR15は、空間領域指定2に関するものであり、空間領域指定1において指定された形状である空間領域に対し、移動、拡大縮小、回転を行う量を指定する。   The fourth area AR15 relates to the space area designation 2 and designates the amount of movement, enlargement / reduction, and rotation for the space area having the shape designated in the space area designation 1.

[本技術の適用範囲について]
本技術は、GPUでの並列演算のように、多数のスレッド命令が、画像全体あるいは領域全体に均一に適用可能な状況であれば、本実施の形態において示したカラーグレーディングの例に限らず、適用できる。これについて、図19を使って補足説明する。
[Applicability of this technology]
This technique is not limited to the example of color grading shown in the present embodiment as long as a large number of thread instructions can be uniformly applied to the entire image or the entire area, such as parallel operation on a GPU. Applicable. This will be supplementarily described with reference to FIG.

「case A」のように、演算A、演算B、および演算Cを行う画像処理命令が組み込まれているスレッド命令A(上記の命令セットに相当)を、画素ごとにスレッドを配置して演算させる場合を想定する。   As in “case A”, a thread instruction A (corresponding to the above instruction set) in which an image processing instruction for performing an operation A, an operation B, and an operation C is incorporated is calculated by arranging a thread for each pixel. Assume a case.

この場合、画像全体において演算Aを行わないと判明した場合、スレッド命令は、「case B」のように、スレッド命令Aから演算Aを省略し、演算BおよびCのみを行うスレッド命令Bへと変更できる。この場合、演算Aが実行されないので、処理の高速化が図れる。この「case A」の状態を「case B」の状態に変更する事が、本実施の形態に相当する。   In this case, when it is determined that the operation A is not performed on the entire image, the thread instruction is omitted from the thread instruction A, as in “case B”, and is changed to the thread instruction B that performs only the operations B and C. Can change. In this case, since the operation A is not executed, the processing speed can be increased. Changing the state of “case A” to the state of “case B” corresponds to the present embodiment.

なお、「case C」に示すように、各画素単位に演算Aを行ったり、行わなかったりする条件分岐のあるスレッド命令は、全てのスレッド処理が終了するまで待機する場合、演算Aを行わない画素に対するスレッド処理は早く終了する。しかし、このスレッド命令は、演算Aを行う画素に対するスレッド処理が終了するまで待機するので、全体の高速化にはつながらない。また、画素ごとに条件分岐の演算を行うので、この点でも効率が悪い。   Note that as shown in “case C”, a thread instruction with a conditional branch that performs or does not perform operation A for each pixel unit does not perform operation A when waiting until all thread processing is completed. The thread process for the pixel ends early. However, since this thread instruction waits until the thread processing for the pixel performing the operation A is completed, the overall speed is not increased. In addition, since conditional branching calculation is performed for each pixel, this point is also inefficient.

[本技術の他の構成]
なお、本技術は以下のような構成も採ることができる。
[Other configurations of this technology]
In addition, this technique can also take the following structures.

(1)複数の画像処理命令を実行可能なグラフィックス・プロセッシング・ユニットと、前記画像処理命令に対応した操作パラメータの、ユーザによる操作を検知する検知部と、前記グラフィックス・プロセッシング・ユニットにおいて実行される前記画像処理命令の組み合わせを命令セットとして保持する命令セット記憶部と、前記検知部の検知結果に基づき、前記命令セット記憶部が保持する前記命令セットの中から、前記グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択する命令セット選択部とを備えた情報処理装置。   (1) A graphics processing unit capable of executing a plurality of image processing instructions, a detection unit for detecting an operation by a user of an operation parameter corresponding to the image processing instructions, and the graphics processing unit. An instruction set storage unit that holds a combination of the image processing instructions as an instruction set; and based on a detection result of the detection unit, from the instruction set held by the instruction set storage unit, the graphics processing An information processing apparatus comprising: an instruction set selection unit that selects the instruction set to be executed by a unit.

(2)前記(1)に記載の情報処理装置であって、前記検知部は、前記操作パラメータの初期値を保持する初期値記憶部と、ユーザが操作した前記操作パラメータと前記初期値記憶部が保持する初期値とが相違するかを比較するパラメータ比較部とを備えた情報処理装置。   (2) The information processing apparatus according to (1), wherein the detection unit includes an initial value storage unit that stores an initial value of the operation parameter, the operation parameter operated by a user, and the initial value storage unit. An information processing apparatus comprising a parameter comparison unit that compares whether or not the initial value held by is different.

(3)前記(1)から(2)のうちいずれか1つに記載の情報処理装置であって、前記命令セット記憶部は、前記命令セットを、前記操作パラメータの組み合わせ分だけ保持する情報処理装置。   (3) The information processing apparatus according to any one of (1) to (2), wherein the instruction set storage unit holds the instruction set for a combination of the operation parameters. apparatus.

(4)情報処理装置内の検知部が、ユーザの操作した操作パラメータを検知し、前記情報処理装置内の命令セット選択部が、前記検知部による検知結果に基づき、命令セット記憶部が保持する、自装置内のグラフィックス・プロセッシング・ユニットにおいて実行される、操作パラメータに対応した画像処理命令の組み合わせである命令セットの中から、該グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択する情報処理方法。   (4) The detection unit in the information processing apparatus detects an operation parameter operated by the user, and the instruction set selection unit in the information processing apparatus holds the instruction set storage unit based on the detection result by the detection unit. The instruction set to be executed by the graphics processing unit is selected from an instruction set which is a combination of image processing instructions corresponding to the operation parameters and is executed in the graphics processing unit in the apparatus. Information processing method.

(5)複数の画像処理命令を実行可能なグラフィックス・プロセッシング・ユニットを具備するコンピュータを動作させる情報処理プログラムであって、前記画像処理命令に対応した操作パラメータの、ユーザによる操作を検知する検知部、前記グラフィックス・プロセッシング・ユニットにおいて実行される前記画像処理命令の組み合わせを命令セットとして保持する命令セット記憶部、および前記検知部の検知結果に基づき、前記命令セット記憶部が保持する前記命令セットの中から、前記グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択する命令セット選択部として、前記コンピュータを機能させるための情報処理プログラム。   (5) An information processing program for operating a computer including a graphics processing unit capable of executing a plurality of image processing instructions, and detecting a user operation of an operation parameter corresponding to the image processing instruction. , An instruction set storage unit that holds the combination of the image processing instructions executed in the graphics processing unit as an instruction set, and the instruction that the instruction set storage unit holds based on the detection result of the detection unit An information processing program for causing the computer to function as an instruction set selection unit that selects the instruction set to be executed by the graphics processing unit from the set.

10…情報処理装置
11…CPU部
12…GPU部
18…操作入力装置
19…表示装置
51…初期値記憶部
52…パラメータ比較部
53…命令セット記憶部
54…命令セット選択部
DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus 11 ... CPU part 12 ... GPU part 18 ... Operation input device 19 ... Display apparatus 51 ... Initial value memory | storage part 52 ... Parameter comparison part 53 ... Instruction set memory | storage part 54 ... Instruction set selection part

Claims (5)

複数の画像処理命令を実行可能なグラフィックス・プロセッシング・ユニットと、
前記画像処理命令に対応した操作パラメータの、ユーザによる操作を検知する検知部と、
前記グラフィックス・プロセッシング・ユニットにおいて実行される前記画像処理命令の組み合わせを命令セットとして保持する命令セット記憶部と、
前記パラメータ比較部における比較結果に基づき、前記命令セット記憶部が保持する前記命令セットの中から、前記グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択する命令セット選択部と
を備えた情報処理装置。
A graphics processing unit capable of executing multiple image processing instructions;
A detection unit for detecting an operation by a user of an operation parameter corresponding to the image processing command;
An instruction set storage unit that holds a combination of the image processing instructions executed in the graphics processing unit as an instruction set;
Information including an instruction set selection unit that selects the instruction set to be executed by the graphics processing unit from the instruction sets held by the instruction set storage unit based on the comparison result in the parameter comparison unit. Processing equipment.
請求項1に記載の情報処理装置であって、
前記検知部は、
前記操作パラメータの初期値を保持する初期値記憶部と、
ユーザが操作した前記操作パラメータと前記初期値記憶部が保持する初期値とが相違するかを比較するパラメータ比較部と
を備えた情報処理装置。
The information processing apparatus according to claim 1,
The detector is
An initial value storage unit for storing initial values of the operation parameters;
An information processing apparatus comprising: a parameter comparison unit that compares whether the operation parameter operated by a user is different from an initial value held by the initial value storage unit.
請求項1に記載の情報処理装置であって、
前記命令セット記憶部は、前記命令セットを、前記操作パラメータの組み合わせ分だけ保持する情報処理装置。
The information processing apparatus according to claim 1,
The instruction set storage unit is an information processing apparatus that holds the instruction set for a combination of the operation parameters.
情報処理装置内の検知部が、ユーザの操作した操作パラメータを検知し、
前記情報処理装置内の命令セット選択部が、前記検知部による検知結果に基づき、命令セット記憶部が保持する、自装置内のグラフィックス・プロセッシング・ユニットにおいて実行される、操作パラメータに対応した画像処理命令の組み合わせである命令セットの中から、該グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択する
情報処理方法。
The detection unit in the information processing device detects the operation parameter operated by the user,
The image corresponding to the operation parameter executed by the graphics processing unit in the own device held by the instruction set storage unit, based on the detection result by the detection unit, by the instruction set selection unit in the information processing apparatus. An information processing method for selecting the instruction set to be executed by the graphics processing unit from an instruction set which is a combination of processing instructions.
複数の画像処理命令を実行可能なグラフィックス・プロセッシング・ユニットを具備するコンピュータを動作させる情報処理プログラムであって、
前記画像処理命令に対応した操作パラメータの、ユーザによる操作を検知する検知部、
前記グラフィックス・プロセッシング・ユニットにおいて実行される前記画像処理命令の組み合わせを命令セットとして保持する命令セット記憶部、および
前記パラメータ比較部における比較結果に基づき、前記命令セット記憶部が保持する前記命令セットの中から、前記グラフィックス・プロセッシング・ユニットに実行させる前記命令セットを選択する命令セット選択部として、前記コンピュータを機能させるための情報処理プログラム。
An information processing program for operating a computer including a graphics processing unit capable of executing a plurality of image processing instructions,
A detection unit for detecting an operation by a user of an operation parameter corresponding to the image processing instruction;
An instruction set storage unit that holds a combination of the image processing instructions executed in the graphics processing unit as an instruction set, and the instruction set that the instruction set storage unit holds based on a comparison result in the parameter comparison unit An information processing program for causing the computer to function as an instruction set selection unit that selects the instruction set to be executed by the graphics processing unit.
JP2012090853A 2012-04-12 2012-04-12 Information processing device, information processing method, and information processing program Pending JP2013218631A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012090853A JP2013218631A (en) 2012-04-12 2012-04-12 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012090853A JP2013218631A (en) 2012-04-12 2012-04-12 Information processing device, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2013218631A true JP2013218631A (en) 2013-10-24

Family

ID=49590623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012090853A Pending JP2013218631A (en) 2012-04-12 2012-04-12 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP2013218631A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015141860A1 (en) * 2014-03-17 2015-09-24 Ricoh Company, Ltd. Image processing apparatus, imaging apparatus, image processing program, and image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015141860A1 (en) * 2014-03-17 2015-09-24 Ricoh Company, Ltd. Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2015177391A (en) * 2014-03-17 2015-10-05 株式会社リコー Image processing apparatus, imaging apparatus, image processing program, and image processing method
US10063827B2 (en) 2014-03-17 2018-08-28 Ricoh Company, Ltd. Image processing apparatus, imaging apparatus, image processing program, and image processing method

Similar Documents

Publication Publication Date Title
JP6970283B2 (en) Image stitching method and device, storage medium
US7969444B1 (en) Distributed rendering of texture data
US8478072B2 (en) Device, method, and program for image processing
CN111292236B (en) Method and computing system for reducing aliasing artifacts in foveal gaze rendering
US20160203583A1 (en) Method and apparatus for controlling spatial resolution in a computer system
US11544818B2 (en) Enhancing high-resolution images with data from low-resolution images
CN109151540A (en) The interaction processing method and device of video image
US9536282B2 (en) Method and apparatus for controlling spatial resolution in a computer system
US20240029211A1 (en) History clamping for denoising dynamic ray-traced scenes using temporal accumulation
US9652886B2 (en) Rendering processing device and rendering processing method using interpolation rendering result
CN109493331B (en) Method for rapidly acquiring overlapping area of two images based on parallel computing algorithm
CN109600667B (en) Video redirection method based on grid and frame grouping
CN115170709A (en) Dynamic image editing method and device and electronic equipment
JP4797039B2 (en) Image composition method and apparatus
CN109598672B (en) Map road rendering method and device
JP2013101363A (en) Screen saver generation device and screen saver generation method
JP2013218631A (en) Information processing device, information processing method, and information processing program
JPH02228175A (en) Dialog type large picture processing method
US9818210B2 (en) Pixel-aligned drawing to avoid anti-aliasing
US20200118244A1 (en) Data processing systems
US10165200B2 (en) Processing multiple image frames
JP2010085599A (en) Screen saver generating device and screen saver generating method
JP2013225756A (en) Information processing device and information processing method
JP5924127B2 (en) Movie generation apparatus, movie generation method, and program
KR20220155117A (en) Method and apparatus of displaying image