JP2013225756A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2013225756A
JP2013225756A JP2012096924A JP2012096924A JP2013225756A JP 2013225756 A JP2013225756 A JP 2013225756A JP 2012096924 A JP2012096924 A JP 2012096924A JP 2012096924 A JP2012096924 A JP 2012096924A JP 2013225756 A JP2013225756 A JP 2013225756A
Authority
JP
Japan
Prior art keywords
image
processing
information
unit
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012096924A
Other languages
Japanese (ja)
Inventor
Yuji Nishimaki
悠史 西牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012096924A priority Critical patent/JP2013225756A/en
Publication of JP2013225756A publication Critical patent/JP2013225756A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device and an information processing method, capable of making image processing faster by optimization of a processing range, and omitting rendering processing onto memory even when performing realtime moving image preview.SOLUTION: An information processing device comprises: an image input unit which inputs an image having identification information; an image processing unit which processes the input image; a detection unit which compares the input image used as a first image and the image output from the image processing unit used as a second image and detects an image-processed region; a region information generation unit which generates region information indicating the detected region; a storage unit which associates the generated region information with identification information of the first image and stores the information; and a processing range specification unit which specifies a region to be processed in the first image when the image processing unit reprocesses the first image on the basis of the information stored in the storage unit.

Description

本技術は、GPU(Graphics Processing Unit)を用いて画像のエフェクト処理を行う情報処理装置に関する。   The present technology relates to an information processing apparatus that performs image effect processing using a GPU (Graphics Processing Unit).

画像処理の分野においても、以前は専用ハードウェアでのみ実装可能であった処理が、汎用計算機上において実行されるプログラムにより実装される状況が本格的になってきた。それは、CPUやメモリの性能向上により、プログラムによる実装でも、ユーザが満足する程度の処理速度が得られるようになったからである。   Also in the field of image processing, the situation where processing that could previously be implemented only with dedicated hardware has been implemented by a program executed on a general-purpose computer has become serious. This is because the processing speed that can satisfy the user can be obtained even with the implementation by the program due to the improvement of the performance of the CPU and the memory.

また、近年では計算機に組み込まれているグラフィック・レンダリング用のGPUを、レンダリングのみならず、他の数値演算にも利用するGPGPU (General−Purpose computing on Graphics Processing Units; GPUによる汎目的計算)という技術分野が存在する。   Further, in recent years, a technique called GPU (General-Purpose computing on Graphics Processing Units) that uses a graphics rendering GPU incorporated in a computer not only for rendering but also for other numerical operations. There is a field.

GPUは安価なうえ、入手が容易であり、かつ高速な演算が実現できるため、画像の特殊効果(エフェクト)などの処理を行うGPUを組み込んだ編集システムがローコストで開発できるようになった。   Since GPUs are inexpensive, easy to obtain, and capable of high-speed computation, editing systems incorporating GPUs that perform special effects (effects) of images can be developed at low cost.

しかしながら、単純にGPU上で動作するプログラムを作成し、実行すれば、簡単に高速化が図れるというわけではない。サイズの大きな画像の処理や、演算量の多い画像処理を、リアルタイムに実現するには、そのプログラム開発において、画像処理アルゴリズムの工夫や、実装上の工夫が必要である。   However, simply creating and executing a program that runs on the GPU does not mean that the speed can be easily increased. In order to realize real-time processing of large-size images and image processing with a large amount of calculation, it is necessary to devise image processing algorithms and implementation in the program development.

最近では、動画編集において、画像処理の結果を表示するプレビュー表示品質の最適化を行う工夫に言及する発明が公開されている。   Recently, in moving image editing, an invention that refers to a device for optimizing preview display quality for displaying the result of image processing has been disclosed.

例えば特許文献1では、動画編集システムにおいて、編集中の動画の編集効果をリアルタイムで確認する場合に、編集目的によって要求されるプレビュー表示品質が異なる場合でも、その編集目的に対応するプレビュー表示をすることができる動画編集システムが開示されている。   For example, in Patent Document 1, when the editing effect of a moving image being edited is confirmed in real time in the moving image editing system, even if the preview display quality required differs depending on the editing purpose, a preview display corresponding to the editing purpose is performed. A video editing system that can do this is disclosed.

特開2006−101236号公報JP 2006-101236 A

画像処理を行った動画のプレビューを行う場合、リアルタイム性を確保する為に画像処理の処理結果を一旦メモリ上にレンダリングするのが一般的である。そしてメモリ上へのレンダリングには膨大な時間がかかるので、ユーザはプレビュー操作に際し、レンダリング処理が終了するまで長時間待たなければならなかった。また、長尺の映像素材をレンダリングするには多くのメモリが使用されるので、映像編集用のシステムメモリが圧迫されていた。   When previewing a moving image that has been subjected to image processing, the processing result of the image processing is generally once rendered on a memory in order to ensure real-time performance. Since rendering on the memory takes an enormous amount of time, the user has to wait for a long time to complete the rendering process when performing a preview operation. In addition, since a lot of memory is used to render a long video material, the system memory for video editing has been under pressure.

特許文献1には、プレビューを行う際に編集目的に合わせたプレビュー表示を行う技術は開示されているが、プレビュー開始までの待ち時間を短縮する技術、例えば、プレビュー開始前のレンダリング処理を行わずにプレビューを行う技術は開示されていない。   Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for performing a preview display in accordance with an editing purpose when previewing, but a technique for shortening a waiting time until the preview starts, for example, a rendering process before starting the preview is not performed. No technique for previewing is disclosed.

以上のような事情に鑑み、本技術の目的は、処理範囲の最適化により画像処理を高速化することができ、リアルタイムの動画プレビューを行う際にも、メモリ上へのレンダリング処理を省略することができる情報処理装置および情報処理方法を提供することにある。   In view of the circumstances as described above, the object of the present technology is to speed up image processing by optimizing the processing range, and to omit rendering processing on the memory even when performing real-time video preview. It is to provide an information processing apparatus and an information processing method capable of performing the above.

(1)上記目的を達成するため、本技術の一形態に係る情報処理装置は、識別情報を有する画像を入力する画像入力部と、前記入力された画像の処理を行う画像処理部と、前記入力された画像を第1の画像、前記画像処理部より出力された画像を第2の画像として、前記第1の画像と前記第2の画像とを比較して前記処理が行われた領域を検出する検出部と、前記検出された領域を示す領域情報を生成する領域情報生成部と、前記生成された領域情報と前記第1の画像の識別情報とを紐づけて記憶する記憶部と、前記記憶部に記憶された情報をもとに、前記第1の画像に対して前記画像処理部にて再度処理を行う場合の当該第1の画像における処理対象の領域を特定する処理範囲特定部とを具備する。   (1) In order to achieve the above object, an information processing apparatus according to an aspect of the present technology includes an image input unit that inputs an image having identification information, an image processing unit that processes the input image, The input image is the first image, the image output from the image processing unit is the second image, the first image and the second image are compared, and the region where the processing has been performed A detection unit that detects, a region information generation unit that generates region information indicating the detected region, a storage unit that associates and stores the generated region information and the identification information of the first image, Based on information stored in the storage unit, a processing range specifying unit that specifies a processing target area in the first image when the image processing unit processes the first image again. It comprises.

本技術では、画像入力部が受け付けた入力画像に対し、まず画像処理部が画像処理を行う。そして検出部が入力画像と画像処理した結果の処理結果画像とを比較し、画像処理が行われた領域を検出する。そして領域情報生成部が、検出した領域に基づき、再度同じ画像に対して同様の画像処理を行う場合に画像処理の計算量を減らせるように、画像処理の処理範囲を示す領域情報を生成する。生成された領域情報は、同じ画像を再処理する際に利用できるよう、入力画像(第1の画像)の識別情報と紐づけて記憶部に蓄積される。再度同じ画像を受け付けた際には、処理範囲特定部が、記憶部から取得した情報により画像処理の処理範囲を特定する。画像処理部は、特定された処理範囲に対してのみ画像処理を行う。これにより、本技術では、画像処理にかかる処理時間を短縮することができる。また、画像処理の時間短縮により、リアルタイムの動画プレビューを行う際にも、メモリ上へのレンダリング処理を省略することができる。   In the present technology, the image processing unit first performs image processing on the input image received by the image input unit. Then, the detection unit compares the input image with the processing result image obtained as a result of the image processing, and detects a region where the image processing has been performed. Then, based on the detected area, the area information generation unit generates area information indicating the processing range of the image processing so that the amount of calculation of the image processing can be reduced when the same image processing is performed again on the same image. . The generated region information is stored in the storage unit in association with the identification information of the input image (first image) so that it can be used when reprocessing the same image. When the same image is received again, the processing range specifying unit specifies the processing range of the image processing based on the information acquired from the storage unit. The image processing unit performs image processing only on the specified processing range. Thereby, in this technique, the processing time concerning image processing can be shortened. Also, due to the shortening of the image processing time, rendering processing on the memory can be omitted even when performing a real-time video preview.

(2)また、本技術の一形態に係る情報処理装置では、前記画像処理部は、前記第1の画像に対してユーザより指定された範囲を少なくとも含む条件に従って処理を行う。最初に行う画像処理では、その処理範囲がユーザにより指定される。そして再度処理を行う際には、ユーザによる指定無しに画像処理を行うので、再処理時にユーザが範囲指定を行う手間を省くことができる。   (2) In the information processing apparatus according to an aspect of the present technology, the image processing unit performs processing according to a condition including at least a range designated by the user with respect to the first image. In the first image processing, the processing range is designated by the user. When the process is performed again, the image process is performed without the designation by the user, so that it is possible to save the user from specifying the range at the time of reprocessing.

(3)また、本技術の一形態に係る情報処理装置では、前記処理範囲特定部は、再度処理を行う前記第1の画像の前記識別情報に紐づけられた前記領域情報をもとに当該第1の画像における処理対象の領域を特定する。再度同じ画像を受け付けた際、処理範囲特定部は、画像処理の処理範囲を特定するのに、その入力画像(第1の画像)の識別情報に基づき、記憶部から対応する領域情報を取得するので、領域情報の取得が容易にできる。   (3) Moreover, in the information processing apparatus according to an aspect of the present technology, the processing range specifying unit performs the processing based on the region information associated with the identification information of the first image to be processed again. An area to be processed in the first image is specified. When the same image is received again, the processing range specifying unit acquires the corresponding region information from the storage unit based on the identification information of the input image (first image) in order to specify the processing range of the image processing. Therefore, the area information can be easily acquired.

(4)また、本技術の一形態に係る情報処理装置では、前記第1の画像は、時間軸に沿って連続的に変化する複数の画像の一つであり、前記識別情報は、前記第1の画像に対応する時間軸上の時刻情報である。本技術の一形態に係る情報処理装置は、映像編集装置であることが想定されるので、動画映像の各フレームには対応する時間軸上の時刻情報であるタイムコードが付けられている。この時刻情報を識別情報として用いることにより、別途識別情報を設ける手間を省くことができる。   (4) In the information processing apparatus according to an aspect of the present technology, the first image is one of a plurality of images continuously changing along a time axis, and the identification information is the first information This is time information on the time axis corresponding to one image. Since an information processing apparatus according to an embodiment of the present technology is assumed to be a video editing apparatus, each frame of a moving image has a time code that is time information on the corresponding time axis. By using this time information as identification information, it is possible to save the trouble of providing identification information separately.

(5)また、本技術の一形態に係る情報処理装置では、前記処理範囲特定部は、再度処理を行う前記第1の画像の前記時刻情報が前記記憶部に記憶されていない場合、当該時刻情報に最も近い時刻情報に紐づけられた前記領域情報をもとに当該第1の画像における処理対象の領域を特定する。時刻情報は時間軸に沿って連続して並んでいるので、処理する画像の時刻情報に紐づけられた領域情報が記憶部に無い場合でも、その時刻情報に最も近い時刻情報に紐づけられた領域情報があれば、その領域情報を用いて画像処理の処理範囲を特定することができる。   (5) Moreover, in the information processing device according to an aspect of the present technology, the processing range specifying unit performs the time when the time information of the first image to be processed again is not stored in the storage unit. A region to be processed in the first image is specified based on the region information associated with the time information closest to the information. Since the time information is continuously arranged along the time axis, even if there is no area information associated with the time information of the image to be processed in the storage unit, it is associated with the time information closest to the time information. If there is area information, the area of image processing can be specified using the area information.

(6)また、本技術の一形態に係る情報処理装置は、前記画像処理部は、グラフィックス・プロセッシング・ユニットであり、前記領域情報生成部は、前記グラフィックス・プロセッシング・ユニットの特性に基づいて前記領域情報の生成を行う構成でもよい。この構成によると、グラフィックス・プロセッシング・ユニットの特性に基づいて領域情報の生成を行うことにより、画像処理を、利用するグラフィックス・プロセッシング・ユニットの特性に合わせて最適化することができる。   (6) In the information processing apparatus according to an embodiment of the present technology, the image processing unit is a graphics processing unit, and the region information generation unit is based on characteristics of the graphics processing unit. The region information may be generated. According to this configuration, by generating the region information based on the characteristics of the graphics processing unit, the image processing can be optimized according to the characteristics of the graphics processing unit to be used.

(7)また、本技術の一形態に係る情報処理装置では、前記グラフィックス・プロセッシング・ユニットは、前記画像処理を複数の処理単位に分割して実行可能であり、
前記領域情報生成部は、前記検出された領域を、前記グラフィックス・プロセッシング・ユニットによる画像処理の空間的な単位に分解する領域情報を生成する構成でもよい。この構成によると、検出された領域をグラフィックス・プロセッシング・ユニットによる画像処理の空間的な単位に分解した情報として領域情報を作成するので、グラフィックス・プロセッシング・ユニットにおける画像処理を最適化することができる。
(7) In the information processing apparatus according to an aspect of the present technology, the graphics processing unit can execute the image processing by dividing the image processing into a plurality of processing units.
The region information generation unit may generate region information that decomposes the detected region into spatial units of image processing by the graphics processing unit. According to this configuration, area information is created as information obtained by disassembling the detected area into spatial units of image processing by the graphics processing unit, so that image processing in the graphics processing unit is optimized. Can do.

(8)また、本技術の他の形態に係る情報処理方法は、情報処理装置内の画像入力部が、識別情報を有する画像を入力し、前記情報処理装置内の画像処理部が、前記入力された画像の処理を行い、前記情報処理装置内の検出部が、前記入力された画像を第1の画像、前記画像処理部より出力された画像を第2の画像として、前記第1の画像と前記第2の画像とを比較して前記処理が行われた領域を検出し、前記情報処理装置内の領域情報生成部が、前記検出された領域を示す領域情報を生成し、前記情報処理装置内の記憶部が、前記生成された領域情報と前記第1の画像の識別情報とを紐づけて記憶し、前記情報処理装置内の処理範囲特定部が、前記記憶部に記憶された情報をもとに、前記第1の画像に対して前記画像処理部にて再度処理を行う場合の当該第1の画像における処理対象の領域を特定する。   (8) In the information processing method according to another aspect of the present technology, the image input unit in the information processing apparatus inputs an image having identification information, and the image processing unit in the information processing apparatus The detected image is processed, and the detection unit in the information processing apparatus uses the input image as the first image and the image output from the image processing unit as the second image. And the second image are detected to detect a region where the processing has been performed, and a region information generation unit in the information processing device generates region information indicating the detected region, and the information processing The storage unit in the apparatus stores the generated region information and the identification information of the first image in association with each other, and the processing range specifying unit in the information processing apparatus stores the information stored in the storage unit Based on the above, the image processing unit processes the first image again. Cormorant identify areas of the processing target in the first image in the case.

以上のように、本技術によれば、処理範囲の最適化により画像処理を高速化することができ、リアルタイムの動画プレビューを行う際にも、メモリ上へのレンダリング処理を省略することができる。   As described above, according to the present technology, it is possible to speed up the image processing by optimizing the processing range, and it is possible to omit the rendering process on the memory when performing the real-time moving image preview.

情報処理装置のハードウェア構成を表すブロック図である。It is a block diagram showing the hardware constitutions of information processing apparatus. カラーグレーディング処理における、アプリケーションソフトウェアの、ハードウェアを含む実行形態を表す図である。It is a figure showing the execution form containing the hardware of application software in a color grading process. カラーグレーディング処理における具体的なワークフローを示す図である。It is a figure which shows the specific workflow in a color grading process. カラーグレーディング処理における具体例を示すフローチャートである。It is a flowchart which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示すフローチャートである。It is a flowchart which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示すフローチャートである。It is a flowchart which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. カラーグレーディング処理における具体例を示す図である。It is a figure which shows the specific example in a color grading process. 本技術を適用した映像処理プラグインプログラムの機能ブロック図である。It is a functional block diagram of a video processing plug-in program to which the present technology is applied. エフェクト処理制御パラメータの具体例を示す図である。It is a figure which shows the specific example of an effect process control parameter. 処理領域限定情報の例を示す図である。It is a figure which shows the example of process area limitation information. 本技術の実施形態における処理の流れのうち、全体の概略を示すフローチャートである。It is a flowchart which shows the outline of the whole among the flow of the process in embodiment of this technique. 本技術の実施形態における処理の流れのうち、「処理領域限定情報の新規登録/更新」処理の部分を示すフローチャートである。It is a flowchart which shows the part of the "new registration / update of a process area limitation information" process among the process flows in embodiment of this technique. 本技術の実施形態における処理の流れのうち、「処理領域限定情報の抽出」処理の部分を示すフローチャートである。It is a flowchart which shows the part of the "extraction of process area | region limitation information" process among the flow of the process in embodiment of this technique. エフェクト効果領域情報の例を示す図である。It is a figure which shows the example of effect effect area | region information. エフェクト効果領域情報をGPUカーネルの処理単位に分割した例を示す図である。It is a figure which shows the example which divided | segmented effect effect area | region information into the processing unit of GPU kernel. マスク画像の例である。It is an example of a mask image. 本技術の実施形態における処理の流れのうち、「処理領域限定情報の利用」処理の部分を示すフローチャートである。It is a flowchart which shows the part of a "use of process area limitation information" process among the process flows in embodiment of this technique.

以下、本技術に係る実施形態を、図面を参照しながら説明する。
本技術の適用例としてカラーグレーディング処理を挙げる。最初にGPU(Graphics Processing Unit)を用いたハードウェア構成を説明し、次に、一般的なカラーグレーディング処理について説明し、最後に、本技術をカラーグレーディング処理に適用する場合の説明を行う。
Hereinafter, embodiments according to the present technology will be described with reference to the drawings.
A color grading process is given as an application example of the present technology. First, a hardware configuration using a GPU (Graphics Processing Unit) will be described, then a general color grading process will be described, and finally, a case where the present technology is applied to the color grading process will be described.

[情報処理装置のハードウェア構成]
図1は、情報処理装置10のハードウェア構成を表すブロック図である。情報処理装置10は、具体的には、カラーグレーディング処理などの映像編集を行う映像編集装置が例として挙げられる。
[Hardware configuration of information processing device]
FIG. 1 is a block diagram illustrating a hardware configuration of the information processing apparatus 10. Specific examples of the information processing apparatus 10 include a video editing apparatus that performs video editing such as color grading processing.

情報処理装置10は、CPU部11、GPU部12、記憶装置13、表示インターフェース14、操作インターフェース15、ネットワークインターフェース16、これらを相互に接続するバス17を備える。   The information processing apparatus 10 includes a CPU unit 11, a GPU unit 12, a storage device 13, a display interface 14, an operation interface 15, a network interface 16, and a bus 17 that connects these components to each other.

CPU部11は、CPU111とメモリ112(以下「CPUメモリ」と呼ぶ。)を有し、CPUメモリ112に格納されたプログラムを実行させることによってCPUメモリ112上で各種の演算処理に関する命令を実行する。CPU部11は、操作インターフェース15に接続された操作入力装置18を通じてユーザより入力された指令を解釈してプログラムの動作に反映させる。例えば、CPU部11は、記憶装置13に記憶された画像データを読み出してCPUメモリ112に取り込み、この画像データに対してエフェクト等の処理を行ったりすることができる。CPUメモリ112に保持された画像データは表示インターフェース14に供給され、ここで描画処理されることによって可視的な描画データとされ、必要に応じて後述するGPU部12によって処理された画像の描画データとマージされて表示装置19に出力される。さらにCPU部11は、CPUメモリ112に保持された処理後の画像データを、必要に応じて、GPU部12によって処理された画像データとマージして記憶装置13に書き戻したりするように制御を行うことが可能である。   The CPU unit 11 includes a CPU 111 and a memory 112 (hereinafter referred to as “CPU memory”), and executes instructions related to various arithmetic processes on the CPU memory 112 by executing a program stored in the CPU memory 112. . The CPU unit 11 interprets a command input by the user through the operation input device 18 connected to the operation interface 15 and reflects it in the operation of the program. For example, the CPU unit 11 can read out image data stored in the storage device 13 and import the image data into the CPU memory 112 to perform processing such as effects on the image data. The image data held in the CPU memory 112 is supplied to the display interface 14, and is rendered as rendering data by being rendered here, and the rendering data of the image processed by the GPU unit 12, which will be described later, as necessary. And are output to the display device 19. Further, the CPU unit 11 performs control so that the processed image data held in the CPU memory 112 is merged with the image data processed by the GPU unit 12 and written back to the storage device 13 as necessary. Is possible.

GPU部12は、GPU121とメモリ122(以下「GPUメモリ122」と呼ぶ。)とを有し、GPUメモリ122に格納されたプログラムを実行させることによってGPUメモリ122上でエフェクトなどの画像処理を並列演算処理により実行することが可能である。GPUメモリ122に保持された画像データは表示インターフェース14に供給され、ここで描画処理によって可視的な描画データとされ、必要に応じて、上記のGPU部12によって処理された画像の描画データとマージされて表示装置19に出力される。   The GPU unit 12 includes a GPU 121 and a memory 122 (hereinafter referred to as “GPU memory 122”), and by executing a program stored in the GPU memory 122, image processing such as effects is performed in parallel on the GPU memory 122. It can be executed by arithmetic processing. The image data held in the GPU memory 122 is supplied to the display interface 14 where it is made visible drawing data by drawing processing, and merged with the drawing data of the image processed by the GPU unit 12 as necessary. And output to the display device 19.

CPU部11とGPU部12との間は、バス17により接続されており、映像に対する演算処理を行う際、CPU部とGPU部12との間では、CPUメモリ112、バス17、およびGPUメモリ122を介して、データ転送が行われる。   The CPU unit 11 and the GPU unit 12 are connected by a bus 17, and when performing arithmetic processing on video, the CPU memory 112, the bus 17, and the GPU memory 122 are between the CPU unit and the GPU unit 12. Data transfer is performed via

表示インターフェース14は、表示装置19とのインターフェースであり、CPU部11およびGPU部12より供給された画像データの描画処理を行い、必要に応じて、CPU部11により処理された画像の描画データとGPU部12により処理された画像の描画データをマージして1つの画像の描画データとして表示装置19に供給する。この表示インターフェース14の処理は、例えば、上記のGPU121もしくは別途設けられたGPU(図示せず)により実現される。   The display interface 14 is an interface with the display device 19, performs drawing processing of image data supplied from the CPU unit 11 and the GPU unit 12, and draws image drawing data processed by the CPU unit 11 as necessary. The drawing data of the image processed by the GPU unit 12 is merged and supplied to the display device 19 as drawing data of one image. The processing of the display interface 14 is realized by, for example, the above-described GPU 121 or a separately provided GPU (not shown).

操作インターフェース15は、操作入力装置18とのインターフェースであり、操作入力装置18から入力されたユーザからのデータおよび指令をCPU部11に供給する処理などを行う。   The operation interface 15 is an interface with the operation input device 18, and performs a process of supplying data and commands from the user input from the operation input device 18 to the CPU unit 11.

記憶装置13は、例えば、編集前の画像データおよび編集後の画像データの保存、編集処理をCPU部11およびGPU部12に実行させるための各種のプログラムなどを蓄積する。   The storage device 13 stores, for example, various programs for causing the CPU unit 11 and the GPU unit 12 to store and edit image data before editing and image data after editing.

ネットワークインターフェース16は、ネットワーク30との接続をとるためのインターフェースである。   The network interface 16 is an interface for connecting to the network 30.

CPU111およびGPU121は、後述する各機能ブロックを実現する。CPU111およびGPU121は、CPUメモリ112、GPUメモリ122等に格納されたプログラムを実行して、必要に応じて、上記各部材を制御する。これにより、本実施の形態の情報処理装置10は、種々の機能ブロックを実現することができ、上記各部材を、情報処理装置10として動作させることができる。   CPU111 and GPU121 implement | achieve each function block mentioned later. The CPU 111 and the GPU 121 execute programs stored in the CPU memory 112, the GPU memory 122, and the like, and control the respective members as necessary. Thereby, the information processing apparatus 10 of this Embodiment can implement | achieve various functional blocks, and can operate the said each member as the information processing apparatus 10. FIG.

[アプリケーションソフトウェアの実行形態]
図2は、本技術を適用する具体例の一つであるカラーグレーディング処理における、アプリケーションソフトウェアの、ハードウェアを含む実行形態を表す図である。
[Execution form of application software]
FIG. 2 is a diagram illustrating an execution form including hardware of application software in a color grading process which is one specific example to which the present technology is applied.

本アプリケーションソフトウェアは、映像の読み出しや描画・出力などを行う映像編集プログラムであるアプリケーション本体APと、映像に各種のエフェクト処理を施すサブルーチンであるプラグインプログラムとから構成される。ここでは、プラグインプログラムは、入力された映像に対しフィルタ処理等のエフェクトを施す映像処理プラグインプログラムである。   The application software includes an application main body AP that is a video editing program that reads out, draws, and outputs a video, and a plug-in program that is a subroutine that performs various effect processes on the video. Here, the plug-in program is a video processing plug-in program that applies an effect such as filter processing to the input video.

アプリケーション本体APである映像編集プログラムは、CPU部11において実行される。プラグインプログラムは、CPU部11においてのみ実行されるプログラムと、CPU部11およびGPU部12により実行されるプログラムとに分類される。   A video editing program that is the application main body AP is executed in the CPU unit 11. Plug-in programs are classified into programs that are executed only by the CPU unit 11 and programs that are executed by the CPU unit 11 and the GPU unit 12.

図に示されるように、処理の流れは、アプリケーション本体APが、映像に施すエフェクト処理をスケジューリングし、映像処理プラグインプログラムを呼び出して映像の編集を行う。   As shown in the figure, in the processing flow, the application main body AP schedules effect processing to be applied to the video, calls the video processing plug-in program, and edits the video.

図に沿って、処理の流れを説明する。まず、アプリケーション本体APが映像の読み出しを行い、最初の映像処理プラグインプログラム1(PP1)を呼び出す。映像処理プラグインプログラム1(PP1)は、CPU部11において実行されるプログラム(CPU映像処理プラグイン)なので、GPU部12のリソースは使用されない。   The flow of processing will be described with reference to the drawing. First, the application main body AP reads the video and calls the first video processing plug-in program 1 (PP1). Since the video processing plug-in program 1 (PP1) is a program (CPU video processing plug-in) executed in the CPU unit 11, resources of the GPU unit 12 are not used.

図の右上に、CPU映像処理プラグインにおける処理の詳細を示す。アプリケーション本体APは、映像処理プラグインプログラム1(PP1)を呼び出し、画像の処理を依頼するが、その際、CPUメモリ112上の入力バッファIBcに処理を依頼する画像を1フレーム分だけ置く。呼び出された映像処理プラグインプログラム1(PP1)は、入力バッファIBcから画像を受け取り、エフェクト処理1(EP1c)からエフェクト処理N(EPNc)まで、必要なエフェクト処理を行う。そして、映像処理プラグインプログラム1(PP1)は、処理結果をCPUメモリ112上の出力バッファOBcに置き、処理をアプリケーション本体APに戻す。   The upper right of the figure shows details of processing in the CPU video processing plug-in. The application main body AP calls the video processing plug-in program 1 (PP1) and requests image processing. At this time, the image to be processed is placed in the input buffer IBc on the CPU memory 112 for one frame. The called video processing plug-in program 1 (PP1) receives an image from the input buffer IBc, and performs necessary effect processing from effect processing 1 (EP1c) to effect processing N (EPNc). Then, the video processing plug-in program 1 (PP1) places the processing result in the output buffer OBc on the CPU memory 112, and returns the processing to the application main body AP.

アプリケーション本体APは、映像処理プラグインプログラム1(PP1)に続き、様々な映像処理プラグインプログラムを呼び出して処理を進めていく。図では、最後に呼び出されるプラグインプログラムは、映像処理プラグインプログラムN(PPN)である。映像処理プラグインプログラムN(PPN)は、CPU部11およびGPU部12において実行されるプログラムである。   Following the video processing plug-in program 1 (PP1), the application main body AP calls various video processing plug-in programs and proceeds with the processing. In the figure, the plug-in program called last is the video processing plug-in program N (PPN). The video processing plug-in program N (PPN) is a program executed in the CPU unit 11 and the GPU unit 12.

図の右下に、GPU映像処理プラグインにおける処理の詳細を示す。映像処理プラグインプログラムN(PPN)は、アプリケーション本体APから呼び出されると、まず、CPUメモリ112から、GPUメモリ122上の入力バッファIBgに画像を1フレーム分だけ転送する。次に、映像処理プラグインプログラムN(PPN)は、GPU部12上において、入力バッファIBgを介して受け取った画像に対し、エフェクト処理EP1gからエフェクト処理EPNgまで、必要なエフェクト処理を行う。そして、映像処理プラグインプログラムN(PPN)は、処理結果をGPUメモリ122上の出力バッファOBgに置く。最後に、映像処理プラグインプログラムN(PPN)は、出力バッファOBgの内容を、CPUメモリ112に転送し、処理をアプリケーション本体APに戻す。
本技術は、上記のプラグインプログラムにおいて適用することを想定している。
Details of processing in the GPU video processing plug-in are shown in the lower right of the figure. When called from the application main body AP, the video processing plug-in program N (PPN) first transfers an image for one frame from the CPU memory 112 to the input buffer IBg on the GPU memory 122. Next, the video processing plug-in program N (PPN) performs necessary effect processing from the effect processing EP1g to the effect processing EPNg on the image received via the input buffer IBg on the GPU unit 12. Then, the video processing plug-in program N (PPN) places the processing result in the output buffer OBg on the GPU memory 122. Finally, the video processing plug-in program N (PPN) transfers the contents of the output buffer OBg to the CPU memory 112 and returns the processing to the application main body AP.
The present technology is assumed to be applied to the above plug-in program.

[カラーグレーディング処理のワークフロー]
図3は、カラーグレーディング処理における具体的なワークフローを示す図である。
[Color grading process workflow]
FIG. 3 is a diagram showing a specific workflow in the color grading process.

この図にあるように、まず、アプリケーション本体APは、前の工程より編集前の映像素材を受け取る。次に、アプリケーション本体APは、「色調整」、「キーイング」、「デフォーカス/ブラー」などのエフェクト処理を、プラグインプログラムを呼び出すことにより行う。次に、アプリケーション本体APは、「コンポジット」の処理を行い、調整した映像の合成を行う。ここで、合成した結果が満足できるものであれば、アプリケーション本体APは、ここまでの処理を終了し、「レンダリング」の処理により、処理結果の書き出しを行う。書き出した映像は、編集後映像素材として、次の工程に渡される。   As shown in this figure, first, the application main body AP receives the video material before editing from the previous step. Next, the application main body AP performs effect processing such as “color adjustment”, “keying”, and “defocus / blur” by calling a plug-in program. Next, the application main body AP performs a “composite” process and synthesizes the adjusted video. Here, if the synthesized result is satisfactory, the application main body AP ends the processing so far, and writes the processing result by the “rendering” processing. The exported video is passed to the next process as edited video material.

もし、「コンポジット」の処理後に、合成した映像が満足のいくものでなかった場合は、アプリケーション本体APの処理は、最初に戻り、「色調整」、「キーイング」、「デフォーカス/ブラー」などの調整処理が繰り返される。   If the synthesized video is not satisfactory after the “composite” processing, the processing of the application main body AP returns to the beginning, “color adjustment”, “keying”, “defocus / blur”, etc. The adjustment process is repeated.

このように、カラーグレーディング処理とは、画像全体や部分領域に対して色の操作やエフェクト処理を施す処理を指す。ユーザは、「色調整」や「デフォーカス/ブラー」などのエフェクト処理、「キーイング処理」、ミキサ処理である「コンポジット」を組み合わせ、輝度値などのエフェクトパラメータを調整することにより、編集操作を行う。   As described above, the color grading process refers to a process of performing color operation or effect processing on the entire image or a partial area. The user performs an editing operation by combining effect processing such as “color adjustment” and “defocus / blur”, “keying processing”, and “composite” that is a mixer processing, and adjusting effect parameters such as luminance values. .

すなわち、カラーグレーディング処理において、アプリケーション本体APは、画像中の同じ領域に対して、エフェクトパラメータを少し変えたエフェクトを施す処理と、その処理結果を動画としてユーザにプレビューさせる処理とを、ユーザが処理結果に満足するまで繰り返し行うという特徴を持っている。本技術は、この特徴に着目して生み出されたものである。   In other words, in the color grading process, the application main body AP performs a process of applying an effect with slightly changing effect parameters to the same area in the image and a process of causing the user to preview the processing result as a moving image. It has the feature of repeating until it is satisfied with the result. This technology was created by focusing on this feature.

[カラーグレーディング処理の具体例]
図4aから図6dは、カラーグレーディング処理における具体例を示す図である。
[Specific example of color grading process]
4a to 6d are diagrams showing specific examples in the color grading process.

最初に、「色調整」処理の具体例を、図4aのフローチャートおよび図4bから図4dの図を用いて説明する。   First, a specific example of the “color adjustment” process will be described with reference to the flowchart of FIG. 4A and the diagrams of FIGS. 4B to 4D.

まず、アプリケーション本体APは、図4bに示す色調整前の画像に対し、キーイング処理用映像処理プラグインプログラムを用いて、色調整を行う画像領域を選択する。(ステップ1、以下S1と略す)   First, the application main body AP uses the keying processing video processing plug-in program for the image before color adjustment shown in FIG. (Step 1, hereinafter abbreviated as S1)

次に、アプリケーション本体APは、領域選択が適切か否かの判断を行う。(S2)
領域選択が適切であれば、S3の処理に進み、適切でなければS1の処理に戻る。図4cは、適切に領域選択された例である。図中、白く表現された部分が、色調整処理を行う領域として選択された部分である。
Next, the application main body AP determines whether or not the area selection is appropriate. (S2)
If the area selection is appropriate, the process proceeds to S3. If not appropriate, the process returns to S1. FIG. 4c is an example in which a region is appropriately selected. In the drawing, a portion expressed in white is a portion selected as a region for performing color adjustment processing.

S2において領域選択が適切であると判断された場合、次に、アプリケーション本体APは、図4bに示す色調整前の画像に対し、図4cに示す選択領域と色調整用映像処理プラグインプログラムを用いて、選択領域の色調整処理を行う。(S3)   If it is determined in S2 that the area selection is appropriate, the application main body AP then applies the selection area and color adjustment video processing plug-in program shown in FIG. 4c to the image before color adjustment shown in FIG. 4b. Use this to perform color adjustment processing of the selected area. (S3)

次に、アプリケーション本体APは、選択領域に対する色調整の結果が適切か否かを判断する。(S4)
色調整の結果が適切であれば、「色調整」の処理を終了し、適切でなければ、S3の処理に戻り、色調整を繰り返す。
Next, the application main body AP determines whether or not the result of color adjustment for the selected area is appropriate. (S4)
If the result of the color adjustment is appropriate, the “color adjustment” process is terminated. If not, the process returns to S3 and the color adjustment is repeated.

図4dは、色調整の結果を示す図である。処理前の図4bでは緑色(図では右斜線により表現)であった木の色が、黄色(図では左斜線により表現)に変更されていることがわかる。   FIG. 4d is a diagram showing the result of color adjustment. It can be seen that the color of the tree, which was green (represented by the right oblique line in the figure) in FIG. 4b before processing, has been changed to yellow (represented by the left oblique line in the figure).

次に、「デフォーカス」処理の具体例を、図5aのフローチャートおよび図5bから図5dの図を用いて説明する。   Next, a specific example of the “defocus” process will be described with reference to the flowchart of FIG. 5A and the diagrams of FIGS. 5B to 5D.

まず、アプリケーション本体APは、図5bに示すデフォーカス処理前の画像に対し、キーイング処理用映像処理プラグインプログラムを用いて、デフォーカス処理を行う画像領域を選択する。(S5)
次に、アプリケーション本体APは、領域選択が適切か否かの判断を行う。(S6)
領域選択が適切であれば、S7の処理に進み、適切でなければS5の処理に戻る。図5cは、適切に領域選択された例である。図中、白く表現された部分が、デフォーカス(ぼかし)処理を行う領域として選択された部分である。
First, the application main body AP uses the keying processing video processing plug-in program to select an image area to be defocused with respect to the image before the defocus processing shown in FIG. 5B. (S5)
Next, the application main body AP determines whether or not the area selection is appropriate. (S6)
If the area selection is appropriate, the process proceeds to S7. If not appropriate, the process returns to S5. FIG. 5c is an example in which a region is appropriately selected. In the drawing, a portion expressed in white is a portion selected as an area to be defocused (blurred).

S6において領域選択が適切であると判断された場合、次に、アプリケーション本体APは、図5bに示すデフォーカス処理前の画像に対し、図5cに示す選択領域とデフォーカス用映像処理プラグインプログラムを用いて、選択領域のデフォーカス処理を行う。(S7)   If it is determined in S6 that the area selection is appropriate, the application main body AP then selects the selection area and defocus video processing plug-in program shown in FIG. 5c for the image before the defocus processing shown in FIG. 5b. Is used to defocus the selected area. (S7)

次に、アプリケーション本体APは、選択領域に対するデフォーカス処理の結果が適切か否かを判断する。(S8)
デフォーカス処理の結果が適切であれば、「デフォーカス」の処理を終了し、適切でなければ、S7の処理に戻り、デフォーカス処理を繰り返す。
Next, the application main body AP determines whether or not the result of the defocus processing for the selected area is appropriate. (S8)
If the result of the defocus process is appropriate, the “defocus” process is terminated. If not appropriate, the process returns to S7 and the defocus process is repeated.

図5dは、デフォーカス処理の結果を示す図である。処理前の図5bでは雲の境界線は鮮明(図では太い実線により表現)であったが、ぼやけている(図では太い点線により表現)に変更されていることがわかる。   FIG. 5d shows the result of the defocus processing. In FIG. 5b before processing, the boundary line of the cloud is clear (represented by a thick solid line in the figure), but is changed to blurred (represented by a thick dotted line in the figure).

次に、「コンポジット」処理の具体例を、図6aのフローチャートおよび図6bから図6dの図を用いて説明する。   Next, a specific example of the “composite” process will be described with reference to the flowchart of FIG. 6A and the diagrams of FIGS. 6B to 6D.

まず、アプリケーション本体APは、図6bに示す色調整処理後の画像を取得し、映像処理プラグインプログラムを用いて、雲を加算する部分以外をキーイング処理する。(S9)
図6bに示す図では、雲の部分はキーイング処理されないので、黒く抜けている事がわかる。
First, the application main body AP acquires an image after the color adjustment processing shown in FIG. 6B, and performs a keying process on a portion other than a portion to which clouds are added, using a video processing plug-in program. (S9)
In the figure shown in FIG. 6b, it can be seen that the cloud portion is not blacked because it is not keyed.

次に、アプリケーション本体APは、図6cに示すデフォーカス処理後の画像を取得し、映像処理プラグインプログラムを用いて、雲の部分のみをキーイング処理する。(S10)
図6cに示す図では、雲の部分のみがキーイング処理されるので、雲以外の部分が黒く抜けている事がわかる。
Next, the application main body AP acquires the image after the defocus processing shown in FIG. 6c, and performs a keying process on only the cloud portion using the video processing plug-in program. (S10)
In the diagram shown in FIG. 6c, since only the cloud part is keyed, it can be seen that the part other than the cloud is black.

次に、アプリケーション本体APは、映像処理プラグインプログラムを用いて、画像の加算処理を行い、処理を終了する。(S11)
図6dに示す図では、図6bにおいてキーイングされた、雲以外の部分と、図6cにおいてキーイングされた雲の部分とが加算されることにより、色調整の結果とデフォーカス処理の結果とが合成されている。
Next, the application main body AP performs image addition processing using the video processing plug-in program, and ends the processing. (S11)
In the figure shown in FIG. 6d, the result of color adjustment and the result of defocus processing are synthesized by adding the non-cloud part keyed in FIG. 6b and the cloud part keyed in FIG. 6c. Has been.

このように、カラーグレーディング処理では、変更中のエフェクト処理について、エフェクト効果が反映される画像領域が変わらず、領域内のエフェクトパラメータのみを変更する処理がある。また、編集作業の途中において処理内容(輝度値の操作や色の置き換えなど)が確定したエフェクト機能については、各フレームにおいてエフェクト効果が反映される画像領域が決まっているという特徴がある。本技術は、この特徴に着目して生み出されたものである。   As described above, in the color grading process, there is a process of changing only the effect parameter in the area without changing the image area in which the effect is reflected in the effect process being changed. In addition, an effect function whose processing content (luminance value manipulation, color replacement, etc.) is determined in the middle of editing work has a feature that an image area in which the effect effect is reflected is determined in each frame. This technology was created by focusing on this feature.

[本技術の概要]
本技術は、ユーザ操作が繰り返し発生する処理において、エフェクト処理を施す範囲を最適化し、操作毎の体感速度の向上と処理速度の高速化とを実現するための手法を提案するものである。
[Outline of this technology]
The present technology proposes a technique for optimizing a range where effect processing is performed in processing in which user operations are repeatedly generated, and realizing improvement in sensation speed and increase in processing speed for each operation.

本技術は、映像処理プラグインプログラムの内部において実現してもよい。各プラグインプログラムは、画像中においてエフェクト効果がかけられた領域を検出し、その検出結果(以降、エフェクト効果領域情報と呼ぶ)に基づいて、映像処理を実行するデバイス(CPU、GPU等)のデバイスリソースを最適化したり、画像の処理範囲を制限したりする事により、エフェクト処理にかかる処理時間の削減を行う。   The present technology may be realized inside a video processing plug-in program. Each plug-in program detects an area where an effect is applied in an image, and based on the detection result (hereinafter referred to as effect effect area information), a device (CPU, GPU, etc.) that executes video processing Processing time for effect processing is reduced by optimizing device resources and limiting the image processing range.

本技術は、映像編集システムの一部として実現されてもよいので、その場合、素材映像の各フレームには、識別情報として、タイムコードが付けられている。すなわち、入力画像(第1の画像)は、時間軸に沿って連続的に変化する複数の画像の一つであり、識別情報は、入力画像(第1の画像)に対応する時間軸上のタイムコード(時刻情報)である。また、同時に複数の動画を編集する場合、各動画を区別するためにシーケンスIDが用いられる。   Since the present technology may be realized as a part of the video editing system, in this case, a time code is attached to each frame of the material video as identification information. That is, the input image (first image) is one of a plurality of images that continuously change along the time axis, and the identification information is on the time axis corresponding to the input image (first image). Time code (time information). When a plurality of moving images are edited at the same time, a sequence ID is used to distinguish each moving image.

タイムコードおよびシーケンスIDと、画像の処理範囲を制限したりエフェクト処理の計算量を制御したりする情報全般(例えば、マスク画像や、エフェクト処理関数に与える引数など。以降、処理領域限定情報と呼ぶ)とを紐付けしたデータ(以降、エフェクト処理制御パラメータと呼ぶ)を、テーブル(以降、エフェクト処理制御テーブルと呼ぶ)として保持する。   Time code and sequence ID, and general information for limiting the processing range of the image and controlling the amount of calculation of the effect processing (for example, a mask image, an argument given to the effect processing function, etc .; hereinafter referred to as processing region limited information) ) Is stored as a table (hereinafter referred to as an effect processing control table).

エフェクト処理実行時に、各プラグインプログラムは、エフェクト処理制御テーブルを参照して処理領域限定情報を取り出し、エフェクト処理を行う領域を制限することにより、一度エフェクト処理を行った画像について、操作毎の体感速度の向上とエフェクト処理速度の高速化とを実現する。デバイスリソースの最適化を行うので、実行するエフェクトの数とデバイスリソース量との関係に応じて、可能な限り高速に処理を行うことができる。   When effect processing is executed, each plug-in program refers to the effect processing control table to extract processing area limitation information and restricts the area where effect processing is performed. Improve speed and increase effect processing speed. Since device resource optimization is performed, processing can be performed as fast as possible according to the relationship between the number of effects to be executed and the amount of device resources.

また、本技術は、エフェクト処理速度の高速化により、実解像度での高速なプレビュー操作を提供する。プレビュー操作が高速化されるので、本技術では、プレビューをリアルタイムに行う為のメモリレンダリング操作を必要としない。そのため、映像編集用のシステムメモリを圧迫しないという効果がある。   Further, the present technology provides a high-speed preview operation at the actual resolution by increasing the effect processing speed. Since the preview operation is speeded up, the present technology does not require a memory rendering operation for performing the preview in real time. Therefore, there is an effect that the system memory for video editing is not compressed.

[本技術の機能ブロック図]
図7は、本技術を適用した映像処理プラグインプログラム200の機能ブロック図である。
[Functional block diagram of this technology]
FIG. 7 is a functional block diagram of a video processing plug-in program 200 to which the present technology is applied.

映像処理プラグインプログラム200は、機能ブロックとして、入力バッファ210、エフェクト処理部220、出力バッファ230、および処理領域決定部240を含んでいる。また、処理領域決定部240は、差分検出部241、処理領域限定情報抽出部242、エフェクト処理制御テーブル243を含んでいる。   The video processing plug-in program 200 includes an input buffer 210, an effect processing unit 220, an output buffer 230, and a processing area determination unit 240 as functional blocks. In addition, the processing region determination unit 240 includes a difference detection unit 241, a processing region limitation information extraction unit 242, and an effect processing control table 243.

エフェクト処理部220は、CPU111とGPU121のいずれかで実行され、入力バッファ210および出力バッファ230は、エフェクト処理部220がCPU111上において実行される場合は、CPUメモリ112上にあり、エフェクト処理部220がGPU121上において実行される場合は、GPUメモリ122上にある。処理領域決定部240は、CPU111上において実行される。   The effect processing unit 220 is executed by either the CPU 111 or the GPU 121, and the input buffer 210 and the output buffer 230 are on the CPU memory 112 when the effect processing unit 220 is executed on the CPU 111, and the effect processing unit 220. Is executed on the GPU 121, it is on the GPU memory 122. The processing area determination unit 240 is executed on the CPU 111.

入力バッファ210は、アプリケーション本体APから渡された入力画像を受け付け、エフェクト処理部220および差分検出部241に渡す。   The input buffer 210 receives the input image passed from the application main body AP and passes it to the effect processing unit 220 and the difference detection unit 241.

エフェクト処理部220は、入力バッファ210から渡された入力画像に対し、エフェクト処理を行い、処理結果である出力画像を出力バッファ230に渡す。エフェクト処理としては、例えば、キーイング処理、色調整処理、デフォーカス/ブラー処理などが挙げられる。なお、エフェクト処理部220は、入力画像であるフレームのタイムコードおよびシーケンスIDを基に、エフェクト処理制御テーブル243に問い合わせを行う。そして、エフェクト処理部220は、入力画像のタイムコードおよびシーケンスIDに対応した処理領域限定情報を取得し、取得した処理領域限定情報に基づき、エフェクト処理を行う。   The effect processing unit 220 performs effect processing on the input image passed from the input buffer 210 and passes the output image as the processing result to the output buffer 230. Examples of effect processing include keying processing, color adjustment processing, defocus / blur processing, and the like. The effect processing unit 220 makes an inquiry to the effect processing control table 243 based on the time code and sequence ID of the frame that is the input image. Then, the effect processing unit 220 acquires processing area limitation information corresponding to the time code and sequence ID of the input image, and performs effect processing based on the acquired processing area limitation information.

出力バッファ230は、エフェクト処理部220から渡された出力画像を、差分検出部241に渡すとともに、映像処理プラグインプログラムの処理が終了しアプリケーション本体APに処理が戻る際に、アプリケーション本体APに渡す。   The output buffer 230 passes the output image passed from the effect processing unit 220 to the difference detection unit 241 and passes it to the application main body AP when the processing of the video processing plug-in program ends and the processing returns to the application main body AP. .

差分検出部241は、入力バッファ210から渡されたエフェクト処理前の入力画像と、出力バッファ230から渡されたエフェクト処理後の出力画像とを比較し、差分を検出する。そして、差分検出部241は、検出された差分を、エフェクト効果領域情報として、処理領域限定情報抽出部242に渡す。   The difference detection unit 241 compares the input image before effect processing passed from the input buffer 210 with the output image after effect processing passed from the output buffer 230, and detects a difference. Then, the difference detection unit 241 passes the detected difference to the processing region limitation information extraction unit 242 as effect effect region information.

処理領域限定情報抽出部242は、差分検出部241から受け取ったエフェクト効果領域情報を、処理領域限定情報に変換し、変換した処理領域限定情報をエフェクト処理制御テーブルに渡す。エフェクト効果領域情報から処理領域限定情報への変換について、詳細は後述する。   The processing area limitation information extraction unit 242 converts the effect effect area information received from the difference detection unit 241 into processing area limitation information, and passes the converted processing area limitation information to the effect processing control table. Details of the conversion from the effect effect area information to the processing area limited information will be described later.

エフェクト処理制御テーブル243は、エフェクト処理部220から受け取った入力画像のタイムコードやシーケンスIDと、処理領域限定情報抽出部242から受け取った処理領域限定情報とを紐づけて、エフェクト処理制御パラメータとして記憶する。また、エフェクト処理部220が、入力画像のタイムコードおよびシーケンスIDをキーとして、エフェクト処理制御パラメータの問い合わせた際、該当するタイムコードおよびシーケンスIDが存在する場合、エフェクト処理制御テーブル243は、そのタイムコードおよびシーケンスIDに対応した処理領域限定情報をエフェクト処理部220に返す。   The effect processing control table 243 associates the time code or sequence ID of the input image received from the effect processing unit 220 with the processing region limitation information received from the processing region limitation information extraction unit 242 and stores it as an effect processing control parameter. To do. When the effect processing unit 220 inquires about the effect processing control parameter using the time code and sequence ID of the input image as keys, if the corresponding time code and sequence ID exist, the effect processing control table 243 displays the time Processing area limitation information corresponding to the code and sequence ID is returned to the effect processing unit 220.

なお、エフェクト処理制御パラメータの具体例を図8に示す。この例では、一つのタイムコードおよびシーケンスIDの組み合わせに対し、複数の処理領域限定情報が紐づけられており、一度に複数の処理領域限定情報がエフェクト処理に利用されることを示している。   A specific example of the effect processing control parameter is shown in FIG. In this example, a plurality of processing area limitation information is associated with one combination of time code and sequence ID, indicating that a plurality of processing area limitation information is used for effect processing at a time.

また、一つのタイムコードおよびシーケンスIDの組み合わせに対し、処理領域限定情報を紐づけているので、フレーム毎にエフェクト処理を施す領域が変化する場合でも,一度操作されたエフェクトであるなら高速処理が可能となる。   In addition, since processing area limitation information is associated with a combination of one time code and sequence ID, even if the area where effect processing is performed changes for each frame, high-speed processing is possible if the effect has been operated once. It becomes possible.

なお、本実施の形態にかかる情報処理装置は、タイムコード(識別情報)を有する画像を入力する入力バッファ210(画像入力部)と、前記入力された画像の処理を行うエフェクト処理部220(画像処理部)と、前記入力された画像を第1の画像、前記エフェクト処理部220(画像処理部)より出力された画像を第2の画像として、前記第1の画像と前記第2の画像とを比較して前記処理が行われた領域を検出する差分検出部241(検出部)と、前記検出された領域を示す領域情報を生成する処理領域限定情報抽出部242(領域情報生成部)と、前記生成された領域情報と前記第1の画像の識別情報とを紐づけて記憶するエフェクト処理制御テーブル243(記憶部)と、
前記エフェクト処理制御テーブル243(記憶部)に記憶された情報をもとに、前記第1の画像に対して前記エフェクト処理部220(画像処理部)にて再度処理を行う場合の当該第1の画像における処理対象の領域を特定するエフェクト処理部220(処理範囲特定部)とを具備する構成でもよい。
The information processing apparatus according to the present embodiment includes an input buffer 210 (image input unit) that inputs an image having a time code (identification information), and an effect processing unit 220 (image) that processes the input image. Processing unit), the input image as a first image, and the image output from the effect processing unit 220 (image processing unit) as a second image, the first image and the second image A difference detection unit 241 (detection unit) that detects a region in which the processing is performed, and a processing region limitation information extraction unit 242 (region information generation unit) that generates region information indicating the detected region; An effect processing control table 243 (storage unit) that stores the generated region information and the identification information of the first image in association with each other;
Based on the information stored in the effect processing control table 243 (storage unit), the first image in the case where the effect processing unit 220 (image processing unit) processes the first image again. The image processing apparatus may include an effect processing unit 220 (processing range specifying unit) that specifies a processing target area in an image.

[処理領域限定情報について]
図9は、処理領域限定情報の例を示す図である。処理領域限定情報とは、画像の処理範囲を制限したりエフェクト処理の計算量を制御したりする情報全般を指す。図の左側に示す例が、マスク画像であり、図の右側に示す例が、GPU実行時パラメータである。
[Processing area limited information]
FIG. 9 is a diagram illustrating an example of the processing area limitation information. The processing area limitation information refers to general information that limits the processing range of an image and controls the calculation amount of effect processing. The example shown on the left side of the figure is a mask image, and the example shown on the right side of the figure is a GPU execution parameter.

マスク画像は、エフェクト処理をGPU121上において適切に動作させるため、エフェクト効果領域情報をエフェクト処理部220において扱う画像処理の処理単位(GPU121内のスレッドの分割単位)にアライメントをとるものであり、エフェクト処理の際に不要なGPUスレッドの発生を抑え演算時間を短縮する効果がある。   The mask image aligns the effect effect area information with the processing unit of image processing (the division unit of threads in the GPU 121) that handles the effect effect area information in the effect processing unit 220 in order to cause the effect processing to appropriately operate on the GPU 121. This has the effect of suppressing the generation of unnecessary GPU threads during processing and shortening the computation time.

アライメントの取り方は後述する。概略としては、すなわち、GPU121(グラフィックス・プロセッシング・ユニット)は、エフェクト処理(画像処理)を複数の処理単位に分割して実行可能であり、処理領域限定情報抽出部242(領域情報生成部)は、差分検出部241により検出された領域を、GPU121(グラフィックス・プロセッシング・ユニット)による画像処理の空間的な単位に分解する領域情報を生成するということである。   The alignment method will be described later. As an outline, the GPU 121 (graphics processing unit) can divide and execute effect processing (image processing) into a plurality of processing units, and a processing region limited information extraction unit 242 (region information generation unit). This means that region information that decomposes the region detected by the difference detection unit 241 into spatial units of image processing by the GPU 121 (graphics processing unit) is generated.

GPU実行時パラメータは、超並列処理の分割数やGPUカーネル実行パラメータなどを含むものである。   The GPU runtime parameters include the number of massively parallel processes and GPU kernel execution parameters.

[処理の流れ(全体)]
図10は、本技術の実施形態における処理の流れのうち、全体の概略を示すフローチャートである。このフローチャートに示すのは、アプリケーション本体APから映像処理プラグインプログラム200が呼び出された後の処理である。
[Processing flow (overall)]
FIG. 10 is a flowchart showing an overall outline of the flow of processing according to the embodiment of the present technology. This flowchart shows processing after the video processing plug-in program 200 is called from the application main body AP.

まず、エフェクト処理部220が、最初のエフェクト処理を実行する。(S100)   First, the effect processing unit 220 executes the first effect process. (S100)

最初のエフェクト処理は、ユーザにより指定された範囲に対して行われる。この時点では、まだ処理領域限定情報が作成されていないので、エフェクト処理部220は、処理領域限定情報を利用せずに、エフェクト処理の実行を行う。   The first effect process is performed on a range designated by the user. At this point, since the processing area limitation information has not been created, the effect processing unit 220 executes the effect process without using the processing area limitation information.

次に、映像処理プラグインプログラム200は、エフェクト処理の処理領域に変更があるか否かの判断を行う。(S101)   Next, the video processing plug-in program 200 determines whether or not there is a change in the processing area for effect processing. (S101)

エフェクト処理の処理領域に変更がある場合は、S102の処理に進み、変更が無い場合は、S104の処理に進む。   If there is a change in the processing area of the effect process, the process proceeds to S102, and if there is no change, the process proceeds to S104.

エフェクト処理の処理領域に変更がある場合とは、画像中の処理領域が変更されるようなエフェクトパラメータの変化が発生した場合であり、カラーグレーディング処理では、キー画像が変更された場合などが相当する。なお、S102の処理に進む条件を、同一のタイムコードおよびシーケンスIDの組み合わせを持つ画像に対し、エフェクト効果の処理領域への画像操作がユーザ指定の規定回数より多く発生した場合、または、前工程のエフェクト処理において処理内容が変更され後工程の処理範囲に影響を及ぼす場合として構成してもよい。   The case where there is a change in the processing area of the effect processing is when an effect parameter change occurs that changes the processing area in the image. In color grading processing, the case where the key image is changed is equivalent. To do. It should be noted that the condition for proceeding to the processing of S102 is that the image operation to the effect effect processing area occurs more than the specified number of times specified by the user for an image having the same combination of time code and sequence ID, or the previous step In the effect processing, the processing content may be changed to affect the processing range of the subsequent process.

S101においてエフェクト処理の処理領域に変更があると判断された場合、次に、差分検出部241が、入力バッファ210から得た入力画像と、出力バッファ230から得た、エフェクト処理部220が処理したエフェクト処理結果との差分を検出する。(S102)   If it is determined in S101 that there is a change in the processing area of the effect processing, then the difference detection unit 241 has processed the input image obtained from the input buffer 210 and the effect processing unit 220 obtained from the output buffer 230. The difference with the effect processing result is detected. (S102)

次に、映像処理プラグインプログラム200は、S102の処理において、差分が検出されたか否かを判断する。(S103)   Next, the video processing plug-in program 200 determines whether or not a difference is detected in the processing of S102. (S103)

差分が検出された場合は、S200の処理に進み、差分が検出されない場合は、S104の処理に進む。なお、差分が検出されない場合には、映像処理プラグインプログラム200が、ユーザによるエフェクトパラメータの変更が無いと認識し、エフェクト処理制御テーブル243への更新処理(S205参照)を行わないか、現在の画像のタイムコードより過去のタイムコードに紐づけられた処理領域限定情報をエフェクト処理制御テーブル243に書き込む構成でもよい。   If a difference is detected, the process proceeds to S200. If a difference is not detected, the process proceeds to S104. If no difference is detected, the video processing plug-in program 200 recognizes that there is no effect parameter change by the user, and does not perform update processing (see S205) to the effect processing control table 243, or the current A configuration may be used in which processing area limitation information associated with a time code past the time code of the image is written in the effect processing control table 243.

S103において差分が検出されたと判断された場合、次に、映像処理プラグインプログラム200は、「処理領域限定情報の新規登録/更新」処理を行い、S104の処理に進む。(S200)   If it is determined in S103 that a difference has been detected, the video processing plug-in program 200 next performs “new registration / update of processing area limitation information” processing, and proceeds to processing in S104. (S200)

「処理領域限定情報の新規登録/更新」処理の詳細については、別のフローチャートを用いて後述する。   Details of the “new registration / update of processing area limitation information” processing will be described later using another flowchart.

S103において差分が無いと判断された場合、または、S200の処理が終わった後に、次に、映像処理プラグインプログラム200は、処理領域限定情報を利用するか否かを判断する。(S104)   If it is determined in S103 that there is no difference, or after the processing of S200 is completed, the video processing plug-in program 200 next determines whether to use the processing area limitation information. (S104)

この判断は、例えば、エフェクト操作ごとの、ユーザによる指示に基づくものでもよいし、予め閾値を設けておき、エフェクト処理の回数がその閾値を超えたら処理領域限定情報を利用するように構成してもよい。処理領域限定情報を利用する場合は、S300の処理に進み、処理領域限定情報を利用しない場合は、処理を終了し、アプリケーション本体APに制御を戻す。   This determination may be based on, for example, an instruction from the user for each effect operation, or a threshold is set in advance, and the processing region limitation information is used when the number of effect processing exceeds the threshold. Also good. When the processing area limitation information is used, the process proceeds to S300. When the processing area limitation information is not used, the process is terminated and the control is returned to the application main body AP.

S104において処理領域限定情報を利用すると判断された場合、次に、映像処理プラグインプログラム200は、「処理領域限定情報の利用」処理を行う。(S300)   If it is determined in step S104 that the processing area limitation information is to be used, the video processing plug-in program 200 performs a “use of processing area limitation information” process. (S300)

「処理領域限定情報の利用」処理の詳細は、別のフローチャートを用いて後述する。   Details of the “use of processing area limitation information” process will be described later using another flowchart.

S300以降の処理では、エフェクト処理制御テーブル243に記録されたエフェクト処理制御パラメータを基に、エフェクト処理をかける領域を制限しながらエフェクト処理を実行していく。   In the processing after S300, the effect processing is executed while restricting the area where the effect processing is performed based on the effect processing control parameter recorded in the effect processing control table 243.

S300の処理において、利用する処理領域限定情報を取得した後、次に、エフェクト処理部220は、再度エフェクト処理の実行を行う。(S105)   In the process of S300, after acquiring the processing area limitation information to be used, next, the effect processing unit 220 executes the effect process again. (S105)

今回のエフェクト処理の実行では、処理領域限定情報を用いてエフェクト処理を行うので、処理の実行が高速化される。   In the execution of the effect process this time, the effect process is performed using the processing area limitation information, so that the execution of the process is accelerated.

以上のように、繰り返し操作されるエフェクト処理において、計算量削減のためのパラメータである処理領域限定情報を抽出し、抽出した処理領域限定情報を利用してエフェクト処理を行うことにより、エフェクト処理のレスポンス向上が実現される。   As described above, in the effect processing that is repeatedly operated, the processing area limitation information that is a parameter for reducing the amount of calculation is extracted, and the effect processing is performed by using the extracted processing area limitation information. Response improvement is realized.

[処理の流れ(処理領域限定情報の新規登録/更新)]
図11は、本技術の実施形態における処理の流れのうち、「処理領域限定情報の新規登録/更新」処理の部分を示すフローチャートである。
[Flow of processing (new registration / update of processing area limited information)]
FIG. 11 is a flowchart illustrating a part of the “new registration / update of processing area limitation information” processing in the processing flow according to the embodiment of the present technology.

まず、処理領域限定情報抽出部242が、「処理領域限定情報の抽出」処理を行う。(S400)   First, the processing region limitation information extraction unit 242 performs “processing region limitation information extraction” processing. (S400)

「処理領域限定情報の抽出」処理の詳細については、別のフローチャートを用いて後述する。   Details of the “extract processing area information” process will be described later with reference to another flowchart.

次に、映像処理プラグインプログラム200は、入力画像のタイムコードの取得を行う。(S201)   Next, the video processing plug-in program 200 acquires the time code of the input image. (S201)

次に、映像処理プラグインプログラム200は、入力画像のシーケンスIDの取得を行う。(S202)   Next, the video processing plug-in program 200 acquires the sequence ID of the input image. (S202)

次に、映像処理プラグインプログラム200は、取得したタイムコードおよびシーケンスIDを用いてエフェクト処理制御テーブル243を検索し、同一のタイムコードおよびシーケンスIDを持つ処理領域限定情報が存在するか否かを判断する。(S203)
同一のタイムコードおよびシーケンスIDを持つ処理領域限定情報が存在する場合、映像処理プラグインプログラム200は、S204の処理に進み、同一のタイムコードおよびシーケンスIDを持つ処理領域限定情報が存在しない場合、S205の処理に進む。
Next, the video processing plug-in program 200 searches the effect processing control table 243 using the acquired time code and sequence ID, and determines whether or not there is processing area limitation information having the same time code and sequence ID. to decide. (S203)
When there is processing area limitation information having the same time code and sequence ID, the video processing plug-in program 200 proceeds to the process of S204, and when there is no processing area limitation information having the same time code and sequence ID, The process proceeds to S205.

S203において同一のタイムコードおよびシーケンスIDを持つ処理領域限定情報が存在すると判断された場合、次に、映像処理プラグインプログラム200は、エフェクト処理制御テーブル243の内容を、そのタイムコードおよびシーケンスIDと、S400において抽出した処理領域限定情報とにより更新する。更新後、処理を終了する。(S204)   If it is determined in S203 that there is processing area limitation information having the same time code and sequence ID, then the video processing plug-in program 200 converts the contents of the effect processing control table 243 into the time code and sequence ID. , And updated with the processing area limitation information extracted in S400. After updating, the process ends. (S204)

S203において同一のタイムコードおよびシーケンスIDを持つ処理領域限定情報が存在しないと判断された場合、次に、映像処理プラグインプログラム200は、エフェクト処理制御テーブル243に対し、そのタイムコードおよびシーケンスIDと、S400において抽出した処理領域限定情報とを紐づけて、エフェクト処理制御パラメータとして、新規に登録する。登録後、処理を終了する。(S205)   If it is determined in S203 that there is no processing area limitation information having the same time code and sequence ID, the video processing plug-in program 200 then sends the time code and sequence ID to the effect processing control table 243. , The processing area limitation information extracted in S400 is linked and newly registered as an effect processing control parameter. After registration, the process ends. (S205)

なお、上記のタイムコードに代わり、処理を行う画像のフレーム番号を用いる構成でもよい。   Note that, instead of the above time code, a frame number of an image to be processed may be used.

また、S101の処理から分かるように、エフェクト処理制御テーブル243内のエフェクト処理制御パラメータは,エフェクト処理の処理領域に変化があった画像毎に作成・更新される。   As can be seen from the processing of S101, the effect processing control parameters in the effect processing control table 243 are created and updated for each image in which the processing area of the effect processing has changed.

[処理の流れ(処理領域限定情報の抽出)]
図12は、本技術の実施形態における処理の流れのうち、「処理領域限定情報の抽出」処理の部分を示すフローチャートである。処理領域限定情報には、CPU111において利用されるものもあるが、ここでは、GPU121において利用される処理領域限定情報の抽出例を示す。抽出の流れの概略として、エフェクト処理部220(画像処理部)は、GPU121(グラフィックス・プロセッシング・ユニット)であり、処理領域限定情報抽出部242(領域情報生成部)は、GPUの特性に基づいて処理領域限定情報(領域情報)の抽出(生成)を行うということである。
[Processing flow (extract processing area limited information)]
FIG. 12 is a flowchart illustrating a portion of the “extract processing area limitation information” process in the process flow according to the embodiment of the present technology. Although some of the processing area limitation information is used in the CPU 111, an example of extracting the processing area limitation information used in the GPU 121 is shown here. As an outline of the flow of extraction, the effect processing unit 220 (image processing unit) is a GPU 121 (graphics processing unit), and the processing region limited information extraction unit 242 (region information generation unit) is based on the characteristics of the GPU. In other words, processing area limited information (area information) is extracted (generated).

なお、以下の説明では、図13aから図13cを用いて、フローチャート内の各ステップにおいて用いる情報や画像の例を示し、その説明も行う。   In the following description, examples of information and images used in each step in the flowchart are shown and described with reference to FIGS. 13a to 13c.

まず、処理領域限定情報抽出部242は、差分検出部241からエフェクト効果領域情報を取得する。(S401)   First, the processing area limited information extraction unit 242 acquires effect effect area information from the difference detection unit 241. (S401)

図13aは、エフェクト効果領域情報の例である。この例は、上記のカラーグレーディング処理の具体例を示す際に用いた、木と雲の画像において、色調整処理の処理前および処理後の画像の差分をとったものである。色調整処理では、木の色のみを緑色から黄色に変更しているので、このエフェクト効果領域情報では、色の変更があった部分のみが白くなり、色の変更などが行われなかった部分は黒くなっている。   FIG. 13A is an example of effect effect area information. In this example, the difference between the image before and after the color adjustment processing is taken for the tree and cloud images used when the specific example of the color grading processing is shown. In the color adjustment process, only the color of the tree is changed from green to yellow, so in this effect area information, only the part where the color was changed becomes white, and the part where the color was not changed It is black.

次に、処理領域限定情報抽出部242は、GPUカーネルの処理単位ごとにエフェクト効果領域情報を分割する。(S402)   Next, the processing area limitation information extraction unit 242 divides the effect area information for each processing unit of the GPU kernel. (S402)

処理領域限定情報抽出部242は、予めGPUカーネルの処理単位の値を保持しており、そのGPUカーネルの処理単位の値に基づいて、S401の処理において取得したエフェクト効果領域情報を、例えば格子状に、分割する。   The processing area limitation information extraction unit 242 holds the value of the processing unit of the GPU kernel in advance, and the effect effect area information acquired in the processing of S401 based on the value of the processing unit of the GPU kernel is, for example, a lattice shape Divide into two.

図13bは、エフェクト効果領域情報を、GPUカーネルの処理単位に分割しアライメントした例である。この例では、エフェクト効果領域情報が、格子状に分割されている。格子の四角一つ一つが、GPUカーネルの処理単位(GPUスレッド)に相当する。   FIG. 13B is an example in which effect effect area information is divided and aligned into processing units of the GPU kernel. In this example, the effect effect area information is divided into a grid pattern. Each square of the lattice corresponds to a GPU kernel processing unit (GPU thread).

次に、処理領域限定情報抽出部242は、マスク画像が必要か否かを判断する。(S403)   Next, the processing area limitation information extraction unit 242 determines whether a mask image is necessary. (S403)

エフェクト効果領域情報における白色部分、すなわちエフェクトがかけられた部分が複雑であり、図13aに示すように画像として指定しなければならない場合はマスク画像が必要と判断される。エフェクト効果領域情報における白色部分が単純な四角形の場合などは、マスク画像は不要であり、実行時パラメータの設定を行えばよいと判断される。   If the white part in the effect effect area information, that is, the part to which the effect is applied is complicated, and it must be designated as an image as shown in FIG. 13a, it is determined that a mask image is necessary. When the white portion in the effect area information is a simple square, it is determined that the mask image is not necessary and that the runtime parameters should be set.

マスク画像が必要と判断された場合、処理領域限定情報抽出部242は、S404の処理に進み、マスク画像は必要ないと判断された場合、処理領域限定情報抽出部242は、S405の処理に進む。   When it is determined that a mask image is necessary, the processing area limitation information extraction unit 242 proceeds to the process of S404, and when it is determined that a mask image is not necessary, the processing area limitation information extraction unit 242 proceeds to the process of S405. .

S403においてマスク画像が必要と判断された場合、次に、処理領域限定情報抽出部242は、エフェクト効果領域情報の分割結果をマスク画像としてエフェクト処理制御テーブル243に出力し、処理を終了する。(S404)   If it is determined in S403 that a mask image is necessary, the processing area restriction information extraction unit 242 outputs the effect effect area information division result as a mask image to the effect processing control table 243, and ends the process. (S404)

図13cは、マスク画像の例である。この例において白色のブロックになっている部分は、エフェクト効果領域情報を格子状に分割した結果、格子の四角の中に、エフェクト効果領域情報の白色部分が含まれる部分を表す。この白色のブロックの部分については、GPU121において、GPUカーネルがエフェクト処理を行うことを意味する。
また、黒色のブロックになっている部分は、エフェクト効果領域情報を格子状に分割した結果、格子の四角の中に、エフェクト効果領域情報の白色部分が含まれなかった部分を表す。この黒色のブロックの部分については、GPU121において、GPUカーネルがエフェクト処理を行わない。このように、マスク画像を作成することで,GPU内スレッドの不要な動作を軽減させることができる。
FIG. 13c is an example of a mask image. In this example, a portion that is a white block represents a portion in which the white portion of the effect effect region information is included in the square of the lattice as a result of dividing the effect effect region information into a lattice shape. This white block portion means that the GPU kernel performs effect processing in the GPU 121.
A black block portion represents a portion in which the white portion of the effect effect region information is not included in the square of the lattice as a result of dividing the effect effect region information into a lattice shape. For the black block portion, the GPU kernel does not perform effect processing in the GPU 121. Thus, by creating a mask image, unnecessary operations of threads in the GPU can be reduced.

S403においてマスク画像が必要ではないと判断された場合、次に、処理領域限定情報抽出部242は、エフェクト効果領域情報の分割結果に適した超並列処理の分割数およびカーネル実行パラメータの設定を行い、処理を終了する。(S405)   If it is determined in S403 that a mask image is not necessary, then the processing area limitation information extraction unit 242 sets the number of massively parallel processes and kernel execution parameters suitable for the effect effect area information division result. The process is terminated. (S405)

GPU121における超並列処理の分割数を調整することにより、GPU121内の不要なスレッドの発生を防止することができる。   By adjusting the number of massively parallel processing divisions in the GPU 121, generation of unnecessary threads in the GPU 121 can be prevented.

[処理の流れ(処理領域限定情報の利用)]
図14は、本技術の実施形態における処理の流れのうち、「処理領域限定情報の利用」処理の部分を示すフローチャートである。なお、処理領域限定情報を利用する構成として、映像処理プラグインプログラム200(処理範囲特定部)は、再度処理を行う入力画像(第1の画像)のタイムコードおよびシーケンスID(識別情報)に紐づけられた処理領域限定情報(領域情報)をもとに当該入力画像(第1の画像)における処理対象の領域を限定(特定)する構成とすることもできる。
[Flow of processing (use of processing area limited information)]
FIG. 14 is a flowchart illustrating a portion of the “use of processing area limitation information” process in the process flow according to the embodiment of the present technology. As a configuration using the processing area limited information, the video processing plug-in program 200 (processing range specifying unit) is associated with the time code and sequence ID (identification information) of the input image (first image) to be processed again. Based on the attached processing area limitation information (area information), the area to be processed in the input image (first image) may be limited (specified).

まず、映像処理プラグインプログラム200は、現在作業を行っている画像のタイムコードおよびシーケンスIDを取得する。(S301)   First, the video processing plug-in program 200 acquires the time code and sequence ID of the image currently being worked on. (S301)

次に、映像処理プラグインプログラム200は、取得したタイムコードおよびシーケンスIDを用いて、エフェクト処理制御テーブル243を参照する。(S302)   Next, the video processing plug-in program 200 refers to the effect processing control table 243 using the acquired time code and sequence ID. (S302)

次に、映像処理プラグインプログラム200は、参照結果に基づき、エフェクト処理制御テーブル243が空であるか否かを判断する。(S303)   Next, the video processing plug-in program 200 determines whether or not the effect processing control table 243 is empty based on the reference result. (S303)

エフェクト処理制御テーブル243が空であると判断された場合、映像処理プラグインプログラム200は、S304の処理に進み、エフェクト処理制御テーブル243が空ではないと判断された場合、S307の処理に進む。   When it is determined that the effect processing control table 243 is empty, the video processing plug-in program 200 proceeds to the processing of S304, and when it is determined that the effect processing control table 243 is not empty, the processing proceeds to S307.

S303においてエフェクト処理制御テーブル243が空であると判断された場合、次に、映像処理プラグインプログラム200は、取得したタイムコードおよびシーケンスIDと同一のタイムコードおよびシーケンスIDに紐づけられた処理領域限定情報が、エフェクト処理制御テーブル243に存在するか否かを判断する。(S304)   If it is determined in S303 that the effect processing control table 243 is empty, the video processing plug-in program 200 next processes the processing area associated with the same time code and sequence ID as the acquired time code and sequence ID. It is determined whether or not the limited information exists in the effect processing control table 243. (S304)

取得したタイムコードおよびシーケンスIDと同一のタイムコードおよびシーケンスIDに紐づけられた処理領域限定情報が存在する場合、映像処理プラグインプログラム200は、S305の処理に進み、存在しない場合、S306の処理に進む。   When there is processing area limitation information associated with the same time code and sequence ID as the acquired time code and sequence ID, the video processing plug-in program 200 proceeds to the processing of S305, and when it does not exist, the processing of S306 is performed. Proceed to

S304において取得したタイムコードおよびシーケンスIDと同一のタイムコードおよびシーケンスIDに紐づけられた処理領域限定情報が存在すると判断された場合、次に、映像処理プラグインプログラム200は、エフェクト処理制御テーブル243に存在する、その処理領域限定情報を利用して、以降のエフェクト処理を行う。(S305)   If it is determined that there is processing area limitation information associated with the same time code and sequence ID as the time code and sequence ID acquired in S304, the video processing plug-in program 200 next executes the effect processing control table 243. The subsequent effect processing is performed using the processing area limitation information existing in (S305)

S304において取得したタイムコードおよびシーケンスIDと同一のタイムコードおよびシーケンスIDに紐づけられた処理領域限定情報が存在しないと判断された場合、次に、映像処理プラグインプログラム200は、処理領域限定情報の補間を行い、以降のエフェクト処理を行う。(S306)   If it is determined that there is no processing area limitation information associated with the same time code and sequence ID as the time code and sequence ID acquired in S304, the video processing plug-in program 200 then executes the processing area limitation information. Is interpolated and the subsequent effect processing is performed. (S306)

処理領域限定情報を補間する方法としては、現在処理している画像であるフレームの前後のフレームに紐づけられた処理領域限定情報を利用してもよいし、現在のフレームより過去のフレームに紐づけられた処理領域限定情報のみを利用してもよい。すなわち、映像処理プラグインプログラム200(処理範囲特定部)は、再度処理を行う入力画像(第1の画像)のタイムコード(時刻情報)がエフェクト処理制御テーブル243(記憶部)に記憶されていない場合、当該タイムコード(時刻情報)に最も近いタイムコード(時刻情報)に紐づけられた処理領域限定情報(領域情報)をもとに当該入力画像(第1の画像)における処理対象の領域を限定(特定)する。   As a method of interpolating the processing area limitation information, the processing area limitation information linked to the frames before and after the frame that is the currently processed image may be used. Only the attached processing area limitation information may be used. That is, the video processing plug-in program 200 (processing range specifying unit) does not store the time code (time information) of the input image (first image) to be processed again in the effect processing control table 243 (storage unit). In this case, the region to be processed in the input image (first image) is determined based on the processing region limitation information (region information) associated with the time code (time information) closest to the time code (time information). Limit (specify).

S303においてエフェクト処理制御テーブル243が空であると判断された場合、映像処理プラグインプログラム200は、次に、エフェクト処理制御テーブル243に新規登録するエフェクト処理制御パラメータを作成するか否かを判断する。(S307)   If it is determined in S303 that the effect processing control table 243 is empty, the video processing plug-in program 200 next determines whether to create an effect processing control parameter to be newly registered in the effect processing control table 243. . (S307)

エフェクト処理制御テーブル243に新規登録するエフェクト処理制御パラメータを作成しない場合は、S308の処理に進み、作成する場合は、S200の処理に進む。エフェクト処理制御テーブル243に新規登録するエフェクト処理制御パラメータを作成するか否かの判断は、エフェクト処理の内容に基づいて判断されてもよいし、ユーザの指定に基づいて判断されてもよい。   If an effect process control parameter to be newly registered in the effect process control table 243 is not created, the process proceeds to S308, and if created, the process proceeds to S200. Whether or not to create an effect process control parameter to be newly registered in the effect process control table 243 may be determined based on the contents of the effect process, or may be determined based on a user designation.

S307においてエフェクト処理制御テーブル243に新規登録するエフェクト処理制御パラメータを作成しないと判断された場合、次に、映像処理プラグインプログラム200は、デフォルト値の処理領域限定情報を、利用する処理領域限定情報として、以降のエフェクト処理に用いる。(S308)   If it is determined in S307 that an effect processing control parameter to be newly registered in the effect processing control table 243 is not to be created, the video processing plug-in program 200 then uses the processing region limitation information of the default value to use the processing region limitation information. Used for subsequent effect processing. (S308)

デフォルト値の処理領域限定情報とは、例えば、画像全体を均等に処理することなどである。   The default value processing area limitation information is, for example, processing the entire image equally.

S307においてエフェクト処理制御テーブル243に新規登録するエフェクト処理制御パラメータを作成すると判断された場合、次に、映像処理プラグインプログラム200は、「処理領域限定情報の新規登録/更新」処理を行う。(S200)   If it is determined in S307 that an effect processing control parameter to be newly registered in the effect processing control table 243 is to be created, the video processing plug-in program 200 then performs a “new registration / update of processing area limitation information” process. (S200)

ここで行う「処理領域限定情報の新規登録/更新」処理は、上述のものと同一である。   The “new registration / update of processing area limitation information” processing performed here is the same as described above.

次に、映像処理プラグインプログラム200は、「処理領域限定情報の新規登録/更新」処理によって得られた処理領域限定情報を利用する処理領域限定情報として、以降のエフェクト処理を行う。(S309)   Next, the video processing plug-in program 200 performs the following effect processing as processing region limitation information using processing region limitation information obtained by the “new registration / update of processing region limitation information” process. (S309)

[従来技術との相違点について]
従来は、映像編集装置を操作する際の体感速度を上げるため、プロキシ画に対してエフェクト処理を施したものをプレビューしながら作業を行い、実解像度(フルレゾ)での最終的なエフェクト効果の確認については、一旦メモリ上にエフェクト処理結果をレンダリングした上でプレビューを行っていた。
[Differences from the prior art]
Conventionally, in order to increase the perceived speed when operating the video editing device, work was performed while previewing the proxy image with effect processing, and the final effect effect was confirmed at the actual resolution (full resolution) For, once the effect processing results were rendered in memory, a preview was performed.

すなわち、実解像度の映像に対してエフェクト処理を行った結果をリアルタイムにプレビューするためには、メモリ上に一旦レンダリングを行う必要があり、膨大な時間を要していた。   That is, in order to preview the result of effect processing on a real resolution video in real time, rendering has to be performed once on a memory, which requires a huge amount of time.

メモリ上にレンダリングを行うためには、動画シーケンス分のメモリ容量が必要であり、素材映像の解像度が大きくなると、レンダリング可能な尺の長さが短くなる(長尺の動画シーケンスのレンダリングが出来ない)という問題があった。   Rendering in memory requires a memory capacity equivalent to the video sequence. If the resolution of the material video is increased, the length of the renderable scale will be shortened (long video sequences cannot be rendered). ).

また、プロキシ画とフルレゾ画では、プレビューするエフェクト処理結果に差異があるという問題点もあった。
また、エフェクト処理のエフェクトパラメータを一部でも変更すると、エフェクト処理の反映される動画シーケンス部分の再レンダリングが必要となってしまったり、エフェクト処理の反映される動画シーケンス部分はプロキシ画でのプレビューとなってしまったりする問題があった。
In addition, there is a problem that there is a difference in the effect processing result to be previewed between the proxy image and the full-resolution image.
Also, if you change any part of the effect processing effect parameters, it will be necessary to re-render the video sequence part to which the effect process is reflected. There was a problem of becoming.

エフェクト処理におけるエフェクトパラメータの変更が動画シーケンスや他のエフェクト処理に及ぼす影響は、変更されたエフェクトパラメータの内容やエフェクト処理の内容により異なる。そのため、本来ならば再レンダリングする必要のないエフェクト処理に関しても最終的なエフェクト効果の確認のたびに再レンダリング処理が発生し、プレビューするまでに膨大な時間を要する場合があった。   The influence of the effect parameter change in the effect processing on the moving image sequence and other effect processing differs depending on the contents of the changed effect parameter and the contents of the effect processing. For this reason, even for effect processing that normally does not need to be re-rendered, re-rendering processing occurs each time the final effect effect is confirmed, and it may take a long time to preview.

本技術では、エフェクト処理を行う時間が短縮されるので、動画のプレビューに際し、これまでのように、メモリ上へエフェクト処理の結果を一旦レンダリングする必要がない。そのため、エフェクトパラメータを変更した際にも、再レンダリングを行う必要が無い。また、実解像度でのエフェクト処理の結果をプレビューすることができる。   In the present technology, since the time for effect processing is shortened, when previewing a moving image, it is not necessary to render the result of the effect processing once in the memory as before. Therefore, it is not necessary to re-render even when the effect parameter is changed. It is also possible to preview the effect processing result at the actual resolution.

[本技術の他の構成]
なお、本技術は以下のような構成も採ることができる。
(1)識別情報を有する画像を入力する画像入力部と、前記入力された画像の処理を行う画像処理部と、前記入力された画像を第1の画像、前記画像処理部より出力された画像を第2の画像として、前記第1の画像と前記第2の画像とを比較して前記処理が行われた領域を検出する検出部と、前記検出された領域を示す領域情報を生成する領域情報生成部と、前記生成された領域情報と前記第1の画像の識別情報とを紐づけて記憶する記憶部と、前記記憶部に記憶された情報をもとに、前記第1の画像に対して前記画像処理部にて再度処理を行う場合の当該第1の画像における処理対象の領域を特定する処理範囲特定部とを具備する情報処理装置。
(2)前記(1)に記載の情報処理装置であって、前記画像処理部は、前記第1の画像に対してユーザより指定された範囲を少なくとも含む条件に従って処理を行う情報処理装置。
(3)前記(1)または(2)に記載の情報処理装置であって、前記処理範囲特定部は、再度処理を行う前記第1の画像の前記識別情報に紐づけられた前記領域情報をもとに当該第1の画像における処理対象の領域を特定する情報処理装置。
(4)前記(1)から(3)のうちいずれか1つに記載の情報処理装置であって、前記第1の画像は、時間軸に沿って連続的に変化する複数の画像の一つであり、前記識別情報は、前記第1の画像に対応する時間軸上の時刻情報である情報処理装置。
(5)前記(4)に記載の情報処理装置であって、請求項4に記載の情報処理装置であって、前記処理範囲特定部は、再度処理を行う前記第1の画像の前記時刻情報が前記記憶部に記憶されていない場合、当該時刻情報に最も近い時刻情報に紐づけられた前記領域情報をもとに当該第1の画像における処理対象の領域を特定する情報処理装置。
(6)前記(1)から(5)のうちいずれか1つに記載の情報処理装置であって、前記画像処理部は、グラフィックス・プロセッシング・ユニットであり、前記領域情報生成部は、前記グラフィックス・プロセッシング・ユニットの特性に基づいて前記領域情報の生成を行う情報処理装置。
(7)前記(6)に記載の情報処理装置であって、前記グラフィックス・プロセッシング・ユニットは、前記画像処理を複数の処理単位に分割して実行可能であり、前記領域情報生成部は、前記検出された領域を、前記グラフィックス・プロセッシング・ユニットによる画像処理の空間的な単位に分解する領域情報を生成する情報処理装置。
(8)情報処理装置内の画像入力部が、識別情報を有する画像を入力し、前記情報処理装置内の画像処理部が、前記入力された画像の処理を行い、前記情報処理装置内の検出部が、前記入力された画像を第1の画像、前記画像処理部より出力された画像を第2の画像として、前記第1の画像と前記第2の画像とを比較して前記処理が行われた領域を検出し、前記情報処理装置内の領域情報生成部が、前記検出された領域を示す領域情報を生成し、前記情報処理装置内の記憶部が、前記生成された領域情報と前記第1の画像の識別情報とを紐づけて記憶し、前記情報処理装置内の処理範囲特定部が、前記記憶部に記憶された情報をもとに、前記第1の画像に対して前記画像処理部にて再度処理を行う場合の当該第1の画像における処理対象の領域を特定する情報処理方法。
[Other configurations of this technology]
In addition, this technique can also take the following structures.
(1) An image input unit that inputs an image having identification information, an image processing unit that processes the input image, a first image that is the input image, and an image that is output from the image processing unit As a second image, the first image and the second image are compared to detect a region where the processing has been performed, and a region that generates region information indicating the detected region An information generation unit, a storage unit that stores the generated region information and the identification information of the first image in association with each other, and the first image based on the information stored in the storage unit. An information processing apparatus comprising: a processing range specifying unit that specifies a region to be processed in the first image when the image processing unit performs processing again.
(2) The information processing apparatus according to (1), wherein the image processing unit performs processing according to a condition including at least a range designated by a user with respect to the first image.
(3) In the information processing apparatus according to (1) or (2), the processing range specifying unit may store the region information associated with the identification information of the first image to be processed again. An information processing apparatus that identifies an area to be processed in the first image.
(4) The information processing apparatus according to any one of (1) to (3), wherein the first image is one of a plurality of images that continuously change along a time axis. And the identification information is time information on a time axis corresponding to the first image.
(5) The information processing apparatus according to (4), wherein the processing range specifying unit performs the processing again for the time information of the first image. Is not stored in the storage unit, an information processing apparatus that identifies a processing target area in the first image based on the area information associated with the time information closest to the time information.
(6) In the information processing apparatus according to any one of (1) to (5), the image processing unit is a graphics processing unit, and the region information generation unit is An information processing apparatus that generates the area information based on characteristics of a graphics processing unit.
(7) In the information processing device according to (6), the graphics processing unit can execute the image processing by dividing the image processing into a plurality of processing units. An information processing apparatus that generates area information that decomposes the detected area into spatial units for image processing by the graphics processing unit.
(8) An image input unit in the information processing apparatus inputs an image having identification information, and an image processing unit in the information processing apparatus performs processing of the input image, and detection in the information processing apparatus A first image as the input image and a second image as the image output from the image processing unit, and the first image and the second image are compared to perform the process. A region information generation unit in the information processing device generates region information indicating the detected region, and a storage unit in the information processing device detects the generated region information and the region information The identification information of the first image is stored in association with each other, and the processing range specifying unit in the information processing apparatus stores the image on the first image based on the information stored in the storage unit. Processing target area in the first image when the processing unit performs the processing again Information processing method to identify.

10…情報処理装置
11…CPU部
12…GPU部
17…バス
18…操作入力装置
19…表示装置
111…CPU
112…CPUメモリ
121…GPU
122…GPUメモリ
200…映像処理プラグインプログラム
210…入力バッファ
220…エフェクト処理部
230…出力バッファ
240…処理領域決定部
241…差分検出部
242…処理領域限定情報抽出部
243…エフェクト処理制御テーブル
DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus 11 ... CPU part 12 ... GPU part 17 ... Bus 18 ... Operation input device 19 ... Display apparatus 111 ... CPU
112 ... CPU memory 121 ... GPU
122 ... GPU memory 200 ... Video processing plug-in program 210 ... Input buffer 220 ... Effect processing unit 230 ... Output buffer 240 ... Processing region determination unit 241 ... Difference detection unit 242 ... Processing region limited information extraction unit 243 ... Effect processing control table

Claims (8)

識別情報を有する画像を入力する画像入力部と、
前記入力された画像の処理を行う画像処理部と、
前記入力された画像を第1の画像、前記画像処理部より出力された画像を第2の画像として、前記第1の画像と前記第2の画像とを比較して前記処理が行われた領域を検出する検出部と、
前記検出された領域を示す領域情報を生成する領域情報生成部と、
前記生成された領域情報と前記第1の画像の識別情報とを紐づけて記憶する記憶部と、
前記記憶部に記憶された情報をもとに、前記第1の画像に対して前記画像処理部にて再度処理を行う場合の当該第1の画像における処理対象の領域を特定する処理範囲特定部と
を具備する情報処理装置。
An image input unit for inputting an image having identification information;
An image processing unit for processing the input image;
The input image is a first image, the image output from the image processing unit is a second image, and the first image and the second image are compared to perform the processing. A detection unit for detecting
A region information generating unit that generates region information indicating the detected region;
A storage unit for storing the generated region information and the identification information of the first image in association with each other;
Based on information stored in the storage unit, a processing range specifying unit that specifies a processing target area in the first image when the image processing unit processes the first image again. An information processing apparatus comprising:
請求項1に記載の情報処理装置であって、
前記画像処理部は、前記第1の画像に対してユーザより指定された範囲を少なくとも含む条件に従って処理を行う
情報処理装置。
The information processing apparatus according to claim 1,
The image processing unit performs processing according to a condition including at least a range designated by a user for the first image.
請求項1に記載の情報処理装置であって、
前記処理範囲特定部は、再度処理を行う前記第1の画像の前記識別情報に紐づけられた前記領域情報をもとに当該第1の画像における処理対象の領域を特定する
情報処理装置。
The information processing apparatus according to claim 1,
The processing range specifying unit specifies a processing target area in the first image based on the area information associated with the identification information of the first image to be processed again.
請求項1に記載の情報処理装置であって、
前記第1の画像は、時間軸に沿って連続的に変化する複数の画像の一つであり、
前記識別情報は、前記第1の画像に対応する時間軸上の時刻情報である
情報処理装置。
The information processing apparatus according to claim 1,
The first image is one of a plurality of images continuously changing along a time axis,
The information processing apparatus, wherein the identification information is time information on a time axis corresponding to the first image.
請求項4に記載の情報処理装置であって、
前記処理範囲特定部は、再度処理を行う前記第1の画像の前記時刻情報が前記記憶部に記憶されていない場合、当該時刻情報に最も近い時刻情報に紐づけられた前記領域情報をもとに当該第1の画像における処理対象の領域を特定する
情報処理装置。
The information processing apparatus according to claim 4,
When the time information of the first image to be processed again is not stored in the storage unit, the processing range specifying unit is based on the region information associated with the time information closest to the time information. An information processing apparatus that identifies a region to be processed in the first image.
請求項1に記載の情報処理装置であって、
前記画像処理部は、グラフィックス・プロセッシング・ユニットであり、
前記領域情報生成部は、前記グラフィックス・プロセッシング・ユニットの特性に基づいて前記領域情報の生成を行う
情報処理装置。
The information processing apparatus according to claim 1,
The image processing unit is a graphics processing unit,
The area information generation unit is an information processing apparatus that generates the area information based on characteristics of the graphics processing unit.
請求項6に記載の情報処理装置であって、
前記グラフィックス・プロセッシング・ユニットは、前記画像処理を複数の処理単位に分割して実行可能であり、
前記領域情報生成部は、前記検出された領域を、前記グラフィックス・プロセッシング・ユニットによる画像処理の空間的な単位に分解する領域情報を生成する
情報処理装置。
The information processing apparatus according to claim 6,
The graphics processing unit can execute the image processing by dividing it into a plurality of processing units.
The area information generation unit generates area information that decomposes the detected area into spatial units for image processing by the graphics processing unit.
情報処理装置内の画像入力部が、識別情報を有する画像を入力し、
前記情報処理装置内の画像処理部が、前記入力された画像の処理を行い、
前記情報処理装置内の検出部が、前記入力された画像を第1の画像、前記画像処理部より出力された画像を第2の画像として、前記第1の画像と前記第2の画像とを比較して前記処理が行われた領域を検出し、
前記情報処理装置内の領域情報生成部が、前記検出された領域を示す領域情報を生成し、
前記情報処理装置内の記憶部が、前記生成された領域情報と前記第1の画像の識別情報とを紐づけて記憶し、
前記情報処理装置内の処理範囲特定部が、前記記憶部に記憶された情報をもとに、前記第1の画像に対して前記画像処理部にて再度処理を行う場合の当該第1の画像における処理対象の領域を特定する
情報処理方法。
An image input unit in the information processing apparatus inputs an image having identification information,
An image processing unit in the information processing apparatus processes the input image,
The detection unit in the information processing apparatus uses the input image as a first image, the image output from the image processing unit as a second image, and the first image and the second image. Compare and detect the area where the above processing was performed,
A region information generation unit in the information processing device generates region information indicating the detected region;
A storage unit in the information processing apparatus stores the generated region information and the identification information of the first image in association with each other;
The first image in the case where the processing range specifying unit in the information processing apparatus performs the process again on the first image based on the information stored in the storage unit Processing method for specifying a region to be processed in.
JP2012096924A 2012-04-20 2012-04-20 Information processing device and information processing method Pending JP2013225756A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012096924A JP2013225756A (en) 2012-04-20 2012-04-20 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012096924A JP2013225756A (en) 2012-04-20 2012-04-20 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2013225756A true JP2013225756A (en) 2013-10-31

Family

ID=49595549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012096924A Pending JP2013225756A (en) 2012-04-20 2012-04-20 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2013225756A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016092647A1 (en) * 2014-12-10 2016-06-16 株式会社Nhkエンタープライズ Moving image editing device, moving image editing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016092647A1 (en) * 2014-12-10 2016-06-16 株式会社Nhkエンタープライズ Moving image editing device, moving image editing method and program

Similar Documents

Publication Publication Date Title
US10078484B2 (en) Multivision display control device and multivision system
JP2015525404A (en) Image processing method, apparatus, program, and storage medium
JP4430678B2 (en) Programmable filtering method and apparatus for texture map data in a three-dimensional graphics subsystem
CN101606179A (en) The universal front end that is used for shade, selection and path
US20180089890A1 (en) Tessellation Edge Shaders
CN109389558B (en) Method and device for eliminating image edge saw teeth
JPH10188014A (en) Picture editing method and its device
JP6294700B2 (en) Image processing apparatus and image processing method
CN110192225B (en) Out-of-order pixel shader derivation
CN113470153A (en) Rendering method and device of virtual scene and electronic equipment
CN117611703A (en) Barrage character rendering method, barrage character rendering device, barrage character rendering equipment, storage medium and program product
JP5408906B2 (en) Image processing device
US11798227B2 (en) Image processing apparatus and image processing method
JP2013225756A (en) Information processing device and information processing method
US8077187B2 (en) Image display using a computer system, including, but not limited to, display of a reference image for comparison with a current image in image editing
KR20050040712A (en) 2-dimensional graphic decoder including graphic display accelerating function based on commands, graphic display accelerating method therefor and reproduction apparatus
US10062140B2 (en) Graphics processing systems
JP2015015699A (en) Image processing system, information processing method and program
JP3649947B2 (en) Image drawing apparatus, image drawing method, and computer-readable recording medium storing program for causing computer to execute the method
JP2023013538A (en) Image processing apparatus, image processing method, and program
JP2014229111A (en) Image processor, image processing method and program
CN111951367B (en) Character rendering method, character processing method and device
US20090210816A1 (en) Switchable panel layout extension
JP2012230668A (en) Image processor, image processing method, and program
WO2017013697A1 (en) Animation display device and animation display method