JP2021034774A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2021034774A
JP2021034774A JP2019149788A JP2019149788A JP2021034774A JP 2021034774 A JP2021034774 A JP 2021034774A JP 2019149788 A JP2019149788 A JP 2019149788A JP 2019149788 A JP2019149788 A JP 2019149788A JP 2021034774 A JP2021034774 A JP 2021034774A
Authority
JP
Japan
Prior art keywords
data
image
moving image
image processing
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019149788A
Other languages
Japanese (ja)
Other versions
JP7408315B2 (en
Inventor
正人 内原
Masato Uchihara
正人 内原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019149788A priority Critical patent/JP7408315B2/en
Publication of JP2021034774A publication Critical patent/JP2021034774A/en
Application granted granted Critical
Publication of JP7408315B2 publication Critical patent/JP7408315B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To enable high quality when images of some frames constituting a moving image of RAW data is played back.SOLUTION: An image processing device (100) includes a developing processing means (109) that performs development processing including image processing using correction data on RAW data to generate developed data, and control means (106) that makes the correction data used for the image processing by the developing processing means (109) different depending between a case of developing and playing back RAW data of some of frames constituting a moving image, and a case of developing and playing back RAW data of each of the frames constituting the moving image when developing and playing the RAW data of the moving image.SELECTED DRAWING: Figure 1

Description

本発明は、撮像された画像を処理する技術に関する。 The present invention relates to a technique for processing an captured image.

近年は、動画の高解像度化や表示装置の大型化が進んでおり、動画画質の高品質化への要求が高まっている。特に動画再生時において当該動画を構成している一部のフレームの画像を表示するような場合の画質が低いと目立ち易いため、その画像を高画質化したいという要求が存在する。なお、特許文献1には、動画再生時にのみ過去フレームとの間の輝度の相関性を維持するためにパラメータ補正を実施し、動画再生の一時停止時にはパラメータ補正を行わないことで静止画像に適した画像を出力する技術が開示されている。 In recent years, the resolution of moving images has increased and the size of display devices has increased, and there is an increasing demand for higher quality moving images. In particular, when the image quality of a part of the frame constituting the moving image is displayed at the time of playing the moving image, it is easily noticeable if the image quality is low, so there is a demand for improving the image quality. In Patent Document 1, parameter correction is performed to maintain the correlation of brightness with the past frame only during video playback, and parameter correction is not performed when video playback is paused, which is suitable for still images. A technique for outputting a new image is disclosed.

特開2004−354913号公報Japanese Unexamined Patent Publication No. 2004-354913

また最近は、動画をRAWデータで記録および再生できる撮像装置が普及しつつある。このため、RAWデータの動画再生時においても、当該動画を構成している一部のフレームの画像を表示する場合に高画質化できることが望まれる。しかしながら、特許文献1に挙げた技術は、現像済みの動画データ再生時の一時停止時におけるパラメータ補正に関するものであり、動画のRAWデータを再生する際の高画質化には適用できない。 Recently, an imaging device capable of recording and reproducing moving images as RAW data has become widespread. Therefore, it is desired that the image quality can be improved when displaying the images of some frames constituting the moving image even when the RAW data is reproduced as a moving image. However, the technique described in Patent Document 1 relates to parameter correction at the time of pausing during reproduction of developed moving image data, and cannot be applied to high image quality when reproducing RAW data of moving images.

そこで、本発明は、RAWデータの動画を構成している一部のフレームの画像を再生する場合の高品質化を可能にすることを目的とする。 Therefore, an object of the present invention is to enable high quality when reproducing an image of a part of frames constituting a moving image of RAW data.

本発明の画像処理装置は、補正データを用いた画像処理を含む現像処理を、RAWデータに対して行い現像済みデータを生成する現像処理手段と、動画のRAWデータを現像して再生する場合、前記動画を構成するフレームのなかの一部のフレームのRAWデータを現像して再生する場合と、前記動画を構成する各フレームのRAWデータを現像して再生する場合とで、前記現像処理手段が前記画像処理に用いる補正データを異ならせる制御手段と、を有することを特徴とする。 The image processing apparatus of the present invention is a developing processing means that performs development processing including image processing using correction data on RAW data to generate developed data, and when developing and reproducing RAW data of moving images. The development processing means can be used depending on whether the RAW data of a part of the frames constituting the moving image is developed and reproduced, or the RAW data of each frame constituting the moving image is developed and reproduced. It is characterized by having a control means for making the correction data used for the image processing different.

本発明によれば、RAWデータの動画を構成している一部のフレームの画像を再生する場合の高品質化が可能となる。 According to the present invention, it is possible to improve the quality when reproducing an image of a part of frames constituting a moving image of RAW data.

実施形態の画像処理装置が適用される一構成例を示した図である。It is a figure which showed one configuration example to which the image processing apparatus of embodiment is applied. ベイヤ配列の概要を示す図である。It is a figure which shows the outline of the Bayer array. RAWデータ取得から記録までの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing from RAW data acquisition to recording. RAWデータの動画再生時の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing at the time of moving-out movie reproduction of RAW data. 動画再生選択時の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process at the time of moving image play selection. 現像済み動画データ再生時の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing at the time of playing back the developed moving image data. RAW動画データ再生時の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing at the time of RAW moving image data reproduction. 倍率色収差検出の概要説明に用いる図である。It is a figure used for the outline explanation of Magnification Chromatic Aberration detection. 倍率色収差検出の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of Magnification Chromatic Aberration detection. 色プレーン生成の概要説明に用いる図である。It is a figure used for the outline explanation of a color plane generation. 色プレーン生成時のLPFの例を示す図である。It is a figure which shows the example of LPF at the time of color plane generation. 色ずれ量検出の概要説明に用いる図である。It is a figure used for the outline explanation of the color shift amount detection. 適応補間処理の概要説明に用いる図である。It is a figure used for the outline explanation of the adaptive interpolation process.

以下、本発明の実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
図1は、本実施形態の画像処理装置の一適用例である動画記録再生装置100の構成例を示す図である。
撮像レンズ101は、ズームレンズ、フォーカスレンズおよび入射光量を調節するための絞りを含むレンズ群である。カラーフィルタ102は、入射光をR(赤),G(緑),B(青)の色成分に分離するためのフィルターである。カラーフィルタ102のR,G,Bと画素位置の対応は、図2に示すようなベイヤ配列が多く用いられる。なお図2はカラーフィルタ102の一部のみを示している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.
FIG. 1 is a diagram showing a configuration example of a moving image recording / reproducing device 100, which is an application example of the image processing device of the present embodiment.
The image pickup lens 101 is a lens group including a zoom lens, a focus lens, and a diaphragm for adjusting the amount of incident light. The color filter 102 is a filter for separating incident light into R (red), G (green), and B (blue) color components. A Bayer array as shown in FIG. 2 is often used for the correspondence between R, G, B of the color filter 102 and the pixel position. Note that FIG. 2 shows only a part of the color filter 102.

撮像部103は、入射光を電気信号に変換するためのCMOSセンサー等の撮像素子と、撮像素子から出力されるアナログ信号をデジタル信号に変換するためのA/D変換器とを有して構成される。 The image pickup unit 103 includes an image pickup element such as a CMOS sensor for converting incident light into an electric signal, and an A / D converter for converting an analog signal output from the image pickup element into a digital signal. Will be done.

内部メモリ104は、記憶媒体としてDRAM等の揮発性メモリを有して構成されている。内部メモリ104は、撮像部103から出力されるデジタル信号(RAWデータとする)や、現像処理部109から出力されるデータ(現像済みデータとする)を、記憶媒体に記憶する。 The internal memory 104 is configured to have a volatile memory such as a DRAM as a storage medium. The internal memory 104 stores the digital signal (referred to as RAW data) output from the imaging unit 103 and the data output from the development processing unit 109 (referred to as developed data) in the storage medium.

操作入力部105は、ユーザーが動画記録再生装置100に対して、動画記録の開始や終了、動画データの再生、一時停止等の操作指示を行うためのものであり、ボタンや電子ダイヤル、タッチパネル等で構成される。
制御部106は、操作入力部105に入力された内容に応じて、動画記録や再生などの、動画記録再生装置100の各種制御を行う。制御部106の詳細は後述する。
The operation input unit 105 is for the user to give an operation instruction such as start / end of video recording, playback of video data, pause, etc. to the video recording / playback device 100, such as a button, an electronic dial, and a touch panel. Consists of.
The control unit 106 performs various controls of the moving image recording / reproducing device 100 such as moving image recording and playing back according to the contents input to the operation input unit 105. Details of the control unit 106 will be described later.

補正データ記憶部107は、記憶媒体としてFlashROM等の不揮発性メモリを有して構成されている。補正データ記憶部107は、撮影条件ごとの補正データを、記憶媒体に記憶している。
補正量検出部108は、RAWデータを基に各種補正データの算出を行う。補正量検出部108の詳細は後述する。
The correction data storage unit 107 is configured to have a non-volatile memory such as a Flash ROM as a storage medium. The correction data storage unit 107 stores the correction data for each shooting condition in the storage medium.
The correction amount detection unit 108 calculates various correction data based on the RAW data. Details of the correction amount detection unit 108 will be described later.

現像処理部109は、制御部106による制御の下、内部メモリ104からRAWデータを読み出し、各種補正処理とWB(ホワイトバランス)処理、ノイズリダクション処理、シャープネス等の画像処理を含む現像処理を行って現像済みデータを生成する。また、現像処理部109にて生成された現像済みデータは、制御部106による制御の下で、内部メモリ104に送られて記憶される。 Under the control of the control unit 106, the development processing unit 109 reads RAW data from the internal memory 104 and performs various correction processing and development processing including WB (white balance) processing, noise reduction processing, image processing such as sharpness, and the like. Generate developed data. Further, the developed data generated by the developing processing unit 109 is sent to the internal memory 104 and stored under the control of the control unit 106.

表示制御部110は、内部メモリ104に記憶された現像済みデータを表示部111に出力するための制御を行う。
表示部111は、現像済みデータの動画等を表示するための表示装置であり、LCD等の表示デバイスで構成される。
The display control unit 110 controls to output the developed data stored in the internal memory 104 to the display unit 111.
The display unit 111 is a display device for displaying a moving image of developed data, and is composed of a display device such as an LCD.

外部メモリ制御部112は、内部メモリ104に記憶された現像済みデータあるいはRAWデータを外部メモリ113に出力するための制御を行う。
外部メモリ113は、記憶媒体としてSDカードなどのメモリカードを有して構成される。外部メモリ113は、現像済みデータあるいはRAWデータを、記憶媒体に記憶する。外部メモリ113には、フレーム毎の現像済みデータからなる動画データ(現像済み動画データとする)、またはフレーム毎のRAWデータからなる動画データ(RAW動画データとする)、もしくは現像済み動画データとRAW動画データの両方が保存される。
The external memory control unit 112 controls to output the developed data or RAW data stored in the internal memory 104 to the external memory 113.
The external memory 113 includes a memory card such as an SD card as a storage medium. The external memory 113 stores the developed data or the RAW data in the storage medium. In the external memory 113, moving image data consisting of developed data for each frame (referred to as developed moving image data), moving image data consisting of RAW data for each frame (referred to as RAW moving image data), or developed moving image data and RAW Both video data are saved.

続いて、図3のフローチャートを用いて、本実施形態の動画記録再生装置100におけるRAWデータ取得から記録までの処理の流れを説明する。
操作入力部105を介したユーザーからの記録開始指示を受けとると、制御部106は、まずステップS301の処理として、撮像部103が取得した1フレーム分のRAWデータを内部メモリ104に記憶させる。そして、制御部106は、1フレーム分のRAWデータの保存が完了した時点で、ステップS302に処理を進める。
Subsequently, the flow of processing from RAW data acquisition to recording in the moving image recording / playback device 100 of the present embodiment will be described with reference to the flowchart of FIG.
Upon receiving the recording start instruction from the user via the operation input unit 105, the control unit 106 first stores one frame of RAW data acquired by the imaging unit 103 in the internal memory 104 as the process of step S301. Then, when the storage of the RAW data for one frame is completed, the control unit 106 proceeds to the process in step S302.

ステップS302の処理に進むと、制御部106は、ユーザーにより予め設定された記録モードを確認する。制御部106は、予め設定された記録モードがRAW記録モードでないと判定した場合(通常記録モード)には、ステップS303に処理を進める。 Proceeding to the process of step S302, the control unit 106 confirms the recording mode preset by the user. When the control unit 106 determines that the preset recording mode is not the RAW recording mode (normal recording mode), the control unit 106 proceeds to step S303.

ステップS303に進むと、制御部106は、RAWデータに対する各種補正処理等の画像処理を含む現像処理を現像処理部109に実行させた後、ステップS304に処理を進める。そして、ステップS304に進むと、制御部106は、現像済みデータを外部メモリ113に保存させた後、ステップS306に処理を進める。 Proceeding to step S303, the control unit 106 causes the development processing unit 109 to execute a development process including image processing such as various correction processes for the RAW data, and then proceeds to the process in step S304. Then, when the process proceeds to step S304, the control unit 106 stores the developed data in the external memory 113 and then proceeds to the process in step S306.

一方、ステップS302において記録モードがRAW記録モードであると判定した場合、制御部106は、現像処理部109による現像処理を行わせず、ステップS305でRAWデータを外部メモリ113に保存させた後、ステップS306に処理を進める。 On the other hand, when it is determined in step S302 that the recording mode is the RAW recording mode, the control unit 106 does not perform the development processing by the development processing unit 109, stores the RAW data in the external memory 113 in step S305, and then saves the RAW data in the external memory 113. The process proceeds to step S306.

ステップS306の処理に進むと、制御部106は、操作入力部105を介してユーザーから記録終了指示が入力されたか確認し、記録終了指示が入力されていないと判定した場合にはステップS301に処理を戻し、以降の処理を繰り返す。一方、ステップS306において記録終了指示が入力されたと判定した場合、制御部106は、図3のフローチャートの処理を終了する。 Proceeding to the process of step S306, the control unit 106 confirms whether the recording end instruction has been input from the user via the operation input unit 105, and if it is determined that the recording end instruction has not been input, the process proceeds to step S301. Is returned, and the subsequent processing is repeated. On the other hand, when it is determined in step S306 that the recording end instruction has been input, the control unit 106 ends the process of the flowchart of FIG.

続いて、図4のフローチャートを用い、図3のステップS303において通常記録モード時に現像処理部109が行う補正および現像処理について説明する。
まずステップS401の処理として、現像処理部109は、補正データ記憶部107から補正データを読み出す。ここで本実施形態における補正データとは、倍率色収差など各種収差を補正する処理を行うためのデータであり、レンズ設計時のデータから算出された値が予め補正データ記憶部107に記憶されている。
Subsequently, using the flowchart of FIG. 4, the correction and development processing performed by the development processing unit 109 in the normal recording mode in step S303 of FIG. 3 will be described.
First, as the process of step S401, the development processing unit 109 reads out the correction data from the correction data storage unit 107. Here, the correction data in the present embodiment is data for performing processing for correcting various aberrations such as chromatic aberration of magnification, and a value calculated from the data at the time of lens design is stored in the correction data storage unit 107 in advance. ..

次にステップS402の処理として、現像処理部109は、補正データ記憶部107から読み出した補正データを基に、内部メモリ104に記憶されているRAWデータに対する補正処理を行う。さらに現像処理部109は、補正処理後のRAWデータに対して、WB処理、ノイズリダクション、およびエッジ強調処理といった画像処理および現像処理を行った後、圧縮処理を行い、現像済みデータとして内部メモリ104に送って記憶させる。 Next, as the process of step S402, the development processing unit 109 performs correction processing on the RAW data stored in the internal memory 104 based on the correction data read from the correction data storage unit 107. Further, the development processing unit 109 performs image processing and development processing such as WB processing, noise reduction, and edge enhancement processing on the RAW data after correction processing, and then performs compression processing, and performs internal memory 104 as developed data. Send to and memorize.

その後、現像処理部109は、以上のような処理を動画の全てのフレームについて行ったか判定し、未処理のフレームがある場合にはステップS401に処理を戻して、当該未処理のフレームについてステップS401とステップS402の処理を行う。そして、現像処理部109は、動画の全てのフレームについて処理が完了したと判定した場合、図4のフローチャートの処理を終了する。 After that, the developing processing unit 109 determines whether or not the above processing has been performed for all the frames of the moving image, and if there is an unprocessed frame, returns the processing to step S401 and steps S401 for the unprocessed frame. And step S402. Then, when it is determined that the processing is completed for all the frames of the moving image, the developing processing unit 109 ends the processing of the flowchart of FIG.

<第1の実施形態に係る動画再生処理>
続いて、動画記録再生装置100の第1の実施形態に係る動画再生処理について説明する。
本実施形態の場合、現像済み動画データの動画再生時において、動画を構成する各フレームのなかの一部のフレーム画像を再生する場合と、動画全体を再生(各フレームをフレーム順に再生)する場合とで、現像時の補正処理で用いられた補正データは共通である。
一方、RAW動画データを現像して再生する場合、動画を構成している一部のみのフレーム画像を現像して再生する場合と、動画全体を現像して再生する場合とで、現像時の補正処理に用いる補正データは異なるものとなされる。制御部106は、RAW動画データの現像および再生が行われる場合には、一部のフレームのみのRAWデータを現像して再生する場合と、各フレームのRAWデータを順に現像して再生する場合とで、補正処理に用いる補正データを異ならせる。すなわち本実施形態の場合、RAW動画データの一部のフレーム(RAWデータ)の画像を再生する際には、当該一部のフレームのRAWデータに特化した補正データを補正量検出部108が生成し、現像処理部109はその補正データを用いた補正処理を行う。これにより本実施形態の動画記録再生装置100は、RAW動画データの一部のフレーム画像を再生する場合に、当該画像の品質を向上させることができる。
<Video playback processing according to the first embodiment>
Subsequently, the moving image reproduction process according to the first embodiment of the moving image recording / reproducing device 100 will be described.
In the case of the present embodiment, when playing back the developed moving image data, a part of the frame image in each frame constituting the moving image is played back, and the entire moving image is played back (each frame is played back in frame order). And, the correction data used in the correction processing at the time of development is common.
On the other hand, when developing and playing back RAW video data, there are cases where only a part of the frame image that constitutes the moving image is developed and played back, and cases where the entire moving image is developed and played back. The correction data used for processing is different. When the RAW moving image data is developed and reproduced, the control unit 106 develops and reproduces the RAW data of only a part of the frames, and develops and reproduces the RAW data of each frame in order. Then, the correction data used for the correction processing is different. That is, in the case of the present embodiment, when the image of a part of the frame (RAW data) of the RAW moving image data is reproduced, the correction amount detection unit 108 generates the correction data specialized for the RAW data of the part of the frame. Then, the development processing unit 109 performs correction processing using the correction data. As a result, the moving image recording / reproducing device 100 of the present embodiment can improve the quality of the image when reproducing a part of the frame image of the RAW moving image data.

なお本実施形態において、動画再生時に表示される一部のフレーム画像とは、動画再生の一時停止時に表示される画像、動画から切り出されて表示される静止画、あるいは動画から繰り返し再生して表示される画像などである。本実施形態では、一部のフレーム画像として、動画再生の一時停止時に表示される画像を例に挙げて説明する。 In the present embodiment, some of the frame images displayed during video playback are an image displayed when video playback is paused, a still image cut out from the video, or repeatedly played back from the video and displayed. It is an image to be made. In the present embodiment, as a part of the frame image, an image displayed when the moving image playback is paused will be described as an example.

図5は、本実施形態の動画記録再生装置100において動画を再生する際に、制御部106が、動画データを選択して再生する処理の流れを示したフローチャートである。
操作入力部105を介してユーザーから動画再生要求を受け取ると、制御部106は、まずステップS501の処理として、外部メモリ113に現像済み動画データが保存されているか確認する。そして、制御部106は、外部メモリ113に現像済み動画データが保存されていると判定した場合にはステップS502に処理を進める。一方、制御部106は、外部メモリ113に現像済み動画データが保存されておらず、RAW動画データが保存されていると判定した場合にはステップS503に処理を進める。外部メモリ113に現像済み動画データとRAW動画データの両方が保存されている場合、制御部106は、操作入力部105を介してユーザーがいずれの動画データの再生を指示したかに応じて、ステップS502またはS503に処理を進めてもよい。
FIG. 5 is a flowchart showing a flow of a process in which the control unit 106 selects and reproduces moving image data when the moving image recording / reproducing device 100 of the present embodiment reproduces a moving image.
Upon receiving a moving image reproduction request from the user via the operation input unit 105, the control unit 106 first confirms whether the developed moving image data is stored in the external memory 113 as the process of step S501. Then, when the control unit 106 determines that the developed moving image data is stored in the external memory 113, the control unit 106 proceeds to the process in step S502. On the other hand, when the control unit 106 determines that the developed moving image data is not saved in the external memory 113 and the RAW moving image data is saved, the control unit 106 proceeds to the process in step S503. When both the developed video data and the RAW video data are stored in the external memory 113, the control unit 106 steps according to which video data the user has instructed to play via the operation input unit 105. The process may proceed to S502 or S503.

ステップS502に進んだ場合、制御部106は、外部メモリ113から、現像済み動画データを構成しているフレーム毎に現像済みデータを順次読み出して表示制御部110に送ることで、表示部111に動画を表示させる再生処理を行う。ステップS502では、ユーザーから一時停止要求が入力された場合には一時停止表示も行われる。ステップS502の詳細な処理は後述する。このステップS502の後、制御部106は、図5のフローチャートの処理を終了する。 When the process proceeds to step S502, the control unit 106 sequentially reads the developed data from the external memory 113 for each frame constituting the developed moving image data and sends the developed data to the display control unit 110, so that the moving image is displayed on the display unit 111. Performs playback processing to display. In step S502, when a pause request is input from the user, the pause display is also performed. The detailed processing of step S502 will be described later. After this step S502, the control unit 106 ends the processing of the flowchart of FIG.

一方、ステップS503に進んだ場合、制御部106は、外部メモリ113からRAW動画データを構成するフレーム毎のRAWデータを読み出し、現像処理部109に当該フレーム毎のRAWデータの現像処理を行わせる。現像処理部109では、フレーム毎のRAWデータが現像処理され、そのフレーム毎の現像済みデータが表示制御部110に順次送られることで、表示部111に動画が表示されることになる。ステップS503では、ユーザーから一時停止要求が入力された場合には一時停止表示も行われる。ステップS503の詳細な処理は後述する。このステップS503の後、制御部106は、図5のフローチャートの処理を終了する。 On the other hand, when the process proceeds to step S503, the control unit 106 reads the RAW data for each frame constituting the RAW moving image data from the external memory 113, and causes the development processing unit 109 to develop the RAW data for each frame. In the development processing unit 109, the RAW data for each frame is developed, and the developed data for each frame is sequentially sent to the display control unit 110, so that the moving image is displayed on the display unit 111. In step S503, when a pause request is input from the user, the pause display is also performed. The detailed processing of step S503 will be described later. After this step S503, the control unit 106 ends the processing of the flowchart of FIG.

図6は、図5のステップS502における現像済み動画データの再生処理の流れを示すフローチャートである。
まずステップS601の処理として、制御部106は、外部メモリ113から現像済み動画データの1フレーム分の現像済みデータを読み出し、表示制御部110を介して表示部111に表示させる。
FIG. 6 is a flowchart showing a flow of reproduction processing of the developed moving image data in step S502 of FIG.
First, as the process of step S601, the control unit 106 reads the developed data for one frame of the developed moving image data from the external memory 113 and displays it on the display unit 111 via the display control unit 110.

続いてステップS602の処理として、制御部106は、操作入力部105を介してユーザーからユーザー操作1として一時停止要求が入力されたか否かを確認する。制御部106は、一時停止要求が入力されたと判定した場合にはステップS603に処理を進め、一方、一時停止要求が入力されていないと判定した場合にはステップS604に処理を進める。 Subsequently, as the process of step S602, the control unit 106 confirms whether or not the pause request has been input from the user as the user operation 1 via the operation input unit 105. When the control unit 106 determines that the pause request has been input, the process proceeds to step S603, while when it determines that the pause request has not been input, the control unit 106 proceeds to the process in step S604.

ステップS603に進むと、制御部106は、操作入力部105を介してユーザーからユーザー操作2として再生再開要求が入力されたか否かを確認する。制御部106は、再生再開要求が入力されたと判定した場合にはステップS604に処理を進める。一方、再生再開要求が入力されていないと判定した場合、制御部106は、再生再開要求が入力されたと判定されるまでステップS603の判定処理を繰り返す。つまり制御部106は、再生再開要求が入力されたと判定されるまで、ステップS601で表示された1フレーム分の現像済みデータの画像を表示し続ける一時停止表示の状態を維持する。 Proceeding to step S603, the control unit 106 confirms whether or not the playback restart request has been input by the user as the user operation 2 via the operation input unit 105. When the control unit 106 determines that the reproduction restart request has been input, the control unit 106 proceeds to step S604. On the other hand, when it is determined that the reproduction restart request has not been input, the control unit 106 repeats the determination process of step S603 until it is determined that the reproduction restart request has been input. That is, the control unit 106 maintains a pause display state in which the image of the developed data for one frame displayed in step S601 is continuously displayed until it is determined that the reproduction restart request has been input.

ステップS604に進むと、制御部106は、操作入力部105を介してユーザーからユーザー操作3として再生終了要求が入力されたか否かを確認する。制御部106は、再生終了要求が入力されたと判定した場合には図6のフローチャートの処理を終了する。一方、再生終了要求が入力されていないと判定した場合、制御部106は、ステップS601に処理を戻す。これにより、ステップS604で再生終了要求が入力されたと判定されるまで、ステップS601以降の処理が繰り返される。 Proceeding to step S604, the control unit 106 confirms whether or not the playback end request has been input by the user as the user operation 3 via the operation input unit 105. When the control unit 106 determines that the reproduction end request has been input, the control unit 106 ends the processing of the flowchart of FIG. On the other hand, if it is determined that the reproduction end request has not been input, the control unit 106 returns the process to step S601. As a result, the processes after step S601 are repeated until it is determined that the reproduction end request has been input in step S604.

図7は、図5のステップS503におけるRAW動画データの再生処理の流れを示すフローチャートである。
まずステップS701の処理として、制御部106は、補正データ記憶部107から補正データを読み出して現像処理部109に送る。
続いてステップS702の処理として、制御部106は、外部メモリ113からRAW動画データの1フレーム分のRAWデータを読み出して現像処理部109に送る。現像処理部109は、補正データを用いた補正処理およびRAWデータの現像処理を行い、その現像済みデータを表示制御部110に送ることで表示部111に画像が表示される。
FIG. 7 is a flowchart showing a flow of reproduction processing of RAW moving image data in step S503 of FIG.
First, as the process of step S701, the control unit 106 reads the correction data from the correction data storage unit 107 and sends it to the development processing unit 109.
Subsequently, as the process of step S702, the control unit 106 reads the RAW data for one frame of the RAW moving image data from the external memory 113 and sends it to the development processing unit 109. The development processing unit 109 performs correction processing using the correction data and development processing of the RAW data, and sends the developed data to the display control unit 110 to display the image on the display unit 111.

続いて、ステップS703の処理に進むと、制御部106は、操作入力部105を介してユーザーから一時停止要求が入力されたか否かを確認する。制御部106は、一時停止要求が入力されたと判定した場合にはステップS704に処理を進め、一方、一時停止要求が入力されていないと判定した場合にはステップS707に処理を進める。 Subsequently, when proceeding to the process of step S703, the control unit 106 confirms whether or not the pause request has been input from the user via the operation input unit 105. When the control unit 106 determines that the pause request has been input, the process proceeds to step S704, while when it determines that the pause request has not been input, the control unit 106 proceeds to the process in step S707.

ステップS704に進むと、制御部106は、補正量検出部108を制御して、一時停止要求が入力された時のRAW動画データ内の1フレームのRAWデータから、補正データを抽出させる。補正量検出部108による補正データの抽出処理の詳細は後述する。 Proceeding to step S704, the control unit 106 controls the correction amount detection unit 108 to extract the correction data from the RAW data of one frame in the RAW moving image data when the pause request is input. The details of the correction data extraction process by the correction amount detection unit 108 will be described later.

次にステップS705の処理として、現像処理部109は、RAWデータに対し、ステップS701で取得された補正データに、ステップS704で抽出された補正データを加味した補正データを用いた補正処理および現像処理を行って現像済みデータを生成する。この現像済みデータが表示制御部110を介して表示部111に送られることで、一時停止時の画像表示が行われる。 Next, as the process of step S705, the development processing unit 109 adds the correction data extracted in step S704 to the correction data acquired in step S701 with respect to the RAW data, and uses the correction process and the development process using the correction data. To generate developed data. By sending the developed data to the display unit 111 via the display control unit 110, the image is displayed at the time of pause.

次にステップS706の処理として、制御部106は、操作入力部105を介してユーザーから再生再開要求が入力されたか否かを確認する。制御部106は、再生再開要求が入力されたと判定した場合にはステップS707に処理を進め、一方、再生再開要求が入力されていないと判定した場合にはステップS706の判定処理を繰り返す。つまり制御部106は、再生再開要求が入力されたと判定されるまで、ステップS705で表示された現像済みデータの画像を表示し続ける一時停止表示の状態を維持する。 Next, as the process of step S706, the control unit 106 confirms whether or not the playback restart request has been input from the user via the operation input unit 105. When the control unit 106 determines that the reproduction restart request has been input, the process proceeds to step S707, while when it determines that the reproduction restart request has not been input, the control unit 106 repeats the determination process of step S706. That is, the control unit 106 maintains the pause display state in which the image of the developed data displayed in step S705 is continuously displayed until it is determined that the reproduction restart request has been input.

ステップS707の処理に進むと、制御部106は、操作入力部105を介してユーザーから再生終了要求が入力されたか否かを確認する。制御部106は、再生終了要求が入力されたと判定した場合には図7のフローチャートの処理を終了する。一方、再生終了要求が入力されていないと判定した場合、制御部106は、ステップS701に処理を戻す。これにより、ステップS707で再生終了要求が入力されたと判定されるまで、ステップS701以降の処理が繰り返される。 Proceeding to the process of step S707, the control unit 106 confirms whether or not the playback end request has been input from the user via the operation input unit 105. When the control unit 106 determines that the reproduction end request has been input, the control unit 106 ends the processing of the flowchart of FIG. 7. On the other hand, if it is determined that the reproduction end request has not been input, the control unit 106 returns the process to step S701. As a result, the processes after step S701 are repeated until it is determined that the reproduction end request has been input in step S707.

以下、図7のステップS704において補正量検出部108で行われる補正データ抽出処理について説明する。第1の実施形態では、補正データとして、倍率色収差を補正するための補正データを抽出する場合を例に挙げて説明する。補正データは、倍率色収差を補正するための補正データに限定されず、他の補正処理に用いられる補正データであってもよい。 Hereinafter, the correction data extraction process performed by the correction amount detection unit 108 in step S704 of FIG. 7 will be described. In the first embodiment, a case where correction data for correcting chromatic aberration of magnification is extracted as correction data will be described as an example. The correction data is not limited to the correction data for correcting the chromatic aberration of magnification, and may be the correction data used for other correction processing.

ここで、倍率色収差とは、基準色をGとした場合、レンズを透過することで、基準色のG光の結像位置に対してR光とB光のそれぞれの結像位置がずれる現象である。このずれ量は撮像部103の個体差の影響を受けやすいため、レンズ設計値による補正量だけを用いた補正処理では、個体差による補正残りが発生してしまう。撮像部103の個体差まで含めた補正を行うためには、図8に示すようなRAWデータの画像800全体からそれぞれ異なる位置の矩形領域801(以下、ブロックとする)を複数抽出して、それらブロック毎に色ずれ量を評価する必要がある。色ずれ量には、色ずれの大きさと色ずれが発生している方向とが含まれる。色ずれが発生する方向は、画像800を複数に分割した領域(例えば領域803a〜803h)のいずれの領域に、ブロック中心位置802が所属するかに応じた図8中の矢印で示される方向となる。補正量検出部108は、ステップS704の補正データ抽出処理として、G成分に対するR成分とB成分の色ずれ量を検出し、その色ずれ量を基に色ずれを補正するための補正データを生成するような処理を行う。 Here, the chromatic aberration of magnification is a phenomenon in which, when the reference color is G, the imaging positions of the R light and the B light are deviated from the imaging position of the G light of the reference color by passing through the lens. is there. Since this amount of deviation is easily affected by individual differences in the imaging unit 103, a correction process using only the amount of correction based on the lens design value causes a residual correction due to individual differences. In order to perform correction including individual differences of the imaging unit 103, a plurality of rectangular regions 801 (hereinafter referred to as blocks) at different positions are extracted from the entire image 800 of the RAW data as shown in FIG. It is necessary to evaluate the amount of color shift for each block. The amount of color shift includes the magnitude of the color shift and the direction in which the color shift occurs. The direction in which the color shift occurs is the direction indicated by the arrow in FIG. 8 according to which region of the region (for example, regions 803a to 803h) in which the image 800 is divided into a plurality of regions to which the block center position 802 belongs. Become. The correction amount detection unit 108 detects the amount of color shift between the R component and the B component with respect to the G component as the correction data extraction process in step S704, and generates correction data for correcting the color shift based on the color shift amount. Perform processing that does.

図9は、補正量検出部108における色ずれ量検出処理の流れを示すフローチャートである。
まずステップS901の処理として、補正量検出部108は、外部メモリ113から読み出されて一時的に内部メモリ104に保存された1フレームのRAWデータから、1ブロック分のRAWデータを読み出す。ここで、読み出されるRAWデータは、図2に示したベイヤ配列データである。
FIG. 9 is a flowchart showing the flow of the color shift amount detection process in the correction amount detection unit 108.
First, as the process of step S901, the correction amount detection unit 108 reads the RAW data for one block from the RAW data of one frame read from the external memory 113 and temporarily stored in the internal memory 104. Here, the RAW data read out is the Bayer array data shown in FIG.

続いてステップS902の処理として、補正量検出部108は、ステップS902で読み出した1ブロック分のRAWデータを変換して、R,G,Bそれぞれの色成分だけを含んだ各色プレーン(以下、R,G,Bプレーンとする)を生成する。 Subsequently, as the process of step S902, the correction amount detection unit 108 converts the RAW data for one block read in step S902, and each color plane containing only the color components of each of R, G, and B (hereinafter, R). , G, B plane) is generated.

図10(a)〜図10(d)は、R,G,Bプレーン生成の一例を説明する図である。
図10(a)は、RAWデータにおけるベイヤ配列データの一部を示した図である。補正量検出部108は、ベイヤ配列データから、R,G,Bのそれぞれ同色の信号値を抜き出す。図10(b)は、ベイヤ配列データから、R色の信号値のみを抜き出した状態を示した図である。次に補正量検出部108は、同色の信号値を抜き出した後の、信号値の無い画素位置にそれぞれ0値を挿入する。図10(c)は、R値の信号値のみが抜き出された後の信号値の無い画素位置にそれぞれ0値が挿入された状態を示した図である。そして補正量検出部108は、信号値に0値が挿入された後のデータに対し、図11に示すようなフィルター係数のローパスフィルタ(LPF)を用いた補間処理を施すことで、各画素位置に同色が配置されたプレーンを生成する。図10(d)は、R色のプレーン(Rプレーン)を示した図である。図10(b)〜図10(d)はR色を例に挙げているが、補正量検出部108は、G色とB色についても同様にしてGプレーンとBプレーンを生成する。なお、Gの成分については、R(またはB)の成分との帯域を合わせるために、補正量検出部108は、G1,G2のいずれか一方の信号値のみを用いてGプレーンを生成する。
10 (a) to 10 (d) are diagrams for explaining an example of R, G, B plane generation.
FIG. 10A is a diagram showing a part of the Bayer sequence data in the RAW data. The correction amount detection unit 108 extracts signal values of the same color of R, G, and B from the Bayer array data. FIG. 10B is a diagram showing a state in which only the R color signal value is extracted from the Bayer array data. Next, the correction amount detection unit 108 inserts 0 values at pixel positions where there is no signal value after extracting signal values of the same color. FIG. 10C is a diagram showing a state in which 0 values are inserted at pixel positions where there is no signal value after only the signal value of the R value is extracted. Then, the correction amount detection unit 108 performs interpolation processing using a low-pass filter (LPF) having a filter coefficient as shown in FIG. 11 on the data after the 0 value is inserted into the signal value, so that each pixel position Generates a plane with the same color on it. FIG. 10D is a diagram showing an R color plane (R plane). Although R color is taken as an example in FIGS. 10B to 10D, the correction amount detection unit 108 generates G plane and B plane in the same manner for G color and B color. Regarding the G component, in order to match the band with the R (or B) component, the correction amount detection unit 108 generates a G plane using only one of the signal values of G1 and G2.

次にステップS903の処理として、補正量検出部108は、ステップS902で生成したGプレーンとRプレーン、またはGプレーンとBプレーンを、前述した図8の矢印方向に1画素ずつずらしながら相関値を取得する。相関値として差分絶対値和(Sum Of Absolute Difference:SAD)を取得する場合、ずらし位置dにおけるSADの値は、以下の式(1)で算出される。 Next, as the process of step S903, the correction amount detection unit 108 shifts the G plane and R plane or the G plane and B plane generated in step S902 by one pixel in the arrow direction of FIG. get. When the sum of absolute differences (SAD) is acquired as the correlation value, the value of SAD at the shift position d is calculated by the following equation (1).

Figure 2021034774
Figure 2021034774

ここで、式(1)中のgainはGとR(またはB)の信号レベルを合わせるための調整値(局所的なWBゲイン)であり、ブロックおけるGの信号の積分値をRの信号の積分値で割った値である。
また、取得したずらし位置d毎のSAD値をプロットすることで、図12のようなグラフが得られる。
そして補正量検出部108は、ステップS904の処理として、SAD値が最小値となるずらし位置Dの前後のSAD値から、以下の式(2)を用いて色ずれ量xを算出する。式(2)の右辺第2項は、放物線近似によるサブピクセルレベルの色ずれ量推定である。
Here, gain in the equation (1) is an adjustment value (local WB gain) for matching the signal levels of G and R (or B), and the integral value of the G signal in the block is the R signal. It is the value divided by the integrated value.
Further, by plotting the SAD value for each of the acquired shift positions d, a graph as shown in FIG. 12 can be obtained.
Then, as the process of step S904, the correction amount detection unit 108 calculates the color shift amount x from the SAD values before and after the shift position D at which the SAD value becomes the minimum value by using the following equation (2). The second term on the right side of the equation (2) is a subpixel level color shift estimation by parabolic approximation.

Figure 2021034774
Figure 2021034774

なお、倍率色収差の補正では、サブピクセルレベルでの補正量の違いがエッジ部の色つきに影響を与えるため、色ずれ量の検出もサブピクセルレベルで精度を確保する必要がある。したがって、補正量検出部108は、色ずれ量をサブピクセルレベルの精度で色ずれ量を検出する。 In the correction of chromatic aberration of magnification, the difference in the amount of correction at the subpixel level affects the coloring of the edge portion, so it is necessary to ensure the accuracy of detecting the amount of color shift at the subpixel level. Therefore, the correction amount detection unit 108 detects the color shift amount with the accuracy of the sub-pixel level.

続いてステップS905の処理として、補正量検出部108は、前述のようにして算出した色ずれ量を、像高別に集計する。
次にステップS906の処理として、補正量検出部108は、全てのブロックについて前述した処理が完了したか否か判定する。補正量検出部108は、全てのブロックの処理が完了したと判定した場合にはステップS907に処理を進める。一方、全てのブロックの処理が完了していないと判定した場合、補正量検出部108は、ステップS901に処理を戻して、未処理のブロックについてステップS901以降の処理を行う。つまり、補正量検出部108は、全てのブロックの処理が完了するまで、ステップS901からステップS905の処理を繰り返す。
Subsequently, as the process of step S905, the correction amount detection unit 108 totals the color shift amount calculated as described above for each image height.
Next, as the process of step S906, the correction amount detection unit 108 determines whether or not the above-described process has been completed for all the blocks. When the correction amount detection unit 108 determines that the processing of all the blocks is completed, the correction amount detecting unit 108 proceeds to the process in step S907. On the other hand, when it is determined that the processing of all the blocks is not completed, the correction amount detection unit 108 returns the processing to step S901 and performs the processing after step S901 on the unprocessed blocks. That is, the correction amount detection unit 108 repeats the processing of steps S901 to S905 until the processing of all the blocks is completed.

ステップS907の処理に進むと、補正量検出部108は、像高別の色ずれ量の集計結果から、像高毎の色ずれ量の平均値を算出し、これを倍率色収差の補正データとする。このステップS907の後、補正量検出部108は、図9のフローチャートの処理を終了する。 Proceeding to the process of step S907, the correction amount detection unit 108 calculates the average value of the color shift amount for each image height from the total result of the color shift amount for each image height, and uses this as the correction data for the chromatic aberration of magnification. .. After this step S907, the correction amount detection unit 108 ends the processing of the flowchart of FIG.

以上説明したように第1の実施形態の動画記録再生装置100は、RAW動画データの再生中の一時停止表示時にのみ、RAWデータから色ずれ量を検出(サブピクセルレベルで直接評価)して補正データを求め、その補正データを用いて倍率色収差の補正を行う。つまり本実施形態の場合、RAW動画データの再生中にはレンズ設計値のみに基づく補正データを用いた補正処理が行われるが、一時停止表示時にはRAWデータの画像から生成した補正データをも加えた補正処理が行われる。したがって、本実施形態の場合、RAW動画データの再生中の一時停止時には、レンズ設計値のみに基づく補正データを用いる場合に比べて、高精度な倍率色収差補正が可能となる。すなわち本実施形態によれば、RAW動画データの再生表示中の一時停止表示時のように、RAWデータの動画を構成している一部のフレーム画像を表示する場合の高品質化が可能となる。 As described above, the moving image recording / reproducing device 100 of the first embodiment detects (directly evaluates at the subpixel level) the amount of color shift from the RAW data and corrects it only when the RAW moving image data is paused during reproduction. Data is obtained, and the correction data is used to correct the chromatic aberration of magnification. That is, in the case of the present embodiment, the correction process using the correction data based only on the lens design value is performed during the reproduction of the RAW moving image data, but the correction data generated from the RAW data image is also added at the time of the pause display. Correction processing is performed. Therefore, in the case of the present embodiment, when the RAW moving image data is paused during reproduction, it is possible to correct the chromatic aberration of magnification with higher accuracy than when the correction data based only on the lens design value is used. That is, according to the present embodiment, it is possible to improve the quality when displaying a part of the frame images constituting the moving image of the RAW data, such as when the pause is displayed during the playback display of the RAW moving image data. ..

<第2の実施形態に係る動画再生処理>
続いて、動画記録再生装置100の第2の実施形態に係る動画再生処理について説明する。第2の実施形態の動画記録再生装置100における構成および処理の流れは概ね前述した第1の実施形態と同様であり、それら構成と処理の図示は省略する。
第2の実施形態では、現像済み動画データを生成する場合と、RAW動画データを再生表示する場合とで、RAWデータからR,G,Bプレーンを生成する処理が異なる例を説明する。
<Video playback processing according to the second embodiment>
Subsequently, the moving image reproduction process according to the second embodiment of the moving image recording / reproducing device 100 will be described. The configuration and processing flow of the moving image recording / playback device 100 of the second embodiment are substantially the same as those of the first embodiment described above, and the illustration of the configuration and processing will be omitted.
In the second embodiment, an example will be described in which the processes for generating R, G, and B planes from the RAW data are different between the case of generating the developed moving image data and the case of reproducing and displaying the RAW moving image data.

RAWデータからR,G,Bプレーンを生成する際の補間処理方法には、全画素に対して一律に図11のLPFを適用する補間処理(線形補間処理)と、補間画素の周囲の信号値を参照しながら適応的に補間画素値を決定する補間処理(適応補間処理)とがある。 The interpolation processing method when generating R, G, B planes from RAW data includes interpolation processing (linear interpolation processing) in which the LPF of FIG. 11 is uniformly applied to all pixels, and signal values around the interpolation pixels. There is an interpolation process (adaptive interpolation process) in which the interpolation pixel value is adaptively determined with reference to.

図13は、適応補間処理の一例の説明に用いる図である。図13は、Gプレーンの補間処理時に参照される画素配列を示している。補間画素位置1301には、R成分の信号値Rcが配置され、その補間画素位置1301の上下左右の画素位置にはG成分の信号値Gu,Gb,Gl,Grが、さらにその上下左右の画素位置にはR成分の信号Ru,Rb,Rl,Rrが配置されている。補間画素値の算出にあたり、まず補正量検出部108は、補間画素位置1301周辺の、水平方向の信号値の相関を評価するための評価値dhを式(3)により算出し、同様に垂直方向の信号値の相関を評価する評価値dvを式(4)により算出する。 FIG. 13 is a diagram used for explaining an example of adaptive interpolation processing. FIG. 13 shows a pixel array that is referred to during the interpolation process of the G plane. The signal value Rc of the R component is arranged at the interpolated pixel position 1301, and the signal values Gu, Gb, Gl, Gr of the G component are further arranged at the pixel positions above, below, left and right of the interpolated pixel position 1301, and the pixels above, below, left and right. The signals Ru, Rb, Rl, and Rr of the R component are arranged at the positions. In calculating the interpolated pixel value, the correction amount detection unit 108 first calculates the evaluation value dh for evaluating the correlation of the signal values in the horizontal direction around the interpolated pixel position 1301 by the equation (3), and similarly in the vertical direction. The evaluation value dv for evaluating the correlation of the signal values of is calculated by the equation (4).

dh=abs(G1−Gr)+abs(2Rc−R1−Rr) 式(3)
dv=abs(Gu−Gb)+abs(2Rc−Ru−Rb) 式(4)
dh = abs (G1-Gr) + abs (2Rc-R1-Rr) Equation (3)
dv = abs (Gu-Gb) + abs (2Rc-Ru-Rb) Equation (4)

続いて補正量検出部108は、算出した評価値dhと評価値dvの大小関係に応じて、以下の補間画素の生成に使用する信号値を、以下の式(5)と式(6)のように切り替える。 Subsequently, the correction amount detection unit 108 sets the signal values used for generating the following interpolated pixels according to the magnitude relationship between the calculated evaluation value dh and the evaluation value dv in the following equations (5) and (6). To switch.

dh<dvの場合、Gc=(G1+Gr)/2 式(5)
dh≧dvの場合、Gc=(Gu+Gb)/2 式(6)
When dh <dv, Gc = (G1 + Gr) / 2 equation (5)
When dh ≧ dv, Gc = (Gu + Gb) / 2 equation (6)

第2の実施形態の場合は、前述のように水平方向および垂直方向の色成分の信号値の相関を見ながら補間画素値Gcを生成することで、線形補間に比べて、画像の高域成分(エッジ成分)を保持した状態でGプレーンを生成することが可能となる。第2の実施形態においては、動画再生の一時停止表示時のみ適応補間で生成されたGプレーンを用いて各種補正データの抽出を行うことで、より高精度な補正データを抽出することが可能となり、画像の高画質化が可能となる。
また第2の実施形態の場合、動画の連続再生時は演算量の比較的小さい線形補間を用いることで動画再生時の処理負荷を低減し、RAW動画データ再生の一時停止表示時のみ演算量は比較的大きいが表示画像の高画質化が可能な適応補間を用いる。
In the case of the second embodiment, by generating the interpolated pixel value Gc while observing the correlation between the signal values of the color components in the horizontal direction and the vertical direction as described above, the high frequency component of the image is compared with the linear interpolation. It is possible to generate a G plane while retaining (edge component). In the second embodiment, it is possible to extract more accurate correction data by extracting various correction data using the G plane generated by adaptive interpolation only when the moving image playback is paused and displayed. , It is possible to improve the image quality.
Further, in the case of the second embodiment, the processing load at the time of moving image playback is reduced by using linear interpolation having a relatively small amount of calculation during continuous playback of the moving image, and the amount of calculation is performed only when the RAW video data playback is paused. Uses adaptive interpolation, which is relatively large but can improve the image quality of the displayed image.

前述した各実施形態の画像処理に係る構成または各フローチャートの処理は、ハードウェア構成により実現されてもよいし、例えばCPUが本実施形態に係るプログラムを実行することによりソフトウェア構成により実現されてもよい。また、一部がハードウェア構成で残りがソフトウェア構成により実現されてもよい。ソフトウェア構成のためのプログラムは、予め用意されている場合だけでなく、不図示の外部メモリ等の記録媒体から取得されたり、不図示のネットワーク等を介して取得されたりしてもよい。 The configuration related to the image processing of each of the above-described embodiments or the processing of each flowchart may be realized by the hardware configuration, or may be realized by the software configuration by, for example, the CPU executing the program according to the present embodiment. Good. Further, a part may be realized by a hardware configuration and the rest may be realized by a software configuration. The program for software configuration may be acquired not only when it is prepared in advance, but also from a recording medium such as an external memory (not shown) or via a network (not shown).

また、前述した各実施形態の画像処理に係る構成のうち、制御部106や補正量検出部108で行われる処理は、人工知能(AI:artificial intelligence)を適用した処理であってもよい。例えば、それらの各部の代わりとして、機械学習された学習済みモデルを代わりに用いてもよい。その場合には、それら各部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。この学習済みモデルは、例えばニューラルネットワークモデルで構成できる。そして、その学習済みモデルは、前述の各部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前述の各部の処理を行う。また、前述の学習済みモデルは、必要に応じて一定のデータを処理する毎に更新する等も可能である。 Further, among the configurations related to the image processing of each of the above-described embodiments, the processing performed by the control unit 106 and the correction amount detection unit 108 may be processing to which artificial intelligence (AI) is applied. For example, instead of each of those parts, a machine-learned trained model may be used instead. In that case, a plurality of combinations of input data and output data for each part are prepared as learning data, knowledge is acquired from them by machine learning, and output data for the input data is obtained as a result based on the acquired knowledge. Generate a trained model to output. This trained model can be constructed, for example, by a neural network model. Then, the trained model performs the processing of each of the above-mentioned parts by operating in collaboration with the CPU, GPU, or the like as a program for performing the same processing as each of the above-mentioned parts. Further, the above-mentioned trained model can be updated every time a certain amount of data is processed, as needed.

本発明に係る制御処理における1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給可能であり、そのシステム又は装置のコンピュータの1つ以上のプロセッサにより読また出し実行されることで実現可能である。
前述の各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
A program that realizes one or more functions in the control process according to the present invention can be supplied to a system or device via a network or storage medium, and is read and executed by one or more processors of the computer of the system or device. It is feasible by being done.
Each of the above-described embodiments is merely an example of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

100:動画記録再生装置、101:撮像レンズ、102:カラーフィルタ、103:撮像部、104:内部メモリ、105:操作入力部、106:制御部、107:補正データ記憶部、108:補正量検出部、109:現像処理部、110:表示制御部、111:表示部、112:外部メモリ制御部、113:外部メモリ 100: Movie recording / playback device, 101: Imaging lens, 102: Color filter, 103: Imaging unit, 104: Internal memory, 105: Operation input unit, 106: Control unit, 107: Correction data storage unit, 108: Correction amount detection Unit, 109: Development processing unit, 110: Display control unit, 111: Display unit, 112: External memory control unit, 113: External memory

Claims (13)

補正データを用いた画像処理を含む現像処理を、RAWデータに対して行い現像済みデータを生成する現像処理手段と、
動画のRAWデータを現像して再生する場合、前記動画を構成するフレームのなかの一部のフレームのRAWデータを現像して再生する場合と、前記動画を構成する各フレームのRAWデータを現像して再生する場合とで、前記現像処理手段が前記画像処理に用いる補正データを異ならせる制御手段と、
を有することを特徴とする画像処理装置。
A development processing means that performs development processing including image processing using correction data on RAW data to generate developed data, and
When developing and playing back the RAW data of the moving image, when developing and playing back the RAW data of some of the frames constituting the moving image, and when developing and playing back the RAW data of each frame constituting the moving image. And the control means that the development processing means makes the correction data used for the image processing different depending on the case of reproduction.
An image processing device characterized by having.
記憶媒体に記憶されている動画の現像済みデータが再生される場合、前記動画を構成するフレームのなかの一部のフレームの現像済みデータを再生する場合と、前記動画を構成する各フレームの現像済みデータを再生する場合とで、前記画像処理に用いられた補正データは、共通した補正データであることを特徴とする請求項1に記載の画像処理装置。 When the developed data of the moving image stored in the storage medium is reproduced, when the developed data of a part of the frames constituting the moving image is reproduced, and when the developed data of each frame constituting the moving image is reproduced. The image processing apparatus according to claim 1, wherein the correction data used for the image processing is common correction data in the case of reproducing the completed data. 前記制御手段は、
記憶媒体に記憶されている動画のRAWデータを現像して再生する第1の再生処理と、記憶媒体に記憶されている動画の現像済みデータを再生する第2の再生処理との、いずれかを選択し、
前記第1の再生処理を選択した場合に、前記一部のフレームのRAWデータを現像して再生する場合と、前記各フレームのRAWデータを現像して再生する場合とで、前記画像処理に用いる補正データを異ならせることを特徴とする請求項2に記載の画像処理装置。
The control means
Either the first reproduction process of developing and reproducing the RAW data of the moving image stored in the storage medium and the second reproduction process of reproducing the developed data of the moving image stored in the storage medium are performed. Selected,
When the first reproduction process is selected, the RAW data of a part of the frames is developed and reproduced, and the RAW data of each frame is developed and reproduced, which is used for the image processing. The image processing apparatus according to claim 2, wherein the correction data is different.
前記画像処理は、画像を撮像する撮像素子に配されたカラーフィルタにより分けられた各色成分の同色を各画素位置に配したプレーンを生成する処理を含むことを特徴とする請求項3に記載の画像処理装置。 The third aspect of the present invention is characterized in that the image processing includes a process of generating a plane in which the same color of each color component divided by a color filter arranged in an image pickup element for capturing an image is arranged at each pixel position. Image processing device. 前記現像処理手段は、
前記動画の前記各フレームの前記RAWデータを現像して再生する場合には、線形補間を用いて各画素位置に同色を配して前記プレーンを生成し、
前記動画の前記一部のフレームの前記RAWデータを現像して再生する場合には、適応補間を用いて各画素位置に同色を配して前記プレーンを生成することを特徴とする請求項4に記載の画像処理装置。
The developing processing means
When the RAW data of each frame of the moving image is developed and reproduced, the plane is generated by arranging the same color at each pixel position by using linear interpolation.
4. The fourth aspect of the present invention is that when the RAW data of the part of the frame of the moving image is developed and reproduced, the same color is arranged at each pixel position by using adaptive interpolation to generate the plane. The image processing apparatus described.
前記現像処理手段は、前記動画の前記各フレームの前記現像済みデータを再生する場合には、線形補間を用いて各画素位置に同色を配して前記プレーンを生成することを特徴とする請求項5に記載の画像処理装置。 A claim, wherein the developing processing means generates the plane by arranging the same color at each pixel position by using linear interpolation when reproducing the developed data of each frame of the moving image. The image processing apparatus according to 5. 前記画像処理は、前記色成分ごとのプレーンの間の色のずれを補正する補正処理を含むことを特徴とする請求項4から6のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 4 to 6, wherein the image processing includes a correction process for correcting a color shift between planes for each color component. 前記制御手段は、
前記動画の前記各フレームの前記RAWデータを現像して再生する場合には、画像の撮像に用いられるレンズの設計値に基づく補正データを、前記現像処理手段の前記画像処理に適用し、
前記動画の前記一部のフレームの前記RAWデータを現像して再生する場合には、前記RAWデータから抽出したデータに基づく補正データを、前記現像処理手段の前記画像処理に適用し、
前記動画の前記各フレームの前記現像済みデータを再生する場合の補正データは、前記レンズの設計値に基づく補正データであることを特徴とする請求項2から7のいずれか1項に記載の画像処理装置。
The control means
When the RAW data of each frame of the moving image is developed and reproduced, the correction data based on the design value of the lens used for image imaging is applied to the image processing of the developing processing means.
When the RAW data of the part of the frame of the moving image is developed and reproduced, the correction data based on the data extracted from the RAW data is applied to the image processing of the developing processing means.
The image according to any one of claims 2 to 7, wherein the correction data in the case of reproducing the developed data of each frame of the moving image is the correction data based on the design value of the lens. Processing equipment.
前記補正データは前記レンズの収差補正を行うための補正データであることを特徴とする請求項8に記載の画像処理装置。 The image processing apparatus according to claim 8, wherein the correction data is correction data for correcting aberrations of the lens. 前記レンズの収差補正は、倍率色収差の補正であることを特徴とする請求項9に記載の画像処理装置。 The image processing apparatus according to claim 9, wherein the lens aberration correction is correction of chromatic aberration of magnification. 前記RAWデータから色ずれ量を検出して像高別に集計し、前記像高別の色ずれ量の集計結果から像高ごとの色ずれ量の平均値を算出することで、前記倍率色収差の補正に用いる前記補正データを抽出する補正量検出手段を有することを特徴とする請求項10に記載の画像処理装置。 The amount of color shift is detected from the RAW data and aggregated by image height, and the average value of the amount of color shift for each image height is calculated from the aggregated result of the amount of color shift by image height to correct the chromatic aberration of magnification. The image processing apparatus according to claim 10, further comprising a correction amount detecting means for extracting the correction data used in the above. 画像処理装置が実行する画像処理方法であって、
補正データを用いた画像処理を含む現像処理をRAWデータに対して行い、現像済みデータを生成する現像処理工程と、
記憶媒体に記憶されている動画のRAWデータを現像して再生する場合、前記動画を構成するフレームのなかの一部のフレームのRAWデータを現像して再生する場合と、前記動画を構成する各フレームのRAWデータを現像して再生する場合とで、前記現像処理工程で前記画像処理に用いる補正データを異ならせる制御工程と、
を有することを特徴とする画像処理方法。
An image processing method executed by an image processing device.
A development process that generates developed data by performing development processing including image processing using correction data on RAW data, and
When developing and playing back the RAW data of the moving image stored in the storage medium, when developing and playing back the RAW data of some of the frames constituting the moving image, and when playing back the RAW data of some of the frames constituting the moving image, respectively. A control step in which the correction data used for the image processing in the development processing step differs depending on the case where the RAW data of the frame is developed and reproduced.
An image processing method characterized by having.
コンピュータを、請求項1から11のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each means included in the image processing apparatus according to any one of claims 1 to 11.
JP2019149788A 2019-08-19 2019-08-19 Image processing device, image processing method, and program Active JP7408315B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019149788A JP7408315B2 (en) 2019-08-19 2019-08-19 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019149788A JP7408315B2 (en) 2019-08-19 2019-08-19 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2021034774A true JP2021034774A (en) 2021-03-01
JP7408315B2 JP7408315B2 (en) 2024-01-05

Family

ID=74677942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149788A Active JP7408315B2 (en) 2019-08-19 2019-08-19 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7408315B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013051524A (en) * 2011-08-30 2013-03-14 Canon Inc Image processing device and method
JP2015179910A (en) * 2014-03-18 2015-10-08 キヤノン株式会社 Image processing system and control method of the same
JP2017098663A (en) * 2015-11-19 2017-06-01 キヤノン株式会社 Image processing device and image processing method
JP2019029834A (en) * 2017-07-31 2019-02-21 キヤノン株式会社 Imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013051524A (en) * 2011-08-30 2013-03-14 Canon Inc Image processing device and method
JP2015179910A (en) * 2014-03-18 2015-10-08 キヤノン株式会社 Image processing system and control method of the same
JP2017098663A (en) * 2015-11-19 2017-06-01 キヤノン株式会社 Image processing device and image processing method
JP2019029834A (en) * 2017-07-31 2019-02-21 キヤノン株式会社 Imaging apparatus

Also Published As

Publication number Publication date
JP7408315B2 (en) 2024-01-05

Similar Documents

Publication Publication Date Title
KR100957261B1 (en) Image pickup device and chromatic aberration correction method
KR101265567B1 (en) Stereographic view image generation device and program
JP5687608B2 (en) Image processing apparatus, image processing method, and image processing program
JP4321064B2 (en) Image processing apparatus and image processing program
US10091415B2 (en) Image processing apparatus, method for controlling image processing apparatus, image pickup apparatus, method for controlling image pickup apparatus, and recording medium
JP5183348B2 (en) Imaging device
JP2017224939A (en) Imaging apparatus
JP6415094B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP7408315B2 (en) Image processing device, image processing method, and program
JP2020145553A (en) Image processing apparatus, image processing method and program
JP5076002B1 (en) Image processing apparatus and image processing method
US11425301B2 (en) Image processing apparatus, information processing apparatus, image processing method, and information processing method
KR20100088282A (en) Method and apparatus of inpainting for video data
JP3951993B2 (en) IMAGING DEVICE AND COLOR DATA MEASURING METHOD USED FOR THIS IMAGING DEVICE
JP4338563B2 (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP2004072528A (en) Method and program for interpolation processing, recording medium with the same recorded thereon, image processor and image forming device provided with the same
JP2005229280A (en) Image processing apparatus and method, and program
JP2002084551A (en) Device and method for processing stereoscopic image
JP2014110507A (en) Image processing device and image processing method
JP5611304B2 (en) Imaging apparatus, signal processing method thereof, and storage medium
JP4250807B2 (en) Field frequency conversion device and conversion method
JP2018137580A (en) Image processor, image processing method, and program
JP4139587B2 (en) Interpolation apparatus and method for captured image in single-plate color digital camera
JP6280402B2 (en) Image recording apparatus, image recording method, program, and storage medium
JP2024070628A (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGING APPARATUS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R151 Written notification of patent or utility model registration

Ref document number: 7408315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151