JP2016213717A - Image processing apparatus, image processing method, program, and storage medium - Google Patents
Image processing apparatus, image processing method, program, and storage medium Download PDFInfo
- Publication number
- JP2016213717A JP2016213717A JP2015096919A JP2015096919A JP2016213717A JP 2016213717 A JP2016213717 A JP 2016213717A JP 2015096919 A JP2015096919 A JP 2015096919A JP 2015096919 A JP2015096919 A JP 2015096919A JP 2016213717 A JP2016213717 A JP 2016213717A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- brightness
- virtual light
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理方法に関し、特には画像の明るさを補正する技術に関する。 The present invention relates to an image processing apparatus and an image processing method, and more particularly to a technique for correcting image brightness.
従来、画像中の被写体に対して、仮想的な光源からの光を照射することで、明るさを補正する技術(リライティング)が知られている(特許文献1)。これにより、環境光によって生じた影などの暗部領域を明るくすることができ、例えば黒つぶれした部分に存在する被写体が判別できるように画像を補正することが可能となる。 Conventionally, a technique (relighting) that corrects brightness by irradiating light from a virtual light source onto a subject in an image is known (Patent Document 1). As a result, dark areas such as shadows caused by ambient light can be brightened, and the image can be corrected so that, for example, a subject existing in a blackened portion can be identified.
例えば、特許文献1には、撮影画像に対して疑似的なライティング処理を行うライティング処理技術について開示されている。具体的には、顔領域全体の平均輝度よりも低い輝度領域を影領域として抽出する。そして抽出した影領域の明度を上げる処理を行っている。これにより、被写体の影を抑制することができる。 For example, Patent Literature 1 discloses a lighting processing technique for performing pseudo lighting processing on a captured image. Specifically, a luminance area lower than the average luminance of the entire face area is extracted as a shadow area. And the process which raises the brightness of the extracted shadow area | region is performed. Thereby, the shadow of the subject can be suppressed.
リライティング処理によって陰影を補正する際には、リライティング補正量を適切に決定することが必要である。リライティング補正量を大きくすると画素値が飽和してしまい、絵柄によってはリライティング後の画像の明るさのバランスが崩れてしまうという弊害が生じる。逆に飽和しないようにリライティング補正量を小さくするとリライティング効果が小さくなってしまうという課題がある。 When correcting the shadow by the relighting process, it is necessary to appropriately determine the relighting correction amount. Increasing the relighting correction amount saturates the pixel value, and depending on the picture, the brightness balance of the image after relighting is lost. Conversely, if the relighting correction amount is reduced so as not to saturate, there is a problem that the relighting effect is reduced.
上記の特許文献1に開示されている方法では、リライティング補正量のゲイン値をリライティング処理前の元画像の輝度値に基づいて決定している。しかしながら、この方法では被写体と仮想光源の位置関係・仮想光源の反射分布まで考慮しておらず、元画像の輝度値が高ければリライティング補正量のゲイン値が小さくなるよう制御されてしまう。例えば、被写体に対して斜めに仮想光源を設定している場合においては、同じ被写体内でも仮想光源が強くあたる領域と弱くあたる領域がある。そのため、仮想光源が弱くあたる領域の元画像の輝度値が高いからといって、リライティング補正量のゲイン値を小さく設定してしまうとリライティングによる効果が小さくなってしまうことになる。 In the method disclosed in Patent Document 1, the gain value of the relighting correction amount is determined based on the luminance value of the original image before the relighting process. However, in this method, the positional relationship between the subject and the virtual light source and the reflection distribution of the virtual light source are not considered, and the gain value of the relighting correction amount is controlled to be small if the luminance value of the original image is high. For example, when the virtual light source is set obliquely with respect to the subject, there are a region where the virtual light source is strongly applied and a region where the virtual light source is weakly applied even within the same subject. Therefore, even if the luminance value of the original image in the area where the virtual light source is weak is high, if the gain value of the relighting correction amount is set small, the effect of relighting becomes small.
本発明は上述した課題に鑑みてなされたものであり、その目的は、画像中の被写体に対して、仮想的な光源からの光を照射することで明るさを補正する場合に、過補正や補正不足になることを抑制することができる画像処理装置を提供することである。 The present invention has been made in view of the above-described problems, and an object of the present invention is to perform overcorrection or correction when brightness is corrected by irradiating light from a virtual light source to a subject in an image. An object of the present invention is to provide an image processing apparatus capable of suppressing the insufficient correction.
本発明に係わる画像処理装置は、撮影された画像に対して、該画像の中で明るさを補正する部分に対応して仮想的な光源である仮想光源を設定する設定手段と、前記設定手段により設定された仮想光源を用いて前記明るさを補正する部分の明るさを補正する補正手段と、前記画像の輝度値の分布と前記仮想光源が被写体により反射された場合の反射の分布とに基づいて、前記補正手段による明るさの補正量の最大値を算出する算出手段と、を備えることを特徴とする。 An image processing apparatus according to the present invention includes: a setting unit that sets a virtual light source that is a virtual light source corresponding to a portion of the image whose brightness is to be corrected; Correction means for correcting the brightness of the portion for correcting the brightness using the virtual light source set by the following: a distribution of luminance values of the image and a distribution of reflection when the virtual light source is reflected by a subject And a calculating means for calculating a maximum value of the brightness correction amount by the correcting means.
本発明によれば、画像中の被写体に対して、仮想的な光源からの光を照射することで明るさを補正する場合に、過補正や補正不足になることを抑制することができる画像処理装置を提供することが可能となる。 According to the present invention, when correcting brightness by irradiating light from a virtual light source to a subject in an image, image processing that can suppress overcorrection or insufficient correction. An apparatus can be provided.
以下、本発明の例示的な実施形態を、添付の図面に基づいて詳細に説明する。なお、以下に説明する実施形態では、本発明に係る画像処理装置をデジタルカメラに適用した例について説明する。なお、デジタルカメラは光電変換素子を用いた撮影機能を有する電子機器を意味し、携帯電話機、ゲーム機、パーソナルコンピュータ等、カメラを有するまたは使用可能な任意の電子機器が含まれる。また、本発明に撮影機能は必須でなく、本発明に係る画像処理装置は、画像処理が可能な任意の電子機器に対して適用可能である。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the embodiment described below, an example in which the image processing apparatus according to the present invention is applied to a digital camera will be described. Note that a digital camera means an electronic device having a photographing function using a photoelectric conversion element, and includes any electronic device having or usable with a camera, such as a mobile phone, a game machine, and a personal computer. In addition, the photographing function is not essential in the present invention, and the image processing apparatus according to the present invention can be applied to any electronic device capable of image processing.
図1は、本発明の一実施形態に係るデジタルカメラ100の構成例を示すブロック図である。 FIG. 1 is a block diagram illustrating a configuration example of a digital camera 100 according to an embodiment of the present invention.
図1において、レンズ群101は、フォーカスレンズを含むズームレンズである。絞り機能を備えるシャッター102が、レンズ群101と撮像部103との間に設けられている。撮像部103は、レンズ群101によって撮像面に形成される光学像を画素単位の電気信号に変換するCCD/CMOSイメージセンサを代表とする撮像素子を有する。A/D変換器104は、撮像部103が出力するアナログ信号をデジタル信号(画像データ)に変換する。 In FIG. 1, a lens group 101 is a zoom lens including a focus lens. A shutter 102 having a diaphragm function is provided between the lens group 101 and the imaging unit 103. The imaging unit 103 includes an imaging element represented by a CCD / CMOS image sensor that converts an optical image formed on the imaging surface by the lens group 101 into an electrical signal in pixel units. The A / D converter 104 converts the analog signal output from the imaging unit 103 into a digital signal (image data).
画像処理部105は、A/D変換器104から出力される画像データに対し、色補間(デモザイク)、ホワイトバランス調整、γ補正、輪郭強調、ノイズリダクション、色補正などの各種画像処理を行う。画像メモリ106は画像データを一時的に記憶する。メモリ制御部107は、画像メモリ106の読み書きを制御する。D/A変換器108は、画像データをアナログ信号に変換する。表示部109はLCDや有機ELディスプレイ等の表示装置を有し、各種GUIやライブビュー画像、記録媒体112から読み出して再生した画像などを表示する。コーデック部110は、画像メモリ106に記憶されている画像データを記録媒体に記録するために予め定められた方法で符号化したり、画像ファイルに含まれる符号化画像データを例えば表示のために復号したりする。 The image processing unit 105 performs various image processing such as color interpolation (demosaic), white balance adjustment, γ correction, contour enhancement, noise reduction, and color correction on the image data output from the A / D converter 104. The image memory 106 temporarily stores image data. A memory control unit 107 controls reading and writing of the image memory 106. The D / A converter 108 converts the image data into an analog signal. The display unit 109 includes a display device such as an LCD or an organic EL display, and displays various GUIs, live view images, images read out from the recording medium 112 and reproduced. The codec unit 110 encodes the image data stored in the image memory 106 by a predetermined method for recording on the recording medium, or decodes the encoded image data included in the image file for display, for example. Or
インタフェース(I/F)111は、例えば半導体メモリカードやカード型ハードディスクなどの着脱可能な記録媒体112を、デジタルカメラ100と機械的および電気的に接続する。システム制御部50は例えばCPUやMPUなどのプログラマブルなプロセッサであってよい。システム制御部50は、例えば不揮発性メモリ121や内蔵する不揮発性メモリに記録されたプログラムを実行して必要なブロックや回路を制御することにより、デジタルカメラ100の機能を実現する。リライティング処理部114は、撮影画像にリライティング処理を行う。 The interface (I / F) 111 mechanically and electrically connects a detachable recording medium 112 such as a semiconductor memory card or a card type hard disk to the digital camera 100. The system control unit 50 may be a programmable processor such as a CPU or MPU. The system control unit 50 realizes the functions of the digital camera 100 by executing a program recorded in, for example, the nonvolatile memory 121 or the built-in nonvolatile memory and controlling necessary blocks and circuits. The relighting processing unit 114 performs relighting processing on the captured image.
操作部120は、ユーザがデジタルカメラ100に各種の指示を入力するためのボタンやスイッチなどをまとめて記載したものである。 The operation unit 120 collectively describes buttons and switches for the user to input various instructions to the digital camera 100.
不揮発性メモリ121は電気的に消去・記録可能な、例えばEEPROM等であってよい。不揮発性メモリ121は、各種の設定値、GUIデータをはじめ、システム制御部50がMPUやCPUである場合には、システム制御部50が実行するためのプログラムが記録される。 The nonvolatile memory 121 may be an electrically erasable / recordable, for example, an EEPROM. The nonvolatile memory 121 stores various setting values and GUI data, and programs to be executed by the system control unit 50 when the system control unit 50 is an MPU or CPU.
システムメモリ122は、システム制御部50の動作用の定数、変数、不揮発性メモリ121から読みだしたプログラム等を展開するために用いる。測距センサ123は、被写体との距離を測定し、撮影画素の画素単位に対応する距離情報を2次元の距離マップ画像として出力する。 The system memory 122 is used to develop constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 121, and the like. The distance measuring sensor 123 measures the distance to the subject and outputs distance information corresponding to the pixel unit of the photographic pixel as a two-dimensional distance map image.
次に、デジタルカメラ100における撮影時の動作について説明する。 Next, the operation at the time of shooting in the digital camera 100 will be described.
例えば撮像部103は、シャッター102が開いている際にレンズ群101が撮像面に形成する被写体像を撮像素子によって光電変換し、アナログ画像信号としてA/D変換器104へ出力する。A/D変換器104は撮像部103から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換し画像処理部105に出力する。 For example, the imaging unit 103 photoelectrically converts a subject image formed on the imaging surface by the lens group 101 when the shutter 102 is open, and outputs the subject image to the A / D converter 104 as an analog image signal. The A / D converter 104 converts the analog image signal output from the imaging unit 103 into a digital image signal (image data) and outputs the digital image signal to the image processing unit 105.
画像処理部105は、A/D変換器104からの画像データ、又は、メモリ制御部107からの画像データに対し、色補間(デモザイク)、γ補正、輪郭強調、ノイズリダクション、色補正などの各種画像処理を行う。 The image processing unit 105 performs various processes such as color interpolation (demosaic), γ correction, edge enhancement, noise reduction, and color correction on the image data from the A / D converter 104 or the image data from the memory control unit 107. Perform image processing.
また、画像処理部105では、撮影で得られた画像データを用いて輝度やコントラストなどに関する所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が測距制御、露光制御を行う。このように、本実施形態のデジタルカメラ100では、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理を行う。画像処理部105ではさらに、撮影で得られた画像データを用いたオートホワイトバランス(AWB)調整も行う。 In addition, the image processing unit 105 performs predetermined calculation processing relating to luminance, contrast, and the like using image data obtained by photographing, and the system control unit 50 performs distance measurement control and exposure control based on the obtained calculation result. Do. As described above, the digital camera 100 according to the present embodiment performs TTL (through the lens) AF (autofocus) processing and AE (automatic exposure) processing. The image processing unit 105 further performs auto white balance (AWB) adjustment using image data obtained by shooting.
画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。画像メモリ106は、撮像部103から出力された画像データや、表示部109に表示するための画像データを格納する。 The image data output from the image processing unit 105 is written into the image memory 106 via the memory control unit 107. The image memory 106 stores image data output from the imaging unit 103 and image data to be displayed on the display unit 109.
また、D/A変換器108は、画像メモリ106に格納されている画像表示用のデータをアナログ信号に変換して表示部109に供給する。表示部109は、LCD等の表示装置に、D/A変換器108からのアナログ信号に応じた表示を行う。 The D / A converter 108 converts the image display data stored in the image memory 106 into an analog signal and supplies the analog signal to the display unit 109. The display unit 109 performs display in accordance with an analog signal from the D / A converter 108 on a display device such as an LCD.
コーデック部110は、画像メモリ106に記録された画像データをJPEGやMPEGなどの規格に基づき符号化する。システム制御部50は符号化した画像データに対して予め定められたヘッダなどを付与して画像ファイルを形成し、インタフェース111を介して記録媒体112に記録する。 The codec unit 110 encodes the image data recorded in the image memory 106 based on a standard such as JPEG or MPEG. The system control unit 50 assigns a predetermined header or the like to the encoded image data, forms an image file, and records the image file on the recording medium 112 via the interface 111.
なお、現在のデジタルカメラでは、撮影スタンバイ状態においては動画撮影を行い、撮影された動画を表示部109に表示し続けることにより表示部109を電子ビューファインダ(EVF)として機能させるのが一般的である。この場合、シャッター102は開いた状態とし、撮像部103のいわゆる電子シャッターを用いて例えば30フレーム/秒の撮影を行う。 Note that with current digital cameras, it is common to perform moving image shooting in the shooting standby state, and keep the captured moving image displayed on the display unit 109 so that the display unit 109 functions as an electronic viewfinder (EVF). is there. In this case, the shutter 102 is opened and a so-called electronic shutter of the imaging unit 103 is used to capture an image at, for example, 30 frames / second.
そして、操作部120に含まれるシャッターボタンが半押しされると上述のAF,AE制御が行われ、全押しされると本撮影により記録用の静止画撮影が実行され、記録媒体112に記録される。また、動画撮影ボタンなどにより動画撮影が指示された場合は、記録媒体112への動画記録を開始する。 When the shutter button included in the operation unit 120 is half-pressed, the above-described AF and AE control is performed. When the shutter button is fully pressed, the still image shooting for recording is performed by the main shooting and is recorded on the recording medium 112. The Also, when moving image shooting is instructed by a moving image shooting button or the like, moving image recording on the recording medium 112 is started.
上記の基本動作以外に、システム制御部50は、前述した不揮発性メモリ121に記録されたプログラムを実行することで、後述する本実施形態の各処理を実行する。ここでいうプログラムとは、本実施形態において後述する各種フローチャートを実行するためのプログラムのことである。この際、システム制御部50の動作用の定数、変数、不揮発性メモリ121から読み出したプログラム等をシステムメモリ122に展開する。 In addition to the above basic operation, the system control unit 50 executes each process of the present embodiment, which will be described later, by executing the program recorded in the nonvolatile memory 121 described above. The program here is a program for executing various flowcharts described later in the present embodiment. At this time, constants, variables for operation of the system control unit 50, programs read from the nonvolatile memory 121, and the like are expanded in the system memory 122.
次に、画像処理部105の詳細について図2を用いて説明する。図2は画像処理部105の構成を示すブロック図である。 Next, details of the image processing unit 105 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the image processing unit 105.
図2において、画像処理部105は、同時化処理部200、WB増幅部201、輝度・色信号生成部202、輪郭強調処理部203、輝度ガンマ処理部204を備える。さらに画像処理部105は、色変換処理部205、色γ処理部206、色差信号生成部207、陰影情報取得部208を備える。 2, the image processing unit 105 includes a synchronization processing unit 200, a WB amplification unit 201, a luminance / color signal generation unit 202, a contour enhancement processing unit 203, and a luminance gamma processing unit 204. Further, the image processing unit 105 includes a color conversion processing unit 205, a color γ processing unit 206, a color difference signal generation unit 207, and a shadow information acquisition unit 208.
次に、画像処理部105における処理について説明する。図1のA/D変換部104から入力された画像信号が画像処理部105に入力される。画像処理部105に入力された画像信号は同時化処理部200に入力される。同時化処理部200は入力されたベイヤー配列のRGBの画像データに対して、同時化処理を行い、色信号R,G,Bを生成する。WB増幅部201は、システム制御部50が算出するホワイトバランスゲイン値に基づき、RGBの色信号にゲインをかけ、ホワイトバランスを調整する。WB増幅部201が出力したRGB信号は輝度・色信号生成部202に入力される。輝度・色信号生成部202はRGB信号から輝度信号Yを生成し、生成した輝度信号Yを輪郭強調処理部203へ、RGBの色信号を色変換処理部205へ出力する。 Next, processing in the image processing unit 105 will be described. The image signal input from the A / D conversion unit 104 in FIG. 1 is input to the image processing unit 105. The image signal input to the image processing unit 105 is input to the synchronization processing unit 200. The synchronization processing unit 200 performs synchronization processing on the input RGB image data of the Bayer array to generate color signals R, G, and B. Based on the white balance gain value calculated by the system control unit 50, the WB amplification unit 201 applies a gain to the RGB color signals and adjusts the white balance. The RGB signal output from the WB amplification unit 201 is input to the luminance / color signal generation unit 202. The luminance / color signal generation unit 202 generates a luminance signal Y from the RGB signals, and outputs the generated luminance signal Y to the contour enhancement processing unit 203 and the RGB color signals to the color conversion processing unit 205.
輪郭強調処理部203では、輝度信号に対して輪郭強調処理を行い、輝度ガンマ処理部204へ出力する。輝度ガンマ処理部204では輝度信号Yに対してガンマ補正を行い、輝度信号Yを画像メモリ106に出力する。 The contour enhancement processing unit 203 performs contour enhancement processing on the luminance signal and outputs the luminance signal to the luminance gamma processing unit 204. The luminance gamma processing unit 204 performs gamma correction on the luminance signal Y and outputs the luminance signal Y to the image memory 106.
色変換処理部205は、RGB信号を、マトリクス演算などにより、所望のカラーバランスへ変換する。色ガンマ処理部206では、RGBの色信号にガンマ補正を行う。色差信号生成部207では、RGB信号から色差信号B−Y、R−Y信号を生成する。画像メモリ106に出力された画像信号であるY信号、 B−Y信号 R−Y信号は、コーデック部110によって圧縮符号化され、記録媒体112に記録される。 The color conversion processing unit 205 converts the RGB signal into a desired color balance by matrix calculation or the like. The color gamma processing unit 206 performs gamma correction on the RGB color signals. The color difference signal generation unit 207 generates color difference signals BY and RY from RGB signals. The Y signal, the BY signal, and the RY signal, which are image signals output to the image memory 106, are compression encoded by the codec unit 110 and recorded on the recording medium 112.
また、色変換処理部205から出力されたRGB信号は陰影情報取得部208へも入力される。陰影情報取得部208は、環境光源によって被写体に生じた陰影状態(明暗の状態)を解析するための情報を取得する。例えば、被写体の平均輝度情報および顔領域の輝度ヒストグラム情報などを陰影情報として取得する。 Further, the RGB signal output from the color conversion processing unit 205 is also input to the shadow information acquisition unit 208. The shadow information acquisition unit 208 acquires information for analyzing the shadow state (brightness / darkness state) generated in the subject by the environmental light source. For example, average luminance information of the subject, luminance histogram information of the face area, and the like are acquired as shadow information.
次に、画像中の被写体に対して、仮想的な光源からの光を照射することで明るさを補正する処理(リライティング処理)を行うリライティング処理部114の構成および動作について図3を用いて説明する。ユーザの操作によりリライティング処理が選択されている場合は、画像処理部105から出力されたデータがリライティング処理部114に入力され、仮想光源によるリライティング処理が行われる。 Next, the configuration and operation of the relighting processing unit 114 that performs brightness correction processing (relighting processing) by irradiating light from a virtual light source to the subject in the image will be described with reference to FIG. To do. When the relighting process is selected by the user's operation, the data output from the image processing unit 105 is input to the relighting process unit 114, and the relighting process using the virtual light source is performed.
図3はリライティング処理部114の構成を示すブロック図である。図3において、信号変換部301は入力された輝度・色差信号(Y,B−Y,R−Y)をRGB信号に変換する。デガンマ処理部302はデガンマ処理を行う。また、距離算出部303は測距センサ123から出力される撮像装置から被写体までの距離情報を取得する(距離情報取得)。法線算出部304は被写体の法線を算出する(法線情報取得)。仮想光源反射成分算出部305は、仮想光源が被写体に当たり反射した成分を算出する。仮想光源付加処理部306は、仮想光源によるリライティング効果を画像に付加する。また、ガンマ処理部307はRGB信号にガンマ特性をかけ、輝度・色差信号変換部308は、RGB信号を輝度・色差信号(Y,B−Y,R−Y)に変換する。 FIG. 3 is a block diagram showing a configuration of the relighting processing unit 114. In FIG. 3, a signal conversion unit 301 converts an input luminance / color difference signal (Y, BY, RY) into an RGB signal. The degamma processing unit 302 performs degamma processing. In addition, the distance calculation unit 303 acquires distance information from the imaging device output from the distance measuring sensor 123 to the subject (distance information acquisition). The normal calculation unit 304 calculates the normal of the subject (obtains normal information). The virtual light source reflection component calculation unit 305 calculates a component reflected by the virtual light source and hitting the subject. The virtual light source addition processing unit 306 adds the relighting effect by the virtual light source to the image. The gamma processing unit 307 applies gamma characteristics to the RGB signals, and the luminance / color difference signal conversion unit 308 converts the RGB signals into luminance / color difference signals (Y, BY, RY).
上記のように構成されるリライティング処理部114の動作について説明する。リライティング処理部114には、画像メモリ106に記録された輝度・色差信号(Y,B−Y,R−Y)が入力される。RGB信号変換部301は、入力された輝度・色差信号(Y,B−Y,R−Y)をRGB信号に変換し、デガンマ処理部302へ出力する。デガンマ処理部302は、画像処理部105のガンマ処理部で掛けられたガンマ特性と逆の特性の演算を行い、RGB信号をリニアデータに変換する。デガンマ処理部302は、リニア変換後のRGB信号(Rt,Gt,Bt)を、仮想光源反射成分算出部305および仮想光源付加処理部306に出力する。 The operation of the relighting processing unit 114 configured as described above will be described. The relighting processing unit 114 receives luminance / color difference signals (Y, BY, RY) recorded in the image memory 106. The RGB signal conversion unit 301 converts the input luminance / color difference signals (Y, BY, RY) into RGB signals and outputs them to the degamma processing unit 302. The de-gamma processing unit 302 performs a calculation of a characteristic opposite to the gamma characteristic multiplied by the gamma processing unit of the image processing unit 105, and converts the RGB signal into linear data. The degamma processing unit 302 outputs the RGB signals (Rt, Gt, Bt) after linear conversion to the virtual light source reflection component calculation unit 305 and the virtual light source addition processing unit 306.
一方、距離算出部303は測距センサ123から取得した被写体の距離情報から距離マップを算出する。被写体の距離情報とは、撮影画像を複数に分割した領域ごとに得られる2次元の距離情報のことである。この領域は、1画素単位であっても複数画素単位であってもよい。法線算出部304は距離算出部303から取得した距離情報から法線マップを算出する。 On the other hand, the distance calculation unit 303 calculates a distance map from the distance information of the subject acquired from the distance measuring sensor 123. The subject distance information is two-dimensional distance information obtained for each area obtained by dividing a captured image. This region may be a single pixel unit or a plurality of pixel units. The normal calculation unit 304 calculates a normal map from the distance information acquired from the distance calculation unit 303.
距離マップから法線マップを生成する方法に関しては、公知の技術を用いればよいが、具体的な処理例について図4を用いて説明する。図4はカメラの撮影座標と、被写体の関係を示す図である。例えば、図4に示すようにある被写体401に対して、撮影画像の水平方向の差分ΔHに対する距離(奥行き)Dの差分ΔDから面401aの勾配情報を算出し、その勾配情報から面401aの法線Nを算出することが可能である。撮影した各画素に対して上記の処理を行うことで、撮影画像の各画素に対応する法線情報Nを算出可能である。法線算出部304は、撮影画像の各画素に対応する法線情報Nを法線マップとして仮想光源反射成分算出部305に出力する。 A known technique may be used as a method for generating a normal map from a distance map, but a specific processing example will be described with reference to FIG. FIG. 4 is a diagram showing the relationship between the shooting coordinates of the camera and the subject. For example, as shown in FIG. 4, for a subject 401, the gradient information of the surface 401a is calculated from the difference ΔD of the distance (depth) D with respect to the difference ΔH in the horizontal direction of the captured image, and the method of the surface 401a is calculated from the gradient information. Line N can be calculated. By performing the above processing on each photographed pixel, it is possible to calculate normal line information N corresponding to each pixel of the photographed image. The normal calculation unit 304 outputs normal information N corresponding to each pixel of the captured image to the virtual light source reflection component calculation unit 305 as a normal map.
仮想光源反射成分算出部305では、光源と被写体の距離K、法線情報N、仮想光源パラメータLに基づき、設置した仮想光源が被写体に当たり反射される成分を算出する。具体的には、光源と被写体との距離Kの二乗に反比例し、被写体の法線ベクトルNと光源方向ベクトルLの内積に比例するように、撮影画像に対応する座標位置の反射成分を算出する。 Based on the distance K between the light source and the subject, the normal line information N, and the virtual light source parameter L, the virtual light source reflection component calculation unit 305 calculates a component that reflects the reflected light from the installed virtual light source. Specifically, the reflection component at the coordinate position corresponding to the captured image is calculated so as to be inversely proportional to the square of the distance K between the light source and the subject and proportional to the inner product of the normal vector N of the subject and the light source direction vector L. .
これについて、図4を用いてさらに説明する。図4では、被写体401の位置と、設定した仮想光源402の位置を示している。カメラ100で撮影された撮影画像の水平画素位置H1(垂直画素位置は説明を分かりやすくするために省略)における反射成分は、座標H1における法線N1と仮想光源の方向ベクトルL1の内積に比例し、仮想光源と被写体の距離K1の二乗に反比例する値となる。 This will be further described with reference to FIG. FIG. 4 shows the position of the subject 401 and the position of the set virtual light source 402. The reflection component at the horizontal pixel position H1 (the vertical pixel position is omitted for easy understanding) of the photographed image taken by the camera 100 is proportional to the inner product of the normal line N1 at the coordinate H1 and the direction vector L1 of the virtual light source. The value is inversely proportional to the square of the distance K1 between the virtual light source and the subject.
この関係を数式で表現すると仮想光源による被写体からの反射成分(Ra,Ga,Ba)は下記の通りとなる。 When this relationship is expressed by a mathematical expression, reflection components (Ra, Ga, Ba) from the subject by the virtual light source are as follows.
Ra=α ×(−L・N)/K2 × Rt
Ga=α ×(−L・N)/K2 × Gt …(1)
Ba=α ×(−L・N)/K2 × Bt
ここで、αは仮想光源の強さでありリライティング補正量のゲイン値である。本実施形態では、リライティング補正量の最大ゲイン値αmaxを算出し、αmax以下のゲイン値でリライティング処理を行うよう制御する。Lは仮想光源の3次元方向ベクトル、Nは被写体の3次元法線ベクトル、Kは仮想光源と被写体の距離である。Rt,Gt,Btはデガンマ処理部302から出力された撮影された画像の輝度値を表わす撮影RGBデータである。
Ra = α × (−L · N) / K 2 × Rt
Ga = α × (−L · N) / K 2 × Gt (1)
Ba = α × (−L · N) / K 2 × Bt
Here, α is the strength of the virtual light source and the gain value of the relighting correction amount. In the present embodiment, the maximum gain value αmax of the relighting correction amount is calculated, and control is performed so that the relighting process is performed with a gain value equal to or less than αmax. L is the three-dimensional direction vector of the virtual light source, N is the three-dimensional normal vector of the subject, and K is the distance between the virtual light source and the subject. Rt, Gt, and Bt are photographing RGB data representing the luminance value of the photographed image output from the degamma processing unit 302.
上記のように算出された仮想光源による反射成分(Ra,Ga,Ba)は仮想光源付加処理部306へ出力される。仮想光源付加処理部306では、仮想光源成分(Ra,Ga,Ba)を加算する下記の処理を行う。 The reflection component (Ra, Ga, Ba) by the virtual light source calculated as described above is output to the virtual light source addition processing unit 306. The virtual light source addition processing unit 306 performs the following processing for adding virtual light source components (Ra, Ga, Ba).
Rout=Rt+Ra
Gout=Gt+Ga
Bout=Bt+Ba
仮想光源付加処理部306から出力された画像信号(Rout,Gout,Bout)はガンマ処理部307に入力される。ガンマ処理部307では、RGBの入力信号にガンマ補正を行う。色差信号生成部308では、RGB信号から輝度信号Y、色差信号B−Y,R−Yを生成する。以上が、リライティング処理部114の動作である。
Rout = Rt + Ra
Gout = Gt + Ga
Bout = Bt + Ba
The image signals (Rout, Gout, Bout) output from the virtual light source addition processing unit 306 are input to the gamma processing unit 307. The gamma processing unit 307 performs gamma correction on the RGB input signals. The color difference signal generation unit 308 generates a luminance signal Y and color difference signals BY and RY from the RGB signals. The above is the operation of the relighting processing unit 114.
システム制御部50は、リライティング処理部114が出力した輝度・色差信号を、メモリ制御部107の制御によって、画像メモリ106に蓄積させた後、コーデック部110により圧縮符号化させる。また、I/F111を介して記録媒体112に記録させる。 The system control unit 50 stores the luminance / color difference signal output from the relighting processing unit 114 in the image memory 106 under the control of the memory control unit 107 and then compression-codes the codec unit 110. Further, recording is performed on the recording medium 112 via the I / F 111.
次に、システム制御部50が、上記のように動作するリライティング処理部114の最大ゲイン値αmaxを決定する処理の流れについて説明する。具体的には、距離算出部303、法線算出部304、仮想光源反射成分算出部305での算出結果に基づき、最大ゲイン値αmaxを決定する。これらの動作について以下説明する。 Next, the flow of processing in which the system control unit 50 determines the maximum gain value αmax of the relighting processing unit 114 that operates as described above will be described. Specifically, the maximum gain value αmax is determined based on the calculation results of the distance calculation unit 303, normal calculation unit 304, and virtual light source reflection component calculation unit 305. These operations will be described below.
図5は、システム制御部50の動作を示したフローチャートである。以下、図5のフローチャートに従って、システム制御部50がリライティングのパラメータの最大ゲイン値αmaxを決定する動作について説明する。 FIG. 5 is a flowchart showing the operation of the system control unit 50. The operation of the system control unit 50 for determining the maximum gain value αmax of the relighting parameter will be described below with reference to the flowchart of FIG.
ステップS501では、操作部120を介してユーザからの操作によりリライティング処理が選択されているか否かを判定する。即ち、リライティング処理部114による処理を行うか否かを判定する。リライティングを行う場合はステップ502に進む。 In step S <b> 501, it is determined whether relighting processing is selected by an operation from the user via the operation unit 120. That is, it is determined whether or not processing by the relighting processing unit 114 is performed. When rewriting is performed, the process proceeds to step 502.
ステップS502では、被写体を撮影する。ステップS503では、距離算出部303において撮像装置と被写体との距離による重み付けマップ画像(mapK)を生成する。具体的には、距離算出部303が測距センサ123から取得した撮影画像の画素単位で得られる2次元の被写体距離情報に基づいて距離Kを画素単位で算出する。そして、画素単位で1/K2を任意のビット幅で正規化した値を距離による重み付けマップ画像(mapK)とする。 In step S502, the subject is photographed. In step S503, the distance calculation unit 303 generates a weighted map image (mapK) based on the distance between the imaging device and the subject. Specifically, the distance calculation unit 303 calculates the distance K in units of pixels based on the two-dimensional subject distance information obtained in units of pixels of the captured image acquired from the distance measuring sensor 123. A value obtained by normalizing 1 / K 2 with an arbitrary bit width in units of pixels is set as a weighted map image (mapK) based on distance.
ステップS504では、法線算出部304において距離算出部303から取得した距離情報に基づいて法線マップ画像(mapN)を生成する。具体的には、図4で説明したように被写体法線ベクトルNを画素単位で算出し、その各座標軸方向に対する方向余弦を求める。求めた方向余弦を任意のビット幅で表現して法線による重み付けマップ(mapN)とする。 In step S504, the normal line calculation unit 304 generates a normal map image (mapN) based on the distance information acquired from the distance calculation unit 303. Specifically, as described in FIG. 4, the subject normal vector N is calculated in units of pixels, and the direction cosine for each coordinate axis direction is obtained. The obtained direction cosine is expressed by an arbitrary bit width to obtain a normal weighting map (mapN).
ステップS505では、仮想光源反射成分算出部305において、仮想光源による重み付けマップ画像(mapL)を生成する。具体的には、仮想光源の光源方向ベクトル−Lを画素単位で算出し、その各座標軸方向に対する方向余弦を求める。求めた方向余弦を任意のビット幅で表現して仮想光源による重み付けマップ(mapL)とする。 In step S505, the virtual light source reflection component calculation unit 305 generates a weighted map image (mapL) using the virtual light source. Specifically, the light source direction vector -L of the virtual light source is calculated in units of pixels, and the direction cosine for each coordinate axis direction is obtained. The obtained direction cosine is expressed by an arbitrary bit width to obtain a weighting map (mapL) by a virtual light source.
ステップS506では、距離による重み付けマップ画像(mapK)、被写体の法線による重み付けマップ画像(mapN)、仮想光源による重み付けマップ画像(mapL)において、任意の閾値以上の領域Eを検出する。具体的には、mapK≧TH_Ksatu、且つmapN≧TH_Nsatu、且つmapL≧TH_Lsatuの領域Eを検出する。仮想光源の反射成分(Ra,Ga,Ba)は前述した(1)式の通りとなる。 In step S506, an area E equal to or greater than an arbitrary threshold is detected in the weighted map image (mapK) based on distance, the weighted map image (mapN) based on the normal of the subject, and the weighted map image (mapL) based on the virtual light source. Specifically, a region E where mapK ≧ TH_Ksatu, mapN ≧ TH_Nsatu, and mapL ≧ TH_Lsatu is detected. The reflection components (Ra, Ga, Ba) of the virtual light source are as shown in the above-described equation (1).
この(1)式を各重み付けマップ画像で置き換えると、下記式のようになる。 When this equation (1) is replaced with each weighted map image, the following equation is obtained.
Ra =α× mapL・mapN・mapK ×Rt
Ga =α× mapL・mapN・mapK ×Gt
Ba =α× mapL・mapN・mapK ×Bt
すなわち、mapK≧TH_Ksatu、且つmapN≧TH_Nsatu、且つmapL≧TH_Lsatuを満たす領域Eとは、仮想光源の強さであるゲイン値αを大きくすると飽和しやすい領域となる。
Ra = α × mapL / mapN / mapK × Rt
Ga = α × mapL / mapN / mapK × Gt
Ba = α × mapL / mapN / mapK × Bt
That is, the region E that satisfies mapK ≧ TH_Ksatu, mapN ≧ TH_Nsatu, and mapL ≧ TH_Lsatu is a region that is easily saturated when the gain value α that is the strength of the virtual light source is increased.
ステップS507では、領域Eに該当する領域が小さいか否か判別する。領域Eに該当する領域が小さい場合はステップS509に進み、領域Eに該当する領域が大きい場合は、ステップS508に進む。ステップS508では、TH_Ksatu、TH_Nsatu、TH_Lsatuの値を大きくしてステップS506に進み領域Eを検出し直す。そして、領域Eがある程度小さくなるまでステップS508を繰り返す。領域Eが小さくなるまでステップS508を繰り返すのは最大ゲイン値αmaxを求める際の計算量を少なくするためである。領域Eが大きいか否かの判別は、所定の閾値TH_areaEより大きいか否かで判別する。 In step S507, it is determined whether or not the area corresponding to the area E is small. If the area corresponding to the area E is small, the process proceeds to step S509. If the area corresponding to the area E is large, the process proceeds to step S508. In step S508, the values of TH_Ksatu, TH_Nsatu, and TH_Lsatu are increased, and the process proceeds to step S506 to detect the region E again. Then, step S508 is repeated until the area E becomes small to some extent. The reason why Step S508 is repeated until the area E becomes smaller is to reduce the amount of calculation when obtaining the maximum gain value αmax. Whether or not the area E is large is determined based on whether or not the area E is larger than a predetermined threshold TH_areaE.
ステップS509では、領域Eが飽和しないリライティングの最大ゲイン値αmaxを算出する。具体的には、仮想光源付加処理部306において、デガンマ処理部302の出力(Rt,Gt,Bt)とステップS506で求めた仮想光源成分(Ra,Ga,Ba)を加算する際に、(Rout,Gout,Bout)が飽和しないリライティングの最大ゲイン値αmaxを算出する。つまり、
(Rout,Gout,Bout)=(Rt,Gt,Bt)+(Ra,Ga,Ba)
であるから、上記式を展開することにより、αrmax,αgmax,αbmaxは、下記式で算出される。Routmax,Goutmax,Boutmaxは、8bitであれば28−1=255であり、10bitであれば、210−1=1023となる。αmax値は、αrmax、αgmax、αbmaxの中から一番小さい値とする。
In step S509, the regain maximum gain value αmax in which the region E is not saturated is calculated. Specifically, when the virtual light source addition processing unit 306 adds the output (Rt, Gt, Bt) of the degamma processing unit 302 and the virtual light source component (Ra, Ga, Ba) obtained in step S506, (Rout , Gout, Bout) is calculated as the maximum regaining gain αmax. That means
(Rout, Gout, Bout) = (Rt, Gt, Bt) + (Ra, Ga, Ba)
Therefore, by expanding the above equation, αrmax, αgmax, and αbmax are calculated by the following equations. Routmax, Goutmax, and Boutmax are 2 8 −1 = 255 if 8 bits, and 2 10 −1 = 1023 if 10 bits. The αmax value is the smallest value among αrmax, αgmax, and αbmax.
αrmax=((Routmax/Rt)−1)・(K2/(−L・N))
αgmax=((Goutmax/Gt)−1)・(K2/(−L・N))
αbmax=((Boutmax/Bt)−1)・(K2/(−L・N))
以上の処理によって、リライティング処理部114の最大ゲイン値αmaxを決定しリライティング処理部でリライティング処理した例を図6に示す。図6(a)がリライティング処理前の撮影画像、図6(b)がリライティング処理後の撮影画像の例である。図6(a)で暗かった被写体が、仮想光源をあててリライティング処理をすることで図6(b)のように明るく補正されている。
αrmax = ((Routmax / Rt) −1) · (K 2 / (− L · N))
αgmax = ((Goutmax / Gt) −1) · (K 2 / (− L · N))
αbmax = ((Boutmax / Bt) −1) · (K 2 / (− L · N))
FIG. 6 shows an example in which the maximum gain value αmax of the relighting processing unit 114 is determined by the above processing and the relighting processing unit performs the relighting processing. FIG. 6A shows an example of a photographed image before the relighting process, and FIG. 6B shows an example of a photographed image after the relighting process. The dark subject in FIG. 6A is brightly corrected as shown in FIG. 6B by performing relighting processing with a virtual light source.
次に、システム制御部50が、上記のように算出したリライティング処理の最大ゲイン値αmaxを用いてオートリライティングする際の処理について、図7のフローチャートを用いて説明する。 Next, processing when the system control unit 50 performs auto-relighting using the maximum gain value αmax of the relighting processing calculated as described above will be described with reference to the flowchart of FIG.
ステップS701では、操作部120を介してユーザからの操作によりリライティング処理が選択されているか否かを判定する。即ち、リライティング処理部114による処理を行うか否かを判定する。リライティングを行う場合はステップ702に進む。 In step S <b> 701, it is determined whether relighting processing is selected by a user operation via the operation unit 120. That is, it is determined whether or not processing by the relighting processing unit 114 is performed. When rewriting is performed, the process proceeds to step 702.
ステップS702では被写体を撮影する。ステップS703ではリライティング後の画像が飽和しないリライティングのゲイン値αmaxを算出する。具体的には図5を用いて前述した通りである。 In step S702, the subject is photographed. In step S703, a relighting gain value αmax at which the relighted image is not saturated is calculated. Specifically, as described above with reference to FIG.
ステップS704では、ステップS703で算出したリライティングのゲインの最大値αmaxを基に、最大値αmax以下(最大値以下)の値で、リライティング強度が大・中・小の場合のαの値を算出する。例えば、図8に示す表示部109の表示例のように、リライティング強度を0%〜100%で表現し、100%をゲイン値αmaxとして、強度が大・中・小の場合のαの値を算出する。 In step S704, based on the maximum value αmax of the relighting gain calculated in step S703, the value of α when the relighting intensity is large, medium, or small is calculated with a value less than or equal to the maximum value αmax (maximum value or less). . For example, as shown in the display example of the display unit 109 shown in FIG. 8, the relighting intensity is expressed as 0% to 100%, the gain value αmax is 100%, and the value of α when the intensity is large / medium / small is set. calculate.
ステップS705ではユーザから操作部120を介して任意のリライティング強度の設定がされているかどうかを判別する。設定がされている場合はステップS706に進み、設定がされていない場合はステップS705を繰り返す。 In step S705, it is determined whether an arbitrary relighting intensity is set by the user via the operation unit 120. If it has been set, the process proceeds to step S706. If it has not been set, step S705 is repeated.
ステップS706では、ユーザにより設定されたゲイン値αに基づいて、リライティングによる明るさの自動補正処理を行う。具体的には、
(Ra,Ga,Ba)=α×(−L・N)/K2 ×(Rt,Gt,Bt)
の式のαにユーザにより設定されたαの値を代入して算出する。以上の処理によってリライティング処理部114は補正不足や過補正にならない適切なオートリライティングをすることが可能となる。
In step S706, brightness automatic correction processing by relighting is performed based on the gain value α set by the user. In particular,
(Ra, Ga, Ba) = α × (−L · N) / K 2 × (Rt, Gt, Bt)
Substituting the value of α set by the user for α in the equation (1). Through the above processing, the relighting processing unit 114 can perform appropriate auto-relighting that does not cause undercorrection or overcorrection.
なお、本実施形態では、ユーザが操作部120を介して任意のリライティング強度を設定する構成としたが、本発明はこれに限定されるものではない。例えば、リライティングの最大ゲイン値αmax以下で、陰影情報取得部208で取得した被写体の輝度情報によってα値を決定する構成としても良い。 In the present embodiment, the user sets an arbitrary relighting intensity via the operation unit 120, but the present invention is not limited to this. For example, the α value may be determined based on the luminance information of the subject acquired by the shadow information acquisition unit 208 below the relighting maximum gain value αmax.
また、本実施形態では、リライティングにより明るく補正する場合について説明したが、逆に暗くするリライティングを行ってもよい。その場合、仮想光源のゲイン値αをマイナスにする。その結果、仮想光源の明るさに基づく信号に対して減算することになる。その場合は、黒潰れしないゲイン値αminを算出することが必要となる。 Further, in the present embodiment, the case of performing bright correction by relighting has been described, but conversely, relighting that darkens may be performed. In that case, the gain value α of the virtual light source is made negative. As a result, the signal based on the brightness of the virtual light source is subtracted. In this case, it is necessary to calculate a gain value αmin that does not cause black crushing.
また、仮想光源の位置と処理対象画素の距離Dの算出方法は、本実施形態の方法に限定されるものではなく、どのような算出方法をとってもよい。例えば、カメラの位置および被写体位置を3次元位置として取得し、3次元での距離で計算してもよい。 The calculation method of the distance D between the position of the virtual light source and the processing target pixel is not limited to the method of the present embodiment, and any calculation method may be used. For example, the camera position and the subject position may be acquired as a three-dimensional position and calculated by a three-dimensional distance.
また、仮想光源を付加する場合に、距離の二乗に反比例する式で計算したが、仮想光源の付加量をこの方式で算出するものに限定されるものではない。例えば、距離Dに反比例するものや、ガウス分布的に照射範囲が変化する式であってもよい。 In addition, when a virtual light source is added, the calculation is performed using an equation that is inversely proportional to the square of the distance, but the amount of addition of the virtual light source is not limited to that calculated by this method. For example, an expression that is inversely proportional to the distance D or an expression in which the irradiation range changes in a Gaussian distribution may be used.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
50:システム制御部、101:光学系、102:シャッター、103:撮像部、104:A/D変換器、105:画像処理部、106:画像メモリ、107:メモリ制御部、109:表示部、110:コーデック部、111:記録I/F、112:記録媒体、113:顔検出部、114:リライティング処理部、120:操作部、121:不揮発性メモリ、122:システムメモリ、123:測距センサ 50: System control unit, 101: Optical system, 102: Shutter, 103: Imaging unit, 104: A / D converter, 105: Image processing unit, 106: Image memory, 107: Memory control unit, 109: Display unit, 110: Codec section, 111: Recording I / F, 112: Recording medium, 113: Face detection section, 114: Relighting processing section, 120: Operation section, 121: Non-volatile memory, 122: System memory, 123: Distance sensor
Claims (13)
前記設定手段により設定された仮想光源を用いて前記明るさを補正する部分の明るさを補正する補正手段と、
前記画像の輝度値の分布と前記仮想光源が被写体により反射された場合の反射の分布とに基づいて、前記補正手段による明るさの補正量の最大値を算出する算出手段と、
を備えることを特徴とする画像処理装置。 Setting means for setting a virtual light source, which is a virtual light source, corresponding to a portion whose brightness is corrected in the image,
Correction means for correcting the brightness of the portion for correcting the brightness using the virtual light source set by the setting means;
A calculation unit that calculates a maximum value of a correction amount of brightness by the correction unit based on a distribution of luminance values of the image and a distribution of reflection when the virtual light source is reflected by a subject;
An image processing apparatus comprising:
前記設定工程において設定された仮想光源を用いて前記明るさを補正する部分の明るさを補正する補正工程と、
前記画像の輝度値の分布と前記仮想光源が被写体により反射された場合の反射の分布とに基づいて、前記補正手段による明るさの補正量の最大値を算出する算出工程と、
を有することを特徴とする画像処理方法。 A setting step of setting a virtual light source, which is a virtual light source, corresponding to a portion whose brightness is corrected in the image,
A correction step of correcting the brightness of the portion for correcting the brightness using the virtual light source set in the setting step;
A calculation step of calculating a maximum value of a correction amount of brightness by the correction unit based on a distribution of luminance values of the image and a distribution of reflection when the virtual light source is reflected by a subject;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015096919A JP6541416B2 (en) | 2015-05-11 | 2015-05-11 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015096919A JP6541416B2 (en) | 2015-05-11 | 2015-05-11 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016213717A true JP2016213717A (en) | 2016-12-15 |
JP2016213717A5 JP2016213717A5 (en) | 2018-06-07 |
JP6541416B2 JP6541416B2 (en) | 2019-07-10 |
Family
ID=57551908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015096919A Active JP6541416B2 (en) | 2015-05-11 | 2015-05-11 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6541416B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018182718A (en) * | 2017-04-17 | 2018-11-15 | キヤノン株式会社 | Image processing apparatus and control method thereof |
JP2018185576A (en) * | 2017-04-24 | 2018-11-22 | キヤノン株式会社 | Image processing device and image processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013242441A (en) * | 2012-05-21 | 2013-12-05 | Nikon Corp | Imaging apparatus and method for deciding illumination light quantity |
JP2015056143A (en) * | 2013-09-13 | 2015-03-23 | ソニー株式会社 | Information processing device and information processing method |
-
2015
- 2015-05-11 JP JP2015096919A patent/JP6541416B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013242441A (en) * | 2012-05-21 | 2013-12-05 | Nikon Corp | Imaging apparatus and method for deciding illumination light quantity |
JP2015056143A (en) * | 2013-09-13 | 2015-03-23 | ソニー株式会社 | Information processing device and information processing method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018182718A (en) * | 2017-04-17 | 2018-11-15 | キヤノン株式会社 | Image processing apparatus and control method thereof |
JP2018185576A (en) * | 2017-04-24 | 2018-11-22 | キヤノン株式会社 | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6541416B2 (en) | 2019-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6445844B2 (en) | Imaging device and method performed in imaging device | |
JP6423625B2 (en) | Image processing apparatus and image processing method | |
JP6442209B2 (en) | Image processing apparatus and control method thereof | |
JP6833415B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6463177B2 (en) | Image processing apparatus and control method thereof | |
JP6381404B2 (en) | Image processing apparatus and method, and imaging apparatus | |
JP6412386B2 (en) | Image processing apparatus, control method therefor, program, and recording medium | |
US20200007732A1 (en) | Image processing method and electronic device | |
JP6718253B2 (en) | Image processing apparatus and image processing method | |
JP2015144475A (en) | Imaging apparatus, control method of the same, program and storage medium | |
US10863103B2 (en) | Setting apparatus, setting method, and storage medium | |
JP6702752B2 (en) | Image processing device, imaging device, control method, and program | |
JP2017138927A (en) | Image processing device, imaging apparatus, control method and program thereof | |
JP2010183460A (en) | Image capturing apparatus and method of controlling the same | |
JP6541416B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2018182700A (en) | Image processing apparatus, control method of the same, program, and storage medium | |
JP2018107741A (en) | Image processing system, image processing method, and program | |
JP2018098582A (en) | Image processing apparatus and method, and imaging device | |
JP2014007528A (en) | Image processing apparatus and control method thereof | |
US10021314B2 (en) | Image processing apparatus, image capturing apparatus, method of controlling the same, and storage medium for changing shading using a virtual light source | |
JP2010183461A (en) | Image capturing apparatus and method of controlling the same | |
JP6663246B2 (en) | Image processing apparatus, imaging apparatus, control method thereof, and program | |
JP6701299B2 (en) | Image processing apparatus and image processing method | |
JP2019022027A (en) | Image processing apparatus | |
JP5789330B2 (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190311 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190611 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6541416 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |