JP5736727B2 - Image processing apparatus and imaging apparatus - Google Patents

Image processing apparatus and imaging apparatus Download PDF

Info

Publication number
JP5736727B2
JP5736727B2 JP2010239757A JP2010239757A JP5736727B2 JP 5736727 B2 JP5736727 B2 JP 5736727B2 JP 2010239757 A JP2010239757 A JP 2010239757A JP 2010239757 A JP2010239757 A JP 2010239757A JP 5736727 B2 JP5736727 B2 JP 5736727B2
Authority
JP
Japan
Prior art keywords
image processing
image
correction value
posture
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010239757A
Other languages
Japanese (ja)
Other versions
JP2012095037A (en
Inventor
剛 右山
剛 右山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010239757A priority Critical patent/JP5736727B2/en
Publication of JP2012095037A publication Critical patent/JP2012095037A/en
Application granted granted Critical
Publication of JP5736727B2 publication Critical patent/JP5736727B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置及び撮像装置に関する。   The present invention relates to an image processing apparatus and an imaging apparatus.

従来から、ユーザの好みや撮影条件に合わせて画像処理パラメータを決定する手法が知られている。例えば、特許文献1では、異なる画像処理パラメータで処理した複数のモニター画像を同時にLCDディスプレイに表示させ、ユーザに選択されたモニター画像に施された画像処理パラメータを、撮影時の撮影条件として設定することが考案されている。   Conventionally, a method for determining an image processing parameter in accordance with a user's preference and photographing conditions is known. For example, in Patent Document 1, a plurality of monitor images processed with different image processing parameters are simultaneously displayed on an LCD display, and image processing parameters applied to the monitor image selected by the user are set as shooting conditions at the time of shooting. It has been devised.

特開2002−142148号公報JP 2002-142148 A

ところが、特許文献1の技術では、LCDディスプレイに表示したモニター画像の数が少ない、言い換えれば設定される画像処理パラメータの数が少ない場合、表示されるモニター画像の中には、ユーザの色の好みや撮影意図を反映する画像処理パラメータの設定値が含まれていない場合もあることから、ユーザは画像処理パラメータを再度設定し直す必要がある。この画像処理パラメータを設定する処理は操作が煩雑であり、設定する画像処理パラメータが複数ある場合は、ユーザの意図する画像処理パラメータの組み合わせにするには、時間がかかり、面倒である。   However, in the technique of Patent Document 1, when the number of monitor images displayed on the LCD display is small, in other words, when the number of image processing parameters to be set is small, the displayed monitor images include user's color preference. In some cases, the setting value of the image processing parameter reflecting the shooting intention is not included, and the user needs to set the image processing parameter again. The processing for setting the image processing parameters is complicated, and when there are a plurality of image processing parameters to be set, it takes time and troublesome to combine the image processing parameters intended by the user.

そこで、本発明の画像処理装置及び撮像装置は、直感的に素早く、画像処理パラメータを設定することを目的とする。   Accordingly, an object of the image processing apparatus and the imaging apparatus of the present invention is to set image processing parameters intuitively and quickly.

本発明の画像処理装置は、画像に対する画像処理を実行する画像処理部と、自装置の少なくとも一部の姿勢の変化を検出する検出部と、前記検出部により検出された前記姿勢の変化に基づいて、前記画像処理部における画像処理条件を設定する設定部と、を備え、前記画像は、所定時間間隔を空けて連続して取得された複数の画像であり、前記検出部は、互いに直交する少なくとも2方向を軸としたときの各軸に対する前記姿勢の変化を検出し、前記設定部は、前記連続して取得された複数の画像から前記検出部により前記少なくとも2方向のうちの1方向を軸とする前記姿勢の変化が検出された期間の画像を選択し、他方向を軸とする前記姿勢の変化に基づいて、選択した画像に対する画像処理条件を設定する。
また、本発明の画像処理装置は、画像に対して色相補正又は露出補正の少なくともいずれか一方の処理を実行する画像処理部と、自装置の少なくとも一部の姿勢の変化を検出する検出部と、前記検出部により検出された前記姿勢の変化に基づいて、前記色相補正又は前記露出補正の少なくともいずれか一方の処理に用いるパラメータを設定する設定部と、を備える。
また、本発明の撮像装置は、本発明に開示される画像処理装置と、画像を取得する撮像部と、を備える。
An image processing apparatus according to the present invention is based on an image processing unit that performs image processing on an image, a detection unit that detects a change in posture of at least a part of the device, and the change in posture detected by the detection unit. A setting unit that sets image processing conditions in the image processing unit , wherein the image is a plurality of images that are continuously acquired at predetermined time intervals, and the detection units are orthogonal to each other A change in the posture with respect to each axis when at least two directions are used as an axis is detected, and the setting unit selects one of the at least two directions by the detection unit from the plurality of continuously acquired images. An image in a period in which the change in posture is detected as an axis is selected, and image processing conditions for the selected image are set based on the change in posture with the other direction as an axis.
The image processing apparatus of the present invention includes an image processing unit that performs at least one of hue correction and exposure correction on an image, and a detection unit that detects a change in posture of at least a part of the image processing apparatus. A setting unit that sets a parameter used for at least one of the hue correction and the exposure correction based on the change in the posture detected by the detection unit.
Moreover, the imaging device of this invention is provided with the image processing apparatus disclosed by this invention, and the imaging part which acquires an image.

本発明の画像処理装置及び撮像装置によれば、直感的に素早く、画像処理パラメータを設定することができる。   According to the image processing apparatus and the imaging apparatus of the present invention, it is possible to set image processing parameters intuitively and quickly.

本発明の実施形態における撮像装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device 10 in embodiment of this invention. (A)撮像装置10の外観を示す図である。(B)撮像装置10を、X軸を中心として回転させたときの例を示す図である。(C)撮像装置10を、Y軸を中心として回転させたときの例を示す図である。(D)撮像装置10を、Z軸を中心として回転させたときの例を示す図である。(A) It is a figure which shows the external appearance of the imaging device 10. FIG. (B) It is a figure which shows an example when the imaging device 10 is rotated centering | focusing on the X-axis. (C) It is a figure which shows the example when rotating the imaging device 10 centering on the Y-axis. (D) It is a figure which shows an example when the imaging device 10 is rotated centering | focusing on the Z-axis. 撮影時の流れを説明するフローチャートである。It is a flowchart explaining the flow at the time of imaging | photography. プレビュー画像の表示の一様態を示す図である。It is a figure which shows the uniform state of the display of a preview image.

以下、図面を用いて本発明の実施形態について説明する。図1は、本実施形態における撮像装置10の構成を示すブロック図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 10 according to the present embodiment.

図1に示すように、撮像装置10は、撮像レンズ11、撮像素子12、A/D変換部13、バッファメモリ14、表示部15、フラッシュRAM16、加速度センサ17、記録I/F部18、記録媒体19、操作部20、CPU21、バス22を備える。   As shown in FIG. 1, the imaging device 10 includes an imaging lens 11, an imaging device 12, an A / D conversion unit 13, a buffer memory 14, a display unit 15, a flash RAM 16, an acceleration sensor 17, a recording I / F unit 18, and a recording. A medium 19, an operation unit 20, a CPU 21, and a bus 22 are provided.

撮像レンズ11は、撮像素子12の結像面に被写体像を結像する。撮像素子12は、撮像レンズ11を通過した被写体光を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮像素子12から出力される画像信号は、A/D変換部13に入力される。A/D変換部13は、撮像素子12から出力されるアナログの画像信号をデジタルの画像信号に変換する。なお、このデジタルの画像信号は、1コマの画像データとしてバッファメモリ14に記録される。以下、この1コマの画像データをRAW画像データと称する。バッファメモリ14は、後述する画像処理部15による画像処理の前工程や後工程で画像データを一時的に記録する。   The imaging lens 11 forms a subject image on the imaging surface of the imaging element 12. The imaging element 12 photoelectrically converts the subject light that has passed through the imaging lens 11 and outputs analog image signals corresponding to R, G, and B colors. An image signal output from the image sensor 12 is input to the A / D converter 13. The A / D converter 13 converts the analog image signal output from the image sensor 12 into a digital image signal. The digital image signal is recorded in the buffer memory 14 as one frame of image data. Hereinafter, this one-frame image data is referred to as RAW image data. The buffer memory 14 temporarily records image data in the pre-process and post-process of image processing by the image processing unit 15 described later.

表示部15は、各種の画像を表示する液晶パネル、および、液晶パネルを表示面の後方から照らすバックライト等から構成される。また、CPU21は、表示部15に表示させる画像を制御するための表示制御部として機能し、表示部15の液晶パネル、および、バックライト等を制御する。表示部15に表示される各種の画像は、撮像により取得した画像、後述するプレビュー画像、メニュー画像、記録媒体19に記録された画像等であり、CPU21の指示に応じて、適宜対応する画像が表示部15に表示されるものとする。フラッシュRAM16は、撮像装置10の各種動作制御のためのプログラムなどを記憶している。また、フラッシュRAM16は、後述する傾きベクトルと画像処理パラメータとを対応付けたテーブルを記憶している。   The display unit 15 includes a liquid crystal panel that displays various images, a backlight that illuminates the liquid crystal panel from behind the display surface, and the like. Further, the CPU 21 functions as a display control unit for controlling an image to be displayed on the display unit 15 and controls a liquid crystal panel, a backlight, and the like of the display unit 15. Various images displayed on the display unit 15 are an image acquired by imaging, a preview image, a menu image, an image recorded on the recording medium 19, and the like, which will be described later. Corresponding images are appropriately displayed according to instructions from the CPU 21. It is assumed that it is displayed on the display unit 15. The flash RAM 16 stores a program for controlling various operations of the imaging apparatus 10 and the like. Further, the flash RAM 16 stores a table in which an inclination vector, which will be described later, is associated with an image processing parameter.

加速度センサ17は、重力加速度を検出するMEMS(Micro Electro Mechanical Systems)型の加速度センサである。なお、加速度センサ17は、静電容量検出方式やピエゾ抵抗方式の加速度センサでもよいし、熱検知方式の加速度センサでもよい。加速度センサ17は、撮像装置10の姿勢の変化を検出する。そして、加速度センサ17は、検出した値を回転角度に変換し、CPU21に出力する。   The acceleration sensor 17 is a MEMS (Micro Electro Mechanical Systems) type acceleration sensor that detects gravitational acceleration. The acceleration sensor 17 may be a capacitance detection type or piezoresistive type acceleration sensor, or a heat detection type acceleration sensor. The acceleration sensor 17 detects a change in the posture of the imaging device 10. The acceleration sensor 17 converts the detected value into a rotation angle and outputs it to the CPU 21.

図2(A)は、撮像装置10の外観を示す図である。図2(A)において、光軸L方向に直交し、撮像装置10の左右方向を示す方向をX軸とする。また、光軸L及びX軸に直交し、撮像装置10の上下方向を示す方向をY軸とする。また、光軸L方向を示す方向をZ軸とする。加速度センサ17は、X軸を中心とした回転方向への回転角度θxを検出する。図2(B)の実線は、撮像装置10の位置を示し、二点鎖線は、回転後の撮像装置の位置を示す。また、加速度センサ17は、Y軸を中心とした回転方向への回転角度θyを検出する(図2(C)参照)。また、加速度センサ17は、Z軸を中心とした回転方向への回転角度θzを検出する(図2(D)参照)。   FIG. 2A is a diagram illustrating an appearance of the imaging device 10. In FIG. 2A, the direction perpendicular to the optical axis L direction and indicating the left-right direction of the imaging device 10 is defined as the X axis. A direction perpendicular to the optical axis L and the X axis and indicating the vertical direction of the imaging device 10 is defined as a Y axis. A direction indicating the optical axis L direction is defined as a Z axis. The acceleration sensor 17 detects a rotation angle θx in the rotation direction about the X axis. A solid line in FIG. 2B indicates the position of the imaging device 10, and a two-dot chain line indicates the position of the imaging device after rotation. Further, the acceleration sensor 17 detects a rotation angle θy in the rotation direction about the Y axis (see FIG. 2C). The acceleration sensor 17 detects a rotation angle θz in the rotation direction about the Z axis (see FIG. 2D).

記録I/F部18は、記録媒体19を接続するためのコネクタを備えている。この記録I/F部18と記録媒体19とが接続されると、CPU21の指示に応じて、記録媒体19に対してデータの書き込み/読み出しが実行される。つまり、CPU21は、記録媒体19へ情報を記録させるための記録制御部としても機能する。操作部19は、レリーズ釦23、十字キー24、終了釦25等を有する。CPU21により、レリーズ釦23が半押し操作されたと判定されると、撮影前におけるオートフォーカス(AF)や自動露出(AE)等の動作が開始される。また、CPU21により、レリーズ釦23が全押し操作されたと判定されると記録媒体19に記録する記録用画像を取得するための撮像動作開始が指示される。レリーズ釦23は、その半押し操作時にAE演算やAF演算が実行される。また、レリーズ釦23は、その全押し操作時に撮像に係る処理が行われる。十字キー24は、撮像装置10のメニュー画像が示す操作メニューの設定条件を選択、若しくは選択された処理を実行させる操作キーである。終了釦25は、後述する設定部27により設定された画像処理パラメータの設定を終了する際に操作される。なお、レリーズ釦23、十字キー24、終了釦25の状態はCPU21により検知され、検知された釦やキーの状態に基づいたシーケンスが実行される。   The recording I / F unit 18 includes a connector for connecting the recording medium 19. When the recording I / F unit 18 and the recording medium 19 are connected, data is written / read on the recording medium 19 in accordance with an instruction from the CPU 21. That is, the CPU 21 also functions as a recording control unit for recording information on the recording medium 19. The operation unit 19 includes a release button 23, a cross key 24, an end button 25, and the like. When the CPU 21 determines that the release button 23 has been pressed halfway, operations such as autofocus (AF) and automatic exposure (AE) before photographing are started. When the CPU 21 determines that the release button 23 has been fully pressed, the CPU 21 instructs the start of an imaging operation for acquiring a recording image to be recorded on the recording medium 19. When the release button 23 is half-pressed, AE calculation and AF calculation are executed. Further, the release button 23 is subjected to processing related to imaging when the release button 23 is fully pressed. The cross key 24 is an operation key for selecting the setting condition of the operation menu indicated by the menu image of the imaging apparatus 10 or executing the selected process. The end button 25 is operated to end the setting of the image processing parameter set by the setting unit 27 described later. The states of the release button 23, the cross key 24, and the end button 25 are detected by the CPU 21, and a sequence based on the detected button and key states is executed.

CPU21は、所定のシーケンスプログラムにしたがって、撮像装置10の統括的な制御を行うとともに、撮影時に必要となる各種演算(AF演算、AE演算等)を実行する。また、CPU21は、算出部26、設定部27、画像処理部28を備える。算出部26は、加速度センサ17が出力する回転角度θx、θy、θzに基づいて、傾きベクトル(x,y,z)を算出する。また、上述の通り、CPU21は、記録媒体19への記録の制御、および、表示部15への表示の制御等を実行する。   The CPU 21 performs overall control of the imaging apparatus 10 according to a predetermined sequence program, and executes various calculations (AF calculation, AE calculation, etc.) necessary for shooting. The CPU 21 includes a calculation unit 26, a setting unit 27, and an image processing unit 28. The calculation unit 26 calculates an inclination vector (x, y, z) based on the rotation angles θx, θy, θz output from the acceleration sensor 17. Further, as described above, the CPU 21 performs control of recording on the recording medium 19, control of display on the display unit 15, and the like.

設定部27は、算出部26が算出する傾きベクトル(x,y,z)に基づいて、画像処理パラメータを設定する。画像処理パラメータとしては、色相補正値、露出補正値が挙げられる。例えば、設定部27は、フラッシュRAM16に記憶された傾きベクトルと画像処理パラメータとを対応付けたテーブルから、傾きベクトルx,yに対応する色相補正値を読み出し、読み出した色相補正値を設定する。なお、「設定する」とは、CPU21の指示により、フラッシュRAM16から読み出した色相補正値を一時的にバッファメモリ14に記録しておくことを意味する。色相補正値は、(m,n)で示される。mは、−3、−2、−1、0、+1、+2、+3のいずれかで示され、nは、−3、−2、−1、0、+1、+2、+3のいずれかで示される。mの値が高いほど黄色みが強くなり、mの値が低いほど青みが強くなる。また、nの値が高いほど緑みが強くなり、nの値が低いほど赤みが強くなる。なお、画像処理部28により適正とされた色相補正値を(0,0)とする。この色相補正値は、初期値として(0,0)が予め設定されている。   The setting unit 27 sets image processing parameters based on the inclination vector (x, y, z) calculated by the calculation unit 26. Examples of the image processing parameter include a hue correction value and an exposure correction value. For example, the setting unit 27 reads the hue correction values corresponding to the inclination vectors x and y from the table in which the inclination vectors stored in the flash RAM 16 are associated with the image processing parameters, and sets the read hue correction values. Note that “setting” means that the hue correction value read from the flash RAM 16 is temporarily recorded in the buffer memory 14 in accordance with an instruction from the CPU 21. The hue correction value is indicated by (m, n). m is indicated by any of -3, -2, -1, 0, +1, +2, +3, and n is indicated by any of -3, -2, -1, 0, +1, +2, +3. It is. The higher the value of m, the stronger the yellowishness, and the lower the value of m, the stronger the blueness. Also, the higher the value of n, the stronger the greenness, and the lower the value of n, the stronger the redness. It is assumed that the hue correction value made appropriate by the image processing unit 28 is (0, 0). As the hue correction value, (0, 0) is preset as an initial value.

例えば、図2(C)に示すように、撮像装置10を上側から見たときに、Y軸を中心として右回転方向への回転角度が大きくなるにつれて、mの値が高くなるように、また、左回転方向への回転角度が大きくなるにつれて、mの値が低くなるように、回転角度θyとmとは対応付けられている。また、図2(B)に示すように、撮像装置10を右側から見たときに、X軸を中心として右回転方向への回転角度が大きくなるにつれて、nの値が高くなるように、また、左回転方向への回転角度が大きくなるにつれて、nの値が低くなるように、回転角度θxとnとは対応付けられている。   For example, as shown in FIG. 2C, when the imaging apparatus 10 is viewed from above, the value of m increases as the rotation angle in the right rotation direction about the Y axis increases. The rotation angle θy and m are associated with each other so that the value of m decreases as the rotation angle in the left rotation direction increases. Further, as shown in FIG. 2B, when the imaging device 10 is viewed from the right side, the value of n increases as the rotation angle in the right rotation direction about the X axis increases. The rotation angle θx and n are associated with each other so that the value of n decreases as the rotation angle in the left rotation direction increases.

また、設定部27は、フラッシュRAM16に記憶された傾きベクトルと画像処理パラメータとを対応付けたテーブルから傾きベクトルzに対応する露出補正値を読み出し、読み出した露出補正値を設定する。なお、「設定する」とは、CPU21の指示により、フラッシュRAM16から読み出した露出補正値を一時的にバッファメモリ14に記録しておくことを意味する。露出補正値は、−3、−2、−1、0、+1、+2、+3EVで示される。なお、AE演算により算出された適正露出値を0EVとし、露出補正値は、この適正露出値で得られた画像の輝度成分(RAW画像の場合は各画素の信号が示す値)を画像処理部28により増加、もしくは、減少させることにより擬似的に露出を変更させることを意味し、適正露出値からどの程度輝度成分を変化させるかを示している。この露出補正値は、初期値として0EVが予め設定されている。例えば、図2(D)に示すように、撮像装置10を正面から見たときに、Z軸を中心として右回転方向への回転角度が大きくなるにつれて、露出補正値が高くなるように、また、左回転方向への回転角度が大きくなるにつれて、露出補正値が低くなるように、回転角度θzと露出補正値とは対応付けられている。   Further, the setting unit 27 reads the exposure correction value corresponding to the tilt vector z from the table in which the tilt vector stored in the flash RAM 16 is associated with the image processing parameter, and sets the read exposure correction value. Note that “setting” means that the exposure correction value read from the flash RAM 16 is temporarily recorded in the buffer memory 14 in accordance with an instruction from the CPU 21. Exposure correction values are indicated by −3, −2, −1, 0, +1, +2, and +3 EV. Note that the appropriate exposure value calculated by the AE calculation is set to 0 EV, and the exposure correction value is the image brightness component (the value indicated by the signal of each pixel in the case of a RAW image). This means that the exposure is changed in a pseudo manner by increasing or decreasing by 28, and shows how much the luminance component is changed from the appropriate exposure value. This exposure correction value is preset to 0 EV as an initial value. For example, as shown in FIG. 2D, when the imaging device 10 is viewed from the front, the exposure correction value increases as the rotation angle in the right rotation direction about the Z axis increases. The rotation angle θz and the exposure correction value are associated with each other so that the exposure correction value decreases as the rotation angle in the left rotation direction increases.

画像処理部28は、バッファメモリ14に記録された画像データに対してバッファメモリ14に記録した(設定した)色相補正値および露出補正値を参照して画像処理を施す。なお、この画像処理としては、周知の解像度変換処理、ホワイトバランス調整、明るさ調整、色補間、階調変換処理、輪郭強調処理等が挙げられる。また、画像処理部28は、JPEG(Joint Photographic Experts Group)形式等で圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。   The image processing unit 28 performs image processing on the image data recorded in the buffer memory 14 with reference to the hue correction value and exposure correction value recorded (set) in the buffer memory 14. Examples of the image processing include well-known resolution conversion processing, white balance adjustment, brightness adjustment, color interpolation, gradation conversion processing, and contour enhancement processing. The image processing unit 28 also executes processing for compressing in JPEG (Joint Photographic Experts Group) format and the like, and processing for decompressing and restoring the compressed data.

また、画像処理部28は、撮影時に、参照用のプレビュー画像を生成する。まず、画像処理部28は、RAW画像データに解像度変換処理を施し、RAW画像データの解像度よりも低い解像度のRAW画像データを生成する。次に、画像処理部27は、撮影時の露出条件に基づいて、初期値の露出補正値及び色相補正値となるプレビュー画像を生成する。その後、画像処理部28は、解像度変換処理後のRAW画像データに基づいて、設定部27が設定した色相補正値及び露出補正値となるプレビュー画像を生成する。   The image processing unit 28 generates a reference preview image at the time of shooting. First, the image processing unit 28 performs resolution conversion processing on the RAW image data, and generates RAW image data having a resolution lower than the resolution of the RAW image data. Next, the image processing unit 27 generates a preview image serving as an initial exposure correction value and hue correction value based on the exposure conditions at the time of shooting. Thereafter, the image processing unit 28 generates a preview image that becomes the hue correction value and the exposure correction value set by the setting unit 27 based on the RAW image data after the resolution conversion processing.

バス21は、バッファメモリ14、表示部15、フラッシュRAM16、加速度センサ17、記録I/F部18、CPU21を相互に接続することにより、データや信号の出入力を実行する。   The bus 21 connects the buffer memory 14, the display unit 15, the flash RAM 16, the acceleration sensor 17, the recording I / F unit 18, and the CPU 21 to execute input / output of data and signals.

次に、図4のフローチャートを用いて、撮影時の流れを説明する。なお、図4のフローチャートは、撮影モード時にCPU21によりレリーズ釦23が半押し操作されたことを契機に実行される。また、レリーズ釦23が半押し操作されたときに、CPU21により露出条件が設定される。   Next, the flow at the time of photographing will be described using the flowchart of FIG. Note that the flowchart of FIG. 4 is executed when the release button 23 is half-pressed by the CPU 21 in the shooting mode. Further, when the release button 23 is half-pressed, the exposure condition is set by the CPU 21.

ステップS101は、レリーズ釦23が全押し操作されたか否かを判定する処理である。CPU21は、レリーズ釦23が全押し操作されたと判定した場合(ステップS101の判定がYESとなる場合)には、ステップS102に進む。一方、CPU21は、レリーズ釦23が全押し操作されていないと判定した場合(ステップS101の判定がNOとなる場合)には、レリーズ釦23が全押し操作されるまで待機する。   Step S101 is processing for determining whether or not the release button 23 has been fully pressed. If the CPU 21 determines that the release button 23 has been fully pressed (when the determination in step S101 is YES), the CPU 21 proceeds to step S102. On the other hand, if the CPU 21 determines that the release button 23 is not fully pressed (when the determination in step S101 is NO), the CPU 21 waits until the release button 23 is fully pressed.

ステップS102は、RAW画像データを生成する処理である。CPU21は、撮像素子12、A/D変換部13によりRAW画像データR1を生成させる。なお、このRAW画像データはCPU21の指示によりバッファメモリ14に書き込まれる。   Step S102 is processing for generating RAW image data. The CPU 21 causes the image sensor 12 and the A / D converter 13 to generate RAW image data R1. The raw image data is written into the buffer memory 14 according to an instruction from the CPU 21.

ステップS103は、バッファメモリ14に書き込まれたRAW画像データをコピーし解像度変換処理を施す処理である。画像処理部28は、バッファメモリ14に書き込まれたRAW画像データをコピーして読み出す。そして、読み出したRAW画像データR2に解像度変換処理を施す。なお、CPU21の指示により解像度変換処理が施されたRAW画像データR2は再度バッファメモリ14に書き込まれる。   Step S103 is processing for copying the RAW image data written in the buffer memory 14 and performing resolution conversion processing. The image processing unit 28 copies and reads the RAW image data written in the buffer memory 14. Then, resolution conversion processing is performed on the read RAW image data R2. Note that the RAW image data R2 that has been subjected to the resolution conversion processing in accordance with the instruction of the CPU 21 is written into the buffer memory 14 again.

つまり、この時点では、バッファメモリ14には、解像度変換処理をしていないRAW画像データR1と解像度変換処理をした低解像度のRAW画像データR2が記憶されていることになる。   That is, at this time, the buffer memory 14 stores the RAW image data R1 that has not been subjected to resolution conversion processing and the low-resolution RAW image data R2 that has undergone resolution conversion processing.

ステップS104は、プレビュー画像P1を生成する処理である。まず、設定部27は、色相補正値の初期値(0,0)を設定し、色相補正値(0,0)をバッファメモリ14に一時記憶させる。また、設定部27は、露出補正値の初期値0EVを設定し、露出補正値として0EVをバッファメモリ14に一時記憶させる。次に、画像処理部28は、バッファメモリ14に書き込まれた解像度変換処理済みのRAW画像データR2をコピーして読み出すとともに、バッファメモリ14に一時記憶された色相補正値および露出補正値を読み出す。そして、画像処理部28は、読み出した該RAW画像データR2に対し、読み出した色相補正値および露出補正値に対応する画像処理を施す。これにより、プレビュー画像P1の元になる画像データ(プレビュー画像データ)が生成される。このように生成されたプレビュー画像P1は、CPU14の指示により、バッファメモリ14に一時記憶される。   Step S104 is processing to generate a preview image P1. First, the setting unit 27 sets an initial value (0, 0) of the hue correction value, and temporarily stores the hue correction value (0, 0) in the buffer memory 14. Further, the setting unit 27 sets an initial value 0 EV of the exposure correction value, and temporarily stores 0 EV as the exposure correction value in the buffer memory 14. Next, the image processing unit 28 copies and reads out the RAW image data R2 having been subjected to resolution conversion processing written in the buffer memory 14, and reads out the hue correction value and the exposure correction value temporarily stored in the buffer memory 14. Then, the image processing unit 28 performs image processing corresponding to the read hue correction value and exposure correction value on the read RAW image data R2. As a result, image data (preview image data) that is the basis of the preview image P1 is generated. The preview image P1 generated in this way is temporarily stored in the buffer memory 14 according to an instruction from the CPU 14.

ステップS105において、CPU21は撮像装置10の姿勢のオフセット処理を施す。これにより、このときの撮像装置10の姿勢が画像処理パラメータを設定する際の基準の姿勢となる。具体的には、算出部26は、傾きベクトルの初期値(x,y,z)=(0,0,0)を算出し、CPU21はこの傾きベクトルの初期値をバッファメモリ14に一時記憶させる。また、CPU21の指示により、バッファメモリ14に記憶されている傾きベクトル値に対応する色相補正値を示すカラーチャート30、露出補正値を示すバー31もバッファメモリ14に一時記憶される。   In step S <b> 105, the CPU 21 performs an offset process of the posture of the imaging device 10. Thereby, the posture of the imaging apparatus 10 at this time becomes a reference posture when setting the image processing parameter. Specifically, the calculation unit 26 calculates an initial value (x, y, z) = (0, 0, 0) of the inclination vector, and the CPU 21 temporarily stores the initial value of the inclination vector in the buffer memory 14. . Further, in response to an instruction from the CPU 21, a color chart 30 indicating a hue correction value corresponding to the inclination vector value stored in the buffer memory 14 and a bar 31 indicating an exposure correction value are also temporarily stored in the buffer memory 14.

ステップS106は、プレビュー画像P1を表示する処理である。表示部15は、CPU21の指示により、バッファメモリ14から読み出したプレビュー画像P1、色相補正値を示すカラーチャート30、露出補正値を示すバー31をそれぞれ表示する(図4(A)参照)。   Step S106 is processing to display the preview image P1. The display unit 15 displays a preview image P1 read from the buffer memory 14, a color chart 30 indicating a hue correction value, and a bar 31 indicating an exposure correction value, respectively, according to an instruction from the CPU 21 (see FIG. 4A).

ステップS107は、撮像装置10の姿勢の変化を検出したか否かを判定する処理である。CPU21は、撮像装置10の姿勢の変化を検出したと判定した場合(ステップS107の判定がYESとなる場合)には、ステップS108に進む。一方、CPU21は、撮像装置10の姿勢の変化を検出していないと判定した場合(ステップS107の判定がNOとなる場合)には、ステップS111に進む。   Step S107 is processing for determining whether or not a change in the attitude of the imaging apparatus 10 has been detected. If the CPU 21 determines that a change in the attitude of the imaging device 10 has been detected (if the determination in step S107 is YES), the CPU 21 proceeds to step S108. On the other hand, if the CPU 21 determines that a change in the attitude of the imaging device 10 is not detected (when the determination in step S107 is NO), the CPU 21 proceeds to step S111.

ステップS108は、傾きベクトルを更新する処理である。算出部26は、加速度センサ17から出力された回転角度θx、θy、θzに基づいて、傾きベクトル(x,y,z)=(a,b,c)を算出する。そして、算出部26は、バッファメモリ14に記憶されている前回の傾きベクトルの値(x,y,z)を、新たに算出した傾きベクトル(x,y,z)=(a,b,c)に更新する。具体的には、CPU21は算出した傾きベクトル(x,y,z)=(a,b,c)を前回の傾きベクトルに代えて上書き更新して一次記憶させる。また、CPU21の指示により、バッファメモリ14に記憶されている更新後の傾きベクトル値に対応する色相補正値を示すポインタ32を含むカラーチャート30、露出補正値を示すカーソル33を含むバー31もバッファメモリ14に一時記憶される。   Step S108 is processing to update the inclination vector. The calculation unit 26 calculates an inclination vector (x, y, z) = (a, b, c) based on the rotation angles θx, θy, θz output from the acceleration sensor 17. Then, the calculation unit 26 uses the value (x, y, z) of the previous inclination vector stored in the buffer memory 14 as the newly calculated inclination vector (x, y, z) = (a, b, c). ). More specifically, the CPU 21 overwrites the calculated inclination vector (x, y, z) = (a, b, c) with the previous inclination vector and performs primary storage. Further, in accordance with an instruction from the CPU 21, a color chart 30 including a pointer 32 indicating a hue correction value corresponding to an updated inclination vector value stored in the buffer memory 14 and a bar 31 including a cursor 33 indicating an exposure correction value are also buffered. Temporarily stored in the memory 14.

ステップS109は、更新された傾きベクトルに合わせた画像処理条件に基づくプレビュー画像を生成する処理である。まず、設定部27は、フラッシュRAM16に記憶された傾きベクトルと画像処理パラメータとを対応付けたテーブルから、更新された傾きベクトルに対応する色相補正値及び露出補正値を読み出し、読み出した色相補正値及び露出補正値を設定する。つまり、設定部27は、バッファメモリ14に記憶されている前回の色相補正値及び露出補正値に代えて、更新された傾きベクトルに対応する色相補正値及び露出補正値をバッファメモリ14に一時記憶させる。次に、画像処理部28は、解像度変換処理後のRAW画像データR2をフラッシュRAM14からコピーして読み出し、設定部27が設定した色相補正値及び露出補正値をバッファメモリ14から読み出す。そして、画像処理部28は、読み出した色相補正値及び露出補正値を用いた画像処理をRAW画像データR2に対して施してプレビュー画像Pnを生成する。このように生成したPnは、CPU21の指示によりバッファメモリ14に一時記憶される。   Step S109 is processing for generating a preview image based on an image processing condition matched with the updated inclination vector. First, the setting unit 27 reads the hue correction value and the exposure correction value corresponding to the updated inclination vector from the table in which the inclination vector stored in the flash RAM 16 is associated with the image processing parameter, and the read hue correction value. And set the exposure compensation value. That is, the setting unit 27 temporarily stores the hue correction value and the exposure correction value corresponding to the updated inclination vector in the buffer memory 14 instead of the previous hue correction value and the exposure correction value stored in the buffer memory 14. Let Next, the image processing unit 28 copies and reads the RAW image data R2 after the resolution conversion processing from the flash RAM 14, and reads the hue correction value and the exposure correction value set by the setting unit 27 from the buffer memory 14. Then, the image processing unit 28 performs image processing using the read hue correction value and exposure correction value on the RAW image data R2 to generate a preview image Pn. The Pn generated in this way is temporarily stored in the buffer memory 14 according to an instruction from the CPU 21.

ステップS110は、生成されたプレビュー画像を表示する処理である。表示部15は、CPU21の指示により、現在表示しているプレビュー画像を、ステップS109で生成されバッファメモリ14に記憶された最新のプレビュー画像に差し替えて表示する。また、表示部15は、CPU21の指示により、プレビュー画像の差し替えに合わせて、更新後のポインタ32を含むカラーチャート30や、露出補正値を示す更新後のカーソル33を含むバー31をバッファメモリ14から読み出して表示する。   Step S110 is a process for displaying the generated preview image. In response to an instruction from the CPU 21, the display unit 15 replaces the currently displayed preview image with the latest preview image generated in step S109 and stored in the buffer memory 14 and displays the preview image. The display unit 15 also displays the color chart 30 including the updated pointer 32 and the bar 31 including the updated cursor 33 indicating the exposure correction value according to the instruction of the CPU 21 in accordance with the replacement of the preview image. Read from and display.

ステップS111は、終了釦25が操作されたか否かを判定する処理である。CPU21は、終了釦25が操作されたと判定した場合(ステップS111の判定がYESとなる場合)には、ステップS112に進む。一方、CPU21は、終了釦25が操作されていないと判定した場合(ステップS111の判定がNOとなる場合)には、ステップS107に戻る。   Step S111 is processing for determining whether or not the end button 25 has been operated. If the CPU 21 determines that the end button 25 has been operated (if the determination in step S111 is YES), the CPU 21 proceeds to step S112. On the other hand, when the CPU 21 determines that the end button 25 is not operated (when the determination in step S111 is NO), the CPU 21 returns to step S107.

ステップS112は、画像処理を施す処理である。画像処理部28は、ステップS111で終了釦25が操作された時点でバッファメモリ14に記憶されている最新の色相補正値及び露出補正値、すなわちステップS109でCPU21が最後に設定した色相補正値及び露出補正値を用いて、バッファメモリ14に記憶された解像度変換処理をしていないRAW画像データR1に対し画像処理を施す。一方、ステップS107で回転角度を検出していない場合、画像処理部28は、色相補正値の初期値(0,0)及び、露出補正値の初期値0EVを用いて、バッファメモリ14に記憶されたRAW画像データR1に画像処理を施す。   Step S112 is a process for performing image processing. The image processing unit 28 uses the latest hue correction value and exposure correction value stored in the buffer memory 14 when the end button 25 is operated in step S111, that is, the hue correction value last set by the CPU 21 in step S109. Using the exposure correction value, image processing is performed on the RAW image data R1 stored in the buffer memory 14 and not subjected to resolution conversion processing. On the other hand, if the rotation angle is not detected in step S107, the image processing unit 28 stores the hue correction value in the buffer memory 14 using the initial value (0, 0) of the hue correction value and the initial value 0 EV of the exposure correction value. The RAW image data R1 is subjected to image processing.

ステップS113は、画像処理後の画像データを記録する処理である。CPU21は、RAW画像データR1に対応する画像処理後の画像データを記録媒体19に記録し、一連の処理を終了する。   Step S113 is a process of recording the image data after the image processing. The CPU 21 records the image data after the image processing corresponding to the RAW image data R1 on the recording medium 19, and ends the series of processes.

なお、ステップS107で回転角度を検出した場合、CPU21は、画像のExif情報(付帯情報)に、ステップS112で用いた色相補正値と露出補正値とを記録媒体19に記録してもよい。また、CPU21は、色相補正値と露出補正値とを付帯情報として記録する代わりに、画像処理後の画像データと関連付けて、色相補正値と露出補正値とを別のファイルとして記録媒体19に記録してもよい。   When the rotation angle is detected in step S107, the CPU 21 may record the hue correction value and the exposure correction value used in step S112 on the recording medium 19 as Exif information (accompanying information) of the image. Further, instead of recording the hue correction value and the exposure correction value as supplementary information, the CPU 21 records the hue correction value and the exposure correction value as separate files on the recording medium 19 in association with the image data after image processing. May be.

また、上述したステップ112の画像処理を施す処理を省き、ステップS113において、CPU21は、RAW画像データR1に対して色相補正値と露出補正値とを関連付けて記憶させることも可能である。この場合、後から本撮像装置10またはコンピュータ等を使用して色相補正値と露出補正値を読み出し、RAW画像データR1に対して読み出した色相補正値と露出補正値に対応する画像処理を施してもよい。   Further, without performing the above-described image processing in step 112, in step S113, the CPU 21 can store the hue correction value and the exposure correction value in association with the RAW image data R1. In this case, the hue correction value and the exposure correction value are read out later using the imaging apparatus 10 or a computer, and image processing corresponding to the read hue correction value and the exposure correction value is performed on the RAW image data R1. Also good.

図4は、プレビュー画像の表示の一様態を示す。例えば、レリーズ釦23が全押し操作されると、撮像に係る処理が実行される。撮像に係る処理が実行された直後においては、色相補正値は初期値である(0,0)に設定され、露出補正値は初期値である0EVに設定される。そのため、色相補正値(0,0)、露出補正値0EVを用いた画像処理によりプレビュー画像P1が生成され、プレビュー画像P1が表示部15に表示される(図4(A)参照)。このとき、色相補正値を示すカラーチャート30においては、色相補正値(0,0)に対応する、中央部分にポインタ32を合わせた状態で表示される。なお、図4(A)に示すように、表示部15においては、露出補正値を「明るさ」と表示している。また、図4(A)におけるX、Y、Zの表示は、表示部15に表示されないが、撮像装置10を回転させるときに中心となる軸を示す。   FIG. 4 shows a uniform display state of the preview image. For example, when the release button 23 is fully pressed, processing related to imaging is executed. Immediately after the processing related to imaging is executed, the hue correction value is set to the initial value (0, 0), and the exposure correction value is set to the initial value 0 EV. Therefore, a preview image P1 is generated by image processing using the hue correction value (0, 0) and the exposure correction value 0EV, and the preview image P1 is displayed on the display unit 15 (see FIG. 4A). At this time, the color chart 30 indicating the hue correction value is displayed in a state where the pointer 32 is aligned with the central portion corresponding to the hue correction value (0, 0). As shown in FIG. 4A, the display unit 15 displays the exposure correction value as “brightness”. In addition, X, Y, and Z in FIG. 4A are not displayed on the display unit 15, but indicate axes that are the center when the imaging device 10 is rotated.

その後、撮像装置10がY軸を中心として右回転方向へ回転する角度に基づいて、画像の黄色みが上がる。例えば、右回転方向へ所定の角度回転した場合、色相補正値は(0,0)から黄色みを一段階上げた(1,0)に設定し直される。また、撮像装置10がZ軸を中心として左回転方向へ回転する角度に基づいて、露出補正値が下がる。例えば、左回転方向へ所定の角度回転した場合、露出補正値は0EVから1段階下げた−1EVに設定し直される。これらの色相補正値(1,0)、及び露出補正値−1EVを用いた画像処理により生成されたプレビュー画像P2が表示部15に表示される(図4(B)参照)。このとき、色相補正値を示すカラーチャート30においては、色相補正値(1,0)に対応する中央右部分にポインタ32を合わせた状態で表示される。また、露出補正値を示すバー31においては、露出補正値−1EVに対応する「−1」にカーソル33を合わせた状態で表示される。   Thereafter, the yellowishness of the image increases based on the angle at which the imaging device 10 rotates in the clockwise direction about the Y axis. For example, when the image is rotated by a predetermined angle in the right rotation direction, the hue correction value is reset to (1, 0), which is one level higher than yellow (0, 0). Further, the exposure correction value decreases based on the angle at which the imaging apparatus 10 rotates in the left rotation direction about the Z axis. For example, when the image is rotated by a predetermined angle in the left rotation direction, the exposure correction value is reset to -1EV, which is one step lower than 0EV. A preview image P2 generated by image processing using the hue correction value (1, 0) and the exposure correction value -1 EV is displayed on the display unit 15 (see FIG. 4B). At this time, in the color chart 30 indicating the hue correction value, the pointer 32 is displayed in a state where the pointer 32 is aligned with the central right portion corresponding to the hue correction value (1, 0). The bar 31 indicating the exposure correction value is displayed in a state where the cursor 33 is set to “−1” corresponding to the exposure correction value−1EV.

以上説明したように、本実施形態の撮像装置10は、撮像装置10の回転角度に応じて、色相補正値、露出補正値を変更する。また、撮像装置10は、この色相補正値、露出補正値の変更に合わせて、変更された色相補正値、露出補正値に基づいたプレビュー画像を表示する。そのため、ユーザは、プレビュー画像を参照しながら、色相補正値、露出補正値を設定することができる。   As described above, the imaging device 10 of the present embodiment changes the hue correction value and the exposure correction value according to the rotation angle of the imaging device 10. Further, the imaging apparatus 10 displays a preview image based on the changed hue correction value and exposure correction value in accordance with the change of the hue correction value and exposure correction value. Therefore, the user can set the hue correction value and the exposure correction value while referring to the preview image.

したがって、本実施形態の撮像装置10によれば、直感的に素早く、画像処理パラメータを設定することができる。   Therefore, according to the imaging apparatus 10 of the present embodiment, it is possible to set image processing parameters intuitively and quickly.

なお、上記の実施形態では、加速度センサ17により出力された回転角度θx、θy、θzに基づいて、3種類の画像処理パラメータを設定する例を示したが、これに限らない。例えば、設定部27は、加速度センサ17により出力された回転角度θx、θy、θzのいずれか1つに基づいて、1種類の画像処理パラメータを設定してもよい。また、設定部27は、加速度センサ17により出力された回転角度θx、θy、θzのいずれか2つに基づいて、2種類の画像処理パラメータを設定してもよい。また、上記の実施形態では、同時に2種類の画像処理パラメータを設定する例を示したが、複数回の終了釦25の操作により、設定する画像処理パラメータを1種類ずつ順番に切り替えてもよい。   In the above embodiment, an example in which three types of image processing parameters are set based on the rotation angles θx, θy, and θz output by the acceleration sensor 17 has been described. For example, the setting unit 27 may set one type of image processing parameter based on any one of the rotation angles θx, θy, and θz output by the acceleration sensor 17. The setting unit 27 may set two types of image processing parameters based on any two of the rotation angles θx, θy, and θz output by the acceleration sensor 17. In the above embodiment, an example in which two types of image processing parameters are set at the same time has been shown. However, the image processing parameters to be set may be switched one by one in order by operating the end button 25 a plurality of times.

また、上記の実施形態では、設定部27は、回転角度θx、θyと色相補正値とを対応付け、回転角度θzと露出補正値を対応付けて設定する例を示したが、これに限らない。   In the above embodiment, the setting unit 27 associates the rotation angles θx and θy with the hue correction value, and associates and sets the rotation angle θz and the exposure correction value. However, the present invention is not limited to this. .

また、上記の実施形態では、色相補正値を(m,n)で示し、露出補正値を−3、−2、−1、0、+1、+2、+3EVで示したが、色相補正値、露出補正値はこれらに限定されない。また、色相補正値、露出補正値の間隔をより細かく設定してもよい。   In the above embodiment, the hue correction value is indicated by (m, n) and the exposure correction value is indicated by -3, -2, -1, 0, +1, +2, +3 EV. The correction value is not limited to these. Further, the interval between the hue correction value and the exposure correction value may be set more finely.

また、上記の実施形態では、カラーチャート30におけるポインタ32の位置を移動させる例を示したが、これに限らない。例えば、CPU21は、回転角度θzとカラーチャート30の回転角度とを対応付ける。そして、CPU21は、ポインタ32の位置を固定して表示部15に表示させ、回転角度θx、および、θyに応じて、カラーチャート30を回転させて表示部15に表示させてもよい。カーソル33についても同様であり、CPU21はカーソル33の位置を固定して表示部15に表示させ、バー31を回転角度θzに応じて移動させて表示部15に表示させてもよい。   In the above embodiment, the example in which the position of the pointer 32 in the color chart 30 is moved has been described. However, the present invention is not limited to this. For example, the CPU 21 associates the rotation angle θz with the rotation angle of the color chart 30. Then, the CPU 21 may fix the position of the pointer 32 to display on the display unit 15 and rotate the color chart 30 according to the rotation angles θx and θy to display on the display unit 15. The same applies to the cursor 33, and the CPU 21 may fix the position of the cursor 33 and display it on the display unit 15, and move the bar 31 according to the rotation angle θz and display it on the display unit 15.

また、上記の実施形態では、画像処理パラメータとして、色相補正値、露出補正値を設定する例を示したが、これに限らない。例えば、画像の色や明るさに関する画像処理パラメータとして、彩度補正値、コントラスト補正値、輪郭強調補正値、ソフトフィルタ強調補正値、ホワイトバランス補正値を設定することも可能である。   In the above embodiment, an example in which the hue correction value and the exposure correction value are set as the image processing parameters has been described. However, the present invention is not limited to this. For example, it is possible to set a saturation correction value, a contrast correction value, a contour enhancement correction value, a soft filter enhancement correction value, and a white balance correction value as image processing parameters relating to the color and brightness of the image.

例えば、彩度補正値は、−3、−2、−1、0、+1、+2、+3で示され、数値が高いほど、彩度は高くなる。なお、画像処理部28により適正とされた彩度補正値を0とする。彩度補正値は、初期値として0が予め設定されている。この場合も、上記の実施形態と同様に、設定部27は、回転角度θx、θy、θzのいずれかに応じて、彩度補正値を設定し直す。なお、コントラスト補正値、輪郭強調補正値、ソフトフィルタ強調補正値についても同様であるため、その説明を省略する。   For example, the saturation correction value is represented by −3, −2, −1, 0, +1, +2, +3, and the higher the numerical value, the higher the saturation. Note that the saturation correction value made appropriate by the image processing unit 28 is set to 0. The saturation correction value is set to 0 as an initial value in advance. Also in this case, the setting unit 27 resets the saturation correction value according to any of the rotation angles θx, θy, and θz, as in the above embodiment. The same applies to the contrast correction value, the contour emphasis correction value, and the soft filter emphasis correction value, and the description thereof is omitted.

また、ホワイトバランス補正値は、オートホワイトバランス補正値の他に、プリセットホワイトバランス補正値、電球下(約3000K)での撮像に適したホワイトバランス補正値、蛍光灯下(約4200K)での撮像に適したホワイトバランス補正値、晴天下(約5200K)での撮像に適したホワイトバランス補正値、ストロボ光下(約5400K)での撮像に適したホワイトバランス補正値、曇天下(約6000K)での撮像に適したホワイトバランス補正値、晴天日陰下(約8000K)での撮像に適したホワイトバランス補正値が挙げられる。この場合、設定部27は、回転角度θx、θy、θzのいずれかに応じて、色温度が高い光源下での撮像に適したホワイトバランス補正値に設定し直す。   In addition to the auto white balance correction value, the white balance correction value includes a preset white balance correction value, a white balance correction value suitable for imaging under a light bulb (approximately 3000K), and imaging under a fluorescent lamp (approximately 4200K). White balance correction value suitable for shooting, white balance correction value suitable for imaging under clear sky (about 5200K), white balance correction value suitable for imaging under strobe light (about 5400K), under cloudy weather (about 6000K) White balance correction value suitable for image pickup, and white balance correction value suitable for image pickup in a sunny day (about 8000 K). In this case, the setting unit 27 resets the white balance correction value suitable for imaging under a light source having a high color temperature according to any of the rotation angles θx, θy, and θz.

さらに、トリミング領域の指定、画像の回転、遠近感の強調、ぼかし処理の設定、クロスフィルタの光芒の量及び長さを設定することも可能である。例えば、トリミング領域の指定は、トリミング領域を示す枠をプレビュー画像に重畳表示し、回転角度θx、θyに応じて、枠の大きさを変更することにより行われる。また、画像の回転は、回転角度θzに応じて、画像を回転させることにより行われる。また、遠近感の強調は、回転角度θxに応じて、プレビュー画像の四辺のうち、少なくともいずれか一辺を狭くすることにより行われる。   Furthermore, it is also possible to set the trimming area, rotate the image, enhance the perspective, set the blurring process, and set the amount and the length of the light flux of the cross filter. For example, the designation of the trimming area is performed by superimposing a frame indicating the trimming area on the preview image and changing the size of the frame in accordance with the rotation angles θx and θy. The image is rotated by rotating the image according to the rotation angle θz. Further, perspective emphasis is performed by narrowing at least one of the four sides of the preview image in accordance with the rotation angle θx.

ぼかし処理には、ミニチュア効果が挙げられる。ミニチュア効果とは、選択した領域の周囲をぼかすことにより、ジオラマを接写したかのように見せる処理である。例えば、領域の選択は、ぼかさない領域を示す枠をプレビュー画像に重畳表示し、回転角度θz、θyに応じて、枠を移動させることにより行われる。また、クロスフィルタの光芒の量及び長さの設定は、回転角度θx、θyに応じて、光芒の量及び長さを変更させることにより行われる。   The blurring process includes a miniature effect. The miniature effect is a process that makes a diorama look like a close-up by blurring around a selected area. For example, the area is selected by superimposing a frame indicating the area not to be blurred on the preview image and moving the frame in accordance with the rotation angles θz and θy. Further, the setting of the amount and the length of the light beam of the cross filter is performed by changing the amount and the length of the light beam according to the rotation angles θx and θy.

また、上記の実施形態では、終了釦25が操作された場合に、画像処理パラメータの設定を終了する例を示したが、これに限らない。例えば、CPU21により、加速度センサ17が回転角度θx、θy、θzのうち、画像処理パラメータの設定に用いられない軸を中心としたいずれか1つ又はいずれか2つを検出したと判定された場合は、終了釦25を操作する代わりに、CPU21の指示により画像処理パラメータの設定を終了してもよい。   In the above embodiment, an example is shown in which the setting of the image processing parameter is ended when the end button 25 is operated, but the present invention is not limited to this. For example, when the CPU 21 determines that the acceleration sensor 17 has detected any one or two of the rotation angles θx, θy, θz centered on an axis that is not used for setting image processing parameters. Instead of operating the end button 25, the setting of the image processing parameter may be ended by an instruction from the CPU 21.

また、上記の実施形態では、撮影時に取得したRAW画像データに対して、画像処理パラメータを設定する例を示したが、これに限らない。例えば、記録媒体19に記録された画像の再生表示時に、画像処理パラメータを設定してもよい。また、この場合、再生釦(不図示)が操作されたときの姿勢を基準として、画像処理パラメータを設定してもよい。また、画像処理対象の画像フォーマットは、RAW画像データに限定されない。例えば、上述のように設定された画像処理パラメータにより、JPEGフォーマットの画像に対して画像処理を施してもよい。   In the above-described embodiment, an example in which image processing parameters are set for RAW image data acquired at the time of shooting has been described, but the present invention is not limited thereto. For example, image processing parameters may be set when an image recorded on the recording medium 19 is reproduced and displayed. In this case, the image processing parameter may be set based on the posture when the playback button (not shown) is operated. Further, the image format to be processed is not limited to RAW image data. For example, image processing may be performed on an image in JPEG format using the image processing parameters set as described above.

また、上記の実施形態では、レリーズ釦23が全押しされた直後の姿勢を基準として、画像処理パラメータを設定する例を示したが、これに限らない。例えば、レリーズ釦23が全押しされた直後に、ユーザは、撮像装置10を所望の姿勢にし、不図示の確定釦を操作する。設定部27は、その確定釦が操作された時点の姿勢を基準として、画像処理パラメータを設定してもよい。これにより、ユーザは、表示部15に表示されたプレビュー画像が見やすい姿勢を、基準の姿勢とすることができる。   In the above embodiment, the example in which the image processing parameter is set based on the posture immediately after the release button 23 is fully pressed has been described. However, the present invention is not limited to this. For example, immediately after the release button 23 is fully pressed, the user places the imaging device 10 in a desired posture and operates a confirmation button (not shown). The setting unit 27 may set image processing parameters based on the posture at the time when the confirmation button is operated. Thereby, the user can set the posture in which the preview image displayed on the display unit 15 is easy to see as the reference posture.

また、撮像装置10を回転しすぎると、表示部15に表示されたプレビュー画像が見えにくくなるため、画像処理パラメータの変更が可能な回転角度θx、θy、θzの範囲を予め設定しておいてもよいし、ユーザが設定できるようにしてもよい。   Further, if the imaging device 10 is rotated too much, the preview image displayed on the display unit 15 becomes difficult to see. Therefore, ranges of rotation angles θx, θy, and θz that can change image processing parameters are set in advance. Alternatively, it may be set by the user.

また、上記の実施形態では、1枚の静止画像に対して、画像処理パラメータを設定する例を示したが、複数の静止画像にも適用することができる。また、動画像のうち、少なくとも一部の期間の動画像に対して、画像処理パラメータを設定することも可能である。例えば、回転角度θxと露出補正値とを対応付け、回転角度θyと経過時間とを対応付ける場合を説明する。この場合、ユーザは、画像処理の対象としたい動画像が表示部15に表示されている期間、撮像装置10を、Y軸を中心とする回転方向へ回転させるとともに、X軸を中心とする回転方向へ回転させる。算出部26は、回転角度θxに基づいて、傾きベクトルxを更新し、設定部27は、傾きベクトルxに対応する露出補正値を設定する。また、設定部27は、回転角度θyを検出した期間に基づいて、動画像のうち、露出補正対象となる動画像を選択する。これを受けて、画像処理部28は、選択された動画像に対して、設定部27が設定した露出補正値となるプレビュー画像を生成する。   In the above embodiment, an example in which image processing parameters are set for one still image has been described. However, the present invention can also be applied to a plurality of still images. Also, it is possible to set image processing parameters for a moving image of at least a part of the moving image. For example, a case where the rotation angle θx and the exposure correction value are associated with each other and the rotation angle θy and the elapsed time are associated with each other will be described. In this case, the user rotates the imaging device 10 in the rotation direction about the Y axis and the rotation about the X axis during a period in which the moving image to be subjected to image processing is displayed on the display unit 15. Rotate in the direction. The calculation unit 26 updates the inclination vector x based on the rotation angle θx, and the setting unit 27 sets an exposure correction value corresponding to the inclination vector x. Further, the setting unit 27 selects a moving image to be subject to exposure correction from among moving images based on the period during which the rotation angle θy is detected. In response to this, the image processing unit 28 generates a preview image that becomes the exposure correction value set by the setting unit 27 for the selected moving image.

また、上記の実施形態では、加速度センサ17は、撮像装置10の姿勢の変化がある場合に、検出した値を回転角度に変換する例を示したが、これに限らない。例えば、加速度センサ17は、例えば1/30秒毎に、検出した値を回転角度に変換してもよい。   In the above embodiment, the acceleration sensor 17 converts the detected value into the rotation angle when the posture of the imaging device 10 is changed. However, the present invention is not limited to this. For example, the acceleration sensor 17 may convert the detected value into a rotation angle every 1/30 seconds, for example.

また、上記の実施形態では、加速度センサ17を用いて、撮像装置10の姿勢の変化を検出する例を示したが、これに限らない。例えば、ジャイロスコープを用いて、撮像装置10の姿勢の変化を検出してもよい。なお、ジャイロスコープは、回転型や振動型など機械式のジャイロスコープや、ガス型など流体式のジャイロスコープでもよいし、光ファイバジャイロ、リングレーザージャイロなど光学式のジャイロスコープでもよい。さらに、上記の実施形態では、加速度センサ17は、検出した値を回転角度に変換し、CPU21に出力する例を示したが、これに限らない。例えば、CPU21は、ジャイロスコープの角速度に対応する値や地磁気センサの方角に対応する値の出力を利用し、撮像装置10の回転角度を検出してもよい。   In the above-described embodiment, the example in which the change in the posture of the imaging device 10 is detected using the acceleration sensor 17 has been described. However, the present invention is not limited to this. For example, a change in the posture of the imaging device 10 may be detected using a gyroscope. The gyroscope may be a mechanical gyroscope such as a rotary type or a vibration type, a fluid type gyroscope such as a gas type, or an optical gyroscope such as an optical fiber gyroscope or a ring laser gyroscope. Furthermore, although the acceleration sensor 17 converted the detected value into a rotation angle and output it to the CPU 21 in the above embodiment, the present invention is not limited to this. For example, the CPU 21 may detect the rotation angle of the imaging device 10 using an output of a value corresponding to the angular velocity of the gyroscope or a value corresponding to the direction of the geomagnetic sensor.

また、上記の実施形態では、撮像装置10を例に挙げて説明したが、これに限らない。例えば、コンピュータにも本発明を同様に適用することができる。また、撮像機能を備える携帯電話機や、携帯型端末機器、デジタルフォトフレームなどの画像表示装置にも本発明を同様に適用することができる。さらに、コントローラなど画像処理装置の一部分の回転角度に基づいて、画像処理パラメータを設定してもよい。   In the above embodiment, the imaging apparatus 10 has been described as an example, but the present invention is not limited to this. For example, the present invention can be similarly applied to a computer. Further, the present invention can be similarly applied to an image display device such as a mobile phone having an imaging function, a portable terminal device, and a digital photo frame. Further, the image processing parameter may be set based on the rotation angle of a part of the image processing apparatus such as a controller.

10…撮像装置、15…表示部、17…加速度センサ、21…CPU、26…算出部、27…設定部、28…画像処理部 DESCRIPTION OF SYMBOLS 10 ... Imaging device, 15 ... Display part, 17 ... Acceleration sensor, 21 ... CPU, 26 ... Calculation part, 27 ... Setting part, 28 ... Image processing part

Claims (9)

画像に対する画像処理を実行する画像処理部と、
自装置の少なくとも一部の姿勢の変化を検出する検出部と、
前記検出部により検出された前記姿勢の変化に基づいて、前記画像処理部における画像処理条件を設定する設定部と、
を備え
前記画像は、所定時間間隔を空けて連続して取得された複数の画像であり、
前記検出部は、互いに直交する少なくとも2方向を軸としたときの各軸に対する前記姿勢の変化を検出し、
前記設定部は、前記連続して取得された複数の画像から前記検出部により前記少なくとも2方向のうちの1方向を軸とする前記姿勢の変化が検出された期間の画像を選択し、他方向を軸とする前記姿勢の変化に基づいて、選択した画像に対する画像処理条件を設定することを特徴とする画像処理装置。
An image processing unit for performing image processing on the image;
A detection unit for detecting a change in posture of at least a part of the own device;
A setting unit that sets image processing conditions in the image processing unit based on the change in the posture detected by the detection unit;
Equipped with a,
The images are a plurality of images obtained continuously at a predetermined time interval,
The detection unit detects a change in the posture with respect to each axis when at least two directions orthogonal to each other are used as axes.
The setting unit selects an image in a period in which a change in the posture around one direction of the at least two directions is detected by the detection unit from the plurality of images acquired in succession, and the other direction An image processing apparatus for setting an image processing condition for a selected image based on a change in the posture with respect to the axis .
請求項1に記載の画像処理装置において、
前記画像処理条件は、前記画像の色相に関する処理条件、前記画像の明るさに関する処理条件、前記画像の回転に関する処理条件、若しくは前記画像の一部領域の切り出しに関する処理条件の少なくともいずれか一つであることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing condition is at least one of a processing condition related to the hue of the image, a processing condition related to the brightness of the image, a processing condition related to rotation of the image, or a processing condition related to clipping of a partial region of the image. the image processing apparatus characterized by some.
請求項1又は請求項2に記載の画像処理装置において、
前記画像処理部により前記画像処理が施された画像処理後画像と、前記画像処理に用いた画像処理条件とを表示する表示部を備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
An image processing apparatus comprising: a display unit configured to display an image-processed image subjected to the image processing by the image processing unit and an image processing condition used for the image processing .
画像に対して色相補正又は露出補正の少なくともいずれか一方の処理を実行する画像処理部と、
自装置の少なくとも一部の姿勢の変化を検出する検出部と、
前記検出部により検出された前記姿勢の変化に基づいて、前記色相補正又は前記露出補正の少なくともいずれか一方の処理に用いるパラメータを設定する設定部と、
を備えることを特徴とする画像処理装置。
An image processing unit that executes at least one of hue correction and exposure correction on the image;
A detection unit for detecting a change in posture of at least a part of the own device;
A setting unit configured to set a parameter used for at least one of the hue correction and the exposure correction based on the change in the posture detected by the detection unit;
The image processing apparatus comprising: a.
請求項に記載の画像処理装置において、
前記検出部は、1方向を軸としたときの前記姿勢の変化を検出し、
前記設定部は、前記検出部により検出された前記姿勢の変化に基づいて、前記色相補正又は前記露出補正の少なくともいずれか一方の処理に用いるパラメータを設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 4 .
The detection unit detects a change in the posture when the axis is one direction,
The image processing apparatus according to claim 1, wherein the setting unit sets a parameter used for at least one of the hue correction and the exposure correction based on the change in the posture detected by the detection unit.
請求項に記載の画像処理装置において、
前記検出部は、互いに直交する2方向をそれぞれ軸としたときの各軸に対する前記姿勢の変化を検出し、
前記設定部は、前記検出部により検出された前記姿勢の変化に基づいて、前記各軸に対応付けられた前記色相補正及び前記露出補正の処理に用いるパラメータをそれぞれ設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 4 .
Wherein the detection unit detects a change of the posture for each axis when the two directions you orthogonal to each axis,
The setting unit sets parameters used for the hue correction and exposure correction processing associated with each axis based on the change in posture detected by the detection unit , respectively. Processing equipment.
請求項に記載の画像処理装置において、
前記検出部は、互いに直交する3方向をそれぞれ軸としたときの各軸に対する前記姿勢の変化を検出し、
前記設定部は、互いに直交する3方向のうちの2方向の軸を前記色相補正に対応する軸に、残りの1方向の軸を前記露出補正に対応する軸として設定し、前記互いに直交する3方向の軸のそれぞれに対する前記姿勢の変化に基づいて、前記色相補正及び前記露出補正に用いるパラメータをそれぞれ設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 4 .
The detection unit detects a change in the posture with respect to each axis when three directions orthogonal to each other are used as axes.
The setting unit sets two of the three directions orthogonal to each other as an axis corresponding to the hue correction, and sets the remaining one-direction axis as an axis corresponding to the exposure correction. An image processing apparatus , wherein parameters used for the hue correction and the exposure correction are set based on a change in the posture with respect to each of directional axes .
請求項から請求項7のいずれか1項に記載の画像処理装置において、
前記画像処理部により前記色相補正又は前記露出補正の少なくとも一方の処理が実行された画像処理後画像と、前記色相補正又は前記露出補正の少なくとも一方の処理に用いたパラメータとを表示する表示部を備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 4 to 7,
A display unit that displays an image-processed image on which at least one of the hue correction and the exposure correction has been executed by the image processing unit, and a parameter used for at least one of the hue correction and the exposure correction; the image processing apparatus, characterized in that it comprises.
請求項1から請求項8のいずれか1項に記載の画像処理装置と、
前記画像を取得する撮像部と
を備えることを特徴とする撮像装置。
The image processing apparatus according to any one of claims 1 to 8,
An imaging apparatus comprising: an imaging unit that acquires the image.
JP2010239757A 2010-10-26 2010-10-26 Image processing apparatus and imaging apparatus Expired - Fee Related JP5736727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010239757A JP5736727B2 (en) 2010-10-26 2010-10-26 Image processing apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010239757A JP5736727B2 (en) 2010-10-26 2010-10-26 Image processing apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2012095037A JP2012095037A (en) 2012-05-17
JP5736727B2 true JP5736727B2 (en) 2015-06-17

Family

ID=46387925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010239757A Expired - Fee Related JP5736727B2 (en) 2010-10-26 2010-10-26 Image processing apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5736727B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6128458B2 (en) 2012-09-04 2017-05-17 パナソニックIpマネジメント株式会社 Imaging apparatus and image processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006129101A (en) * 2004-10-29 2006-05-18 Casio Comput Co Ltd Method of trimming image, imaging apparatus, image processing unit and program
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
JP2010141403A (en) * 2008-12-09 2010-06-24 Nikon Systems Inc Image display and image pickup device
JP5335474B2 (en) * 2009-02-20 2013-11-06 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2012095037A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
JP5419647B2 (en) Image blur correction device, imaging device including the same, and method for controlling image blur correction device
JP4305434B2 (en) Electronic camera and program
JP5558956B2 (en) Imaging apparatus and control method thereof
JP6071436B2 (en) Imaging apparatus, imaging method, and program
JP7086571B2 (en) Image pickup device, lens device and control method thereof
JP2009086186A (en) Imaging apparatus and program
JP2008203317A (en) Camera system and camera body
JP4702212B2 (en) camera
JP6808399B2 (en) Accessory device, control device, imaging system, communication control method and communication control program
JP2009027394A (en) Display controller, imaging device and printer
JP5326758B2 (en) Camera, image processing apparatus, and image processing program
JP2007150740A (en) Imaging apparatus
JP5447555B2 (en) Vibration correction device, lens barrel, camera body, and camera system
JP5056050B2 (en) Vibration correction device, lens barrel, camera body, and camera system
JP6971824B2 (en) Display control device and its control method
JP5736727B2 (en) Image processing apparatus and imaging apparatus
JP4498116B2 (en) Imaging apparatus and raw data processing method
JP2014168209A (en) Imaging apparatus, imaging method and program
JP2009253372A (en) Interchangeable lens type digital camera, virtual photographed image generating method, and virtual photographed image displaying method
JP2008203313A (en) Shake stabilization device, camera system, camera body and interchangeable lens
JP3243625B2 (en) Imaging device
JP2015021992A (en) Image blur correction device, control method and control program thereof, and imaging apparatus
JP5878063B2 (en) Imaging apparatus, imaging method, and imaging program
JP5040669B2 (en) Imaging device
JP5441747B2 (en) Imaging apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150406

R150 Certificate of patent or registration of utility model

Ref document number: 5736727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees