JP2014225786A - Imaging device, control method therefor, and program - Google Patents
Imaging device, control method therefor, and program Download PDFInfo
- Publication number
- JP2014225786A JP2014225786A JP2013104235A JP2013104235A JP2014225786A JP 2014225786 A JP2014225786 A JP 2014225786A JP 2013104235 A JP2013104235 A JP 2013104235A JP 2013104235 A JP2013104235 A JP 2013104235A JP 2014225786 A JP2014225786 A JP 2014225786A
- Authority
- JP
- Japan
- Prior art keywords
- information
- emulation
- image data
- photographing
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Structure And Mechanism Of Cameras (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置及びその制御方法、並びにプログラムに関する。 The present invention relates to an imaging apparatus, a control method thereof, and a program.
近年、テレビや映画業界において、デジタルカメラ、デジタルビデオカメラが普及している。テレビや映画の制作現場においては、本番の撮影前に、事前にスタッフがロケ地を探し歩き回りベストアングルを探すロケーションハンティング(以下、「仮撮影」という)という作業を行うが、この作業は作品の完成度に大きく影響するため重要視されている。 In recent years, digital cameras and digital video cameras have become widespread in the television and movie industries. At the production site of television and movies, before the actual filming, the staff performs a location hunting (hereinafter referred to as “provisional shooting”) to search for the location and search for the best angle in advance. It is regarded as important because it greatly affects the degree of completion.
これら仮撮影には、可能な限り本番の撮影と同じ撮影条件で撮影することが求められている。しかしながら仮撮影時と本番撮影時とで、全ての撮影条件を同じにするのは困難であり、また本番撮影時と同等のカメラやモニタなどの撮影機材を準備する作業負荷も大きく、この点が課題となっている。 These provisional shootings are required to shoot under the same shooting conditions as the actual shooting as much as possible. However, it is difficult to make all the shooting conditions the same for the temporary shooting and the actual shooting, and the work load for preparing shooting equipment such as cameras and monitors equivalent to that for the actual shooting is also large. It has become a challenge.
そこで、近年、仮想的に任意のカメラ特性に合わせて画像データを補正する方法が提案されている。 Therefore, in recent years, a method for correcting image data according to virtually any camera characteristic has been proposed.
その一例として、装着されていない交換レンズによる仮想撮影画像を表示することができる交換レンズ式デジタルカメラ、仮想撮影画像生成方法および仮想撮影画像表示方法が開示されている(例えば、特許文献1参照)。 As an example thereof, an interchangeable lens type digital camera, a virtual captured image generation method, and a virtual captured image display method that can display a virtual captured image by an interchangeable lens that is not attached are disclosed (for example, see Patent Document 1). .
この特許文献1では、レンズを用意また交換する手間を省いて、装着されていないレンズで撮影した場合の画像をユーザが体験できる事がメリットであると紹介されており、例えば、特許文献1で提案されているカメラを仮撮影に用いる場合がある。
In this
しかしながら、特許文献1で提案されているカメラは、交換レンズを交換する手間は省くことは可能であるが、カメラ本体の撮像素子等の違いについては考慮されておらず、本番撮影時と同じカメラを用意して撮影する必要があるという問題がある。
However, the camera proposed in
本発明の目的は、他の撮像装置のレンズ特性及びセンサ特性に合わせて画像データを得ることが可能な撮像装置及びその制御方法、並びにプログラムを提供することにある。 An object of the present invention is to provide an imaging apparatus capable of obtaining image data in accordance with lens characteristics and sensor characteristics of another imaging apparatus, a control method therefor, and a program.
上記目的を達成するために、請求項1の撮像装置は、前記撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得手段と、前記取得手段により取得されたエミュレート情報により決定された撮影条件で撮影する撮影手段と、前記撮影手段による撮影で得られた画像データを、前記エミュレート情報を用いて変換する変換手段とを備えたことを特徴とする。
In order to achieve the above object, the imaging apparatus according to
本発明によれば、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得し、取得されたエミュレート情報により決定された撮影条件で撮影し、撮影で得られた画像データを、エミュレート情報を用いて変換するので、他の撮像装置のレンズ特性及びセンサ特性に合わせて画像データを得ることが可能な撮像装置及びその制御方法、並びにプログラムを提供することができる。 According to the present invention, determination of shooting conditions and emulation information for converting image data are acquired, shooting is performed under shooting conditions determined by the acquired emulation information, and image data obtained by shooting is acquired. Since the conversion is performed using the emulation information, it is possible to provide an imaging apparatus capable of obtaining image data in accordance with the lens characteristics and sensor characteristics of other imaging apparatuses, a control method therefor, and a program.
以下、本発明の実施の形態について図面を参照しながら詳述する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、仮撮影時と本番撮影時の概要を説明するための図である。 FIG. 1 is a diagram for explaining the outline at the time of provisional shooting and at the time of actual shooting.
図1(A)は、本実施の形態に係る撮像装置の一例としてコンパクトカメラを用いた場合の仮撮影での概要を示している。 FIG. 1A shows an outline of provisional shooting when a compact camera is used as an example of the imaging apparatus according to this embodiment.
また、図1(B)は、業務用ビデオカメラを用いた場合の本番撮影時の概要を示している。 FIG. 1B shows an outline at the time of actual shooting when a professional video camera is used.
図1(A)において、コンパクトカメラは、エミュレート情報を取得し、エミュレート情報により撮影して、変換した画像データ生成してファイルとして出力する。 In FIG. 1A, the compact camera acquires emulation information, takes a picture with the emulation information, generates converted image data, and outputs it as a file.
一方、本番撮影時には、業務用デジタルビデオカメラ等の撮像装置を用いて撮影し、更にカラーグレーディング装置により所望の画像データを生成してファイルとして出力する。 On the other hand, during actual shooting, shooting is performed using an imaging device such as a commercial digital video camera, and desired color data is generated by a color grading device and output as a file.
図2は、本実施の形態に係る撮像装置としてのデジタルカメラ100の概略構成を示す図である。
FIG. 2 is a diagram illustrating a schematic configuration of a
図2において、レンズ群101は、ズームレンズ、フォーカスレンズを含む。シャッター102は絞り機能を備えている。
In FIG. 2, the
撮像部103は光学像を電気信号に変換するCCDやCMOS素子等の撮像素子である。A/D変換器104は撮像部103から出力されたアナログ信号をデジタル信号に変換し、メモリ制御部107及び画像処理部105に出力する。
The
画像処理部105はA/D変換器104から出力された画像データに対し、各種画像処理を行う。
The
例えば画像処理部105は、撮像された画像データに対し所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50において露光制御、測距制御を行う。
For example, the
これらにより、画像処理部105は、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行う。更に画像処理部105では、撮影した画像データに対し所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
As a result, the
A/D変換器104から出力された画像データは、画像処理部105及びメモリ制御部107を介して、またはメモリ制御部107を介してメモリ106に記憶される。
The image data output from the A /
メモリ106は、ビデオメモリも兼ね備えており、撮像部103で撮影された画像データに加え、表示部109に表示するための画像データなどを記憶する。なお、メモリ106は、所定枚数の静止画像や所定時間の動画像および音声を記憶するための十分な記憶容量を備えている。
The
D/A変換器108は、メモリ106に記憶されている表示部109に表示するための画像データをアナログ信号に変換して表示部109に出力する。こうして、メモリ106に記憶された表示用の画像データはD/A変換器108を介して表示部109により表示される。
The D /
表示部109は、LCD等の表示器に、D/A変換器108からのアナログ信号に応じて画像を表示する。操作部115はユーザが各種の操作指示を入力するために用いられる。
The
インタフェース110は記録媒体111とのインタフェースである。記録媒体111はメモリカードやハードディスク等である。
An
システム制御部50はデジタルカメラ100のシステム全体を制御する。システム制御部50は、不揮発性メモリ114に記憶されたプログラムを実行することで、後述するフローチャートに示される処理などを実行する。
The
システムタイマー112は各種制御に用いる時間や、内蔵された時計の時間を計測する。システムメモリ113には、システム制御部50の動作用の定数、変数、または後述する不揮発性メモリ114から読みだしたプログラム等が展開される。
The
記憶部である不揮発性メモリ114は電気的に消去したり記憶することが可能であり、例えばEEPROM等が用いられる。不揮発性メモリ114には、システム制御部50の動作用の定数、プログラム等が記憶される。
The nonvolatile memory 114 serving as a storage unit can be electrically erased or stored, and for example, an EEPROM or the like is used. The nonvolatile memory 114 stores constants, programs, and the like for operating the
図3は、図2における不揮発性メモリ114に記憶されている本番カメラ情報401、本番レンズ情報402、仮カメラ情報403、及び仮レンズ情報404を示す図である。
FIG. 3 is a diagram illustrating the
図3において、本番カメラ情報401、及び仮カメラ情報403のいずれにも、機種名情報、動画フォーマット情報、静止画フォーマット情報、センサ情報、露出情報、ダイナミックレンジ情報、及び画素数情報などの情報が含まれている。
In FIG. 3, the
一方、本番レンズ情報402、及び仮レンズ情報404のいずれにも、レンズ名、レンズ種類、レンズ構成、焦点距離、最短撮影距離、ズーム比、色味となどの情報が含まれている。
On the other hand, both the
上述した本番カメラ情報401、本番レンズ情報402、仮カメラ情報403、及び仮レンズ情報404は、エミュレート情報のテーブルとして不揮発性メモリ114に記憶されている。
The
図4(A)は、図2における不揮発性メモリ114に記憶されているエミュレート情報501を示す図であり、図4(B)は色空間変換処理を説明するための図である。
4A is a diagram showing the
図4(A)で示されるエミュレート情報501は、一例としてダイナミックレンジに関するエミュレート情報を示しており、本番撮影時と仮撮影時のカメラ機種名、ダイナミックレンジ、エミュレート情報A、Bなどの情報が含まれている。
The
図4(A)においては、本番カメラのダイナミックレンジ12eVに対し、仮カメラのダイナミックレンジは10eVであることが示され、さらにエミュレート情報Aは露出を±1段差で撮影した2枚の画像をHDR合成することを示している。 In FIG. 4A, it is shown that the dynamic range of the temporary camera is 10 eV with respect to the dynamic range of 12 eV of the production camera, and the emulation information A includes two images taken with exposure of ± 1 step. It shows that HDR synthesis is performed.
図4(B)は、一例として、ITU−R BT.709やSRGBで規定されている色空間RGB709の画像データのRGB値を一旦XYZ色空間に変換し、XYZ色空間からACES色空間RGBACESのRGB値に変換する内容を示している。 FIG. 4B shows, as an example, ITU-R BT. The contents of converting RGB values of image data in the color space RGB 709 defined by 709 and SRGB into the XYZ color space and converting from the XYZ color space to the RGB value of the ACES color space RGB ACES are shown.
なお、上記ACES(Academy Color Encording Specification:アカデミー色符号化仕様)色空間は、米国の映画芸術科学協会(AMPAS:Academy of Motion Picture Arts and Science)が提案し、SMPTEにおいて規格化されたものである。 The ACES (Academy Color Encording Specification) color space was proposed by the American Academy of Motion Picture Arts and Science (AMPAS) and standardized in SMPTE. .
色空間RGB709の画像データのRGB値(R709,G709,B709)を、行列M709→ACESを用いて色空間RGBACESの画像データのRGB値(RACES,GACES,BACES)に変換する。 RGB values (R 709 , G 709 , B 709 ) of the image data in the color space RGB 709 are converted into RGB values (R ACES , G ACES , B ACES ) of the image data in the color space RGB ACES using the matrix M 709 → ACES. Convert to
図5は、図2におけるシステム制御部50により実行されるエミュレート全体処理の手順を示すフローチャートである。
FIG. 5 is a flowchart showing a procedure of the entire emulation process executed by the
図5において、図3、4で説明したレンズ、センサ、色空間に関するエミュレート情報を取得する(ステップS301)。このステップS301は、撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得手段に対応する。 In FIG. 5, emulation information regarding the lens, sensor, and color space described in FIGS. 3 and 4 is acquired (step S301). This step S301 is for determining imaging conditions and converting the image data so that the image data obtained by imaging with the imaging device is image data that matches the characteristics of the lenses and imaging elements of the other imaging devices. This corresponds to an acquisition means for acquiring the emulation information.
次いで、取得したレンズ、センサエミュレート情報を基に撮影条件を決定し、決定した撮影条件で撮影を行い、撮影で得られた画像データを、画像処理部105で変換する(ステップS302)。 Next, shooting conditions are determined based on the acquired lens and sensor emulation information, shooting is performed under the determined shooting conditions, and image data obtained by shooting is converted by the image processing unit 105 (step S302).
そして、色空間に関するエミュレート情報を用いて、図4(B)で説明した色空間変換処理を行う。上記ステップS302、303は、撮影で得られた画像データを、エミュレート情報を用いて変換する変換手段に対応する。 Then, the color space conversion processing described in FIG. 4B is performed using the emulation information regarding the color space. Steps S302 and 303 correspond to conversion means for converting image data obtained by photographing using emulation information.
次いで、エミュレート情報以外の画像調整パラメータを用いて、画像データを変換する(ステップS304)。上記画像調整パラメータとは、例えば、監督の所望の画像となるように画像全体の色味を微調整する為の画像調整パラメータを示す。画像調整パラメータファイルは不揮発性メモリ114や記録媒体111に予め記憶されているものとする。なお、エミュレート情報以外の画像調整パラメータを用いた画像調整が不要な場合はこのステップは省略される。
Next, the image data is converted using image adjustment parameters other than the emulation information (step S304). The image adjustment parameter indicates, for example, an image adjustment parameter for finely adjusting the color tone of the entire image so as to obtain a director's desired image. Assume that the image adjustment parameter file is stored in advance in the nonvolatile memory 114 or the
そして、上記ステップS302〜304で変換された画像データをメモリ106に記憶して(ステップS305)、記憶した画像データを表示部109に表示して(ステップS306)、本処理を終了する。 Then, the image data converted in the above steps S302 to 304 is stored in the memory 106 (step S305), the stored image data is displayed on the display unit 109 (step S306), and this process ends.
なお、上記ステップS305で画像データを記憶する際に、ステップS301で取得したエミュレート情報、ステップS302で撮影することで得られた画像データ、同じくステップS302での変換後の画像データ、ステップS303での変換後の画像データ、及びステップS304で用いた画像調整パラメータファイルの各々を、必要に応じて記憶するようにしてもよい。さらに、各画像データの相互関係を示す情報を記憶するようにしてもよい。すなわち、撮影で得られた画像データを記憶部に記憶するとともに、エミュレート情報を用いて変換されるたびに、変換された画像データを記憶部に記憶するようにしてもよい。 Note that when storing the image data in step S305, the emulation information acquired in step S301, the image data obtained by shooting in step S302, the image data after conversion in step S302, and in step S303. Each of the converted image data and the image adjustment parameter file used in step S304 may be stored as necessary. Further, information indicating the mutual relationship between the image data may be stored. That is, the image data obtained by photographing may be stored in the storage unit, and the converted image data may be stored in the storage unit every time conversion is performed using the emulation information.
こうすることで、各々の処理過程の画像データを容易に取り出す事が可能になり、後でエミュレート情報や画像調整パラメータを変更する必要が出てきた場合においても、容易に画像データを変換することが可能になる。 This makes it possible to easily extract the image data of each processing process, and easily convert the image data even when it is necessary to change the emulation information or image adjustment parameters later. It becomes possible.
図6は、ダイナミックレンジに関するエミュレート情報を取得した際に行われるHDR合成を説明するための図である。 FIG. 6 is a diagram for explaining HDR synthesis performed when emulation information regarding the dynamic range is acquired.
図6において、縦方向は画像のダイナミックレンジの幅を示しており、各矢印は撮影された画像データが持つダイナミックレンジの範囲を示している。 In FIG. 6, the vertical direction indicates the width of the dynamic range of the image, and each arrow indicates the range of the dynamic range of the captured image data.
図6(A)は、図4のエミュレート情報Aに示される、露出を±1段差で撮影した2枚の画像のHDR合成を説明するための図である。 FIG. 6A is a diagram for explaining HDR composition of two images obtained by photographing exposure with ± 1 step as shown in the emulation information A of FIG.
図6(A)において、(1)本番カメラのダイナミックレンジ12eVに対し、(2)仮カメラのダイナミックレンジは10eVなので、2eV程ダイナミックレンジが足りないことになる。 In FIG. 6A, (1) the dynamic range of the production camera is 12 eV, and (2) the dynamic range of the temporary camera is 10 eV, so the dynamic range is not enough as much as 2 eV.
そこで、(3)露出を+1段で仮カメラで撮影した画像と、(4)露出を−1段で仮カメラで撮影した画像とをHDR合成することで(5)、仮カメラで12eV相当の画像を得ることができる。 Therefore, (3) HDR composite of an image shot with a temporary camera with +1 stage exposure and (4) an image shot with a temporary camera with -1 stage exposure is equivalent to 12 eV with the temporary camera. An image can be obtained.
図6(B)は、図4のエミュレート情報Bに示される、露出を±1/2段差で撮影した4枚の画像のHDR合成を説明するための図である。 FIG. 6B is a diagram for explaining HDR composition of four images obtained by photographing the exposure with ± 1/2 steps shown in the emulation information B of FIG.
図6(B)において、(1)本番カメラのダイナミックレンジ12eVに対し、(2)仮カメラのダイナミックレンジは10eVなので、2eV程ダイナミックレンジが足りないことになる。(3)〜(6)で露出を1/2段ステップで仮カメラで撮影した画像4枚をHDR合成することで(7)仮カメラで12eV相当の画像を得ることができる。 In FIG. 6B, (1) the dynamic range of the temporary camera is 10 eV with respect to the dynamic range of 12 eV of the actual camera, so the dynamic range is not enough as much as 2 eV. In (3) to (6), an image equivalent to 12 eV can be obtained with the temporary camera by HDR synthesizing four images taken with the temporary camera in half-step exposure.
以上説明したHDR合成を行う場合のエミュレート処理について説明する。 An emulation process when performing the HDR synthesis described above will be described.
図7は、図2におけるシステム制御部50により実行されるエミュレート処理(センサ)の手順を示すフローチャートである。
FIG. 7 is a flowchart showing the procedure of the emulation process (sensor) executed by the
なお、図7に示される処理は、図5のステップS301,302に相当する処理である。 7 is a process corresponding to steps S301 and S302 in FIG.
図7において、センサのダイナミックレンジのエミュレート情報を取得する(ステップS701)。具体的には、図4で説明した本番撮影時と仮撮影時の各々のカメラ機種名、各々のカメラのダイナミックレンジ、エミュレートA,Bを取得する。 In FIG. 7, the dynamic range emulation information of the sensor is acquired (step S701). Specifically, the camera model name, the dynamic range of each camera, and the emulations A and B at the time of actual shooting and temporary shooting described with reference to FIG. 4 are acquired.
次いで、ステップS701で取得したダイナミックレンジのエミュレート情報を基にデジタルカメラ100の撮影条件を設定する(ステップS702)。
Next, shooting conditions of the
例えば、取得したエミュレート情報が図4に示したエミュレート情報Aであった場合には、露出±1段差で2枚撮影する撮影条件となる。 For example, when the acquired emulation information is the emulation information A shown in FIG. 4, it is a shooting condition for shooting two images with an exposure of ± 1 step.
こうして設定された撮影条件で撮影し(ステップS703)、他にエミュレートするものがあるか否か判別する(ステップS704)。 Photographing is performed under the photographing conditions set in this manner (step S703), and it is determined whether there is another emulation (step S704).
ステップS704の判別の結果、他にエミュレートするものがない場合には(ステップS704でNO)、本処理を終了する。一方、ステップS704の判別の結果、他にエミュレートするものがある場合には(ステップS704でYES)、ステップS702に戻る。例えば、エミュレートA,Bを取得した場合には、エミュレートAに対する処理終了後に、他にエミュレートするものとしてエミュレートBに対する処理を行うこととなる。 As a result of the determination in step S704, if there is nothing else to emulate (NO in step S704), this process ends. On the other hand, as a result of the determination in step S704, if there is another emulation (YES in step S704), the process returns to step S702. For example, when the emulations A and B are acquired, the processing for the emulation B is performed as another emulation after the processing for the emulation A is completed.
以上説明したように、本実施の形態に係る撮像装置100は、他の撮像装置のセンサや色空間エミュレート情報を取得し、取得したエミュレート情報を基に他の撮像装置のセンサや色空間の特性に合わせた画像データを生成し、各々の処理工程のデータを記録し、表示可能な構成とした。
As described above, the
これにより、ユーザは仮想的に他の撮像装置の画像を生成することが可能となり、例えば本番撮影時に用いる大型カメラの撮影機材を用意せずに、小型カメラで大型カメラのダイナミックレンジと同等の画像を得ることができる。 As a result, the user can virtually generate an image of another imaging device. For example, an image equivalent to the dynamic range of a large camera can be obtained with a small camera without preparing a large camera for use in actual shooting. Can be obtained.
なお、上述した説明ではセンサのダイナミックレンジのエミュレート情報を取得する例について説明したが、エミュレート情報はダイナミックレンジに限るものではない。 In the above description, the example of acquiring the dynamic range emulation information of the sensor has been described. However, the emulation information is not limited to the dynamic range.
例えば、センサの種類情報、アスペクト比情報、画素サイズ情報、画素数情報、開口率情報、画素ピッチ情報、フィルター配列情報などに関するエミュレート情報であっても良い。 For example, it may be emulation information related to sensor type information, aspect ratio information, pixel size information, pixel number information, aperture ratio information, pixel pitch information, filter arrangement information, and the like.
例えば、センサのアスペクト比のエミュレート情報を取得した場合は、本番撮影時のセンサのアスペクト比に合わせて、仮カメラでパノラマ撮影するなどして本番撮影時のアスペクト比に合わせる。 For example, when the emulation information of the sensor aspect ratio is acquired, the panoramic image is taken with a temporary camera in accordance with the aspect ratio of the sensor at the time of actual shooting to match the aspect ratio at the time of actual shooting.
例えば本番撮影時のアスペクト比が16:9に対して仮撮影時のアスペクト比3:2であった場合に、パノラマ撮影もしくはトリミングすることで16:9の比率に合わせる。 For example, when the aspect ratio at the time of actual shooting is 16: 9 and the aspect ratio at the time of temporary shooting is 3: 2, the ratio is set to 16: 9 by panoramic shooting or trimming.
また例えば、センサの画素数のエミュレート情報を取得した場合は、仮撮影時のセンサの画素数は本番撮影時のセンサの画素数よりも少ないので全体的にぼやけた画像になってしまう可能性がある為、エッジ強調処理をすることで本番撮影時のセンサの画素数で撮影した場合の画質に合わせる。 In addition, for example, when emulating information on the number of pixels of the sensor is acquired, the number of pixels of the sensor at the time of provisional shooting is smaller than the number of pixels of the sensor at the time of actual shooting, so there is a possibility that the entire image becomes blurred Therefore, edge enhancement processing is performed to match the image quality when shooting with the number of pixels of the sensor at the time of actual shooting.
なお、上記実施の形態では、デジタルカメラを例について説明したが、これに限定するものではない。例えば、デジタルビデオカメラにおいて同様の構成をとることが可能である。 In the above embodiment, the digital camera has been described as an example, but the present invention is not limited to this. For example, a digital video camera can have a similar configuration.
なお、エミュレート情報は1つであっても良いし、2つ以上あっても良い。エミュレート情報が複数ある場合にはエミュレート処理時間が長くなるため、予めユーザがエミュレート処理時間を設定し、その処理時間範囲で優先度が高いエミュレート情報から処理するような構成として良い。 The number of emulation information may be one, or two or more. When there are a plurality of emulation information, the emulation processing time becomes long. Therefore, the user may set the emulation processing time in advance, and processing may be performed from the emulation information having a high priority in the processing time range.
なお、上記実施の形態では、デジタルカメラ100内部の不揮発性メモリ114や記録媒体111に記録されているデーターベースにあるエミュレート情報を基にエミュレートする構成としたが、これに限るものではなく、データーベースが外部にある構成としても構わない。
In the above embodiment, the emulation is performed based on the emulation information in the database recorded in the nonvolatile memory 114 or the
その場合は、システム制御部50は図示していない通信I/Fを介して外部のデーターベースに本番撮影時のカメラと仮撮影時のカメラの組み合わせに該当するエミュレート情報があるか否かを検索し、該当するエミュレート情報があった場合はそのエミュレート情報を取得する構成になる。
In that case, the
なお、上記実施の形態では、他のカメラの特性に合わせる為の変換情報であるエミュレート情報が、予め不揮発性メモリ114や記録媒体111に記録されているものとして説明したが、これに限るものではなく、図4に示した機種名・ファイルフォーマットなどといったカメラ情報や機種名・焦点距離などといったレンズ情報を取得して、取得したカメラ情報・レンズ情報を基にエミュレート情報をデジタルカメラ100内部で生成する構成にしても良い。
In the above embodiment, the emulation information, which is conversion information for adjusting to the characteristics of other cameras, has been described as being recorded in advance in the nonvolatile memory 114 or the
なお、図1において、業務用デジタルビデオカメラの画像データをコンパクトなデジタルカメラを用いて仮想的に生成する例について説明したが、これに限るものではなく、業務用デジタルカメラを用いてコンパクトなデジタルカメラの特性に合わせた画像データを生成しても良い。 In addition, although the example which produces | generates the image data of a professional digital video camera virtually using a compact digital camera was demonstrated in FIG. 1, it is not restricted to this, A compact digital using a professional digital camera is demonstrated. Image data matching the characteristics of the camera may be generated.
次に、他のカメラのレンズの色味に関するエミュレート情報を取得し、取得したエミュレート情報を基に他のカメラのレンズの色味に合わせた画像データを生成する処理について説明する。 Next, a description will be given of a process of acquiring emulation information related to the color of the lens of another camera and generating image data matching the color of the lens of the other camera based on the acquired emulation information.
図8(A)は、図2における不揮発性メモリ114に記憶されているエミュレート情報901を示す図であり、図8(B)(C)は色味エミュレート処理を説明するための図である。
FIG. 8A is a diagram showing the
図8(A)におけるエミュレート情報901は、レンズの色味に関するエミュレート情報を示している。レンズの色味とは、レンズの分光透過特性やRGBバランスのことをいう。
図8(A)において、エミュレート情報901には、本番撮影時・仮撮影時のレンズの機種名、レンズの色味情報、RGBの変換係数を示すエミュレート情報が含まれている。
In FIG. 8A, the
そして、このエミュレート情報は、図8(B)に示される行列Lcolor_atoAを示している。この行列Lcolor_atoAを用いて、RGB値(R,G,B)を(R’,G’,B’)に変換することで、仮撮影時のレンズの色味を本番撮影時のレンズの色味に合わせるようになっている。 The emulation information indicates a matrix L color_atoA shown in FIG. Using this matrix L color_atoA , the RGB values (R, G, B) are converted into (R ′, G ′, B ′), so that the lens color at the time of temporary shooting is changed to the color of the lens at the time of actual shooting. It comes to match the taste.
また、図8(C)は、XY色度図を示している。点1103、1104、1105は、仮カメラで撮像した画像データの画素値RGBの点をXY色度図上にプロットしたものである。
FIG. 8C shows an XY chromaticity diagram.
一方、点1106,1107,1108は、点1103,1104,1105を上記行列Lcolor_atoAで変換して得られた本番カメラで用いるレンズで撮像した画像データの画素値RGBをプロットしたものである。
On the other hand, points 1106, 1107, and 1108 are obtained by plotting pixel values RGB of image data captured by the lens used in the production camera obtained by converting the
なお、エミュレート情報に行列を用いた例を説明したが、これに限ったものではなく、仮カメラで撮影した画像データの画素値とそれに対応する本番カメラのレンズの色味を考慮した画素値の対応付けテーブルがエミュレート情報であっても良い。 In addition, although the example which used the matrix for emulation information was demonstrated, it is not restricted to this, The pixel value of the pixel value of the image data image | photographed with the temporary camera and the corresponding color of the lens of the production camera The correspondence table may be emulation information.
図9は、図2におけるシステム制御部50により実行されるエミュレート処理(色味)の手順を示すフローチャートである。
FIG. 9 is a flowchart showing a procedure of emulation processing (color tone) executed by the
なお、図9に示される処理は、図5のステップS301,302に相当する処理である。 The process shown in FIG. 9 is a process corresponding to steps S301 and S302 in FIG.
図9において、図8で説明したレンズの色味のエミュレート情報を取得する(ステップS1001)。 In FIG. 9, the emulation information of the color of the lens described in FIG. 8 is acquired (step S1001).
次いで、撮影し(ステップS1002)、ステップS1001で取得したレンズの色味のエミュレート情報を基に、図8で説明したように画像データを変換する(ステップS1003)。 Next, photographing is performed (step S1002), and the image data is converted as described with reference to FIG. 8 based on the lens color emulation information acquired in step S1001 (step S1003).
そして、他にエミュレートするものがあるか否か判別する(ステップS1004)。 Then, it is determined whether or not there are other emulations (step S1004).
ステップS1004の判別の結果、他にエミュレートするものがない場合には(ステップS1004でNO)、本処理を終了する。一方、ステップS1004の判別の結果、他にエミュレートするものがある場合には(ステップS1004でYES)、ステップS1003に戻る。 As a result of the determination in step S1004, if there is nothing else to emulate (NO in step S1004), this process ends. On the other hand, as a result of the determination in step S1004, if there is another emulation (YES in step S1004), the process returns to step S1003.
図9で説明した処理では、他の撮像装置のレンズエミュレート情報を取得し、取得したエミュレート情報を基に他の撮像装置のレンズ特性に合わせた画像データを生成する。 In the process described with reference to FIG. 9, lens emulation information of another imaging device is acquired, and image data matching the lens characteristics of the other imaging device is generated based on the acquired emulation information.
これにより、ユーザは仮想的に他の撮像装置の特性に合わせた画像を生成することが可能となり、例えば本番撮影時に用いる大型カメラの撮影機材を用意せずに、小型カメラで大型カメラと同等の画像を得ることができる。 This makes it possible for the user to generate images that are virtually matched to the characteristics of other imaging devices. For example, a small camera equivalent to a large camera can be used without preparing a large camera for use in actual shooting. An image can be obtained.
なお、上記説明ではレンズの色味に関するエミュレート情報を取得する例について説明したが、エミュレート情報はレンズの色味に限るものではない。例えば、レンズの種類情報、F値情報、焦点距離情報、被写界深度情報、歪み情報、周辺減光情報などに関するエミュレート情報であっても良い。 In the above description, the example in which the emulation information related to the color of the lens is acquired has been described. However, the emulation information is not limited to the color of the lens. For example, it may be emulation information relating to lens type information, F value information, focal length information, depth of field information, distortion information, peripheral dimming information, and the like.
例えば焦点距離に関するエミュレート情報であった場合には、本番撮影時のレンズの焦点距離範囲に対応する仮撮影時のレンズの焦点距離範囲を換算して求める。 For example, in the case of emulation information relating to the focal length, the focal length range of the lens at the time of temporary shooting corresponding to the focal length range of the lens at the time of actual shooting is converted and obtained.
さらに、仮撮影時において、仮カメラでの焦点距離値と本番カメラでの焦点距離値とをユーザが任意に切り替えて表示部109に表示することで、ユーザは本番撮影時にどの程度の焦点距離にすればよいかを把握することができる。
Furthermore, at the time of provisional shooting, the user can arbitrarily switch the focal length value at the provisional camera and the focal length value at the production camera and display them on the
また、エミュレート情報として、センサのフィルター特性を加味するための情報でもよい。センサのフィルター特性とは、例えばCMOSセンサの前面にあるローパスフィルタの赤外カットフィルターの特性などであり、この場合、上述した仮カメラから本番カメラの色味に変換する為の行列Lcolor_atoAに、更にセンサのフィルター特性を加味した行列を用いてエミュレートすることになる。 Further, the information for emulating the filter characteristics of the sensor may be used as the emulation information. The filter characteristic of the sensor is, for example, the characteristic of an infrared cut filter of a low-pass filter in front of the CMOS sensor. In this case, the matrix L color_atoA for converting from the temporary camera to the color of the real camera is as follows : Furthermore, it is emulated using a matrix that takes into account the filter characteristics of the sensor.
次に、複数のエミュレートパターンをユーザに提示し、ユーザが選択可能とするための処理について説明する。 Next, a process for presenting a plurality of emulation patterns to the user and enabling the user to select them will be described.
上記エミュレートパターンとは、本番撮影時の本番カメラと装着するレンズの組み合わせパターンを示す。例えば、本番撮影時の本番カメラAに対し、本番カメラAに装着可能なレンズ候補がレンズA、レンズB、レンズC・・・とあった場合に、本番カメラAとレンズ候補A、B、C・・・の全組み合わせパターンである。 The emulation pattern is a combination pattern of a real camera and a lens to be mounted at the time of actual photographing. For example, when there are lens candidates A, B, C, etc. that can be attached to the production camera A with respect to the production camera A at the time of production shooting, the production camera A and the lens candidates A, B, C. Are all combined patterns.
そのために、以下に説明する処理では、まず他のカメラのダイナミックレンジに関するエミュレート情報とレンズの色味に関するエミュレート情報を取得し、選択されたエミュレートパターンを基に他のカメラのダイナミックレンジ及びレンズの色味に合わせた画像データを生成する。 Therefore, in the processing described below, first, emulation information about the dynamic range of another camera and emulation information about the color of the lens are obtained, and the dynamic range and the other camera's dynamic range and the color information of the lens are selected based on the selected emulation pattern. Image data matching the color of the lens is generated.
また、エミュレートパターン毎に、エミュレート評価値が算出される。このエミュレート評価値とは、仮撮影時の画像データが本番撮影時に撮影される画像データにより近いほど大きくなる値である。 In addition, an emulation evaluation value is calculated for each emulation pattern. This emulation evaluation value is a value that becomes larger as the image data at the time of provisional shooting is closer to the image data shot at the time of actual shooting.
例えば、評価値を1〜100の範囲とし、ダイナミックレンジの場合で説明すると、仮撮影時のカメラで本番撮影時のカメラのダイナミックレンジが完全に補えれば、評価値は100となる。 For example, when the evaluation value is in the range of 1 to 100 and the case of the dynamic range is described, the evaluation value is 100 if the dynamic range of the camera at the time of actual shooting is completely supplemented by the camera at the time of temporary shooting.
また、レンズの色味に関して説明すると、レンズの色味を完全に一致させる、すなわち、図8(C)に示したXY色度図において、点1103,1104,1105の画素値RGBのプロット点を本番カメラで用いるレンズで撮像した画像データの画素値RGBのプロット点と一致させることができればレンズの色味のエミュレート評価値は100となる。
Further, regarding the color of the lens, the color of the lens is completely matched. That is, in the XY chromaticity diagram shown in FIG. 8C, the plot points of the pixel values RGB of the
最終的なエミュレート評価値は、求めたエミュレート評価値をエミュレートの項目数で除算して求める。 The final emulation evaluation value is obtained by dividing the obtained emulation evaluation value by the number of items of emulation.
例えばダイナミックレンジのエミュレート評価値が100で、レンズの色味のエミュレート評価値が50であった場合は、(100+50)/2となるので、最終的なエミュレート評価値は75となる。 For example, when the dynamic range emulation evaluation value is 100 and the lens color emulation evaluation value is 50, the final emulation evaluation value is 75 since (100 + 50) / 2.
図10は、図2におけるシステム制御部50により実行される複数エミュレート提示処理の手順を示すフローチャートである。
FIG. 10 is a flowchart showing the procedure of the multiple emulation presentation process executed by the
なお、図10に示される処理は、図5の処理開始からステップS302までの処理に相当する処理である。 Note that the process shown in FIG. 10 is a process corresponding to the process from the start of the process of FIG. 5 to step S302.
図10において、複数のエミュレート情報を取得する(ステップS1201)。今の場合、ダイナミックレンジとレンズの色味のエミュレート情報を取得するものとしている。 In FIG. 10, a plurality of emulation information is acquired (step S1201). In this case, the emulation information of the dynamic range and the color of the lens is acquired.
次いで、ステップS1201で取得したエミュレート情報を基にエミュレートパターンを生成する(ステップS1202)。このステップS1202は、複数のエミュレート情報を組み合わせたエミュレートパターンを生成する生成手段に対応する。 Next, an emulation pattern is generated based on the emulation information acquired in step S1201 (step S1202). This step S1202 corresponds to generating means for generating an emulation pattern in which a plurality of emulation information is combined.
そして、ステップS1202で生成したエミュレートパターン毎に、上述したエミュレート評価値を算出する(ステップS1203)。このステップS1203は、生成されたエミュレートパターンごとに、撮像装置で撮影して得られる画像データが他の撮像装置で撮影して得られる画像データにより近いほど値が大きくなるエミュレート評価値を算出する算出手段に対応する。 Then, the above-described emulation evaluation value is calculated for each emulation pattern generated in step S1202 (step S1203). In step S1203, for each generated emulation pattern, an emulation evaluation value that increases as the image data obtained by imaging with the imaging device is closer to the image data obtained by imaging with another imaging device is calculated. Corresponds to the calculating means.
ステップS1203で算出したエミュレート評価値が高い順にエミュレートパターンを表示部109を用いてユーザに提示する(ステップS1204)。この提示例については後述する。このステップS1204は、算出されたエミュレート評価値が大きい順に、エミュレートパターンを示す情報を表示部を用いてユーザに提示する提示手段に対応する。
Emulation patterns are presented to the user using the
そして、ステップS1204で提示されたエミュレートパターンの中から、ユーザによって操作部115を介して選択されたエミュレートパターンを取得する(ステップS1205)。次いで、撮影し(ステップS1206)、選択されたエミュレートパターンを基に画像データを変換して(ステップS1207)、本処理を終了する。
Then, the emulation pattern selected by the user via the
このように、図10の処理では、提示されたエミュレートパターンのうち、ユーザにより選択されたエミュレートパターンのエミュレート情報により決定された撮影条件で撮影し、撮影で得られた画像データを、ユーザにより選択されたエミュレートパターンのエミュレート情報を用いて変換する。 As described above, in the processing of FIG. 10, the image data obtained by photographing is shot under the shooting conditions determined by the emulation information of the emulation pattern selected by the user among the presented emulation patterns. Conversion is performed using the emulation information of the emulation pattern selected by the user.
図11は、図2における表示部109に表示されるユーザインタフェース例を示す図である。
FIG. 11 is a diagram showing an example of a user interface displayed on the
図11(A)は、エミュレート評価値が高い順にエミュレートパターンを提示した例を示す図である。 FIG. 11A is a diagram illustrating an example in which emulation patterns are presented in descending order of emulation evaluation value.
図11(A)において、1)〜4)に本番カメラとレンズの組み合わせと、エミュレート評価値とが表示されている。 In FIG. 11A, 1) to 4) display the combination of the real camera and the lens and the emulation evaluation value.
これらの中から、ユーザは所望のエミュレートパターンを選択することで、そのエミュレートパターンに従った画像データを取得することができる。 By selecting a desired emulation pattern from these, the user can acquire image data according to the emulation pattern.
図11(B)は、ユーザが優先したいエミュレート情報の項目を選択させるための画面例を示す図である。 FIG. 11B is a diagram showing an example of a screen for selecting an item of emulation information that the user wants to prioritize.
これは、ユーザが優先したいエミュレート情報の項目のエミュレート評価値が高くなるエミュレートパターン順に提示するために、ユーザが優先したいエミュレート情報の項目を選択させる場合に表示される画面である。図11(B)の場合は、ユーザによりダイナミックレンジに関するエミュレート情報の項目を選択された例を示している。 This is a screen that is displayed when the user selects an emulation information item that the user wants to prioritize in order of the emulation pattern in which the emulation evaluation value of the emulation information item that the user wants to prioritize increases. In the case of FIG. 11B, an example in which an item of emulation information related to the dynamic range is selected by the user is shown.
図10で説明した処理では、他の撮像装置のダイナミックレンジやレンズのエミュレート情報を取得し、取得したエミュレート情報を基に複数のエミュレートパターンを生成し、生成したエミュレートパターンから選択されたエミュレートパターンを基に、他の撮像装置のダイナミックレンジやレンズの色味に合わせた画像データを生成する。 In the process described with reference to FIG. 10, the dynamic range of another imaging device and the emulation information of the lens are acquired, a plurality of emulation patterns are generated based on the acquired emulation information, and selected from the generated emulation patterns. On the basis of the emulation pattern, image data matching the dynamic range of other imaging devices and the color of the lens is generated.
これにより、ユーザは仮想的に他の撮像装置の特性に合わせた画像を生成することが可能となり、例えば本番撮影時に用いる大型カメラの撮影機材を用意せずに、小型カメラで大型カメラと同等の画像を得ることができる。 This makes it possible for the user to generate images that are virtually matched to the characteristics of other imaging devices. For example, a small camera equivalent to a large camera can be used without preparing a large camera for use in actual shooting. An image can be obtained.
なお、上記説明ではダイナミックレンジ及びレンズの色味に関するエミュレート情報を取得する例について説明したが、エミュレート情報はこれに限るものではない。例えば、レンズの種類情報、F値情報、焦点距離情報、被写界深度情報、歪み情報、周辺減光情報などに関するエミュレート情報であっても良い。 In the above description, the example in which the emulation information regarding the dynamic range and the color of the lens is acquired has been described. However, the emulation information is not limited thereto. For example, it may be emulation information relating to lens type information, F value information, focal length information, depth of field information, distortion information, peripheral dimming information, and the like.
本実施の形態によれば、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得し(ステップS301)、取得されたエミュレート情報により決定された撮影条件で撮影し、撮影で得られた画像データを、エミュレート情報を用いて変換するので(ステップS302)、他の撮像装置のレンズ特性及びセンサ特性に合わせて画像データを得ることが可能となる。 According to the present embodiment, determination of shooting conditions and emulation information for converting image data are acquired (step S301), and shooting is performed under shooting conditions determined by the acquired emulation information. Since the obtained image data is converted using the emulation information (step S302), the image data can be obtained in accordance with the lens characteristics and sensor characteristics of other imaging devices.
(他の実施の形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.
50 システム制御部
100 撮像装置
105 画像処理部
106 メモリ
114 不揮発性メモリ
50
Claims (21)
前記撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得手段と、
前記取得手段により取得されたエミュレート情報により決定された撮影条件で撮影する撮影手段と、
前記撮影手段による撮影で得られた画像データを、前記エミュレート情報を用いて変換する変換手段と
を備えたことを特徴とする撮像装置。 An imaging device,
Emulation information for determining imaging conditions and converting image data so that image data obtained by imaging with the imaging device is image data that matches the characteristics of the lenses and imaging elements of other imaging devices. Obtaining means for obtaining
Photographing means for photographing under photographing conditions determined by the emulation information obtained by the obtaining means;
An image pickup apparatus comprising: conversion means for converting image data obtained by photographing by the photographing means using the emulation information.
前記生成手段により生成された前記エミュレートパターンごとに、前記撮像装置で撮影して得られる画像データが他の撮像装置で撮影して得られる画像データにより近いほど値が大きくなるエミュレート評価値を算出する算出手段と、
前記算出手段により算出されたエミュレート評価値が大きい順に、エミュレートパターンを示す情報を表示部を用いてユーザに提示する提示手段とを備え、
前記撮影手段は、前記提示手段により提示されたエミュレートパターンのうち、ユーザにより選択されたエミュレートパターンのエミュレート情報により決定された撮影条件で撮影し、
前記変換手段は、前記撮影手段による撮影で得られた画像データを、前記ユーザにより選択されたエミュレートパターンのエミュレート情報を用いて変換することを特徴とする請求項1乃至請求項6のいずれか1項に記載の撮像装置。 Generating means for generating an emulation pattern combining a plurality of the emulation information;
For each of the emulation patterns generated by the generation unit, an emulation evaluation value that increases as the image data obtained by photographing with the imaging device is closer to the image data obtained by photographing with another imaging device. A calculating means for calculating;
Presenting means for presenting information indicating an emulation pattern to the user using a display unit in descending order of the emulation evaluation value calculated by the calculating means,
The photographing means is photographed under photographing conditions determined by the emulation information of the emulation pattern selected by the user among the emulation patterns presented by the presenting means,
7. The conversion unit according to claim 1, wherein the conversion unit converts image data obtained by photographing by the photographing unit using emulation information of an emulation pattern selected by the user. The imaging apparatus of Claim 1.
前記撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得ステップと、
前記取得ステップにより取得されたエミュレート情報により決定された撮影条件で撮影する撮影ステップと、
前記撮影ステップによる撮影で得られた画像データを、前記エミュレート情報を用いて変換する変換ステップと
を備えたことを特徴とする制御方法。 A method for controlling an imaging apparatus,
Emulation information for determining imaging conditions and converting image data so that image data obtained by imaging with the imaging device is image data that matches the characteristics of the lenses and imaging elements of other imaging devices. An acquisition step to acquire,
A shooting step of shooting under shooting conditions determined by the emulation information acquired by the acquiring step;
A control method comprising: a conversion step of converting image data obtained by photographing in the photographing step using the emulation information.
前記生成ステップにより生成された前記エミュレートパターンごとに、前記撮像装置で撮影して得られる画像データが他の撮像装置で撮影して得られる画像データにより近いほど値が大きくなるエミュレート評価値を算出する算出ステップと、
前記算出ステップにより算出されたエミュレート評価値が大きい順に、エミュレートパターンを示す情報を表示部を用いてユーザに提示する提示ステップとを備え、
前記撮影ステップは、前記提示ステップにより提示されたエミュレートパターンのうち、ユーザにより選択されたエミュレートパターンのエミュレート情報により決定された撮影条件で撮影し、
前記変換ステップは、前記撮影ステップによる撮影で得られた画像データを、前記ユーザにより選択されたエミュレートパターンのエミュレート情報を用いて変換することを特徴とする請求項8乃至請求項13のいずれか1項に記載の制御方法。 A generation step of generating an emulation pattern combining a plurality of the emulation information;
For each of the emulation patterns generated by the generation step, an emulation evaluation value that increases as the image data obtained by photographing with the imaging device is closer to the image data obtained by photographing with another imaging device. A calculating step for calculating;
A presentation step of presenting information indicating an emulation pattern to a user using a display unit in descending order of the emulation evaluation value calculated by the calculation step;
In the shooting step, shooting is performed under shooting conditions determined by the emulation information of the emulation pattern selected by the user among the emulation patterns presented in the presenting step,
14. The conversion step according to any one of claims 8 to 13, wherein the conversion step converts image data obtained by photographing in the photographing step using emulation information of an emulation pattern selected by the user. The control method according to claim 1.
前記制御方法は、
前記撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得ステップと、
前記取得ステップにより取得されたエミュレート情報により決定された撮影条件で撮影する撮影ステップと、
前記撮影ステップによる撮影で得られた画像データを、前記エミュレート情報を用いて変換する変換ステップと
を備えたことを特徴とするプログラム。 A program for causing a computer to execute a control method of an imaging apparatus,
The control method is:
Emulation information for determining imaging conditions and converting image data so that image data obtained by imaging with the imaging device is image data that matches the characteristics of the lenses and imaging elements of other imaging devices. An acquisition step to acquire,
A shooting step of shooting under shooting conditions determined by the emulation information acquired by the acquiring step;
A conversion step of converting image data obtained by photographing in the photographing step using the emulation information.
前記生成ステップにより生成された前記エミュレートパターンごとに、前記撮像装置で撮影して得られる画像データが他の撮像装置で撮影して得られる画像データにより近いほど値が大きくなるエミュレート評価値を算出する算出ステップと、
前記算出ステップにより算出されたエミュレート評価値が大きい順に、エミュレートパターンを示す情報を表示部を用いてユーザに提示する提示ステップとを備え、
前記撮影ステップは、前記提示ステップにより提示されたエミュレートパターンのうち、ユーザにより選択されたエミュレートパターンのエミュレート情報により決定された撮影条件で撮影し、
前記変換ステップは、前記撮影ステップによる撮影で得られた画像データを、前記ユーザにより選択されたエミュレートパターンのエミュレート情報を用いて変換することを特徴とする請求項15乃至請求項20のいずれか1項に記載のプログラム。 A generation step of generating an emulation pattern combining a plurality of the emulation information;
For each of the emulation patterns generated by the generation step, an emulation evaluation value that increases as the image data obtained by photographing with the imaging device is closer to the image data obtained by photographing with another imaging device. A calculating step for calculating;
A presentation step of presenting information indicating an emulation pattern to a user using a display unit in descending order of the emulation evaluation value calculated by the calculation step;
In the shooting step, shooting is performed under shooting conditions determined by the emulation information of the emulation pattern selected by the user among the emulation patterns presented in the presenting step,
21. The method according to claim 15, wherein the converting step converts image data obtained by photographing in the photographing step using emulation information of an emulation pattern selected by the user. The program according to item 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013104235A JP2014225786A (en) | 2013-05-16 | 2013-05-16 | Imaging device, control method therefor, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013104235A JP2014225786A (en) | 2013-05-16 | 2013-05-16 | Imaging device, control method therefor, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014225786A true JP2014225786A (en) | 2014-12-04 |
Family
ID=52124154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013104235A Pending JP2014225786A (en) | 2013-05-16 | 2013-05-16 | Imaging device, control method therefor, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014225786A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3836533A1 (en) * | 2019-12-11 | 2021-06-16 | Arnold & Richter Cine Technik GmbH & Co. Betriebs KG | Method and devices for emulating camera lenses |
JP2023077358A (en) * | 2021-11-24 | 2023-06-05 | 一誠 藤池 | Application software expressing maker's expression mechanism |
-
2013
- 2013-05-16 JP JP2013104235A patent/JP2014225786A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3836533A1 (en) * | 2019-12-11 | 2021-06-16 | Arnold & Richter Cine Technik GmbH & Co. Betriebs KG | Method and devices for emulating camera lenses |
US20210185241A1 (en) * | 2019-12-11 | 2021-06-17 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Method and apparatus for emulating camera objectives |
US12015866B2 (en) * | 2019-12-11 | 2024-06-18 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Method and apparatus for emulating camera objectives |
JP2023077358A (en) * | 2021-11-24 | 2023-06-05 | 一誠 藤池 | Application software expressing maker's expression mechanism |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017220892A (en) | Image processing device and image processing method | |
KR20120034412A (en) | Digital photographing apparatus and control method thereof | |
JP5279636B2 (en) | Imaging device | |
CN101742336A (en) | Image processing apparatus and image processing method | |
JP2017175319A (en) | Image processing apparatus, image processing method, and program | |
CN113315956B (en) | Image processing apparatus, image capturing apparatus, image processing method, and machine-readable medium | |
JP2014225786A (en) | Imaging device, control method therefor, and program | |
US9413974B2 (en) | Information processing apparatus, image sensing apparatus, control method, and recording medium for conversion processing | |
JP5854235B2 (en) | Imaging apparatus, imaging method, and program | |
WO2020189510A1 (en) | Image processing device, image processing method, computer program, and storage medium | |
JP7395258B2 (en) | Image processing device, image processing method, computer program and storage medium | |
JP6223173B2 (en) | Image processing apparatus, control method thereof, and program | |
JP2014176004A (en) | Imaging apparatus and image processing method | |
JP2019047436A (en) | Image processing device, image processing method, image processing program, and imaging device | |
JP5543636B2 (en) | Imaging device | |
JP6357922B2 (en) | Image processing apparatus, image processing method, and program | |
JP5818515B2 (en) | Image processing apparatus, image processing method and program thereof | |
JP6516410B2 (en) | Image processing apparatus, image processing method and program | |
JP4757828B2 (en) | Image composition apparatus, photographing apparatus, image composition method, and image composition program | |
US20230209176A1 (en) | Imaging apparatus | |
JP7395259B2 (en) | Image processing device, image processing method, computer program and storage medium | |
JP2019068342A (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP4756005B2 (en) | Imaging apparatus and imaging method | |
JP6039726B2 (en) | Imaging apparatus and control method thereof | |
JP5828927B2 (en) | Imaging device |