JP2014225786A - Imaging device, control method therefor, and program - Google Patents

Imaging device, control method therefor, and program Download PDF

Info

Publication number
JP2014225786A
JP2014225786A JP2013104235A JP2013104235A JP2014225786A JP 2014225786 A JP2014225786 A JP 2014225786A JP 2013104235 A JP2013104235 A JP 2013104235A JP 2013104235 A JP2013104235 A JP 2013104235A JP 2014225786 A JP2014225786 A JP 2014225786A
Authority
JP
Japan
Prior art keywords
information
emulation
image data
photographing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013104235A
Other languages
Japanese (ja)
Inventor
尚子 渡澤
Naoko Tozawa
尚子 渡澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013104235A priority Critical patent/JP2014225786A/en
Publication of JP2014225786A publication Critical patent/JP2014225786A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Structure And Mechanism Of Cameras (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device, a control method therefor, and a program that are capable of obtaining image data in accordance with lens characteristics and sensor characteristics of another imaging device.SOLUTION: An imaging device 100 acquires emulation information for determining a photographing condition and converting image data, performs photographing under a photographing condition determined by the acquired emulation information, and converts image data obtained by the photographing using the emulation information.

Description

本発明は、撮像装置及びその制御方法、並びにプログラムに関する。   The present invention relates to an imaging apparatus, a control method thereof, and a program.

近年、テレビや映画業界において、デジタルカメラ、デジタルビデオカメラが普及している。テレビや映画の制作現場においては、本番の撮影前に、事前にスタッフがロケ地を探し歩き回りベストアングルを探すロケーションハンティング(以下、「仮撮影」という)という作業を行うが、この作業は作品の完成度に大きく影響するため重要視されている。   In recent years, digital cameras and digital video cameras have become widespread in the television and movie industries. At the production site of television and movies, before the actual filming, the staff performs a location hunting (hereinafter referred to as “provisional shooting”) to search for the location and search for the best angle in advance. It is regarded as important because it greatly affects the degree of completion.

これら仮撮影には、可能な限り本番の撮影と同じ撮影条件で撮影することが求められている。しかしながら仮撮影時と本番撮影時とで、全ての撮影条件を同じにするのは困難であり、また本番撮影時と同等のカメラやモニタなどの撮影機材を準備する作業負荷も大きく、この点が課題となっている。   These provisional shootings are required to shoot under the same shooting conditions as the actual shooting as much as possible. However, it is difficult to make all the shooting conditions the same for the temporary shooting and the actual shooting, and the work load for preparing shooting equipment such as cameras and monitors equivalent to that for the actual shooting is also large. It has become a challenge.

そこで、近年、仮想的に任意のカメラ特性に合わせて画像データを補正する方法が提案されている。   Therefore, in recent years, a method for correcting image data according to virtually any camera characteristic has been proposed.

その一例として、装着されていない交換レンズによる仮想撮影画像を表示することができる交換レンズ式デジタルカメラ、仮想撮影画像生成方法および仮想撮影画像表示方法が開示されている(例えば、特許文献1参照)。   As an example thereof, an interchangeable lens type digital camera, a virtual captured image generation method, and a virtual captured image display method that can display a virtual captured image by an interchangeable lens that is not attached are disclosed (for example, see Patent Document 1). .

この特許文献1では、レンズを用意また交換する手間を省いて、装着されていないレンズで撮影した場合の画像をユーザが体験できる事がメリットであると紹介されており、例えば、特許文献1で提案されているカメラを仮撮影に用いる場合がある。   In this Patent Document 1, it is introduced that it is a merit that a user can experience an image when taking a picture with a lens that is not attached without preparing and exchanging the lens. The proposed camera may be used for temporary shooting.

特開2009−253372号公報JP 2009-253372 A

しかしながら、特許文献1で提案されているカメラは、交換レンズを交換する手間は省くことは可能であるが、カメラ本体の撮像素子等の違いについては考慮されておらず、本番撮影時と同じカメラを用意して撮影する必要があるという問題がある。   However, the camera proposed in Patent Document 1 can save the trouble of exchanging the interchangeable lens, but does not take into account the difference in the image pickup device of the camera body, and is the same camera as in the actual shooting. There is a problem that it is necessary to prepare and shoot.

本発明の目的は、他の撮像装置のレンズ特性及びセンサ特性に合わせて画像データを得ることが可能な撮像装置及びその制御方法、並びにプログラムを提供することにある。   An object of the present invention is to provide an imaging apparatus capable of obtaining image data in accordance with lens characteristics and sensor characteristics of another imaging apparatus, a control method therefor, and a program.

上記目的を達成するために、請求項1の撮像装置は、前記撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得手段と、前記取得手段により取得されたエミュレート情報により決定された撮影条件で撮影する撮影手段と、前記撮影手段による撮影で得られた画像データを、前記エミュレート情報を用いて変換する変換手段とを備えたことを特徴とする。   In order to achieve the above object, the imaging apparatus according to claim 1 is configured so that image data obtained by imaging with the imaging apparatus is image data that matches characteristics of a lens and an imaging element of another imaging apparatus. By acquisition means for acquiring emulation information for determining imaging conditions and converting image data, imaging means for imaging under imaging conditions determined by the emulation information acquired by the acquisition means, and by the imaging means Conversion means for converting image data obtained by photographing using the emulation information is provided.

本発明によれば、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得し、取得されたエミュレート情報により決定された撮影条件で撮影し、撮影で得られた画像データを、エミュレート情報を用いて変換するので、他の撮像装置のレンズ特性及びセンサ特性に合わせて画像データを得ることが可能な撮像装置及びその制御方法、並びにプログラムを提供することができる。   According to the present invention, determination of shooting conditions and emulation information for converting image data are acquired, shooting is performed under shooting conditions determined by the acquired emulation information, and image data obtained by shooting is acquired. Since the conversion is performed using the emulation information, it is possible to provide an imaging apparatus capable of obtaining image data in accordance with the lens characteristics and sensor characteristics of other imaging apparatuses, a control method therefor, and a program.

仮撮影時と本番撮影時の概要を説明するための図である。It is a figure for demonstrating the outline | summary at the time of provisional photography and real photography. 本実施の形態に係る撮像装置としてのデジタルカメラの概略構成を示す図である。It is a figure which shows schematic structure of the digital camera as an imaging device which concerns on this Embodiment. 図2における不揮発性メモリに記憶されている本番カメラ情報、本番レンズ情報、仮カメラ情報、及び仮レンズ情報を示す図である。It is a figure which shows the real camera information, the real lens information, temporary camera information, and temporary lens information which are memorize | stored in the non-volatile memory in FIG. 図4(A)は、図2における不揮発性メモリに記憶されているエミュレート情報を示す図であり、図4(B)は色空間変換処理を説明するための図である。FIG. 4A is a diagram showing emulation information stored in the nonvolatile memory in FIG. 2, and FIG. 4B is a diagram for explaining color space conversion processing. 図2におけるシステム制御部により実行されるエミュレート全体処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the whole emulation process performed by the system control part in FIG. ダイナミックレンジに関するエミュレート情報を取得した際に行われるHDR合成を説明するための図である。It is a figure for demonstrating the HDR synthetic | combination performed when the emulation information regarding a dynamic range is acquired. 図2におけるシステム制御部により実行されるエミュレート処理(センサ)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the emulation process (sensor) performed by the system control part in FIG. 図8(A)は、図2における不揮発性メモリに記憶されているエミュレート情報を示す図であり、図8(B)(C)は色味エミュレート処理を説明するための図である。FIG. 8A is a diagram showing emulation information stored in the nonvolatile memory in FIG. 2, and FIGS. 8B and 8C are diagrams for explaining the color emulation processing. 図2におけるシステム制御部により実行されるエミュレート処理(色味)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the emulation process (color tone) performed by the system control part in FIG. 図2におけるシステム制御部により実行される複数エミュレート提示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the multiple emulation presentation process performed by the system control part in FIG. 図2における表示部に表示されるユーザインタフェース例を示す図である。It is a figure which shows the example of a user interface displayed on the display part in FIG.

以下、本発明の実施の形態について図面を参照しながら詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、仮撮影時と本番撮影時の概要を説明するための図である。   FIG. 1 is a diagram for explaining the outline at the time of provisional shooting and at the time of actual shooting.

図1(A)は、本実施の形態に係る撮像装置の一例としてコンパクトカメラを用いた場合の仮撮影での概要を示している。   FIG. 1A shows an outline of provisional shooting when a compact camera is used as an example of the imaging apparatus according to this embodiment.

また、図1(B)は、業務用ビデオカメラを用いた場合の本番撮影時の概要を示している。   FIG. 1B shows an outline at the time of actual shooting when a professional video camera is used.

図1(A)において、コンパクトカメラは、エミュレート情報を取得し、エミュレート情報により撮影して、変換した画像データ生成してファイルとして出力する。   In FIG. 1A, the compact camera acquires emulation information, takes a picture with the emulation information, generates converted image data, and outputs it as a file.

一方、本番撮影時には、業務用デジタルビデオカメラ等の撮像装置を用いて撮影し、更にカラーグレーディング装置により所望の画像データを生成してファイルとして出力する。   On the other hand, during actual shooting, shooting is performed using an imaging device such as a commercial digital video camera, and desired color data is generated by a color grading device and output as a file.

図2は、本実施の形態に係る撮像装置としてのデジタルカメラ100の概略構成を示す図である。   FIG. 2 is a diagram illustrating a schematic configuration of a digital camera 100 as an imaging apparatus according to the present embodiment.

図2において、レンズ群101は、ズームレンズ、フォーカスレンズを含む。シャッター102は絞り機能を備えている。   In FIG. 2, the lens group 101 includes a zoom lens and a focus lens. The shutter 102 has an aperture function.

撮像部103は光学像を電気信号に変換するCCDやCMOS素子等の撮像素子である。A/D変換器104は撮像部103から出力されたアナログ信号をデジタル信号に変換し、メモリ制御部107及び画像処理部105に出力する。   The imaging unit 103 is an imaging element such as a CCD or CMOS element that converts an optical image into an electrical signal. The A / D converter 104 converts the analog signal output from the imaging unit 103 into a digital signal and outputs the digital signal to the memory control unit 107 and the image processing unit 105.

画像処理部105はA/D変換器104から出力された画像データに対し、各種画像処理を行う。   The image processing unit 105 performs various image processing on the image data output from the A / D converter 104.

例えば画像処理部105は、撮像された画像データに対し所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50において露光制御、測距制御を行う。   For example, the image processing unit 105 performs predetermined calculation processing on the captured image data, and performs exposure control and distance measurement control in the system control unit 50 based on the obtained calculation result.

これらにより、画像処理部105は、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行う。更に画像処理部105では、撮影した画像データに対し所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   As a result, the image processing unit 105 performs TTL (through the lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing. Further, the image processing unit 105 performs predetermined calculation processing on the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained calculation result.

A/D変換器104から出力された画像データは、画像処理部105及びメモリ制御部107を介して、またはメモリ制御部107を介してメモリ106に記憶される。   The image data output from the A / D converter 104 is stored in the memory 106 via the image processing unit 105 and the memory control unit 107 or via the memory control unit 107.

メモリ106は、ビデオメモリも兼ね備えており、撮像部103で撮影された画像データに加え、表示部109に表示するための画像データなどを記憶する。なお、メモリ106は、所定枚数の静止画像や所定時間の動画像および音声を記憶するための十分な記憶容量を備えている。   The memory 106 also has a video memory, and stores image data to be displayed on the display unit 109 in addition to image data captured by the imaging unit 103. The memory 106 has a sufficient storage capacity for storing a predetermined number of still images, a moving image and sound for a predetermined time.

D/A変換器108は、メモリ106に記憶されている表示部109に表示するための画像データをアナログ信号に変換して表示部109に出力する。こうして、メモリ106に記憶された表示用の画像データはD/A変換器108を介して表示部109により表示される。   The D / A converter 108 converts image data to be displayed on the display unit 109 stored in the memory 106 into an analog signal and outputs the analog signal to the display unit 109. Thus, the display image data stored in the memory 106 is displayed on the display unit 109 via the D / A converter 108.

表示部109は、LCD等の表示器に、D/A変換器108からのアナログ信号に応じて画像を表示する。操作部115はユーザが各種の操作指示を入力するために用いられる。   The display unit 109 displays an image on a display device such as an LCD according to the analog signal from the D / A converter 108. The operation unit 115 is used for a user to input various operation instructions.

インタフェース110は記録媒体111とのインタフェースである。記録媒体111はメモリカードやハードディスク等である。   An interface 110 is an interface with the recording medium 111. The recording medium 111 is a memory card or a hard disk.

システム制御部50はデジタルカメラ100のシステム全体を制御する。システム制御部50は、不揮発性メモリ114に記憶されたプログラムを実行することで、後述するフローチャートに示される処理などを実行する。   The system control unit 50 controls the entire system of the digital camera 100. The system control unit 50 executes a program stored in the non-volatile memory 114, thereby executing processing shown in a flowchart described later.

システムタイマー112は各種制御に用いる時間や、内蔵された時計の時間を計測する。システムメモリ113には、システム制御部50の動作用の定数、変数、または後述する不揮発性メモリ114から読みだしたプログラム等が展開される。   The system timer 112 measures the time used for various controls and the time of a built-in clock. In the system memory 113, constants and variables for operation of the system control unit 50, a program read from the nonvolatile memory 114 described later, and the like are expanded.

記憶部である不揮発性メモリ114は電気的に消去したり記憶することが可能であり、例えばEEPROM等が用いられる。不揮発性メモリ114には、システム制御部50の動作用の定数、プログラム等が記憶される。   The nonvolatile memory 114 serving as a storage unit can be electrically erased or stored, and for example, an EEPROM or the like is used. The nonvolatile memory 114 stores constants, programs, and the like for operating the system control unit 50.

図3は、図2における不揮発性メモリ114に記憶されている本番カメラ情報401、本番レンズ情報402、仮カメラ情報403、及び仮レンズ情報404を示す図である。   FIG. 3 is a diagram illustrating the real camera information 401, the real lens information 402, the temporary camera information 403, and the temporary lens information 404 stored in the nonvolatile memory 114 in FIG.

図3において、本番カメラ情報401、及び仮カメラ情報403のいずれにも、機種名情報、動画フォーマット情報、静止画フォーマット情報、センサ情報、露出情報、ダイナミックレンジ情報、及び画素数情報などの情報が含まれている。   In FIG. 3, the production camera information 401 and the temporary camera information 403 include information such as model name information, moving image format information, still image format information, sensor information, exposure information, dynamic range information, and pixel number information. include.

一方、本番レンズ情報402、及び仮レンズ情報404のいずれにも、レンズ名、レンズ種類、レンズ構成、焦点距離、最短撮影距離、ズーム比、色味となどの情報が含まれている。   On the other hand, both the actual lens information 402 and the provisional lens information 404 include information such as the lens name, lens type, lens configuration, focal length, shortest shooting distance, zoom ratio, and color.

上述した本番カメラ情報401、本番レンズ情報402、仮カメラ情報403、及び仮レンズ情報404は、エミュレート情報のテーブルとして不揮発性メモリ114に記憶されている。   The real camera information 401, the real lens information 402, the temporary camera information 403, and the temporary lens information 404 described above are stored in the nonvolatile memory 114 as a table of emulation information.

図4(A)は、図2における不揮発性メモリ114に記憶されているエミュレート情報501を示す図であり、図4(B)は色空間変換処理を説明するための図である。   4A is a diagram showing the emulation information 501 stored in the nonvolatile memory 114 in FIG. 2, and FIG. 4B is a diagram for explaining the color space conversion processing.

図4(A)で示されるエミュレート情報501は、一例としてダイナミックレンジに関するエミュレート情報を示しており、本番撮影時と仮撮影時のカメラ機種名、ダイナミックレンジ、エミュレート情報A、Bなどの情報が含まれている。   The emulation information 501 shown in FIG. 4A shows emulation information related to the dynamic range as an example. The camera model name, the dynamic range, the emulation information A and B, etc. at the time of actual shooting and temporary shooting are shown. Contains information.

図4(A)においては、本番カメラのダイナミックレンジ12eVに対し、仮カメラのダイナミックレンジは10eVであることが示され、さらにエミュレート情報Aは露出を±1段差で撮影した2枚の画像をHDR合成することを示している。   In FIG. 4A, it is shown that the dynamic range of the temporary camera is 10 eV with respect to the dynamic range of 12 eV of the production camera, and the emulation information A includes two images taken with exposure of ± 1 step. It shows that HDR synthesis is performed.

図4(B)は、一例として、ITU−R BT.709やSRGBで規定されている色空間RGB709の画像データのRGB値を一旦XYZ色空間に変換し、XYZ色空間からACES色空間RGBACESのRGB値に変換する内容を示している。 FIG. 4B shows, as an example, ITU-R BT. The contents of converting RGB values of image data in the color space RGB 709 defined by 709 and SRGB into the XYZ color space and converting from the XYZ color space to the RGB value of the ACES color space RGB ACES are shown.

なお、上記ACES(Academy Color Encording Specification:アカデミー色符号化仕様)色空間は、米国の映画芸術科学協会(AMPAS:Academy of Motion Picture Arts and Science)が提案し、SMPTEにおいて規格化されたものである。   The ACES (Academy Color Encording Specification) color space was proposed by the American Academy of Motion Picture Arts and Science (AMPAS) and standardized in SMPTE. .

色空間RGB709の画像データのRGB値(R709,G709,B709)を、行列M709→ACESを用いて色空間RGBACESの画像データのRGB値(RACES,GACES,BACES)に変換する。 RGB values (R 709 , G 709 , B 709 ) of the image data in the color space RGB 709 are converted into RGB values (R ACES , G ACES , B ACES ) of the image data in the color space RGB ACES using the matrix M 709 → ACES. Convert to

図5は、図2におけるシステム制御部50により実行されるエミュレート全体処理の手順を示すフローチャートである。   FIG. 5 is a flowchart showing a procedure of the entire emulation process executed by the system control unit 50 in FIG.

図5において、図3、4で説明したレンズ、センサ、色空間に関するエミュレート情報を取得する(ステップS301)。このステップS301は、撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得手段に対応する。   In FIG. 5, emulation information regarding the lens, sensor, and color space described in FIGS. 3 and 4 is acquired (step S301). This step S301 is for determining imaging conditions and converting the image data so that the image data obtained by imaging with the imaging device is image data that matches the characteristics of the lenses and imaging elements of the other imaging devices. This corresponds to an acquisition means for acquiring the emulation information.

次いで、取得したレンズ、センサエミュレート情報を基に撮影条件を決定し、決定した撮影条件で撮影を行い、撮影で得られた画像データを、画像処理部105で変換する(ステップS302)。   Next, shooting conditions are determined based on the acquired lens and sensor emulation information, shooting is performed under the determined shooting conditions, and image data obtained by shooting is converted by the image processing unit 105 (step S302).

そして、色空間に関するエミュレート情報を用いて、図4(B)で説明した色空間変換処理を行う。上記ステップS302、303は、撮影で得られた画像データを、エミュレート情報を用いて変換する変換手段に対応する。   Then, the color space conversion processing described in FIG. 4B is performed using the emulation information regarding the color space. Steps S302 and 303 correspond to conversion means for converting image data obtained by photographing using emulation information.

次いで、エミュレート情報以外の画像調整パラメータを用いて、画像データを変換する(ステップS304)。上記画像調整パラメータとは、例えば、監督の所望の画像となるように画像全体の色味を微調整する為の画像調整パラメータを示す。画像調整パラメータファイルは不揮発性メモリ114や記録媒体111に予め記憶されているものとする。なお、エミュレート情報以外の画像調整パラメータを用いた画像調整が不要な場合はこのステップは省略される。   Next, the image data is converted using image adjustment parameters other than the emulation information (step S304). The image adjustment parameter indicates, for example, an image adjustment parameter for finely adjusting the color tone of the entire image so as to obtain a director's desired image. Assume that the image adjustment parameter file is stored in advance in the nonvolatile memory 114 or the recording medium 111. Note that this step is omitted when image adjustment using image adjustment parameters other than emulation information is unnecessary.

そして、上記ステップS302〜304で変換された画像データをメモリ106に記憶して(ステップS305)、記憶した画像データを表示部109に表示して(ステップS306)、本処理を終了する。   Then, the image data converted in the above steps S302 to 304 is stored in the memory 106 (step S305), the stored image data is displayed on the display unit 109 (step S306), and this process ends.

なお、上記ステップS305で画像データを記憶する際に、ステップS301で取得したエミュレート情報、ステップS302で撮影することで得られた画像データ、同じくステップS302での変換後の画像データ、ステップS303での変換後の画像データ、及びステップS304で用いた画像調整パラメータファイルの各々を、必要に応じて記憶するようにしてもよい。さらに、各画像データの相互関係を示す情報を記憶するようにしてもよい。すなわち、撮影で得られた画像データを記憶部に記憶するとともに、エミュレート情報を用いて変換されるたびに、変換された画像データを記憶部に記憶するようにしてもよい。   Note that when storing the image data in step S305, the emulation information acquired in step S301, the image data obtained by shooting in step S302, the image data after conversion in step S302, and in step S303. Each of the converted image data and the image adjustment parameter file used in step S304 may be stored as necessary. Further, information indicating the mutual relationship between the image data may be stored. That is, the image data obtained by photographing may be stored in the storage unit, and the converted image data may be stored in the storage unit every time conversion is performed using the emulation information.

こうすることで、各々の処理過程の画像データを容易に取り出す事が可能になり、後でエミュレート情報や画像調整パラメータを変更する必要が出てきた場合においても、容易に画像データを変換することが可能になる。   This makes it possible to easily extract the image data of each processing process, and easily convert the image data even when it is necessary to change the emulation information or image adjustment parameters later. It becomes possible.

図6は、ダイナミックレンジに関するエミュレート情報を取得した際に行われるHDR合成を説明するための図である。   FIG. 6 is a diagram for explaining HDR synthesis performed when emulation information regarding the dynamic range is acquired.

図6において、縦方向は画像のダイナミックレンジの幅を示しており、各矢印は撮影された画像データが持つダイナミックレンジの範囲を示している。   In FIG. 6, the vertical direction indicates the width of the dynamic range of the image, and each arrow indicates the range of the dynamic range of the captured image data.

図6(A)は、図4のエミュレート情報Aに示される、露出を±1段差で撮影した2枚の画像のHDR合成を説明するための図である。   FIG. 6A is a diagram for explaining HDR composition of two images obtained by photographing exposure with ± 1 step as shown in the emulation information A of FIG.

図6(A)において、(1)本番カメラのダイナミックレンジ12eVに対し、(2)仮カメラのダイナミックレンジは10eVなので、2eV程ダイナミックレンジが足りないことになる。   In FIG. 6A, (1) the dynamic range of the production camera is 12 eV, and (2) the dynamic range of the temporary camera is 10 eV, so the dynamic range is not enough as much as 2 eV.

そこで、(3)露出を+1段で仮カメラで撮影した画像と、(4)露出を−1段で仮カメラで撮影した画像とをHDR合成することで(5)、仮カメラで12eV相当の画像を得ることができる。   Therefore, (3) HDR composite of an image shot with a temporary camera with +1 stage exposure and (4) an image shot with a temporary camera with -1 stage exposure is equivalent to 12 eV with the temporary camera. An image can be obtained.

図6(B)は、図4のエミュレート情報Bに示される、露出を±1/2段差で撮影した4枚の画像のHDR合成を説明するための図である。   FIG. 6B is a diagram for explaining HDR composition of four images obtained by photographing the exposure with ± 1/2 steps shown in the emulation information B of FIG.

図6(B)において、(1)本番カメラのダイナミックレンジ12eVに対し、(2)仮カメラのダイナミックレンジは10eVなので、2eV程ダイナミックレンジが足りないことになる。(3)〜(6)で露出を1/2段ステップで仮カメラで撮影した画像4枚をHDR合成することで(7)仮カメラで12eV相当の画像を得ることができる。   In FIG. 6B, (1) the dynamic range of the temporary camera is 10 eV with respect to the dynamic range of 12 eV of the actual camera, so the dynamic range is not enough as much as 2 eV. In (3) to (6), an image equivalent to 12 eV can be obtained with the temporary camera by HDR synthesizing four images taken with the temporary camera in half-step exposure.

以上説明したHDR合成を行う場合のエミュレート処理について説明する。   An emulation process when performing the HDR synthesis described above will be described.

図7は、図2におけるシステム制御部50により実行されるエミュレート処理(センサ)の手順を示すフローチャートである。   FIG. 7 is a flowchart showing the procedure of the emulation process (sensor) executed by the system control unit 50 in FIG.

なお、図7に示される処理は、図5のステップS301,302に相当する処理である。   7 is a process corresponding to steps S301 and S302 in FIG.

図7において、センサのダイナミックレンジのエミュレート情報を取得する(ステップS701)。具体的には、図4で説明した本番撮影時と仮撮影時の各々のカメラ機種名、各々のカメラのダイナミックレンジ、エミュレートA,Bを取得する。   In FIG. 7, the dynamic range emulation information of the sensor is acquired (step S701). Specifically, the camera model name, the dynamic range of each camera, and the emulations A and B at the time of actual shooting and temporary shooting described with reference to FIG. 4 are acquired.

次いで、ステップS701で取得したダイナミックレンジのエミュレート情報を基にデジタルカメラ100の撮影条件を設定する(ステップS702)。   Next, shooting conditions of the digital camera 100 are set based on the dynamic range emulation information acquired in step S701 (step S702).

例えば、取得したエミュレート情報が図4に示したエミュレート情報Aであった場合には、露出±1段差で2枚撮影する撮影条件となる。   For example, when the acquired emulation information is the emulation information A shown in FIG. 4, it is a shooting condition for shooting two images with an exposure of ± 1 step.

こうして設定された撮影条件で撮影し(ステップS703)、他にエミュレートするものがあるか否か判別する(ステップS704)。   Photographing is performed under the photographing conditions set in this manner (step S703), and it is determined whether there is another emulation (step S704).

ステップS704の判別の結果、他にエミュレートするものがない場合には(ステップS704でNO)、本処理を終了する。一方、ステップS704の判別の結果、他にエミュレートするものがある場合には(ステップS704でYES)、ステップS702に戻る。例えば、エミュレートA,Bを取得した場合には、エミュレートAに対する処理終了後に、他にエミュレートするものとしてエミュレートBに対する処理を行うこととなる。   As a result of the determination in step S704, if there is nothing else to emulate (NO in step S704), this process ends. On the other hand, as a result of the determination in step S704, if there is another emulation (YES in step S704), the process returns to step S702. For example, when the emulations A and B are acquired, the processing for the emulation B is performed as another emulation after the processing for the emulation A is completed.

以上説明したように、本実施の形態に係る撮像装置100は、他の撮像装置のセンサや色空間エミュレート情報を取得し、取得したエミュレート情報を基に他の撮像装置のセンサや色空間の特性に合わせた画像データを生成し、各々の処理工程のデータを記録し、表示可能な構成とした。   As described above, the imaging apparatus 100 according to the present embodiment acquires sensors and color space emulation information of other imaging apparatuses, and sensors and color spaces of other imaging apparatuses based on the acquired emulation information. The image data matching the characteristics of the image data is generated and the data of each processing step is recorded and displayed.

これにより、ユーザは仮想的に他の撮像装置の画像を生成することが可能となり、例えば本番撮影時に用いる大型カメラの撮影機材を用意せずに、小型カメラで大型カメラのダイナミックレンジと同等の画像を得ることができる。   As a result, the user can virtually generate an image of another imaging device. For example, an image equivalent to the dynamic range of a large camera can be obtained with a small camera without preparing a large camera for use in actual shooting. Can be obtained.

なお、上述した説明ではセンサのダイナミックレンジのエミュレート情報を取得する例について説明したが、エミュレート情報はダイナミックレンジに限るものではない。   In the above description, the example of acquiring the dynamic range emulation information of the sensor has been described. However, the emulation information is not limited to the dynamic range.

例えば、センサの種類情報、アスペクト比情報、画素サイズ情報、画素数情報、開口率情報、画素ピッチ情報、フィルター配列情報などに関するエミュレート情報であっても良い。   For example, it may be emulation information related to sensor type information, aspect ratio information, pixel size information, pixel number information, aperture ratio information, pixel pitch information, filter arrangement information, and the like.

例えば、センサのアスペクト比のエミュレート情報を取得した場合は、本番撮影時のセンサのアスペクト比に合わせて、仮カメラでパノラマ撮影するなどして本番撮影時のアスペクト比に合わせる。   For example, when the emulation information of the sensor aspect ratio is acquired, the panoramic image is taken with a temporary camera in accordance with the aspect ratio of the sensor at the time of actual shooting to match the aspect ratio at the time of actual shooting.

例えば本番撮影時のアスペクト比が16:9に対して仮撮影時のアスペクト比3:2であった場合に、パノラマ撮影もしくはトリミングすることで16:9の比率に合わせる。   For example, when the aspect ratio at the time of actual shooting is 16: 9 and the aspect ratio at the time of temporary shooting is 3: 2, the ratio is set to 16: 9 by panoramic shooting or trimming.

また例えば、センサの画素数のエミュレート情報を取得した場合は、仮撮影時のセンサの画素数は本番撮影時のセンサの画素数よりも少ないので全体的にぼやけた画像になってしまう可能性がある為、エッジ強調処理をすることで本番撮影時のセンサの画素数で撮影した場合の画質に合わせる。   In addition, for example, when emulating information on the number of pixels of the sensor is acquired, the number of pixels of the sensor at the time of provisional shooting is smaller than the number of pixels of the sensor at the time of actual shooting, so there is a possibility that the entire image becomes blurred Therefore, edge enhancement processing is performed to match the image quality when shooting with the number of pixels of the sensor at the time of actual shooting.

なお、上記実施の形態では、デジタルカメラを例について説明したが、これに限定するものではない。例えば、デジタルビデオカメラにおいて同様の構成をとることが可能である。   In the above embodiment, the digital camera has been described as an example, but the present invention is not limited to this. For example, a digital video camera can have a similar configuration.

なお、エミュレート情報は1つであっても良いし、2つ以上あっても良い。エミュレート情報が複数ある場合にはエミュレート処理時間が長くなるため、予めユーザがエミュレート処理時間を設定し、その処理時間範囲で優先度が高いエミュレート情報から処理するような構成として良い。   The number of emulation information may be one, or two or more. When there are a plurality of emulation information, the emulation processing time becomes long. Therefore, the user may set the emulation processing time in advance, and processing may be performed from the emulation information having a high priority in the processing time range.

なお、上記実施の形態では、デジタルカメラ100内部の不揮発性メモリ114や記録媒体111に記録されているデーターベースにあるエミュレート情報を基にエミュレートする構成としたが、これに限るものではなく、データーベースが外部にある構成としても構わない。   In the above embodiment, the emulation is performed based on the emulation information in the database recorded in the nonvolatile memory 114 or the recording medium 111 inside the digital camera 100. However, the present invention is not limited to this. The database may be external.

その場合は、システム制御部50は図示していない通信I/Fを介して外部のデーターベースに本番撮影時のカメラと仮撮影時のカメラの組み合わせに該当するエミュレート情報があるか否かを検索し、該当するエミュレート情報があった場合はそのエミュレート情報を取得する構成になる。   In that case, the system control unit 50 determines whether or not there is emulation information corresponding to the combination of the camera at the time of actual shooting and the camera at the time of temporary shooting in an external database via a communication I / F (not shown). When there is a corresponding emulation information by searching, the emulation information is obtained.

なお、上記実施の形態では、他のカメラの特性に合わせる為の変換情報であるエミュレート情報が、予め不揮発性メモリ114や記録媒体111に記録されているものとして説明したが、これに限るものではなく、図4に示した機種名・ファイルフォーマットなどといったカメラ情報や機種名・焦点距離などといったレンズ情報を取得して、取得したカメラ情報・レンズ情報を基にエミュレート情報をデジタルカメラ100内部で生成する構成にしても良い。   In the above embodiment, the emulation information, which is conversion information for adjusting to the characteristics of other cameras, has been described as being recorded in advance in the nonvolatile memory 114 or the recording medium 111. However, the present invention is not limited to this. Instead, the camera information such as the model name / file format shown in FIG. 4 and the lens information such as the model name / focal length are acquired, and the emulation information is stored in the digital camera 100 based on the acquired camera information / lens information. You may make it the structure produced | generated by.

なお、図1において、業務用デジタルビデオカメラの画像データをコンパクトなデジタルカメラを用いて仮想的に生成する例について説明したが、これに限るものではなく、業務用デジタルカメラを用いてコンパクトなデジタルカメラの特性に合わせた画像データを生成しても良い。   In addition, although the example which produces | generates the image data of a professional digital video camera virtually using a compact digital camera was demonstrated in FIG. 1, it is not restricted to this, A compact digital using a professional digital camera is demonstrated. Image data matching the characteristics of the camera may be generated.

次に、他のカメラのレンズの色味に関するエミュレート情報を取得し、取得したエミュレート情報を基に他のカメラのレンズの色味に合わせた画像データを生成する処理について説明する。   Next, a description will be given of a process of acquiring emulation information related to the color of the lens of another camera and generating image data matching the color of the lens of the other camera based on the acquired emulation information.

図8(A)は、図2における不揮発性メモリ114に記憶されているエミュレート情報901を示す図であり、図8(B)(C)は色味エミュレート処理を説明するための図である。   FIG. 8A is a diagram showing the emulation information 901 stored in the nonvolatile memory 114 in FIG. 2, and FIGS. 8B and 8C are diagrams for explaining the color emulation processing. is there.

図8(A)におけるエミュレート情報901は、レンズの色味に関するエミュレート情報を示している。レンズの色味とは、レンズの分光透過特性やRGBバランスのことをいう。   Emulation information 901 in FIG. 8A indicates emulation information regarding the color of the lens. The color of the lens refers to the spectral transmission characteristics and RGB balance of the lens.

図8(A)において、エミュレート情報901には、本番撮影時・仮撮影時のレンズの機種名、レンズの色味情報、RGBの変換係数を示すエミュレート情報が含まれている。   In FIG. 8A, the emulation information 901 includes emulation information indicating the lens model name, lens color information, and RGB conversion coefficients at the time of actual shooting and provisional shooting.

そして、このエミュレート情報は、図8(B)に示される行列Lcolor_atoAを示している。この行列Lcolor_atoAを用いて、RGB値(R,G,B)を(R’,G’,B’)に変換することで、仮撮影時のレンズの色味を本番撮影時のレンズの色味に合わせるようになっている。 The emulation information indicates a matrix L color_atoA shown in FIG. Using this matrix L color_atoA , the RGB values (R, G, B) are converted into (R ′, G ′, B ′), so that the lens color at the time of temporary shooting is changed to the color of the lens at the time of actual shooting. It comes to match the taste.

また、図8(C)は、XY色度図を示している。点1103、1104、1105は、仮カメラで撮像した画像データの画素値RGBの点をXY色度図上にプロットしたものである。   FIG. 8C shows an XY chromaticity diagram. Points 1103, 1104, and 1105 are plotted on the XY chromaticity diagram of the pixel value RGB points of the image data captured by the temporary camera.

一方、点1106,1107,1108は、点1103,1104,1105を上記行列Lcolor_atoAで変換して得られた本番カメラで用いるレンズで撮像した画像データの画素値RGBをプロットしたものである。 On the other hand, points 1106, 1107, and 1108 are obtained by plotting pixel values RGB of image data captured by the lens used in the production camera obtained by converting the points 1103, 1104, and 1105 with the matrix Lcolor_atoA .

なお、エミュレート情報に行列を用いた例を説明したが、これに限ったものではなく、仮カメラで撮影した画像データの画素値とそれに対応する本番カメラのレンズの色味を考慮した画素値の対応付けテーブルがエミュレート情報であっても良い。   In addition, although the example which used the matrix for emulation information was demonstrated, it is not restricted to this, The pixel value of the pixel value of the image data image | photographed with the temporary camera and the corresponding color of the lens of the production camera The correspondence table may be emulation information.

図9は、図2におけるシステム制御部50により実行されるエミュレート処理(色味)の手順を示すフローチャートである。   FIG. 9 is a flowchart showing a procedure of emulation processing (color tone) executed by the system control unit 50 in FIG.

なお、図9に示される処理は、図5のステップS301,302に相当する処理である。   The process shown in FIG. 9 is a process corresponding to steps S301 and S302 in FIG.

図9において、図8で説明したレンズの色味のエミュレート情報を取得する(ステップS1001)。   In FIG. 9, the emulation information of the color of the lens described in FIG. 8 is acquired (step S1001).

次いで、撮影し(ステップS1002)、ステップS1001で取得したレンズの色味のエミュレート情報を基に、図8で説明したように画像データを変換する(ステップS1003)。   Next, photographing is performed (step S1002), and the image data is converted as described with reference to FIG. 8 based on the lens color emulation information acquired in step S1001 (step S1003).

そして、他にエミュレートするものがあるか否か判別する(ステップS1004)。   Then, it is determined whether or not there are other emulations (step S1004).

ステップS1004の判別の結果、他にエミュレートするものがない場合には(ステップS1004でNO)、本処理を終了する。一方、ステップS1004の判別の結果、他にエミュレートするものがある場合には(ステップS1004でYES)、ステップS1003に戻る。   As a result of the determination in step S1004, if there is nothing else to emulate (NO in step S1004), this process ends. On the other hand, as a result of the determination in step S1004, if there is another emulation (YES in step S1004), the process returns to step S1003.

図9で説明した処理では、他の撮像装置のレンズエミュレート情報を取得し、取得したエミュレート情報を基に他の撮像装置のレンズ特性に合わせた画像データを生成する。   In the process described with reference to FIG. 9, lens emulation information of another imaging device is acquired, and image data matching the lens characteristics of the other imaging device is generated based on the acquired emulation information.

これにより、ユーザは仮想的に他の撮像装置の特性に合わせた画像を生成することが可能となり、例えば本番撮影時に用いる大型カメラの撮影機材を用意せずに、小型カメラで大型カメラと同等の画像を得ることができる。   This makes it possible for the user to generate images that are virtually matched to the characteristics of other imaging devices. For example, a small camera equivalent to a large camera can be used without preparing a large camera for use in actual shooting. An image can be obtained.

なお、上記説明ではレンズの色味に関するエミュレート情報を取得する例について説明したが、エミュレート情報はレンズの色味に限るものではない。例えば、レンズの種類情報、F値情報、焦点距離情報、被写界深度情報、歪み情報、周辺減光情報などに関するエミュレート情報であっても良い。   In the above description, the example in which the emulation information related to the color of the lens is acquired has been described. However, the emulation information is not limited to the color of the lens. For example, it may be emulation information relating to lens type information, F value information, focal length information, depth of field information, distortion information, peripheral dimming information, and the like.

例えば焦点距離に関するエミュレート情報であった場合には、本番撮影時のレンズの焦点距離範囲に対応する仮撮影時のレンズの焦点距離範囲を換算して求める。   For example, in the case of emulation information relating to the focal length, the focal length range of the lens at the time of temporary shooting corresponding to the focal length range of the lens at the time of actual shooting is converted and obtained.

さらに、仮撮影時において、仮カメラでの焦点距離値と本番カメラでの焦点距離値とをユーザが任意に切り替えて表示部109に表示することで、ユーザは本番撮影時にどの程度の焦点距離にすればよいかを把握することができる。   Furthermore, at the time of provisional shooting, the user can arbitrarily switch the focal length value at the provisional camera and the focal length value at the production camera and display them on the display unit 109 so that the user can set the focal length value at the time of production photography. You can figure out what to do.

また、エミュレート情報として、センサのフィルター特性を加味するための情報でもよい。センサのフィルター特性とは、例えばCMOSセンサの前面にあるローパスフィルタの赤外カットフィルターの特性などであり、この場合、上述した仮カメラから本番カメラの色味に変換する為の行列Lcolor_atoAに、更にセンサのフィルター特性を加味した行列を用いてエミュレートすることになる。 Further, the information for emulating the filter characteristics of the sensor may be used as the emulation information. The filter characteristic of the sensor is, for example, the characteristic of an infrared cut filter of a low-pass filter in front of the CMOS sensor. In this case, the matrix L color_atoA for converting from the temporary camera to the color of the real camera is as follows : Furthermore, it is emulated using a matrix that takes into account the filter characteristics of the sensor.

次に、複数のエミュレートパターンをユーザに提示し、ユーザが選択可能とするための処理について説明する。   Next, a process for presenting a plurality of emulation patterns to the user and enabling the user to select them will be described.

上記エミュレートパターンとは、本番撮影時の本番カメラと装着するレンズの組み合わせパターンを示す。例えば、本番撮影時の本番カメラAに対し、本番カメラAに装着可能なレンズ候補がレンズA、レンズB、レンズC・・・とあった場合に、本番カメラAとレンズ候補A、B、C・・・の全組み合わせパターンである。   The emulation pattern is a combination pattern of a real camera and a lens to be mounted at the time of actual photographing. For example, when there are lens candidates A, B, C, etc. that can be attached to the production camera A with respect to the production camera A at the time of production shooting, the production camera A and the lens candidates A, B, C. Are all combined patterns.

そのために、以下に説明する処理では、まず他のカメラのダイナミックレンジに関するエミュレート情報とレンズの色味に関するエミュレート情報を取得し、選択されたエミュレートパターンを基に他のカメラのダイナミックレンジ及びレンズの色味に合わせた画像データを生成する。   Therefore, in the processing described below, first, emulation information about the dynamic range of another camera and emulation information about the color of the lens are obtained, and the dynamic range and the other camera's dynamic range and the color information of the lens are selected based on the selected emulation pattern. Image data matching the color of the lens is generated.

また、エミュレートパターン毎に、エミュレート評価値が算出される。このエミュレート評価値とは、仮撮影時の画像データが本番撮影時に撮影される画像データにより近いほど大きくなる値である。   In addition, an emulation evaluation value is calculated for each emulation pattern. This emulation evaluation value is a value that becomes larger as the image data at the time of provisional shooting is closer to the image data shot at the time of actual shooting.

例えば、評価値を1〜100の範囲とし、ダイナミックレンジの場合で説明すると、仮撮影時のカメラで本番撮影時のカメラのダイナミックレンジが完全に補えれば、評価値は100となる。   For example, when the evaluation value is in the range of 1 to 100 and the case of the dynamic range is described, the evaluation value is 100 if the dynamic range of the camera at the time of actual shooting is completely supplemented by the camera at the time of temporary shooting.

また、レンズの色味に関して説明すると、レンズの色味を完全に一致させる、すなわち、図8(C)に示したXY色度図において、点1103,1104,1105の画素値RGBのプロット点を本番カメラで用いるレンズで撮像した画像データの画素値RGBのプロット点と一致させることができればレンズの色味のエミュレート評価値は100となる。   Further, regarding the color of the lens, the color of the lens is completely matched. That is, in the XY chromaticity diagram shown in FIG. 8C, the plot points of the pixel values RGB of the points 1103, 1104, and 1105 are shown. If the pixel value RGB plot point of the image data captured by the lens used in the production camera can be matched, the lens color emulation evaluation value is 100.

最終的なエミュレート評価値は、求めたエミュレート評価値をエミュレートの項目数で除算して求める。   The final emulation evaluation value is obtained by dividing the obtained emulation evaluation value by the number of items of emulation.

例えばダイナミックレンジのエミュレート評価値が100で、レンズの色味のエミュレート評価値が50であった場合は、(100+50)/2となるので、最終的なエミュレート評価値は75となる。   For example, when the dynamic range emulation evaluation value is 100 and the lens color emulation evaluation value is 50, the final emulation evaluation value is 75 since (100 + 50) / 2.

図10は、図2におけるシステム制御部50により実行される複数エミュレート提示処理の手順を示すフローチャートである。   FIG. 10 is a flowchart showing the procedure of the multiple emulation presentation process executed by the system control unit 50 in FIG.

なお、図10に示される処理は、図5の処理開始からステップS302までの処理に相当する処理である。   Note that the process shown in FIG. 10 is a process corresponding to the process from the start of the process of FIG. 5 to step S302.

図10において、複数のエミュレート情報を取得する(ステップS1201)。今の場合、ダイナミックレンジとレンズの色味のエミュレート情報を取得するものとしている。   In FIG. 10, a plurality of emulation information is acquired (step S1201). In this case, the emulation information of the dynamic range and the color of the lens is acquired.

次いで、ステップS1201で取得したエミュレート情報を基にエミュレートパターンを生成する(ステップS1202)。このステップS1202は、複数のエミュレート情報を組み合わせたエミュレートパターンを生成する生成手段に対応する。   Next, an emulation pattern is generated based on the emulation information acquired in step S1201 (step S1202). This step S1202 corresponds to generating means for generating an emulation pattern in which a plurality of emulation information is combined.

そして、ステップS1202で生成したエミュレートパターン毎に、上述したエミュレート評価値を算出する(ステップS1203)。このステップS1203は、生成されたエミュレートパターンごとに、撮像装置で撮影して得られる画像データが他の撮像装置で撮影して得られる画像データにより近いほど値が大きくなるエミュレート評価値を算出する算出手段に対応する。   Then, the above-described emulation evaluation value is calculated for each emulation pattern generated in step S1202 (step S1203). In step S1203, for each generated emulation pattern, an emulation evaluation value that increases as the image data obtained by imaging with the imaging device is closer to the image data obtained by imaging with another imaging device is calculated. Corresponds to the calculating means.

ステップS1203で算出したエミュレート評価値が高い順にエミュレートパターンを表示部109を用いてユーザに提示する(ステップS1204)。この提示例については後述する。このステップS1204は、算出されたエミュレート評価値が大きい順に、エミュレートパターンを示す情報を表示部を用いてユーザに提示する提示手段に対応する。   Emulation patterns are presented to the user using the display unit 109 in descending order of the emulation evaluation value calculated in step S1203 (step S1204). This presentation example will be described later. This step S1204 corresponds to presentation means for presenting information indicating the emulation pattern to the user using the display unit in descending order of the calculated emulation evaluation value.

そして、ステップS1204で提示されたエミュレートパターンの中から、ユーザによって操作部115を介して選択されたエミュレートパターンを取得する(ステップS1205)。次いで、撮影し(ステップS1206)、選択されたエミュレートパターンを基に画像データを変換して(ステップS1207)、本処理を終了する。   Then, the emulation pattern selected by the user via the operation unit 115 is acquired from the emulation patterns presented in step S1204 (step S1205). Next, photographing is performed (step S1206), image data is converted based on the selected emulation pattern (step S1207), and this processing is terminated.

このように、図10の処理では、提示されたエミュレートパターンのうち、ユーザにより選択されたエミュレートパターンのエミュレート情報により決定された撮影条件で撮影し、撮影で得られた画像データを、ユーザにより選択されたエミュレートパターンのエミュレート情報を用いて変換する。   As described above, in the processing of FIG. 10, the image data obtained by photographing is shot under the shooting conditions determined by the emulation information of the emulation pattern selected by the user among the presented emulation patterns. Conversion is performed using the emulation information of the emulation pattern selected by the user.

図11は、図2における表示部109に表示されるユーザインタフェース例を示す図である。   FIG. 11 is a diagram showing an example of a user interface displayed on the display unit 109 in FIG.

図11(A)は、エミュレート評価値が高い順にエミュレートパターンを提示した例を示す図である。   FIG. 11A is a diagram illustrating an example in which emulation patterns are presented in descending order of emulation evaluation value.

図11(A)において、1)〜4)に本番カメラとレンズの組み合わせと、エミュレート評価値とが表示されている。   In FIG. 11A, 1) to 4) display the combination of the real camera and the lens and the emulation evaluation value.

これらの中から、ユーザは所望のエミュレートパターンを選択することで、そのエミュレートパターンに従った画像データを取得することができる。   By selecting a desired emulation pattern from these, the user can acquire image data according to the emulation pattern.

図11(B)は、ユーザが優先したいエミュレート情報の項目を選択させるための画面例を示す図である。   FIG. 11B is a diagram showing an example of a screen for selecting an item of emulation information that the user wants to prioritize.

これは、ユーザが優先したいエミュレート情報の項目のエミュレート評価値が高くなるエミュレートパターン順に提示するために、ユーザが優先したいエミュレート情報の項目を選択させる場合に表示される画面である。図11(B)の場合は、ユーザによりダイナミックレンジに関するエミュレート情報の項目を選択された例を示している。   This is a screen that is displayed when the user selects an emulation information item that the user wants to prioritize in order of the emulation pattern in which the emulation evaluation value of the emulation information item that the user wants to prioritize increases. In the case of FIG. 11B, an example in which an item of emulation information related to the dynamic range is selected by the user is shown.

図10で説明した処理では、他の撮像装置のダイナミックレンジやレンズのエミュレート情報を取得し、取得したエミュレート情報を基に複数のエミュレートパターンを生成し、生成したエミュレートパターンから選択されたエミュレートパターンを基に、他の撮像装置のダイナミックレンジやレンズの色味に合わせた画像データを生成する。   In the process described with reference to FIG. 10, the dynamic range of another imaging device and the emulation information of the lens are acquired, a plurality of emulation patterns are generated based on the acquired emulation information, and selected from the generated emulation patterns. On the basis of the emulation pattern, image data matching the dynamic range of other imaging devices and the color of the lens is generated.

これにより、ユーザは仮想的に他の撮像装置の特性に合わせた画像を生成することが可能となり、例えば本番撮影時に用いる大型カメラの撮影機材を用意せずに、小型カメラで大型カメラと同等の画像を得ることができる。   This makes it possible for the user to generate images that are virtually matched to the characteristics of other imaging devices. For example, a small camera equivalent to a large camera can be used without preparing a large camera for use in actual shooting. An image can be obtained.

なお、上記説明ではダイナミックレンジ及びレンズの色味に関するエミュレート情報を取得する例について説明したが、エミュレート情報はこれに限るものではない。例えば、レンズの種類情報、F値情報、焦点距離情報、被写界深度情報、歪み情報、周辺減光情報などに関するエミュレート情報であっても良い。   In the above description, the example in which the emulation information regarding the dynamic range and the color of the lens is acquired has been described. However, the emulation information is not limited thereto. For example, it may be emulation information relating to lens type information, F value information, focal length information, depth of field information, distortion information, peripheral dimming information, and the like.

本実施の形態によれば、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得し(ステップS301)、取得されたエミュレート情報により決定された撮影条件で撮影し、撮影で得られた画像データを、エミュレート情報を用いて変換するので(ステップS302)、他の撮像装置のレンズ特性及びセンサ特性に合わせて画像データを得ることが可能となる。   According to the present embodiment, determination of shooting conditions and emulation information for converting image data are acquired (step S301), and shooting is performed under shooting conditions determined by the acquired emulation information. Since the obtained image data is converted using the emulation information (step S302), the image data can be obtained in accordance with the lens characteristics and sensor characteristics of other imaging devices.

(他の実施の形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

50 システム制御部
100 撮像装置
105 画像処理部
106 メモリ
114 不揮発性メモリ
50 System Control Unit 100 Imaging Device 105 Image Processing Unit 106 Memory 114 Nonvolatile Memory

Claims (21)

撮像装置であって、
前記撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得手段と、
前記取得手段により取得されたエミュレート情報により決定された撮影条件で撮影する撮影手段と、
前記撮影手段による撮影で得られた画像データを、前記エミュレート情報を用いて変換する変換手段と
を備えたことを特徴とする撮像装置。
An imaging device,
Emulation information for determining imaging conditions and converting image data so that image data obtained by imaging with the imaging device is image data that matches the characteristics of the lenses and imaging elements of other imaging devices. Obtaining means for obtaining
Photographing means for photographing under photographing conditions determined by the emulation information obtained by the obtaining means;
An image pickup apparatus comprising: conversion means for converting image data obtained by photographing by the photographing means using the emulation information.
前記エミュレート情報は、前記他の撮像装置のレンズの特性に合わせるためのレンズエミュレート情報、前記他の撮像装置の撮像素子の特性に合わせるためのセンサエミュレート情報、及び前記他の撮像装置の色空間に合わせるための色空間エミュレート情報を含むことを特徴とする請求項1記載の撮像装置。   The emulation information includes lens emulation information for matching with the characteristics of the lens of the other imaging device, sensor emulation information for matching with the characteristics of the imaging element of the other imaging device, and information on the other imaging device. 2. The imaging apparatus according to claim 1, further comprising color space emulation information for matching with the color space. 前記レンズエミュレート情報は、レンズの種類情報、F値情報、焦点距離情報、被写界深度情報、歪み情報、周辺減光情報、及び色味情報のうちの少なくとも1つの情報を含むことを特徴とする請求項2記載の撮像装置。   The lens emulation information includes at least one of lens type information, F-number information, focal length information, depth of field information, distortion information, peripheral dimming information, and color information. The imaging apparatus according to claim 2. 前記センサエミュレート情報は、撮像素子の種類情報、アスペクト比情報、画素サイズ情報、画素数情報、開口率情報、画素ピッチ情報、フィルター配列情報、及びダイナミックレンジ情報のうちの少なくとも1つの情報を含むことを特徴とする請求項2記載の撮像装置。   The sensor emulation information includes at least one of image sensor type information, aspect ratio information, pixel size information, pixel number information, aperture ratio information, pixel pitch information, filter array information, and dynamic range information. The imaging apparatus according to claim 2. 前記色空間エミュレート情報は、色空間の種類情報を含むことを特徴とする請求項2記載の撮像装置。   The imaging apparatus according to claim 2, wherein the color space emulation information includes color space type information. 前記撮影手段による撮影で得られた画像データを記憶部に記憶するとともに、前記エミュレート情報を用いて前記変換手段により変換されるたびに、変換された画像データを前記記憶部に記憶することを特徴とする請求項1乃至請求項5のいずれか1項に記載の撮像装置。   Storing the image data obtained by the photographing by the photographing unit in the storage unit, and storing the converted image data in the storage unit every time the conversion unit is converted using the emulation information. The imaging device according to any one of claims 1 to 5, wherein the imaging device is characterized. 複数の前記エミュレート情報を組み合わせたエミュレートパターンを生成する生成手段と、
前記生成手段により生成された前記エミュレートパターンごとに、前記撮像装置で撮影して得られる画像データが他の撮像装置で撮影して得られる画像データにより近いほど値が大きくなるエミュレート評価値を算出する算出手段と、
前記算出手段により算出されたエミュレート評価値が大きい順に、エミュレートパターンを示す情報を表示部を用いてユーザに提示する提示手段とを備え、
前記撮影手段は、前記提示手段により提示されたエミュレートパターンのうち、ユーザにより選択されたエミュレートパターンのエミュレート情報により決定された撮影条件で撮影し、
前記変換手段は、前記撮影手段による撮影で得られた画像データを、前記ユーザにより選択されたエミュレートパターンのエミュレート情報を用いて変換することを特徴とする請求項1乃至請求項6のいずれか1項に記載の撮像装置。
Generating means for generating an emulation pattern combining a plurality of the emulation information;
For each of the emulation patterns generated by the generation unit, an emulation evaluation value that increases as the image data obtained by photographing with the imaging device is closer to the image data obtained by photographing with another imaging device. A calculating means for calculating;
Presenting means for presenting information indicating an emulation pattern to the user using a display unit in descending order of the emulation evaluation value calculated by the calculating means,
The photographing means is photographed under photographing conditions determined by the emulation information of the emulation pattern selected by the user among the emulation patterns presented by the presenting means,
7. The conversion unit according to claim 1, wherein the conversion unit converts image data obtained by photographing by the photographing unit using emulation information of an emulation pattern selected by the user. The imaging apparatus of Claim 1.
撮像装置の制御方法であって、
前記撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得ステップと、
前記取得ステップにより取得されたエミュレート情報により決定された撮影条件で撮影する撮影ステップと、
前記撮影ステップによる撮影で得られた画像データを、前記エミュレート情報を用いて変換する変換ステップと
を備えたことを特徴とする制御方法。
A method for controlling an imaging apparatus,
Emulation information for determining imaging conditions and converting image data so that image data obtained by imaging with the imaging device is image data that matches the characteristics of the lenses and imaging elements of other imaging devices. An acquisition step to acquire,
A shooting step of shooting under shooting conditions determined by the emulation information acquired by the acquiring step;
A control method comprising: a conversion step of converting image data obtained by photographing in the photographing step using the emulation information.
前記エミュレート情報は、前記他の撮像装置のレンズの特性に合わせるためのレンズエミュレート情報、前記他の撮像装置の撮像素子の特性に合わせるためのセンサエミュレート情報、及び前記他の撮像装置の色空間に合わせるための色空間エミュレート情報を含むことを特徴とする請求項8記載の制御方法。   The emulation information includes lens emulation information for matching with the characteristics of the lens of the other imaging device, sensor emulation information for matching with the characteristics of the imaging element of the other imaging device, and information on the other imaging device. 9. The control method according to claim 8, further comprising color space emulation information for matching with the color space. 前記レンズエミュレート情報は、レンズの種類情報、F値情報、焦点距離情報、被写界深度情報、歪み情報、周辺減光情報、及び色味情報のうちの少なくとも1つの情報を含むことを特徴とする請求項9記載の制御方法。   The lens emulation information includes at least one of lens type information, F-number information, focal length information, depth of field information, distortion information, peripheral dimming information, and color information. The control method according to claim 9. 前記センサエミュレート情報は、撮像素子の種類情報、アスペクト比情報、画素サイズ情報、画素数情報、開口率情報、画素ピッチ情報、フィルター配列情報、及びダイナミックレンジ情報のうちの少なくとも1つの情報を含むことを特徴とする請求項9記載の制御方法。   The sensor emulation information includes at least one of image sensor type information, aspect ratio information, pixel size information, pixel number information, aperture ratio information, pixel pitch information, filter array information, and dynamic range information. The control method according to claim 9. 前記色空間エミュレート情報は、色空間の種類情報を含むことを特徴とする請求項9記載の制御方法。   The control method according to claim 9, wherein the color space emulation information includes color space type information. 前記撮影ステップによる撮影で得られた画像データを記憶部に記憶するとともに、前記エミュレート情報を用いて前記変換ステップにより変換されるたびに、変換された画像データを前記記憶部に記憶することを特徴とする請求項8乃至請求項12のいずれか1項に記載の制御方法。   Storing the image data obtained by the photographing in the photographing step in the storage unit, and storing the converted image data in the storage unit every time the conversion is performed by the conversion step using the emulation information. The control method according to any one of claims 8 to 12, characterized in that: 複数の前記エミュレート情報を組み合わせたエミュレートパターンを生成する生成ステップと、
前記生成ステップにより生成された前記エミュレートパターンごとに、前記撮像装置で撮影して得られる画像データが他の撮像装置で撮影して得られる画像データにより近いほど値が大きくなるエミュレート評価値を算出する算出ステップと、
前記算出ステップにより算出されたエミュレート評価値が大きい順に、エミュレートパターンを示す情報を表示部を用いてユーザに提示する提示ステップとを備え、
前記撮影ステップは、前記提示ステップにより提示されたエミュレートパターンのうち、ユーザにより選択されたエミュレートパターンのエミュレート情報により決定された撮影条件で撮影し、
前記変換ステップは、前記撮影ステップによる撮影で得られた画像データを、前記ユーザにより選択されたエミュレートパターンのエミュレート情報を用いて変換することを特徴とする請求項8乃至請求項13のいずれか1項に記載の制御方法。
A generation step of generating an emulation pattern combining a plurality of the emulation information;
For each of the emulation patterns generated by the generation step, an emulation evaluation value that increases as the image data obtained by photographing with the imaging device is closer to the image data obtained by photographing with another imaging device. A calculating step for calculating;
A presentation step of presenting information indicating an emulation pattern to a user using a display unit in descending order of the emulation evaluation value calculated by the calculation step;
In the shooting step, shooting is performed under shooting conditions determined by the emulation information of the emulation pattern selected by the user among the emulation patterns presented in the presenting step,
14. The conversion step according to any one of claims 8 to 13, wherein the conversion step converts image data obtained by photographing in the photographing step using emulation information of an emulation pattern selected by the user. The control method according to claim 1.
撮像装置の制御方法をコンピュータに実行させるためのプログラムであって、
前記制御方法は、
前記撮像装置で撮影して得られる画像データを、他の撮像装置のレンズ及び撮像素子の特性に合わせた画像データとするために、撮影条件の決定、及び画像データを変換するためのエミュレート情報を取得する取得ステップと、
前記取得ステップにより取得されたエミュレート情報により決定された撮影条件で撮影する撮影ステップと、
前記撮影ステップによる撮影で得られた画像データを、前記エミュレート情報を用いて変換する変換ステップと
を備えたことを特徴とするプログラム。
A program for causing a computer to execute a control method of an imaging apparatus,
The control method is:
Emulation information for determining imaging conditions and converting image data so that image data obtained by imaging with the imaging device is image data that matches the characteristics of the lenses and imaging elements of other imaging devices. An acquisition step to acquire,
A shooting step of shooting under shooting conditions determined by the emulation information acquired by the acquiring step;
A conversion step of converting image data obtained by photographing in the photographing step using the emulation information.
前記エミュレート情報は、前記他の撮像装置のレンズの特性に合わせるためのレンズエミュレート情報、前記他の撮像装置の撮像素子の特性に合わせるためのセンサエミュレート情報、及び前記他の撮像装置の色空間に合わせるための色空間エミュレート情報を含むことを特徴とする請求項15記載のプログラム。   The emulation information includes lens emulation information for matching with the characteristics of the lens of the other imaging device, sensor emulation information for matching with the characteristics of the imaging element of the other imaging device, and information on the other imaging device. 16. The program according to claim 15, further comprising color space emulation information for matching with the color space. 前記レンズエミュレート情報は、レンズの種類情報、F値情報、焦点距離情報、被写界深度情報、歪み情報、周辺減光情報、及び色味情報のうちの少なくとも1つの情報を含むことを特徴とする請求項16記載のプログラム。   The lens emulation information includes at least one of lens type information, F-number information, focal length information, depth of field information, distortion information, peripheral dimming information, and color information. The program according to claim 16. 前記センサエミュレート情報は、撮像素子の種類情報、アスペクト比情報、画素サイズ情報、画素数情報、開口率情報、画素ピッチ情報、フィルター配列情報、及びダイナミックレンジ情報のうちの少なくとも1つの情報を含むことを特徴とする請求項16記載のプログラム。   The sensor emulation information includes at least one of image sensor type information, aspect ratio information, pixel size information, pixel number information, aperture ratio information, pixel pitch information, filter array information, and dynamic range information. The program according to claim 16. 前記色空間エミュレート情報は、色空間の種類情報を含むことを特徴とする請求項16記載のプログラム。   The program according to claim 16, wherein the color space emulation information includes color space type information. 前記撮影ステップによる撮影で得られた画像データを記憶部に記憶するとともに、前記エミュレート情報を用いて前記変換ステップにより変換されるたびに、変換された画像データを前記記憶部に記憶することを特徴とする請求項15乃至請求項19のいずれか1項に記載のプログラム。   Storing the image data obtained by the photographing in the photographing step in the storage unit, and storing the converted image data in the storage unit every time the conversion is performed by the conversion step using the emulation information. The program according to any one of claims 15 to 19, wherein the program is characterized by the following. 複数の前記エミュレート情報を組み合わせたエミュレートパターンを生成する生成ステップと、
前記生成ステップにより生成された前記エミュレートパターンごとに、前記撮像装置で撮影して得られる画像データが他の撮像装置で撮影して得られる画像データにより近いほど値が大きくなるエミュレート評価値を算出する算出ステップと、
前記算出ステップにより算出されたエミュレート評価値が大きい順に、エミュレートパターンを示す情報を表示部を用いてユーザに提示する提示ステップとを備え、
前記撮影ステップは、前記提示ステップにより提示されたエミュレートパターンのうち、ユーザにより選択されたエミュレートパターンのエミュレート情報により決定された撮影条件で撮影し、
前記変換ステップは、前記撮影ステップによる撮影で得られた画像データを、前記ユーザにより選択されたエミュレートパターンのエミュレート情報を用いて変換することを特徴とする請求項15乃至請求項20のいずれか1項に記載のプログラム。
A generation step of generating an emulation pattern combining a plurality of the emulation information;
For each of the emulation patterns generated by the generation step, an emulation evaluation value that increases as the image data obtained by photographing with the imaging device is closer to the image data obtained by photographing with another imaging device. A calculating step for calculating;
A presentation step of presenting information indicating an emulation pattern to a user using a display unit in descending order of the emulation evaluation value calculated by the calculation step;
In the shooting step, shooting is performed under shooting conditions determined by the emulation information of the emulation pattern selected by the user among the emulation patterns presented in the presenting step,
21. The method according to claim 15, wherein the converting step converts image data obtained by photographing in the photographing step using emulation information of an emulation pattern selected by the user. The program according to item 1.
JP2013104235A 2013-05-16 2013-05-16 Imaging device, control method therefor, and program Pending JP2014225786A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013104235A JP2014225786A (en) 2013-05-16 2013-05-16 Imaging device, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013104235A JP2014225786A (en) 2013-05-16 2013-05-16 Imaging device, control method therefor, and program

Publications (1)

Publication Number Publication Date
JP2014225786A true JP2014225786A (en) 2014-12-04

Family

ID=52124154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013104235A Pending JP2014225786A (en) 2013-05-16 2013-05-16 Imaging device, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP2014225786A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3836533A1 (en) * 2019-12-11 2021-06-16 Arnold & Richter Cine Technik GmbH & Co. Betriebs KG Method and devices for emulating camera lenses
JP2023077358A (en) * 2021-11-24 2023-06-05 一誠 藤池 Application software expressing maker's expression mechanism

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3836533A1 (en) * 2019-12-11 2021-06-16 Arnold & Richter Cine Technik GmbH & Co. Betriebs KG Method and devices for emulating camera lenses
US20210185241A1 (en) * 2019-12-11 2021-06-17 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Method and apparatus for emulating camera objectives
US12015866B2 (en) * 2019-12-11 2024-06-18 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Method and apparatus for emulating camera objectives
JP2023077358A (en) * 2021-11-24 2023-06-05 一誠 藤池 Application software expressing maker's expression mechanism

Similar Documents

Publication Publication Date Title
JP2017220892A (en) Image processing device and image processing method
KR20120034412A (en) Digital photographing apparatus and control method thereof
JP5279636B2 (en) Imaging device
CN101742336A (en) Image processing apparatus and image processing method
JP2017175319A (en) Image processing apparatus, image processing method, and program
CN113315956B (en) Image processing apparatus, image capturing apparatus, image processing method, and machine-readable medium
JP2014225786A (en) Imaging device, control method therefor, and program
US9413974B2 (en) Information processing apparatus, image sensing apparatus, control method, and recording medium for conversion processing
JP5854235B2 (en) Imaging apparatus, imaging method, and program
WO2020189510A1 (en) Image processing device, image processing method, computer program, and storage medium
JP7395258B2 (en) Image processing device, image processing method, computer program and storage medium
JP6223173B2 (en) Image processing apparatus, control method thereof, and program
JP2014176004A (en) Imaging apparatus and image processing method
JP2019047436A (en) Image processing device, image processing method, image processing program, and imaging device
JP5543636B2 (en) Imaging device
JP6357922B2 (en) Image processing apparatus, image processing method, and program
JP5818515B2 (en) Image processing apparatus, image processing method and program thereof
JP6516410B2 (en) Image processing apparatus, image processing method and program
JP4757828B2 (en) Image composition apparatus, photographing apparatus, image composition method, and image composition program
US20230209176A1 (en) Imaging apparatus
JP7395259B2 (en) Image processing device, image processing method, computer program and storage medium
JP2019068342A (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP4756005B2 (en) Imaging apparatus and imaging method
JP6039726B2 (en) Imaging apparatus and control method thereof
JP5828927B2 (en) Imaging device