JP2014011639A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2014011639A
JP2014011639A JP2012147164A JP2012147164A JP2014011639A JP 2014011639 A JP2014011639 A JP 2014011639A JP 2012147164 A JP2012147164 A JP 2012147164A JP 2012147164 A JP2012147164 A JP 2012147164A JP 2014011639 A JP2014011639 A JP 2014011639A
Authority
JP
Japan
Prior art keywords
image
imaging
subject
preview
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012147164A
Other languages
Japanese (ja)
Inventor
Satoru Torii
哲 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012147164A priority Critical patent/JP2014011639A/en
Publication of JP2014011639A publication Critical patent/JP2014011639A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

PROBLEM TO BE SOLVED: To predict a photographed image acquirable in photographing in accordance with a photographing condition before photographing in advance and display it.SOLUTION: An imaging device according to the present invention sets a photographing condition for photographing by imaging means (S401), calculates subject information including the position and shape of a subject on the basis of an image captured by the imaging means (S403), creates a preview image obtained by predicting an image acquired in imaging in accordance with the photographing condition from the photographing condition and the subject information (S404), and displays the preview image.

Description

本発明は、撮像装置に関し、特に、ストロボ発光やブレの影響を撮影前に予測した画像を表示することが可能な撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus capable of displaying an image in which the effects of strobe light emission and blurring are predicted before shooting.

一般的に、デジタルカメラや携帯電話に搭載されたカメラでは、撮影を行う前に撮像部が撮像している画像を本体に内蔵されたディスプレイや電子ビューファインダ、あるいは外部に接続したディスプレイに表示することができる。この撮影前の表示であるプレビュー表示によって、ユーザは、撮影条件や撮影時の画像の構図について、撮影に先立ち判断することができる。   In general, a digital camera or a camera mounted on a mobile phone displays an image captured by an imaging unit on a display built in the main body, an electronic viewfinder, or an externally connected display before shooting. be able to. The preview display, which is a display before shooting, allows the user to determine shooting conditions and image composition at the time of shooting prior to shooting.

しかし、ストロボの発光の有無やシャッター速度といった撮影条件の違いにより、撮影により得られる撮影画像が、撮影前に画面に表示されていたプレビュー画像と異なっていることがある。そのため、プレビューで確認しながら撮影を行ったとしても、ユーザが期待する画像を得ることができないことがある。   However, the photographed image obtained by photographing may differ from the preview image displayed on the screen before photographing due to differences in photographing conditions such as the presence or absence of strobe light emission and the shutter speed. For this reason, even if shooting is performed while checking with a preview, an image expected by the user may not be obtained.

例えば、ストロボ発光を利用する撮影の場合、プレビュー時はストロボ発光が無い状態でプレビュー画像が表示されることとなる。そのため、ストロボを発光させるとどのような画像が撮影できるのか、すなわちストロボ発光によりどのように影が発生するのか、または色や輝度にどのような変化があるのかは、実際に撮影を行った画像を確認するまで分からないという課題がある。   For example, in the case of shooting using strobe light emission, a preview image is displayed without strobe light emission during preview. Therefore, what kind of images can be taken when the flash is fired, that is, how shadows are generated by the flash, or what changes in color and brightness are actually taken There is a problem that you do not know until you confirm.

また、撮影時の露出時間と、プレビュー時の各フレームの露出時間とが一致しないため、撮影画像とプレビュー画像とでは、被写体ブレや手ブレなどのブレの発生の影響の程度がそれぞれ異なることがある。特に撮影時の露出時間が長い撮影条件が設定されている場合、撮影用の露出時間に合わせたフレームレートでプレビューとして表示すると、滑らかな動きを表示できず、連続したプレビュー画像の表示では、いわゆるカクカクした動画となりうる。   In addition, since the exposure time at the time of shooting and the exposure time of each frame at the time of preview do not match, the degree of the effects of blurring such as subject shake and camera shake may differ between the shot image and the preview image. is there. In particular, when shooting conditions are set that have a long exposure time at the time of shooting, when the preview is displayed at a frame rate that matches the exposure time for shooting, smooth movement cannot be displayed. It can be a jerky video.

そのため、滑らかな動きを表示するために、プレビュー時のフレームレートを高く設定するのが一般的である。しかし、そのように設定すると、プレビュー時は、フレームレートが高いためブレが目立たくなる一方で、撮影においてどの程度ブレの影響があるかは、実際に撮影を行い、その画像を表示させるまで分からないこととなる。   Therefore, in order to display smooth movement, it is common to set the frame rate at the time of preview high. However, with this setting, while previewing, the blurring becomes noticeable due to the high frame rate. On the other hand, the effect of blurring on shooting is not known until the actual shooting and display of the image. It will not be.

そこで、プレビュー画像と、実際に撮影される画像とを一致させるために、従来、様々な提案がなされてきた。   Therefore, various proposals have been made in the past in order to match the preview image with the actually captured image.

例えば、2眼のカメラを用いて三角測量の原理より被写体の距離分布を求め、その距離に応じてファインダ内にスーパーインポーズ表示する液晶の透過率を変えることでストロボ光量による明暗の分布を予測する技術が開示されている(例えば、特許文献1参照。)。   For example, using a twin-lens camera, the distance distribution of the subject is obtained from the principle of triangulation, and the light and dark distribution due to the amount of strobe light is predicted by changing the transmittance of the liquid crystal displayed in the finder according to the distance. (For example, refer to Patent Document 1).

また、カメラ本体の上面に太陽の位置と太陽光の強さを検出する手段を設け、太陽の位置と太陽光の強さに応じて影の発生状態を予測する技術が開示されている(例えば、特許文献2参照。)。影の発生が予測される場合には被写体に向けストロボを発光させ、影の発生の抑制に利用する方法が示されている。   Further, a technique is disclosed in which means for detecting the position of the sun and the intensity of sunlight is provided on the upper surface of the camera body, and a shadow generation state is predicted according to the position of the sun and the intensity of sunlight (for example, , See Patent Document 2). In the case where the occurrence of a shadow is predicted, a method is shown in which a strobe is emitted toward a subject and used for suppressing the generation of a shadow.

特開2001−83563号公報JP 2001-83563 A 特開平8−146484号公報JP-A-8-146484

上述の特許文献1に開示の技術は、被写体距離に応じてファインダ像の輝度の制御を行うものであり、被写体の位置や形状、またはストロボ光の色や配光特性に応じた被写体の色の変化や影の発生を予測するものではない。そのため、ストロボ光が当たる部分に関する輝度の予測は可能だが、影や色に関しては予測することができないという問題がある。   The technique disclosed in Patent Document 1 described above controls the brightness of the finder image according to the subject distance, and the position and shape of the subject or the color of the subject according to the strobe light color and light distribution characteristics. It does not predict the occurrence of changes or shadows. For this reason, it is possible to predict the luminance related to the portion where the strobe light hits, but there is a problem that it is impossible to predict the shadow and the color.

また、特許文献2に開示の技術は、太陽の位置及び太陽光の強さから影の発生可能性を予測するものであり、被写体の位置や形状に合わせ撮影画像中にどのような影が発生するかを予測することはできない。以上の問題点から上記各特許文献に開示されている技術を用いても、プレビュー画像と実際の撮影画像とが異なることが想定され、実際に撮影を行い、画像を確認するまでどのような画像が撮影されるのか分からないという課題がある。   Further, the technique disclosed in Patent Document 2 predicts the possibility of a shadow from the position of the sun and the intensity of sunlight, and what kind of shadow is generated in the captured image according to the position and shape of the subject. I can't predict what to do. From the above problems, even if the techniques disclosed in the above patent documents are used, it is assumed that the preview image and the actual captured image are different from each other. There is a problem that I do not know if is taken.

上記課題を解決するために、本願発明に係る撮像装置は、撮像手段による撮影のための撮影条件を設定する撮影条件設定手段と、前記撮像手段が撮像した画像に基づいて、被写体の位置、形状を含む被写体情報を計算する被写体情報計算手段と、前記撮影条件と、前記被写体情報とから、前記撮影条件に従って前記撮像手段が撮像したときに取得される画像を予測したプレビュー画像を作成するプレビュー画像作成手段と、前記プレビュー画像を表示する表示部とを備えることを特徴とする。   In order to solve the above problems, an imaging apparatus according to the present invention includes a shooting condition setting unit that sets shooting conditions for shooting by an imaging unit, and a position and shape of a subject based on an image captured by the imaging unit. A preview image that creates a preview image that predicts an image that is acquired when the imaging unit captures an image according to the shooting condition from the subject information calculation unit that calculates subject information including the shooting condition and the subject information The image forming apparatus includes a creating unit and a display unit that displays the preview image.

本発明により、撮影条件に従って撮影したときに取得できる撮影画像を、予め撮影前に予測して表示することができる。   According to the present invention, it is possible to predict and display a photographed image that can be acquired when photographing according to photographing conditions before photographing.

実施例に係る撮像装置の外観を示す図である。It is a figure which shows the external appearance of the imaging device which concerns on an Example. 実施例に係る撮像装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the imaging device which concerns on an Example. 実施例に係る撮像部の内部構成を示す図である。It is a figure which shows the internal structure of the imaging part which concerns on an Example. 実施例に係る撮像装置の動作の手順を示すフローチャートである。6 is a flowchart illustrating an operation procedure of the imaging apparatus according to the embodiment. 実施例1に係る被写体情報計算処理の処理手順を示すフローチャートである。6 is a flowchart illustrating a processing procedure of subject information calculation processing according to the first embodiment. 実施例に係る配置情報の一例を示す図である。It is a figure which shows an example of the arrangement | positioning information which concerns on an Example. 被写体と撮像部との関係を示す図である。It is a figure which shows the relationship between a to-be-photographed object and an imaging part. 実施例1に係る多視点画像の例を示す図である。6 is a diagram illustrating an example of a multi-viewpoint image according to Embodiment 1. FIG. 実施例1に係るプレビュー画像作成処理の処理手順を示すフローチャートである。6 is a flowchart illustrating a processing procedure of preview image creation processing according to the first embodiment. 光源の配光特性の一例を示す図である。It is a figure which shows an example of the light distribution characteristic of a light source. 光線追跡法の概念を説明するための図である。It is a figure for demonstrating the concept of a ray tracing method. 実施例1に係るプレビュー画像レンダリング処理の処理手順を示すフローチャートである。6 is a flowchart illustrating a processing procedure of preview image rendering processing according to Embodiment 1; 本発明の効果の一例を説明するための図である。It is a figure for demonstrating an example of the effect of this invention. 実施例2に係るプレビュー画像作成処理の処理手順を示すフローチャートである。12 is a flowchart illustrating a processing procedure of preview image creation processing according to the second embodiment. 実施例2に係るプレビュー画像レンダリング処理の処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure of preview image rendering processing according to the second embodiment.

(実施例1)
以下に本発明の実施例に係る撮像装置の詳細について説明する。
Example 1
Details of the imaging apparatus according to the embodiment of the present invention will be described below.

まず、図1は、本実施例における撮像装置の外観の一例を示した図である。図1において、(a)は撮像装置の前面、(b)は撮像装置の背面を表す。   First, FIG. 1 is a diagram illustrating an example of the appearance of the imaging apparatus according to the present embodiment. In FIG. 1, (a) represents the front surface of the imaging device, and (b) represents the back surface of the imaging device.

図1(a)に示すように、撮像装置100の前面には、カラー画像を取得することが可能な9個の撮像部101〜109と、撮影ボタン110と、発光部111とが設けられている。発光部111は、それぞれ独立に発光を制御可能な発光素子112〜120から構成される。   As shown in FIG. 1A, nine imaging units 101 to 109 capable of acquiring a color image, a shooting button 110, and a light emitting unit 111 are provided on the front surface of the imaging device 100. Yes. The light emitting unit 111 includes light emitting elements 112 to 120 that can control light emission independently of each other.

ユーザが撮影ボタン110を押下すると、撮像部101〜109が被写体からの光をセンサ(撮像素子)で受光し、受光した信号がA/D変換されて、複数のカラー画像(デジタルデータ)を同時に取得することができる。このような多眼方式の撮像装置により、同一の被写体を複数の視点位置から撮像することにより、複数のカラー画像からなる多視点画像群を得ることができる。   When the user presses the shooting button 110, the imaging units 101 to 109 receive light from the subject with a sensor (imaging device), and the received signal is A / D converted to simultaneously generate a plurality of color images (digital data). Can be acquired. A multi-viewpoint image group composed of a plurality of color images can be obtained by capturing the same subject from a plurality of viewpoint positions with such a multi-view imaging device.

なお、ここでは撮像部の数は9個としたが、撮像部の数が9個に限定されるものではない。すなわち、本発明では、被写体に関する被写体情報を多視点画像群から取得するために、複数の撮像部を有していればよい。また、被写体情報を多視点画像群から取得せずに他のセンサ等から取得する場合、撮像部を1個備えた単眼の撮像装置であってもよい。   Although the number of imaging units is nine here, the number of imaging units is not limited to nine. That is, in the present invention, in order to acquire subject information related to a subject from a multi-viewpoint image group, it is only necessary to have a plurality of imaging units. In addition, when the subject information is acquired from another sensor or the like without acquiring from the multi-viewpoint image group, a monocular imaging device including one imaging unit may be used.

なお、撮像部を複数備える場合に撮像部が均等に配置される例について説明するが、撮像部の配置は任意である。例えば、放射状や直線状に配置してもよいし、ランダムに配置してもよい。また、発光部111についても同様に、本発明では任意の発光素子数、及び任意の配置にすることができる。   In addition, although the example where an imaging part is arrange | positioned equally when providing two or more imaging parts is demonstrated, arrangement | positioning of an imaging part is arbitrary. For example, they may be arranged radially or linearly or randomly. Similarly, the light emitting portion 111 can have any number of light emitting elements and any arrangement in the present invention.

次に、図1(b)に示すように、撮像装置の背面には、液晶ディスプレイから成る表示部121と、ユーザによる各種の操作を受け付けるための操作部122とが設けられている。   Next, as illustrated in FIG. 1B, a display unit 121 including a liquid crystal display and an operation unit 122 for receiving various operations by the user are provided on the back surface of the imaging apparatus.

表示部121は、撮影条件設定の操作状況、又は設定の確認を行うためのGUIや、撮影中の被写体のプレビュー画像又は映像や、撮影後の画像を表示することができる。   The display unit 121 can display a shooting condition setting operation status or a GUI for confirming the setting, a preview image or video of a subject being shot, and an image after shooting.

操作部122は、モード切り換えボタン123、及び、操作ボタン124を備える。モード切り換えボタン123をユーザが押下することにより、後述のプレビューモードの切り替えを行う。また、操作ボタン124はユーザが項目を変更、選択するために方向操作等を行うものであり、例えば十字ボタンの形態で配置される。尚、本図には説明の便宜上二つのボタンのみを例示的に示しているが、どのようなボタンの形態であってもよい。また、本実施例では各種ボタンで操作を行う例を示すが、ボタンの替わりに、表示部121がタッチパネル方式により操作を受け付けるような構成であってもよい。例えば、感圧式、電磁誘導式など各種方式のタッチパネルを用いることができ、ユーザがタッチした座標を検出し、検出した座標によってユーザの指示を読み取ることができる。   The operation unit 122 includes a mode switching button 123 and an operation button 124. When the user presses the mode switching button 123, the preview mode described later is switched. The operation button 124 is used by the user to perform a direction operation or the like in order to change or select an item, and is arranged in the form of a cross button, for example. In this figure, only two buttons are shown as an example for convenience of explanation, but any button form may be used. Further, although an example in which operations are performed using various buttons is shown in the present embodiment, a configuration in which the display unit 121 receives operations by a touch panel method instead of the buttons may be used. For example, various types of touch panels such as a pressure-sensitive type and an electromagnetic induction type can be used, and the coordinates touched by the user can be detected, and the user's instructions can be read based on the detected coordinates.

図2は、撮像装置100の内部構成を示すブロック図である。   FIG. 2 is a block diagram illustrating an internal configuration of the imaging apparatus 100.

CPU201は、中央処理装置であり、バス204を介して接続された各部を統括的に制御する。   The CPU 201 is a central processing unit and controls the respective units connected via the bus 204 in an integrated manner.

RAM202は、CPU201の主メモリ、ワークエリア等として機能するRAM(Random Access Memory)である。   A RAM 202 is a RAM (Random Access Memory) that functions as a main memory, a work area, and the like of the CPU 201.

ROM203は、CPU201で実行される制御プログラム等を格納するROM(Read Only Memory)である。   The ROM 203 is a ROM (Read Only Memory) that stores a control program executed by the CPU 201.

バス204は、各種データの転送経路として機能する。例えば、撮像部101〜109によって取得されたデジタルデータはこのバス204を介して所定の処理部に送られる。   The bus 204 functions as a transfer path for various data. For example, digital data acquired by the imaging units 101 to 109 is sent to a predetermined processing unit via the bus 204.

表示制御部205は、表示部121に表示される撮影画像や文字を表示するための表示制御を行う。   The display control unit 205 performs display control for displaying captured images and characters displayed on the display unit 121.

撮像制御部206は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの、CPU201からの指示に基づいて、光学系を制御する。また、撮像装置の配置情報に基づいて、撮像部の制御パラメータを調整する。   The imaging control unit 206 controls the optical system based on an instruction from the CPU 201 such as focusing, opening / closing a shutter, and adjusting an aperture. In addition, the control parameter of the imaging unit is adjusted based on the arrangement information of the imaging device.

発光制御部207は、CPU201からの指示に基づき、発光部111を構成する発光素子112−120を選択的に発光させる。   The light emission control unit 207 selectively causes the light emitting elements 112-120 constituting the light emitting unit 111 to emit light based on an instruction from the CPU 201.

デジタル信号処理部208は、バス204を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理等の各種処理を行う。   The digital signal processing unit 208 performs various processes such as white balance processing, gamma processing, and noise reduction processing on the digital data received via the bus 204.

エンコーダ部209は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する。   The encoder unit 209 converts the digital data into a file format such as JPEG or MPEG.

外部メモリ制御部210は、PCやその他のメディア213(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に撮像装置100を接続させるためのインターフェースである。   The external memory control unit 210 is an interface for connecting the imaging apparatus 100 to a PC or other media 213 (for example, a hard disk, a memory card, a CF card, an SD card, or a USB memory).

被写体情報計算部211は、被写体の位置、形状、テクスチャ等を求めるための計算を行う。本実施例では、撮像部101〜109で取得された多視点画像群或いは、デジタル信号処理部208から出力される多視点画像群から計算する方法を示す。なお、被写体情報計算部211による処理の詳細については後述する。   The subject information calculation unit 211 performs calculations for obtaining the position, shape, texture, and the like of the subject. In this embodiment, a method of calculating from the multi-viewpoint image group acquired by the imaging units 101 to 109 or the multi-viewpoint image group output from the digital signal processing unit 208 is shown. Details of processing by the subject information calculation unit 211 will be described later.

画像作成部212は、ストロボが発光され撮影される場合に想定される画像をCGで作成する。画像作成部212による処理の詳細については後述する。   The image creating unit 212 creates an image that is assumed when the strobe is fired and photographed using CG. Details of processing by the image creation unit 212 will be described later.

なお、撮像装置の構成要素は上記以外にも存在するが、本願発明に必須の構成ではないので、説明を省略する。   Although there are other components of the image pickup apparatus other than those described above, the description is omitted because it is not an essential component of the present invention.

図3は、撮像部101〜109の内部構成を示す図である。撮像部101〜109は、レンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310から構成される。ズーム用のレンズ301、フォーカスレンズ302、ぶれ補正レンズ303はレンズとして機能する。センサ309は、例えばCMOSやCCDなどのセンサである。   FIG. 3 is a diagram illustrating an internal configuration of the imaging units 101 to 109. The imaging units 101 to 109 include lenses 301 to 303, an aperture 304, a shutter 305, an optical low-pass filter 306, an iR cut filter 307, a color filter 308, a sensor 309, and an A / D conversion unit 310. The zoom lens 301, the focus lens 302, and the shake correction lens 303 function as lenses. The sensor 309 is a sensor such as a CMOS or CCD.

センサ309で被写体の光量を検知すると、検知された光量がA/D変換部310によってデジタル値に変換され、デジタルデータとなってバス204へ出力される。   When the light amount of the subject is detected by the sensor 309, the detected light amount is converted into a digital value by the A / D conversion unit 310, and is output as digital data to the bus 204.

本発明の実施例に係る撮像装置は、撮影前に被写体を特定するための被写体情報を計算により求め、そして計算した被写体情報とユーザが設定した撮影条件とを用いてCGによってプレビュー画像を作成し、表示するものである。以下、上記構成を備える撮像装置の動作について、図4のフローチャートを参照しつつ説明する。   An imaging apparatus according to an embodiment of the present invention obtains subject information for specifying a subject before photographing, and creates a preview image by CG using the calculated subject information and photographing conditions set by a user. , To display. Hereinafter, the operation of the imaging apparatus having the above configuration will be described with reference to the flowchart of FIG.

まず、ステップS401では、ユーザが操作ボタン124を用いて、シャッター速度、絞り、ISO感度、及び、ストロボ発光の有無等の撮影条件について、設定を行う。また、撮影時にストロボ発光を行う場合、発光パターンの選択も併せて行うことができる。ここで、発光パターンとは、複数ある発光素子112〜120の中から発光させる発光素子の組み合わせを示すものである。なお、撮影条件はユーザが設定したものでなくてもよく、すなわち予め設定されているものであってもよい。   First, in step S401, the user uses the operation buttons 124 to set shooting conditions such as shutter speed, aperture, ISO sensitivity, and presence / absence of flash emission. In addition, when performing strobe light emission at the time of shooting, it is also possible to select a light emission pattern. Here, the light emission pattern indicates a combination of light emitting elements that emit light from among the plurality of light emitting elements 112 to 120. Note that the shooting conditions do not have to be set by the user, that is, may be set in advance.

ステップS402では、デジタル信号処理部208から出力される多視点画像群を取得する。この多視点画像のそれぞれは、ストロボ発光のない状態で撮像された画像である。   In step S402, a multi-viewpoint image group output from the digital signal processing unit 208 is acquired. Each of the multi-viewpoint images is an image picked up without a strobe light emission.

ステップS403では、ステップS402で取得した多視点画像群から被写体情報を計算する。本処理は、被写体情報計算部211において実行される。なお、被写体情報計算部211の動作の詳細は後述する。   In step S403, subject information is calculated from the multi-viewpoint image group acquired in step S402. This process is executed by the subject information calculation unit 211. Details of the operation of the subject information calculation unit 211 will be described later.

ステップS404では、ステップS401で設定された撮影条件と、ステップS403で計算した被写体情報とを用いてプレビュー画像を作成する。本処理は、画像作成部212において実行される。画像作成部212の動作の詳細は後述する。   In step S404, a preview image is created using the shooting conditions set in step S401 and the subject information calculated in step S403. This process is executed by the image creation unit 212. Details of the operation of the image creation unit 212 will be described later.

ステップS405では、ステップS404で作成したプレビュー画像を、表示制御部205の指示により表示部121に表示させる。   In step S405, the preview image created in step S404 is displayed on the display unit 121 according to an instruction from the display control unit 205.

ステップS406では、本撮像装置のユーザが撮影ボタン110を押下したかを判断する。撮影ボタン110が押下された場合はS407へ移行し、押下されていない場合はS401に戻る。ユーザが撮影ボタン110を押下するまで、撮影条件の設定変更、プレビューを繰り返す。   In step S406, it is determined whether the user of the imaging apparatus has pressed the shooting button 110. When the photographing button 110 is pressed, the process proceeds to S407, and when it is not pressed, the process returns to S401. Until the user presses the shooting button 110, the setting change of the shooting conditions and the preview are repeated.

ステップS407では、撮影ボタン110が押下された場合、直ちにステップS401で設定された撮影条件に基づいて撮像部101〜109により撮像する。撮像された画像は、デジタル信号処理部208、及びエンコーダ部209において処理が行われた後に、外部メモリ制御部210を経てPCその他のメディア213に保存される。   In step S407, when the shooting button 110 is pressed, images are immediately captured by the imaging units 101 to 109 based on the shooting conditions set in step S401. The captured image is processed in the digital signal processing unit 208 and the encoder unit 209, and then stored in the PC or other media 213 through the external memory control unit 210.

以下に各処理の詳細を説明する。   Details of each process will be described below.

(被写体情報計算処理)
被写体情報計算処理(S403)は、被写体情報計算部211において実施される。本処理により、デジタル信号処理部208から出力される多視点画像群から、被写体の位置、形状、及びテクスチャを取得することができる。
(Subject information calculation process)
The subject information calculation process (S403) is performed in the subject information calculation unit 211. With this processing, the position, shape, and texture of the subject can be acquired from the multi-viewpoint image group output from the digital signal processing unit 208.

以下では、被写体情報計算処理(S403)の詳細について、図5のフローチャートを参照し説明する。尚、本処理は、ユーザが撮影ボタン110を押下する前のプレビュー中に実施されるものである。   Details of the subject information calculation process (S403) will be described below with reference to the flowchart of FIG. This process is performed during the preview before the user presses the shooting button 110.

まず、ステップS501では、撮像部101〜109の間の相対的な位置関係を示す配置情報と、焦点距離についての情報を含む撮像部情報を取得する。   First, in step S501, image capturing unit information including arrangement information indicating a relative positional relationship between the image capturing units 101 to 109 and information on a focal length is acquired.

ここで、配置情報は、すべての撮像部の光学中心の相対的な位置関係を少なくとも示す情報であればよい。なお、本実施例では、撮像部情報は、ROM203に予め記録されているものとし、これを読み出すことで取得できるものとする。尚、個々の撮像部の配置を変更可能な撮像装置の場合には、ユーザの指示に基づいて撮像部の配置が変更され、これにより配置情報が変化するものであってもよい。   Here, the arrangement information may be information indicating at least the relative positional relationship between the optical centers of all the imaging units. In this embodiment, it is assumed that the imaging unit information is recorded in advance in the ROM 203 and can be acquired by reading it. In the case of an imaging apparatus that can change the arrangement of individual imaging units, the arrangement of the imaging units may be changed based on a user instruction, and thereby the arrangement information may be changed.

図6は、配置情報の一例を具体的に示している。図6に示す配置情報において、撮像部番号は撮像部を特定するためのものである。例えば、撮像部番号が1であれば、図1に示す撮像部101に対応する。同様に、撮像番号2−9はそれぞれ、撮像部102−109に対応する。   FIG. 6 specifically shows an example of arrangement information. In the arrangement information shown in FIG. 6, the imaging unit number is for specifying the imaging unit. For example, if the imaging unit number is 1, it corresponds to the imaging unit 101 shown in FIG. Similarly, the imaging numbers 2-9 correspond to the imaging units 102-109, respectively.

なお、図6に示す配置情報において、撮像番号が1で特定される撮像部101の光学中心を原点としている。この原点を基準に、撮像部102〜109の光学中心の位置をX座標(水平方向)、及びY座標(垂直方向)の2次元座標を用いて表すことができる。   In the arrangement information shown in FIG. 6, the optical center of the imaging unit 101 identified by the imaging number 1 is used as the origin. With the origin as a reference, the position of the optical center of the imaging units 102 to 109 can be expressed using two-dimensional coordinates of an X coordinate (horizontal direction) and a Y coordinate (vertical direction).

続いて、ステップS502では、前述の撮像部情報と、多視点画像群とから、被写体の位置や形状を示す被写体情報を計算する。被写体の位置や形状を計算する方法としては、どのような方法であってもよい。以下、その計算方法の一例について、2個の撮像部101と102を用いて被写体までの距離を求める方法について、図7と図8を参照しつつ説明する。   Subsequently, in step S502, subject information indicating the position and shape of the subject is calculated from the above-described imaging unit information and the multi-viewpoint image group. Any method may be used to calculate the position and shape of the subject. Hereinafter, an example of the calculation method will be described with reference to FIGS. 7 and 8 with respect to a method for obtaining the distance to the subject using the two imaging units 101 and 102.

尚、撮像部101と撮像部102において、レンズの焦点距離は同一であるものとする。また、2個の撮像部はY座標が等しく、X座標のみが異なるものとする。   In the imaging unit 101 and the imaging unit 102, the focal lengths of the lenses are the same. In addition, it is assumed that the two imaging units have the same Y coordinate and only the X coordinate is different.

図7において、被写体703が、撮影の対象である被写体とする。また、撮像部101の視野範囲701、撮像部102の視野範囲702に被写体703が収まっているものとする。   In FIG. 7, it is assumed that a subject 703 is a subject to be photographed. Further, it is assumed that the subject 703 is within the visual field range 701 of the imaging unit 101 and the visual field range 702 of the imaging unit 102.

この条件下において、撮像部101は、図8(a)に示す画像を取得する。同様に、撮像部102は、図8(b)に示す画像を取得する。ここで、被写体703の表面の1地点である位置704が、撮像部101による画像の座標(x1,0)に写っているものとする。同様に、撮像部102による画像の座標(x2,0)に写っているものとする。   Under this condition, the imaging unit 101 acquires the image shown in FIG. Similarly, the imaging unit 102 acquires the image illustrated in FIG. Here, it is assumed that a position 704 that is one point on the surface of the subject 703 is shown in the coordinates (x1, 0) of the image by the imaging unit 101. Similarly, it is assumed that the image is captured at the coordinates (x2, 0) of the image by the imaging unit 102.

以下では、2つの画像において、ともに写っている被写体の同一の位置を、対応点と呼ぶ。ここで、各画像の中心を原点(0,0)とすると、対応点である位置704に関する撮像部の光学中心からの距離Dは以下の式で表わすことができる。   In the following, in the two images, the same position of the subject appearing together is called a corresponding point. Here, assuming that the center of each image is the origin (0, 0), the distance D from the optical center of the imaging unit regarding the position 704 that is the corresponding point can be expressed by the following expression.

Figure 2014011639
Figure 2014011639

式1において、2個の撮像部101と102の画像センサの画素ピッチをp、撮像部101と102との光学中心間の距離をB、撮像部101と102の焦点距離をfとする。   In Equation 1, the pixel pitch of the image sensors of the two imaging units 101 and 102 is p, the distance between the optical centers of the imaging units 101 and 102 is B, and the focal length of the imaging units 101 and 102 is f.

式1に基づいて、被写体中の1点に対する距離を算出することができる。同様に、被写体の他の対応点についても撮像部の光学中心からの距離を求めることができる。さらに、撮像部の組み合わせを変えることで、被写体の形状を求めることができる。   Based on Equation 1, the distance to one point in the subject can be calculated. Similarly, the distance from the optical center of the imaging unit can be obtained for other corresponding points of the subject. Furthermore, the shape of the subject can be obtained by changing the combination of the imaging units.

尚、撮像部の配置が、X座標だけではなくY座標も異なる場合や光軸の方向が異なる場合は、エピポーラ線が水平になるよう各画像について回転、及び並進行列を求め、2画像を平行化することでX座標のみが異なる画像として扱うことが可能である。このような画像の平行化については本件発明の主眼ではないので説明を省略する。また、2画像において対応点を求める方法については、例えば2画像でブロックマッチングを行う方法が挙げられる。当然ながら、ブロックマッチングに限られるものではなく、他のどのような方法でも適用可能である。   In addition, when not only the X coordinate but also the Y coordinate are different or the direction of the optical axis is different, the rotation and parallel progression are obtained for each image so that the epipolar line is horizontal, and the two images are parallel. It is possible to handle the images as different images only in the X coordinate. Such parallelization of the image is not the main point of the present invention, and the description thereof will be omitted. As a method for obtaining corresponding points in two images, for example, a method of performing block matching in two images can be cited. Of course, the present invention is not limited to block matching, and any other method can be applied.

また、被写体のテクスチャについては、上述の距離を求める際に利用した対応点の画素値として取得することができる。尚、テクスチャはRGB3色で表現し、各色の信号値を取得する。   Further, the texture of the subject can be acquired as the pixel value of the corresponding point used when obtaining the above-described distance. Note that the texture is expressed by three colors of RGB, and the signal value of each color is acquired.

(プレビュー画像作成処理)
次に、図4に示すプレビュー画像作成処理(S404)の詳細について説明する。
(Preview image creation process)
Next, details of the preview image creation process (S404) shown in FIG. 4 will be described.

プレビュー画像作成処理は、画像作成部212において実行されるものであり、ストロボの発光前に、ストロボが発光されて撮影される場合に想定される画像をCGによって作成し、出力する。   The preview image creation process is executed by the image creation unit 212. Before the strobe light is emitted, an image assumed when the strobe light is emitted and photographed is generated by CG and output.

以下に、プレビュー画像作成処理S404の処理手順について、図9のフローチャートを参照しつつ説明する。   Hereinafter, the processing procedure of the preview image creation processing S404 will be described with reference to the flowchart of FIG.

まず、ステップS901では、ユーザが操作部122を介して設定した、シャッター速度、絞り、ISO感度、及び、ストロボ発光の有無を示す情報を含んだ撮影条件を取得する。   First, in step S901, shooting conditions including information indicating the shutter speed, aperture, ISO sensitivity, and presence / absence of flash emission set by the user via the operation unit 122 are acquired.

ステップS902では、ステップS901で取得した撮影条件において、ストロボ発光の指示を含むかどうかを判定する。ストロボ発光を行う場合はステップS903に進み、発光を行わない場合はステップS908へ進む。   In step S902, it is determined whether or not the shooting condition acquired in step S901 includes a strobe emission instruction. If the flash is to be emitted, the process proceeds to step S903, and if not, the process proceeds to step S908.

ステップS903では、ユーザがモード切り換えボタン123を用いて設定したプレビューモードを取得する。本実施例におけるプレビューモードは、ストロボ発光の効果をプレビュー画像に表示するストロボプレビューモードと、従来のプレビュー画像と同様のストロボ光の効果を表示しない通常プレビューモードの2モードが設定されている。   In step S903, the preview mode set by the user using the mode switching button 123 is acquired. The preview mode in the present embodiment is set to two modes: a strobe preview mode that displays the strobe light emission effect on the preview image, and a normal preview mode that does not display the strobe light effect similar to the conventional preview image.

ステップS904では、ステップS903で取得したプレビューモードがストロボプレビューモードであるか否かを判断する。ストロボプレビューモードの場合(S904;YES)、ステップS905へ移行する。一方、通常プレビューモードの場合(S904;NO)、ステップS908へ移行する。   In step S904, it is determined whether the preview mode acquired in step S903 is the strobe preview mode. If the strobe preview mode is set (S904; YES), the process proceeds to step S905. On the other hand, in the normal preview mode (S904; NO), the process proceeds to step S908.

ステップS905では、ストロボの発光パターンや色等を示すストロボ特性を取得する。ストロボ特性は具体的には、ユーザが操作ボタン124を利用して設定した発光パターン、及び、設定された発光パターンで発光する発光素子の位置と輝度分布、配光特性を示す発光情報である。   In step S905, strobe characteristics indicating the light emission pattern and color of the strobe are acquired. Specifically, the strobe characteristic is light emission information indicating the light emission pattern set by the user using the operation button 124, the position and luminance distribution of the light emitting elements that emit light with the set light emission pattern, and the light distribution characteristic.

ここで発光素子の輝度分布はRGBの3原色を用いて表してもよいし、他の色空間を用いてもよい。また、分光放射輝度を用いて表すこともできる。以下ではRGBの3色を用いるものとする。   Here, the luminance distribution of the light emitting element may be expressed using the three primary colors of RGB, or another color space may be used. It can also be expressed using spectral radiance. In the following, it is assumed that three colors of RGB are used.

配光特性は、光源から出る光の各方向への強度分布であり、光源の指向性の違いによって一つの光源がシーンを照らす範囲が異なる。具体的な例を図10に示す。   The light distribution characteristic is an intensity distribution in each direction of light emitted from the light source, and the range in which one light source illuminates the scene varies depending on the directivity of the light source. A specific example is shown in FIG.

図10(a)は各方向への強度は低いが、広い範囲を照らす光源の例である。一方、図10(b)は、ある特定の方向へ強度が高い光源の例である。   FIG. 10A shows an example of a light source that illuminates a wide range although the intensity in each direction is low. On the other hand, FIG. 10B is an example of a light source having high intensity in a specific direction.

ストロボ光の色をRGB3原色で表わす場合、配光特性はR、G、Bの3色についてそれぞれ異なる配光特性にすることもできる。   When the strobe light color is expressed by RGB three primary colors, the light distribution characteristics can be different for the three colors R, G, and B.

尚、本実施例では、各発光素子の配光特性はROM203に予め記録されているものとする。そして、発光パターンに従って発光する発光素子に関する配光特性を読み出し、配置情報に応じて足し合わせることで、発光部全体の配光特性を取得することができる。   In this embodiment, it is assumed that the light distribution characteristic of each light emitting element is recorded in the ROM 203 in advance. And the light distribution characteristic regarding the light emitting element which light-emits according to a light emission pattern is read, and it can add according to arrangement | positioning information, and can acquire the light distribution characteristic of the whole light emission part.

ここで配光特性のデータ形式は、光源からの光の出力角と、光の強度との対応が得られれば所望の形式で構わない。例えば、出力角に対する光の強度の関数でもよいし、出力角と光の強度の対応を示すルックアップテーブル(以下、LUT)の形式でもよい。   Here, the data format of the light distribution characteristic may be a desired format as long as the correspondence between the light output angle from the light source and the light intensity can be obtained. For example, it may be a function of the light intensity with respect to the output angle, or may be in the form of a look-up table (hereinafter referred to as LUT) indicating the correspondence between the output angle and the light intensity.

ステップS906では、前述の被写体情報計算部211で計算した被写体の位置、形状、テクスチャからなる被写体情報を取得する。   In step S906, subject information including the position, shape, and texture of the subject calculated by the subject information calculation unit 211 is acquired.

ステップS907では、ステップS901で取得した撮影条件、ステップS905で取得したストロボ特性、ステップS906で取得した被写体情報に基づいて、ストロボ発光されて撮影された場合に想定される画像をCGによってレンダリングして作成する。このプレビュー画像レンダリング処理に関する詳細は後述する。   In step S907, based on the shooting conditions acquired in step S901, the strobe characteristics acquired in step S905, and the subject information acquired in step S906, an image that is supposed to be shot with flash emission is rendered by CG. create. Details regarding the preview image rendering process will be described later.

ステップS908では、ストロボを発光させない場合、または発光させる場合でもストロボプレビューを行わない場合のプレビュー画像を取得する。このプレビュー画像は、複数ある撮像部のうち、中央に配置された105の画像である。ただし、プレビュー画像として、他の撮像部の画像であってもよいし、複数の撮像部の画像に対し任意の処理を施した画像でもよい。   In step S908, a preview image is acquired when the strobe is not emitted or when the strobe preview is not performed even when the strobe is emitted. This preview image is 105 images arranged in the center among a plurality of imaging units. However, the preview image may be an image of another imaging unit, or may be an image obtained by performing arbitrary processing on the images of a plurality of imaging units.

ステップS909では、ステップS907またはステップS908で得た画像を表示制御部205へ出力する。そして、表示制御部205は、受け取った画像を表示部121へ表示させる。そして、本実施例のプレビュー画像作成処理S404が終了する。   In step S909, the image obtained in step S907 or step S908 is output to the display control unit 205. Then, the display control unit 205 causes the display unit 121 to display the received image. Then, the preview image creation process S404 of the present embodiment ends.

このように、ストロボプレビューモードが選択されている場合、ストロボを発光する前のプレビュー中に、ストロボを発光させた場合に得られる画像を予測したプレビュー画像を作成し、表示することができる。   As described above, when the strobe preview mode is selected, a preview image predicting an image obtained when the strobe light is emitted can be created and displayed during the preview before the strobe light is emitted.

(プレビュー画像レンダリング処理)
プレビュー画像レンダリング処理S907は、前述の撮影条件、ストロボ特性、被写体情報を用いてストロボが発光した場合に得られる画像をCGによってレンダリングする処理である。CGによるレンダリング手法としてはこれまでに様々な手法が提案されているが、ストロボ光による被写体の色や、影の発生が再現できる手法であればどのような手法を用いても構わない。このようなレンダリング手法としては、例えば光線追跡法が挙げられる。以下、図11を用いて、光線追跡法について説明する。
(Preview image rendering process)
The preview image rendering process S907 is a process for rendering an image obtained when the strobe emits light using the above-described shooting conditions, strobe characteristics, and subject information using CG. Various rendering methods using CG have been proposed so far, but any method may be used as long as it can reproduce the color of a subject and the generation of shadows by strobe light. An example of such a rendering technique is a ray tracing method. Hereinafter, the ray tracing method will be described with reference to FIG.

図11に示すように、カメラ1101、スクリーン1102、被写体1104,1105、光源1106が配置されているものとする。画素1103は、スクリーン上の光線追跡によって画素値を決定するための画素である。   Assume that a camera 1101, a screen 1102, subjects 1104 and 1105, and a light source 1106 are arranged as shown in FIG. The pixel 1103 is a pixel for determining a pixel value by ray tracing on the screen.

光線追跡法では、まず、カメラ1101から画素1103へ向かって光線を発光する。光線が物体での反射を繰り返して、光源であるストロボに到達するまで追跡する。そして、追跡中に衝突した物体による光線の減衰と光源の色に基づいて、スクリーン上の画素1103の画素値を決定する。   In the ray tracing method, first, a ray is emitted from the camera 1101 toward the pixel 1103. The light beam is repeatedly reflected on the object and traced until it reaches the strobe light source. Then, the pixel value of the pixel 1103 on the screen is determined based on the attenuation of the light beam by the object colliding during tracking and the color of the light source.

以下に、スクリーン上の1点に対し1本の光線を飛ばす場合の輝度の算出手順を、図12のフローチャートを参照しながら説明する。尚、レンダリング時のカメラ位置は例えば撮像部101〜109のうち、中央に配置された105のカメラ位置を利用する。   In the following, the procedure for calculating the luminance in the case where one light beam is emitted for one point on the screen will be described with reference to the flowchart of FIG. For example, 105 camera positions arranged in the center of the imaging units 101 to 109 are used as camera positions during rendering.

まず、ステップS1201では、光線番号の初期化を行う。これは、スクリーン上の各画素に対し複数本の光線を飛ばす場合に、何番目の光線を処理しているのかを把握するための番号である。初期化では、0が代入される。   First, in step S1201, the ray number is initialized. This is a number for grasping what number of light rays are processed when a plurality of light rays are emitted to each pixel on the screen. In initialization, 0 is substituted.

ステップS1202では、光線の衝突回数の初期化を行う。具体的には衝突回数に0を代入する。   In step S1202, the number of ray collisions is initialized. Specifically, 0 is substituted for the number of collisions.

ステップS1203では、光線番号に1を加え、値を更新する。   In step S1203, 1 is added to the ray number to update the value.

ステップS1204では、光線の方向と強度を初期化する。光線の初期方向は、カメラ位置からスクリーン上の画素値を決定する画素を結んだ方向である。また、光線の強度は、RGBの3色で表わし、初期値はそれぞれ1とする。   In step S1204, the direction and intensity of the light beam are initialized. The initial direction of the light beam is a direction connecting pixels that determine pixel values on the screen from the camera position. The intensity of the light beam is represented by three colors of RGB, and the initial value is 1.

ステップS1205では、追跡の開始点から光線に設定された方向に光線を飛ばし、被写体、または光源との衝突点を探索する。追跡の開始点は、スクリーン上の画素或いは前回の追跡における光線と被写体との衝突点である。尚、衝突点の探索は所望の方法で行えばよい。例えば、シーン内の全ての物体と順次衝突判定を行って、追跡の開始点に最も近い衝突点を求めればよい。   In step S1205, the light beam is blown in the direction set to the light beam from the tracking start point, and a collision point with the subject or the light source is searched. The tracking start point is a collision point between a pixel on the screen or a light ray and a subject in the previous tracking. The search for the collision point may be performed by a desired method. For example, it is only necessary to sequentially perform collision determination with all objects in the scene to obtain a collision point closest to the tracking start point.

ステップS1206では、光線が衝突した点が光源であるストロボなのか、その他の被写体なのかを判定する。光源と衝突した場合はステップS1212へ移行し、その他の被写体と衝突した場合はステップS1207へ移行する。   In step S1206, it is determined whether the point where the light beam collides is a strobe as a light source or another subject. If it collides with the light source, the process proceeds to step S1212. If it collides with another subject, the process proceeds to step S1207.

ステップS1207では、光線が保持する変数、衝突回数に1を加え、値を更新する。   In step S1207, 1 is added to the variable held by the light beam and the number of collisions, and the value is updated.

ステップS1208では、被写体との衝突後の光線の方向を決定する。衝突後の光線方向はランダムな方向とすればよく、衝突のたびに乱数を発生させ、乱数に応じた方向を設定する。   In step S1208, the direction of the light beam after the collision with the subject is determined. The light beam direction after the collision may be a random direction, and a random number is generated for each collision, and the direction corresponding to the random number is set.

ステップS1209では、光線が衝突した被写体の反射率を取得する。被写体の反射率は、拡散反射成分と鏡面反射成分から成る。拡散反射成分は被写体情報計算部により求められた被写体のテクスチャを利用し、鏡面反射成分は衝突前の光線の方向、ステップS1208で決定した衝突後の光線の方向、及び、衝突点の被写体の法線方向に応じた値を算出し利用する。   In step S1209, the reflectance of the subject that the light ray collides with is acquired. The reflectance of the subject is composed of a diffuse reflection component and a specular reflection component. The diffuse reflection component uses the texture of the subject obtained by the subject information calculation unit, the specular reflection component is the direction of the light ray before the collision, the direction of the light ray after the collision determined in step S1208, and the method of the subject at the collision point. A value corresponding to the line direction is calculated and used.

本実施例では鏡面反射成分をPhongモデルによって算出する。衝突前の光線の方向をd、衝突後の光線の方向をd’、物体の法線方向をNとすると鏡面反射率Rsは下記式となる。 In this embodiment, the specular reflection component is calculated by the Phong model. When the direction of the light beam before the collision is d, the direction of the light beam after the collision is d ′, and the normal direction of the object is N, the specular reflectance R s is expressed by the following equation.

Figure 2014011639
Figure 2014011639

ここで、ksは鏡面反射係数を表し、nは鏡面反射の広がりを表すパラメータである。ks及びnについては予め一定の値を設定しておく。ただし、被写体に対する画像認識技術と組み合わせ、被写体ごとに認識結果に応じた値を設定してもよい。 Here, k s represents a specular reflection coefficient, and n is a parameter representing the spread of specular reflection. Constant values are set in advance for k s and n. However, in combination with the image recognition technology for the subject, a value corresponding to the recognition result may be set for each subject.

例えば、衝突点が人肌であることが画像認識によって判明した場合は、人肌に応じた前記パラメータを利用する。尚、鏡面反射率の算出には他のモデルを利用することもできる。衝突点における被写体の反射率RR、RG、RBは次式のようになる。ここで、RdR、RdG、RdBは、拡散反射率を表しており被写体のテクスチャのR、G、Bの各値である。 For example, when it is found by image recognition that the collision point is human skin, the parameter corresponding to human skin is used. It should be noted that other models can be used for calculating the specular reflectance. The reflectances R R , R G , and R B of the subject at the collision point are as follows. Here, R dR , R dG , and R dB represent diffuse reflectance, and are R, G, and B values of the texture of the subject.

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

ステップS1210では、衝突後の光線の強度を計算する。光線の強度は、その時点での光線が持つ強度に対し、ステップS1209で算出した被写体の反射率をかけ合わせることで求める。光線番号iに対するRGB各色の更新前の光線強度をPRi、PGi、PBiとすると、更新後の光線強度をPRi’、PGi’、PBi’は下記式で表わすことができる。 In step S1210, the intensity of the light beam after the collision is calculated. The intensity of the light beam is obtained by multiplying the intensity of the light beam at that time by the reflectance of the subject calculated in step S1209. Assuming that the light intensity before the update of each color of RGB for the light beam number i is P Ri , P Gi , P Bi , the light intensity after the update can be expressed by the following formulas: P Ri ′, P Gi ′, P Bi ′.

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

ステップS1211では、光線の衝突回数について、予め別途設定した最大衝突回数と比較を行い次に処理するステップを決定する。最大衝突回数以下の場合はステップS1205へ戻り、一方、最大衝突回数を超えている場合は光線の強度に0を代入後にステップS1212へ移行する。   In step S1211, the number of collisions of the light beam is compared with a preset maximum number of collisions to determine the next processing step. If the maximum number of collisions is not reached, the process returns to step S1205. On the other hand, if the maximum number of collisions is exceeded, 0 is assigned to the light intensity, and the process proceeds to step S1212.

本来は光線が光源まで到達するまで追跡を行うのが望ましいが、全ての光線について光源に到達するまで追跡するには膨大な計算時間が必要になる。そこで、別途設定しておいた最大衝突回数までに光線が光源に到達しない場合は、光源には到達しないものとして処理を打ち切ることで処理の高速化を実現する。   Originally, it is desirable to trace until the light beam reaches the light source, but enormous calculation time is required to trace all the light beams until they reach the light source. Therefore, when the light beam does not reach the light source by the preset maximum number of collisions, the processing is terminated by assuming that the light beam does not reach the light source, thereby realizing high-speed processing.

そのため、このような光線については、強度を0として扱う。一方、最大衝突回数に満たない場合は、物体との衝突点を新たな光線の追跡開始点として光線追跡処理を繰り返す。   Therefore, the intensity of such a light beam is treated as zero. On the other hand, if the maximum number of collisions is not reached, the ray tracing process is repeated with the collision point with the object as the new ray tracing start point.

ステップS1212では、追跡が終了した光線について、輝度の算出を行う。具体的には、光線が持つ強度と、光源の輝度と、光源の配光特性をかけ合わせることで輝度を算出する。これをRGBの3色について、それぞれ実行する。輝度の算出を式で表わすと下記のようになる。ここで、IRi、IGi、IBiは光線番号がiの光線に対するRGB各色の輝度を表し、LR、LG、LBは光源の輝度、SR(θ)、SG(θ)、SB(θ)は光源の配光特性を表している。 In step S1212, the luminance is calculated for the ray that has been traced. Specifically, the luminance is calculated by multiplying the intensity of the light beam, the luminance of the light source, and the light distribution characteristic of the light source. This is executed for each of the three colors RGB. The calculation of the brightness is expressed as follows. Here, I Ri , I Gi , and I Bi represent the luminance of each color of RGB with respect to the light beam with the ray number i, L R , L G , and L B are the luminance of the light source, S R (θ), S G (θ). , S B (θ) represents the light distribution characteristics of the light source.

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

上式においてθは、光線が光源であるストロボへ衝突した際の入射角を表している。 In the above equation, θ represents an incident angle when a light ray collides with a strobe as a light source.

ステップS1213では、予め設定してある1画素当たりに飛ばす光線数と光線番号を比較し、光線番号が光線数に満たない場合はステップS1202に戻り、同じ画素に対し新たな光線を飛ばす。一方、光線番号が光線数以上の場合は、ステップS1214へ移行する。   In step S1213, the preset number of rays to be emitted per pixel is compared with the ray number. If the ray number is less than the number of rays, the process returns to step S1202, and a new ray is emitted to the same pixel. On the other hand, if the light ray number is greater than or equal to the number of light rays, the process proceeds to step S1214.

ステップS1214では、同じ画素に対して飛ばした複数の光線の輝度の平均から、その画素の画素値を計算する。まず、下記式のように各光線の輝度の平均IR、IG、IBをそれぞれ計算する。 In step S1214, the pixel value of the pixel is calculated from the average of the luminances of a plurality of light rays skipped with respect to the same pixel. First, the average brightness I R , I G , and I B of each light ray is calculated as in the following equation.

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

そして、上式で算出した輝度を、撮像部105から得た画像に加算して画素値を決定する。撮像部105のプレビュー画像をIR、IG、IBとすると、加算後の輝度IR’’、IG’’、IB’’は下記になる。 Then, the luminance calculated by the above equation is added to the image obtained from the imaging unit 105 to determine the pixel value. If the preview images of the imaging unit 105 are I R , I G , and I B , the luminances I R ″, I G ″, and I B ″ after addition are as follows.

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

Figure 2014011639
Figure 2014011639

上式において、f(x)は、センサの画素値の飽和を再現するもので、下記式で表わすことができる。 In the above equation, f (x) reproduces the saturation of the pixel value of the sensor and can be expressed by the following equation.

Figure 2014011639
Figure 2014011639

以上のような手順に従って光線追跡法に係る処理が実行される。   The process related to the ray tracing method is executed according to the procedure as described above.

次に、図13を用いて本発明の効果を説明する。   Next, the effect of the present invention will be described with reference to FIG.

ここでは、図13(a)に示すような2種類の被写体に対しストロボ撮影を行う場合のプレビュー画像の例を(b)に示す。光線を複数回追跡することによって、ストロボ光と物体との間に他の物体がある場合には影を再現することができる。また、光線追跡法ではカメラから近い被写体は光線が到達しやすく、遠い被写体は光線が到達しにくい。そのため、距離が近い被写体は明るく、反対に距離が遠くストロボ光の届きにくい被写体は暗く再現することができる。   Here, an example of a preview image in the case of performing flash photography on two types of subjects as shown in FIG. 13A is shown in FIG. By tracking the light multiple times, shadows can be reproduced if there is another object between the strobe light and the object. In the ray tracing method, a light ray easily reaches an object close to the camera, and a light ray does not easily reach a far object. Therefore, a subject close to the distance can be reproduced brightly, and an object that is far away and difficult to reach the strobe light can be reproduced darkly.

尚、衝突回数を用いて光源に到達前の光線に関する追跡処理の打ち切りを判断する例を示したが、他の変数を用いて判断を行ってもよい。例えば、光線の強度がある閾値を下回った場合に追跡処理を打ち切ることも考えられる。   In addition, although the example which determines the cancellation of the tracking process regarding the light ray before reaching the light source using the number of collisions has been shown, the determination may be performed using other variables. For example, the tracking process may be aborted when the light intensity falls below a certain threshold.

このように、上述した撮像装置を利用することで、ユーザによって設定された撮影条件に基づいたストロボ光の効果を予測し、発光前にプレビュー画像として表示することができる。それにより、プレビュー時のプレビュー画像と、実際の撮影による画像との差異を低減することが可能である。また、ユーザは、ストロボ発光前に、ストロボによる輝度の変化や影の発生を確認しながら、ストロボの発光量、発光の向きの設定を始め、その他のシャッター速度や構図の設定と言った撮影条件を予め設定することができる。   As described above, by using the above-described imaging device, it is possible to predict the effect of the strobe light based on the shooting conditions set by the user and display it as a preview image before light emission. Thereby, it is possible to reduce a difference between a preview image at the time of preview and an image obtained by actual shooting. In addition, before the flash fires, the user can check the brightness change and shadows caused by the flash, start setting the flash output and direction, and other shooting conditions such as shutter speed and composition settings. Can be set in advance.

例えば、本実施例で示したように発光部が複数の発光素子から成る場合に、発光パターンを変えた場合のストロボの効果などもプレビュー中に確認することができるようになる。   For example, when the light emitting unit is composed of a plurality of light emitting elements as shown in this embodiment, the effect of the strobe when the light emission pattern is changed can be confirmed during the preview.

尚、本実施例では、被写体情報を取得するために複数の視点から画像を取得可能な多眼カメラを用いる例を説明したが、被写体情報の取得方法は多視点画像から画像処理で算出する方法に限られるものではない。単眼のカメラであっても、距離センサなどの各種センサを組み合わせてもよい。   In this embodiment, an example of using a multi-view camera capable of acquiring images from a plurality of viewpoints to acquire subject information has been described. However, a subject information acquisition method is a method of calculating image processing from multi-view images. It is not limited to. Even a monocular camera may be combined with various sensors such as a distance sensor.

(実施例2)
実施例1では、ストロボ発光の効果を撮影前に予測したプレビュー画像を表示することが可能な撮像装置を示した。実施例2では、撮影時のシャッター速度において発生しうる被写体ブレや手ブレを、プレビュー画像において予測する撮像装置について説明する。
(Example 2)
In the first embodiment, an imaging apparatus capable of displaying a preview image in which the effect of strobe light emission is predicted before shooting is shown. In the second embodiment, an imaging apparatus that predicts subject blur and camera shake that may occur at the shutter speed during shooting in a preview image will be described.

本実施例の撮像装置の構成要素は実施例1と同様であるが、プレビュー画像作成処理(S404)の処理内容が異なる。以下、各処理における実施例1と異なる部分について詳しく説明する。   The components of the imaging apparatus of the present embodiment are the same as those of the first embodiment, but the processing contents of the preview image creation process (S404) are different. Hereinafter, portions different from the first embodiment in each process will be described in detail.

(プレビュー画像作成処理)
本実施例のプレビュー画像作成処理(S404)は、プレビュー時に、被写体ブレや手ブレを予測した画像をCGによって作成し、出力する。以下にプレビュー画像作成処理S404の動作を、図14のフローチャートを参照しつつ説明する。尚、図14において、実施例1で説明した図9のフローチャートと動作が異なるステップについてのみ説明を行う。
(Preview image creation process)
In the preview image creation process (S404) of the present embodiment, an image in which subject blur or camera shake is predicted is created by CG and output during preview. The operation of the preview image creation process S404 will be described below with reference to the flowchart of FIG. In FIG. 14, only steps that are different from the flowchart of FIG. 9 described in the first embodiment will be described.

ステップS1401では、処理対象フレーム数を計算する。処理対象フレーム数は、プレビュー時に、撮影時の露出時間に相当する露出時間内に得られるフレーム数である。   In step S1401, the number of processing target frames is calculated. The number of frames to be processed is the number of frames obtained within the exposure time corresponding to the exposure time at the time of shooting during preview.

例えば、撮影条件に含まれるシャッター速度から求められる露出時間が1秒であり、プレビュー時の露出時間が0.04秒(=25FPS)の場合、処理対象フレーム数は25である。   For example, when the exposure time obtained from the shutter speed included in the shooting condition is 1 second and the exposure time during preview is 0.04 seconds (= 25 FPS), the number of frames to be processed is 25.

ステップS1402では、ユーザがモード切り換えボタン123を用いて設定したプレビューモードを示す情報を取得する。本実施例におけるプレビューモードは、ブレ補正の効果をプレビュー画像として表示するブレプレビューモードと、ブレ補正の効果を表示しない通常プレビューモードの2つのモードが存在する。   In step S1402, information indicating the preview mode set by the user using the mode switching button 123 is acquired. There are two preview modes in the present embodiment: a blur preview mode that displays the effect of blur correction as a preview image, and a normal preview mode that does not display the effect of blur correction.

ステップS1403では、ステップS1402で取得したプレビューモードを示す情報がブレプレビューモードの場合はステップS906へ移行する(S1403;YES)。   In step S1403, if the information indicating the preview mode acquired in step S1402 is the blur preview mode, the process proceeds to step S906 (S1403; YES).

一方、通常プレビューモードの場合はステップS908へ移行する(S1403;NO)。   On the other hand, in the normal preview mode, the process proceeds to step S908 (S1403; NO).

ステップS1404では、ブレを予測したプレビュー画像をCGによってレンダリングする。このプレビュー画像レンダリング処理に関する詳細は後述する。   In step S1404, the preview image predicted to be blurred is rendered by CG. Details regarding the preview image rendering process will be described later.

以上で、本実施例のプレビュー画像作成処理S404の動作が終了する。ブレプレビューモードが選択されている場合、プレビュー中に、ブレを予測したプレビュー画像を表示する。   Thus, the operation of the preview image creation process S404 of this embodiment is completed. When the blur preview mode is selected, a preview image in which blur is predicted is displayed during the preview.

(プレビュー画像レンダリング処理)
次に、実施例2におけるプレビュー画像レンダリング処理について、図15を用いて説明する。
(Preview image rendering process)
Next, the preview image rendering process according to the second embodiment will be described with reference to FIG.

プレビュー画像レンダリング処理(S1404)では、処理対象フレーム群の各フレームに係る画像を平均化した平均画像をプレビュー画像として作成する。   In the preview image rendering process (S1404), an average image obtained by averaging images related to each frame of the processing target frame group is created as a preview image.

処理対象フレーム群は、現在の時刻を基準として、S1401で求めた処理対象フレーム数分の過去のフレームからなるグループである。   The processing target frame group is a group composed of past frames for the number of processing target frames obtained in S1401 with the current time as a reference.

例えば、撮影時の露出時間が1秒、プレビュー時の露出時間が0.04秒の場合、現在時刻又は基準時刻のフレームから、過去に得られた25番目のフレームまでが、処理対象フレーム群となる。   For example, when the exposure time at the time of shooting is 1 second and the exposure time at the time of preview is 0.04 seconds, the frame from the current time or reference time to the 25th frame obtained in the past is the processing target frame group. Become.

まず、ステップS1501では、フレームを指定するための変数nを初期化する。具体的には、変数nに0を代入する。ここで、現在時刻又は基準時刻のフレーム番号をN(Nは処理対象フレーム数)とすると、(N−n)が処理の対象となっているフレームのフレーム番号である。   First, in step S1501, a variable n for designating a frame is initialized. Specifically, 0 is assigned to the variable n. Here, if the frame number of the current time or the reference time is N (N is the number of frames to be processed), (N−n) is the frame number of the frame to be processed.

ステップS1502では、(N−n)フレームのプレビュー画像をCGによって作成する。尚、プレビュー画像の作成方法はどのような手法を用いてもよく、実施例1で説明した光線追跡法を利用してもよい。   In step S1502, a preview image of (N−n) frames is created by CG. Note that any method may be used as a method for creating a preview image, and the ray tracing method described in the first embodiment may be used.

ステップS1503では、フレーム番号を更新する。具体的には、変数nの値に1を加えて更新する。   In step S1503, the frame number is updated. Specifically, the variable n is updated by adding 1 to the value.

ステップS1504では、処理対象フレーム群に係る全フレームに対し処理を行ったかどうかを判断し、処理済みの場合はステップS1505へ進む。全フレームに対し処理が終わっていない場合は、ステップS1502に戻り、処理の対象となっているフレームに対しプレビュー画像の作成を行う。   In step S1504, it is determined whether or not the processing has been performed on all the frames related to the processing target frame group. If the processing has not been completed for all the frames, the process returns to step S1502 to create a preview image for the frame to be processed.

ステップS1505では、ステップS1502で作成した各フレームのプレビュー画像を平均化したプレビュー画像を作成する。   In step S1505, a preview image is created by averaging the preview images of the frames created in step S1502.

以上の処理手順に従って、プレビュー画像レンダリング処理が終了する。   The preview image rendering process ends according to the above processing procedure.

本処理では、撮影時の露出時間と、プレビュー時の露出時間とが異なる場合に、露出時間の違いに応じた数の画像を平均化した画像を作成することで、手ブレや被写体ブレを再現、予測したプレビュー画像を作成することができる。   This process reproduces camera shake and subject blur by creating an image that averages the number of images corresponding to the difference in exposure time when the exposure time during shooting differs from the exposure time during preview. A predicted preview image can be created.

上述した撮像装置を利用することで、ユーザによって設定されたシャッター速度に応じて発生しうる手ブレや被写体ブレを予測し、プレビュー画像として表示することで、プレビュー画像と実際の撮影画像との差異を低減することが可能である。それによって、撮像装置のユーザは、プレビュー画像でブレの発生具合を確認しながら、シャッター速度などの撮影条件を設定することが可能となる。   By using the imaging device described above, camera shake and subject blur that may occur according to the shutter speed set by the user are predicted and displayed as a preview image, so that the difference between the preview image and the actual captured image is displayed. Can be reduced. Accordingly, the user of the imaging apparatus can set shooting conditions such as a shutter speed while confirming the occurrence of blurring in the preview image.

(その他の実施例)
実施例2では、既に撮像されたフレームに基づいて各フレームのプレビュー画像を作成している。しかし、複数のフレームにおける被写体の被写体情報を計算し、被写体の動きを推定することにより、実際には画像を取得していない時刻のプレビュー画像を作成し、平均画像を作成するようにしてもよい。さらに、例えば、過去の数フレームから未来のフレームでの被写体位置や形状を予測し、これを用いてもよい。
(Other examples)
In the second embodiment, a preview image of each frame is created based on the already captured frames. However, by calculating subject information of subjects in a plurality of frames and estimating subject movement, a preview image at a time when an image is not actually acquired may be created, and an average image may be created. . Furthermore, for example, the subject position and shape in a future frame may be predicted from several past frames, and this may be used.

また、実施例2では、各フレームの画像をCGによって作成する方法を説明したが、ストロボ光による影の発生や輝度の再現を行う必要がない場合は、必ずしもCGで作成する必要はない。その場合、CGではなく、撮像部のうち中央に配置された撮像部105で取得された画像に対応するフレームを利用してもよい。   In the second embodiment, the method of creating an image of each frame by CG has been described. However, when it is not necessary to generate a shadow by strobe light or to reproduce luminance, it is not always necessary to create by CG. In that case, you may utilize the frame corresponding to the image acquired by the imaging part 105 arrange | positioned in the center among imaging parts instead of CG.

Claims (5)

撮像手段による撮影のための撮影条件を設定する撮影条件設定手段と、
前記撮像手段が撮像した画像に基づいて、被写体の位置、形状を含む被写体情報を計算する被写体情報計算手段と、
前記撮影条件と、前記被写体情報とから、前記撮影条件に従って前記撮像手段が撮像したときに取得される画像を予測したプレビュー画像を作成するプレビュー画像作成手段と、
前記プレビュー画像を表示する表示部と
を備えることを特徴とする撮像装置。
Shooting condition setting means for setting shooting conditions for shooting by the imaging means;
Subject information calculation means for calculating subject information including the position and shape of the subject based on the image captured by the imaging means;
A preview image creation means for creating a preview image that predicts an image acquired when the imaging means is imaged according to the shooting conditions from the shooting conditions and the subject information;
An image pickup apparatus comprising: a display unit that displays the preview image.
1つ以上の発光素子からなる発光手段を備え、
前記撮影条件に前記発光手段を用いた撮影が含まれる場合、前記プレビュー画像作成手段は、前記撮影条件と、前記被写体情報とに加え、前記発光手段の配置情報、配光特性、輝度に関する情報を含む発光情報とから、前記プレビュー画像を作成する
ことを特徴とする請求項1に記載の撮像装置。
Comprising a light emitting means comprising one or more light emitting elements,
When shooting using the light emitting means is included in the shooting conditions, the preview image creating means includes information on the arrangement information, light distribution characteristics, and luminance of the light emitting means in addition to the shooting conditions and the subject information. The imaging apparatus according to claim 1, wherein the preview image is created from the included light emission information.
前記撮影条件はシャッター速度を含み、
前記プレビュー画像作成手段は、前記シャッター速度から計算される露出時間がプレビュー時の露出時間よりも長い場合、前記シャッター速度から計算される露出時間内に前記撮像手段により撮像される画像群を取得し、当該画像群を平均化することにより前記プレビュー画像を作成する
ことを特徴とする請求項1に記載の撮像装置。
The shooting conditions include a shutter speed,
When the exposure time calculated from the shutter speed is longer than the exposure time at the time of preview, the preview image creation means acquires an image group captured by the imaging means within the exposure time calculated from the shutter speed. The imaging apparatus according to claim 1, wherein the preview image is created by averaging the image group.
前記被写体情報計算手段は、前記撮像手段が複数の視点から撮像した多視点画像群を用いて前記被写体情報を求めることを特徴とする請求項1乃至3のうちのいずれか1項に記載の撮像装置。   The imaging according to any one of claims 1 to 3, wherein the subject information calculation unit obtains the subject information using a multi-viewpoint image group captured by the imaging unit from a plurality of viewpoints. apparatus. 前記被写体情報計算手段は、距離センサを用いて前記被写体の位置を求めることを特徴とする請求項1乃至3のうちのいずれか1項に記載の撮像装置。   The imaging device according to claim 1, wherein the subject information calculation unit obtains the position of the subject using a distance sensor.
JP2012147164A 2012-06-29 2012-06-29 Imaging device Pending JP2014011639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012147164A JP2014011639A (en) 2012-06-29 2012-06-29 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012147164A JP2014011639A (en) 2012-06-29 2012-06-29 Imaging device

Publications (1)

Publication Number Publication Date
JP2014011639A true JP2014011639A (en) 2014-01-20

Family

ID=50107955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012147164A Pending JP2014011639A (en) 2012-06-29 2012-06-29 Imaging device

Country Status (1)

Country Link
JP (1) JP2014011639A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108101A (en) * 2018-12-28 2020-07-09 キヤノン株式会社 Information processing unit, imaging apparatus, information processing method and control method of imaging apparatus
JP2020109948A (en) * 2018-12-28 2020-07-16 キヤノン株式会社 Information processing device, imaging apparatus, information processing method, and control method of imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108101A (en) * 2018-12-28 2020-07-09 キヤノン株式会社 Information processing unit, imaging apparatus, information processing method and control method of imaging apparatus
JP2020109948A (en) * 2018-12-28 2020-07-16 キヤノン株式会社 Information processing device, imaging apparatus, information processing method, and control method of imaging apparatus
JP7263001B2 (en) 2018-12-28 2023-04-24 キヤノン株式会社 Information processing device, imaging device, information processing method, and imaging device control method
JP7475846B2 (en) 2018-12-28 2024-04-30 キヤノン株式会社 Information processing device, imaging device, information processing method, and imaging device control method

Similar Documents

Publication Publication Date Title
US11877086B2 (en) Method and system for generating at least one image of a real environment
US8786679B2 (en) Imaging device, 3D modeling data creation method, and computer-readable recording medium storing programs
CN109565551B (en) Synthesizing images aligned to a reference frame
JP5108093B2 (en) Imaging apparatus and imaging method
KR102105189B1 (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
WO2019184185A1 (en) Target image acquisition system and method
CN102959942B (en) Image capture device for stereoscopic viewing-use and control method thereof
US11282176B2 (en) Image refocusing
JP7378219B2 (en) Imaging device, image processing device, control method, and program
JP5882789B2 (en) Image processing apparatus, image processing method, and program
JP2015073185A (en) Image processing device, image processing method and program
JP3990271B2 (en) Simple stereo image input device, method, program, and recording medium
JP2015046019A (en) Image processing device, imaging device, imaging system, image processing method, program, and storage medium
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
JP2014011639A (en) Imaging device
WO2020084894A1 (en) Multi-camera system, control value calculation method and control device
JP2017215851A (en) Image processing device, image processing method, and molding system
JP2019129469A (en) Image processing device
JP2005216191A (en) Stereo image processing apparatus and method
JP7011694B2 (en) Image processing equipment and its control method, program
JP2013009082A (en) Video composing apparatus, video composing method, and video composing program
JP2021069004A (en) Image processing device, image processing method, and program