JP5822700B2 - Image capturing method, image capturing apparatus, and program - Google Patents

Image capturing method, image capturing apparatus, and program Download PDF

Info

Publication number
JP5822700B2
JP5822700B2 JP2011267724A JP2011267724A JP5822700B2 JP 5822700 B2 JP5822700 B2 JP 5822700B2 JP 2011267724 A JP2011267724 A JP 2011267724A JP 2011267724 A JP2011267724 A JP 2011267724A JP 5822700 B2 JP5822700 B2 JP 5822700B2
Authority
JP
Japan
Prior art keywords
image
live view
prism
imaging
split
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011267724A
Other languages
Japanese (ja)
Other versions
JP2013121050A (en
Inventor
小谷 拓矢
拓矢 小谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011267724A priority Critical patent/JP5822700B2/en
Publication of JP2013121050A publication Critical patent/JP2013121050A/en
Application granted granted Critical
Publication of JP5822700B2 publication Critical patent/JP5822700B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、フォーカシング操作の操作性を向上させるための画像撮影方法、および画像撮影装置、プログラムに関するものである。   The present invention relates to an image capturing method, an image capturing apparatus, and a program for improving the operability of a focusing operation.

ファインダは、カメラにおいて構図を決めたりピントを合わせたりするために使用するパーツである。一眼レフカメラでは、撮影用の光学系を通した像をフォーカシングスクリーン上に結像させ、その像を確認する(レフレックスファインダ)。レフレックスファインダを使用することで、実際に撮影する像を確認しながらフォーカシング(ピント調整)操作を行うことができる。   The viewfinder is a part used to determine the composition and focus on the camera. In a single-lens reflex camera, an image passing through a photographing optical system is formed on a focusing screen, and the image is confirmed (a reflex finder). By using the reflex finder, a focusing (focus adjustment) operation can be performed while confirming an image to be actually photographed.

フォーカシングスクリーンには、マット式、プリズム式などがある。マット式は、スリガラスのような拡散板を用いて、ファインダ像中のピントを合わせたい領域が先鋭になるようにしてフォーカシングする方式である。プリズム式は、フォーカシングスクリーンの一部にプリズムを形成することで、フォーカスが合っていない場合には像が分割されるようにする方式である。プリズム式スクリーンとして、スクリーン上に2つの楔形プリズムを上下配置するスプリットプリズムや、小さいプリズムを多数並べて配置するマイクロプリズムが知られている。   The focusing screen includes a mat type and a prism type. The mat type is a method of focusing by using a diffusion plate such as ground glass so that a region to be focused in the finder image is sharpened. The prism type is a method in which an image is divided when a focus is not achieved by forming a prism on a part of the focusing screen. As a prism type screen, a split prism in which two wedge-shaped prisms are vertically arranged on a screen and a micro prism in which a large number of small prisms are arranged side by side are known.

マット式は像の先鋭度に基づいて合焦を判断するため、最も先鋭度が高くなる位置を探してフォーカシング操作を繰り返す必要がある。また、ファインダ像の大きさや撮影者の視力が合焦精度に大きく影響する。しかしながら、ファインダ像中のどの領域でもフォーカシング可能であるという利点がある。一方、プリズム式は、像のズレをピントのズレとして提示するためマット式に比べてより迷いの少ない正確なフォーカシングが可能である。しかしながら、ファインダスクリーン上にプリズムを形成することから、フォーカシング可能な領域が限定されてしまうという問題がある。例えば、大抵の場合はファインダ像の中心付近にプリズムを形成するため、その領域でしかフォーカシングできない。そのため、特に一眼レフカメラでは、マット式スクリーンが主流となった。   In the mat type, since focusing is determined based on the sharpness of the image, it is necessary to search for a position where the sharpness is highest and to repeat the focusing operation. In addition, the size of the finder image and the visual acuity of the photographer greatly affect the focusing accuracy. However, there is an advantage that any region in the finder image can be focused. On the other hand, the prism type presents an image shift as a focus shift, so that accurate focusing with less hesitation than the mat type is possible. However, since the prism is formed on the finder screen, there is a problem that a region where focusing is possible is limited. For example, in most cases, since a prism is formed near the center of the finder image, focusing is possible only in that region. For this reason, mat-type screens have become the mainstream, especially for single-lens reflex cameras.

デジタルカメラでは、撮影する像そのものをカメラ本体に備えられた液晶モニタに表示する電子ファインダ方式が主流である。したがって、基本的にはマット式と同様のファインダ像を得ることができる。しかしながら、ファインダ像を表示する液晶モニタの解像度が低い、あるいは屋外での液晶ファインダの視認性が低い、などの問題から、より分かりやすく合焦範囲を提示する方式が数多く発明されている。例えば、特許文献1では、ピントを合わせたい領域を拡大表示する方法について述べられている。また、特許文献2では、合焦度を表示する方法が提案されている。   In the digital camera, an electronic viewfinder method in which an image to be taken is displayed on a liquid crystal monitor provided in the camera body is the mainstream. Therefore, basically a finder image similar to the mat type can be obtained. However, due to problems such as low resolution of a liquid crystal monitor for displaying a finder image or low visibility of a liquid crystal finder outdoors, many methods for presenting a focus range more easily have been invented. For example, Patent Document 1 describes a method for enlarging and displaying a region to be focused. Patent Document 2 proposes a method for displaying the degree of focus.

特開2010−051037号公報JP 2010-051037 A 特開2002−341236号公報JP 2002-341236 A

近年、光学系に新たな光学素子を追加することで多視点からの画像を取得し、後で画像処理によってピント位置を調節すること(リフォーカス)が可能なライトフィールドフォトグラフィという技術が発展している。ライトフィールドを取得するための撮像技術としてはメインレンズの後ろにマイクロレンズアレイを置いたPlenoptic Cameraや、小型のカメラを並べたカメラアレイが知られている。このような多視点画像を撮影するための多眼カメラのファインダ方式として電子ファインダ方式を採用した場合において、迅速かつ正確なフォーカシングの確保は、上記特許文献1や特許文献2のような方法では困難である。液晶モニタの解像度や撮影者の視力が合焦精度に大きく影響するという上述の問題が、根本的な問題として残ってしまうためである。   In recent years, a technology called light field photography has been developed that can acquire images from multiple viewpoints by adding new optical elements to the optical system and adjust the focus position (refocus) later by image processing. ing. As an imaging technique for acquiring a light field, a Plenoptic Camera in which a microlens array is placed behind a main lens and a camera array in which small cameras are arranged are known. When the electronic finder method is adopted as the finder method of such a multi-view camera for photographing such a multi-viewpoint image, it is difficult to secure a fast and accurate focusing by the methods described in Patent Document 1 and Patent Document 2 described above. It is. This is because the above-described problem that the resolution of the liquid crystal monitor and the visual acuity of the photographer greatly affect the focusing accuracy remains as a fundamental problem.

本発明は、多眼カメラに電子ファインダ方式を採用した場合において、プリズム式のようなフォーカス調整機能を実現することを目的とする。   An object of the present invention is to realize a focus adjustment function like a prism type when an electronic viewfinder method is adopted in a multi-lens camera.

本発明に係る撮像装置は、複数の撮像部と、撮影範囲をリアルタイムに表示するライブビュー表示を行う画像表示部とを備えた多眼方式の撮像装置であって、前記ライブビュー表示におけるフォーカスエリアの位置を決定するフォーカスエリア決定手段と、前記複数の撮像部のうちの所定の撮像部で撮影された視差のある画像を用いてプリズムタイプ画像を生成し、当該生成されたプリズムタイプ画像を前記フォーカスエリア決定手段で決定された位置に配置したライブビュー画像を生成するライブビュー画像生成手段とを備えることを特徴とする。   An imaging apparatus according to the present invention is a multi-view imaging apparatus including a plurality of imaging units and an image display unit that performs live view display that displays a shooting range in real time, and includes a focus area in the live view display. Generating a prism type image using a focus area determining means for determining the position of the image and a parallax image captured by a predetermined imaging unit of the plurality of imaging units, and the generated prism type image is Live view image generation means for generating a live view image arranged at a position determined by the focus area determination means.

本発明によれば、電子ファインダ方式を採用した多眼カメラにおいて、ファインダ像中の任意の位置で、迅速かつ正確なフォーカシング操作を実現することが可能となる。   According to the present invention, it is possible to realize a quick and accurate focusing operation at an arbitrary position in a finder image in a multi-view camera adopting an electronic finder system.

(a)は、実施例1に係る多視点画像を撮影する多眼方式の撮像装置の正面の概観図であり、(b)は同背面の概観図である。実施例1における多視点撮影装置の外観を示す図である。FIG. 3A is a front overview of a multi-view imaging apparatus that captures a multi-viewpoint image according to the first embodiment, and FIG. 1 is a diagram illustrating an external appearance of a multi-viewpoint photographing apparatus in Embodiment 1. FIG. (a)は、実施例1に係る多眼カメラの回路構成を示すブロック図であり、(b)は、実施例1に係る画像処理部の内部構成を示すブロック図である。(A) is a block diagram showing a circuit configuration of a multi-view camera according to the first embodiment, and (b) is a block diagram showing an internal configuration of an image processing unit according to the first embodiment. カメラアレイにおける、撮像部の配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of the imaging part in a camera array. ライブビュー画像生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a live view image generation process. (a)はフォーカスエリアが画面中央に配置された例であり、(b)はフォーカスエリアが画面のやや左上方に配置された例を示す図である。実施例1におけるスプリットプリズムと使用撮像部の関係を表す図である。(A) is an example in which the focus area is arranged at the center of the screen, and (b) is a diagram showing an example in which the focus area is arranged slightly on the upper left of the screen. 3 is a diagram illustrating a relationship between a split prism and a use imaging unit in Embodiment 1. FIG. カメラ設定メニューで表示されるスプリットプリズムイメージの分割方向の選択候補の一例を示す図である。It is a figure which shows an example of the selection candidate of the division direction of the split prism image displayed by a camera setting menu. 合成処理の内容を視覚的に表現した説明図である。It is explanatory drawing which expressed the content of the synthetic | combination process visually. リフォーカス処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a refocus process. (a)は仮想絞りパラメータと重み係数の関係を示す図であり、対象撮像部とセンター撮像部の位置関係を示す図である。(A) is a figure which shows the relationship between a virtual aperture parameter and a weighting coefficient, and is a figure which shows the positional relationship of a target imaging part and a center imaging part. ライブビュー画像生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a live view image generation process. 各プリズム領域と撮像部との関連付けを説明する図である。It is a figure explaining the correlation with each prism area | region and an imaging part. 合成処理の内容を視覚的に表現した説明図である。It is explanatory drawing which expressed the content of the synthetic | combination process visually. プリズムタイプ画像以外の部分の輝度を落とすことで、スプリットプリズムイメージの範囲を周囲から目立たせたライブビュー画像の一例である。It is an example of the live view image which made the range of a split prism image stand out from the periphery by reducing the brightness | luminance of parts other than a prism type image. マイクロプリズムイメージを採用する場合に使用される撮像部の一例を示す図である。It is a figure which shows an example of the imaging part used when employ | adopting a microprism image. プリズムタイプ画像以外の部分の先鋭度を低くすることで、スプリットプリズムイメージの範囲を周囲から目立たせたライブビュー画像の一例である。It is an example of the live view image which made the range of a split prism image conspicuous from the circumference by making sharpness of parts other than a prism type image low. 実施例3に係るスプリットプリズムイメージの分割方向を自動決定する処理の流れを示すフローチャートである。12 is a flowchart illustrating a flow of processing for automatically determining a split direction of a split prism image according to a third embodiment.

[実施例1]
図1は、本実施例に係る、多視点画像を撮影する多眼方式の撮像装置(以後、単に「多眼カメラ」と呼ぶ。)の概観を示す斜視図であり、図1の(a)は正面、図1の(b)は背面の概観をそれぞれ示している。
[Example 1]
FIG. 1 is a perspective view showing an overview of a multi-view imaging apparatus (hereinafter simply referred to as “multi-view camera”) according to the present embodiment, which captures a multi-viewpoint image. 1 shows an overview of the front, and FIG. 1B shows an overview of the back.

多眼カメラ本体100の正面には、撮像部101を複数配置したカメラアレイが設けられており、同時に複数の視点で捉えた画像(多視点画像)を得ることができる。多眼カメラ本体100の上部には、撮影開始を指示するためのレリーズボタン106が設けられている。撮像部101は、撮影レンズ102、光学フィルタ103、撮像センサ104、周辺回路105で構成される。多眼カメラ本体100の側面には、外部記録媒体(例えば、半導体メモリカード)を挿入するためのカードスロット113が設けられている。   A camera array in which a plurality of imaging units 101 are arranged is provided in front of the multi-view camera body 100, and images (multi-view images) captured from a plurality of viewpoints can be obtained at the same time. A release button 106 for instructing the start of shooting is provided on the upper part of the multi-lens camera body 100. The imaging unit 101 includes a photographic lens 102, an optical filter 103, an imaging sensor 104, and a peripheral circuit 105. A card slot 113 for inserting an external recording medium (for example, a semiconductor memory card) is provided on the side surface of the multi-lens camera body 100.

多眼カメラ本体100の背面には、画像表示部107、十字配置スイッチ108、電源ボタン109、メニューボタン110、決定ボタン111、キャンセルボタン112が設けられている。本実施形態では光学ファインダを設けていないので、フレーミング操作(ピントや構図の確認)は、画像表示部107を用いて行う。画像表示部107は、撮影範囲をリアルタイムに表示するライブビュー表示を行う他、メニューボタン110を押下した場合にはカメラ設定メニューを表示する。カメラ設定メニューを表示した状態でメニューボタン110を押下した場合には、ライブビュー表示状態に戻る。また、画像表示部107はタッチパネル209を備えており、ライブビュー表示中に撮影者が指定した位置をフォーカスエリアとして設定することもできる。   On the back of the multi-lens camera main body 100, an image display unit 107, a cross arrangement switch 108, a power button 109, a menu button 110, an enter button 111, and a cancel button 112 are provided. In this embodiment, since no optical finder is provided, a framing operation (confirmation of focus and composition) is performed using the image display unit 107. The image display unit 107 performs live view display for displaying the shooting range in real time, and displays a camera setting menu when the menu button 110 is pressed. When the menu button 110 is pressed with the camera setting menu displayed, the display returns to the live view display state. The image display unit 107 includes a touch panel 209, and a position designated by the photographer during live view display can be set as a focus area.

メニューボタン110によって表示されるカメラ設定メニューでは、まず項目を選択し、選択された項目の状態を決定ボタン111で変更するか、キャンセルボタン112で変更せずに項目の選択に戻る。カメラ設定メニューで変更できる項目には、後述するスプリットプリズムイメージの分割方向の他、各撮像部101が撮影時に使用する絞り値や、シャッタースピードなどを指定できる。本実施例では絞り値、シャッタースピード、撮影距離やズーム位置については、カメラアレイを構成する各撮像部101に対して全て同じ設定にするものとするが、個別に設定しても良いことは言うまでもない。   In the camera setting menu displayed by the menu button 110, an item is first selected, and the state of the selected item is changed with the OK button 111, or the item is returned to the item selection without being changed with the cancel button 112. As items that can be changed in the camera setting menu, in addition to the split direction of the split prism image, which will be described later, an aperture value, a shutter speed, and the like used by each imaging unit 101 during shooting can be specified. In the present embodiment, the aperture value, shutter speed, shooting distance, and zoom position are all set to the same setting for each imaging unit 101 constituting the camera array, but needless to say, they may be set individually. Yes.

図2の(a)は、本実施例に係る多眼カメラ100の回路構成を示すブロック図である。   FIG. 2A is a block diagram illustrating a circuit configuration of the multi-view camera 100 according to the present embodiment.

CPU200は、撮像部101が出力する画像データの処理や、LCDモニタ208の表示制御、タッチパネル209からの入力データ取得、各撮像部の電源制御指示をはじめ、カメラ全体の動作を制御する。   The CPU 200 controls the operation of the entire camera, including processing of image data output from the imaging unit 101, display control of the LCD monitor 208, acquisition of input data from the touch panel 209, and power control instructions for each imaging unit.

スイッチ(SW1)205は、レリーズボタン106(図1参照)の半押し状態でオンになり、スイッチ(SW1)205がオンすると多眼カメラ100は撮影準備状態になる。スイッチ(SW2)206は、レリーズボタン106が最後まで押された状態(全押し状態)でオンし、スイッチ(SW2)206がオンすると多眼カメラ100は静止画撮影を開始する。撮影準備状態時に決定された露光時間が経過した後、多眼カメラは静止画撮影を終了する。   The switch (SW1) 205 is turned on when the release button 106 (see FIG. 1) is half-pressed, and when the switch (SW1) 205 is turned on, the multi-lens camera 100 enters a shooting preparation state. The switch (SW2) 206 is turned on when the release button 106 is pressed to the end (fully pressed state), and when the switch (SW2) 206 is turned on, the multi-view camera 100 starts taking a still image. After the exposure time determined in the shooting preparation state has elapsed, the multi-lens camera ends still image shooting.

図1に示したように、撮像部101は、撮影レンズ102、光学フィルタ103、撮像センサ104と周辺回路105で構成される。周辺回路105には、撮像部制御回路201、画像処理回路202を含む。撮影部制御回路201は、レンズ制御やシャッター制御などを行う。例えばレンズ制御として、撮影レンズ102との通信および撮影距離変更時の撮影レンズ102の駆動制御や絞り羽の駆動制御などを行う。また、シャッター制御によって、撮像センサ104に対して適正な露光を行う。撮像センサ104で得た画像データは画像処理回路202によって処理され、距離推定処理や画像合成処理などを行うためのバッファメモリ203へ伝送される。画像処理部204は、バッファメモリ203に格納された画像データに対して各種の画像処理を行い、出力形式に応じた画像データを生成する。画像処理部204の詳細については後述する。   As illustrated in FIG. 1, the imaging unit 101 includes a photographing lens 102, an optical filter 103, an imaging sensor 104, and a peripheral circuit 105. The peripheral circuit 105 includes an imaging unit control circuit 201 and an image processing circuit 202. The imaging unit control circuit 201 performs lens control, shutter control, and the like. For example, as lens control, communication with the photographic lens 102, drive control of the photographic lens 102 when changing the photographic distance, drive control of the diaphragm blades, and the like are performed. In addition, appropriate exposure is performed on the image sensor 104 by shutter control. Image data obtained by the image sensor 104 is processed by the image processing circuit 202 and transmitted to the buffer memory 203 for performing distance estimation processing, image synthesis processing, and the like. The image processing unit 204 performs various types of image processing on the image data stored in the buffer memory 203, and generates image data corresponding to the output format. Details of the image processing unit 204 will be described later.

バックライト照明207、LCDモニタ208、タッチパネル209は、画像表示部107を構成している。記憶装置210は、例えばカードスロット111によってカメラ本体に着脱可能な半導体メモリカードや、外部端子(不図示)によって接続されるハードディスクドライブなどである。
図3は、カメラアレイにおける、撮像部101の配置の一例を示す図である。1つ1つの矩形が撮像部101を示しており、グレーで図示した中央の撮像部101を、以後はセンター撮像部と呼ぶこととする。もちろん、撮像部101の配置は、図3の(a)及び(b)に示したものに限られるものではない。
The backlight illumination 207, the LCD monitor 208, and the touch panel 209 constitute an image display unit 107. The storage device 210 is, for example, a semiconductor memory card that can be attached to and detached from the camera body by the card slot 111, a hard disk drive that is connected by an external terminal (not shown), and the like.
FIG. 3 is a diagram illustrating an example of the arrangement of the imaging units 101 in the camera array. Each rectangle represents the imaging unit 101, and the central imaging unit 101 illustrated in gray is hereinafter referred to as a center imaging unit. Of course, the arrangement of the imaging unit 101 is not limited to that shown in FIGS.

なお、本実施例では、図3の(a)のように各撮像部を配置したカメラアレイの場合を例に以下説明するものとする。   In this embodiment, the case of a camera array in which each imaging unit is arranged as shown in FIG. 3A will be described as an example.

図4は、画像処理部204でのライブビュー表示に使用する画像(以下、「ライブビュー画像」と呼ぶ。)を生成する処理の流れを示すフローチャートである。ライブビュー画像には、フォーカスエリアに決定された位置に、スプリットプリズム等のプリズム式を模した画像(以下、「プリズムタイプ画像」と呼ぶ。)が表示される。上述のとおり、プリズム式には、マイクロプリズムとスプリットプリズムがあるが、両者の違いは後述のプリズム領域が細かく分割されるか2分割かの違いでしかない。以下では、フォーカスエリア内に、プリズムタイプ画像としてスプリットプリズム類似の画像(以下、「スプリットプリズムイメージ」と呼ぶ。)が表示されるライブビュー画像を生成する場合を例に説明することとする。もちろん、マイクロプリズムを模した画像(以下、「マイクロプリズムイメージ」と呼ぶ。)が表示されるライブビュー画像、或いはスプリットプリズムイメージとマイクロプリズムイメージの両方を用いたライブビュー画像でライブビュー表示を行ってもよい。   FIG. 4 is a flowchart showing a flow of processing for generating an image (hereinafter referred to as “live view image”) used for live view display in the image processing unit 204. In the live view image, an image imitating a prism type such as a split prism (hereinafter referred to as “prism type image”) is displayed at the position determined as the focus area. As described above, the prism type includes a micro prism and a split prism. The difference between the two is only whether the prism area described later is finely divided or divided into two. Hereinafter, a case where a live view image in which an image similar to a split prism (hereinafter referred to as “split prism image”) is displayed as a prism type image in the focus area will be described as an example. Of course, live view display is performed using a live view image in which an image simulating a microprism (hereinafter referred to as a “microprism image”) is displayed, or a live view image using both a split prism image and a microprism image. May be.

図2の(b)は、本実施例に係る画像処理部204の内部構成を示すブロック図である。   FIG. 2B is a block diagram illustrating an internal configuration of the image processing unit 204 according to the present embodiment.

画像処理部204は、フォーカスエリア決定部220、分割方向決定部230、撮像部決定部240、ライブビュー画像生成部250で構成される。なお、本処理は、不図示のROMからRAMに読み込まれたプログラムをCPU200が実行することによって実現される。   The image processing unit 204 includes a focus area determination unit 220, a division direction determination unit 230, an imaging unit determination unit 240, and a live view image generation unit 250. This process is realized by the CPU 200 executing a program read from a ROM (not shown) into the RAM.

ステップ401において、フォーカスエリア決定部220は、フォーカスエリアを決定する。ここで、フォーカスエリアとは、ファインダ像内(ライブビュー画像内)のどの位置をフォーカスするかを示すエリアである。タッチパネル209を介してユーザが指定した場合には当該指定位置を中心とする位置にフォーカスエリアを決定する。ユーザの指定がない場合には、デフォルトの位置(例えば、画面中央)にフォーカスエリアを決定する。そして、フォーカスエリアに決定された領域にスプリットプリズムイメージが表示されることになる。図5は、フォーカスエリアの位置の一例を示す図であり、図5の(a)は画面中央に配置された場合、図5の(b)は画面のやや左上方に配置された場合をそれぞれ示している。   In step 401, the focus area determination unit 220 determines a focus area. Here, the focus area is an area indicating which position in the finder image (in the live view image) is to be focused. When the user designates via the touch panel 209, the focus area is determined at a position centered on the designated position. When there is no user designation, the focus area is determined at a default position (for example, the center of the screen). Then, the split prism image is displayed in the area determined as the focus area. FIG. 5 is a diagram showing an example of the position of the focus area. FIG. 5A shows the case where the focus area is arranged at the center of the screen, and FIG. 5B shows the case where it is arranged slightly on the left of the screen. Show.

ステップ402において、分割方向決定部230は、スプリットプリズムイメージの分割方向を決定する。ユーザは、カメラ設定メニューにて、複数の選択候補の中から任意の方向を一つ選択できる。図6は、カメラ設定メニューで表示されるスプリットプリズムイメージの分割方向の選択候補の一例を示す図である。図6では、選択候補として(i)〜(iv)の4種類のスプリットプリズムイメージの分割方向が存在し、分割方向毎に使用される撮像部が対応付けられており、それぞれ黒塗りの四角で示されている。カメラ設定メニューにおいて、ユーザが所定の方向を指定した場合には当該指定された方向をスプリットプリズムイメージの分割方向に決定する。ユーザがこの設定を省略した場合には、デフォルトの位置(例えば、水平方向)にスプリットプリズムイメージの分割方向を決定する。   In step 402, the division direction determination unit 230 determines the division direction of the split prism image. The user can select one arbitrary direction from a plurality of selection candidates on the camera setting menu. FIG. 6 is a diagram illustrating an example of selection candidates for the split direction of the split prism image displayed in the camera setting menu. In FIG. 6, there are four types of split prism image division directions (i) to (iv) as selection candidates, and the imaging units used for each division direction are associated with each other, and each is represented by a black square. It is shown. When the user designates a predetermined direction in the camera setting menu, the designated direction is determined as the split direction of the split prism image. If the user omits this setting, the division direction of the split prism image is determined at a default position (for example, the horizontal direction).

ステップ403において、撮像部決定部240は、決定されたスプリットプリズムイメージの分割方向に応じて、上記所定の撮像部(図6参照)を、ライブビュー画像の生成に使用する撮影画像の撮像部として決定する。   In step 403, the imaging unit determination unit 240 uses the predetermined imaging unit (see FIG. 6) as a captured image imaging unit used for generating a live view image according to the determined split direction of the split prism image. decide.

ステップ404において、ライブビュー画像生成部250は、決定された撮像部の撮影画像を合成し、ライブビュー画像を生成する。図7は、本ステップにおける合成処理の内容を視覚的に表現した説明図である。図7の(a)は、スプリットプリズムイメージの分割方向として図6の(i)で示す水平方向が決定された場合に生成されるライブビュー画像を示している。また、図7の(b)は、スプリットプリズムイメージの分割方向として図6の(ii)で示す右斜め45度の方向が決定された場合に生成されるライブビュー画像を示している。なお、図7の(b)においては、指定されたスプリットプリズムイメージの分割方向を示すライン716上に黒塗りの四角で示される撮像部が存在しない。そのため、ライン716に隣接する2つの撮像部で撮影された画像の補間画像、具体的には、撮像部712と713で撮影された画像の補間画像、及び撮像部714と715で撮影された画像の補間画像を使用してライブビュー画像が生成されている。   In step 404, the live view image generation unit 250 synthesizes the determined captured images of the imaging unit to generate a live view image. FIG. 7 is an explanatory diagram visually expressing the contents of the synthesis process in this step. FIG. 7A shows a live view image generated when the horizontal direction shown in FIG. 6I is determined as the split direction of the split prism image. FIG. 7B shows a live view image generated when the direction of 45 degrees to the right shown in (ii) of FIG. 6 is determined as the split direction of the split prism image. In FIG. 7B, there is no imaging unit indicated by a black square on the line 716 indicating the division direction of the designated split prism image. Therefore, an interpolated image of images taken by two imaging units adjacent to the line 716, specifically, an interpolated image of images taken by the imaging units 712 and 713, and an image taken by the imaging units 714 and 715 A live view image is generated using the interpolated image.

<ライブビュー画像生成処理>
ライブビュー画像生成処理は、ライトフィールドフォトグラフィにおけるリフォーカス処理の考え方をベースにしている。そこで、リフォーカス処理についてまず説明し、その後にライブビュー画像生成処理について説明する。
<Live view image generation processing>
Live view image generation processing is based on the concept of refocus processing in light field photography. Therefore, the refocus process will be described first, and then the live view image generation process will be described.

リフォーカス処理
リフォーカス処理とは、多視点画像を合成し、任意の撮影距離、任意の被写界深度の画像を生成する処理である。具体的には、被写界深度を決定するための仮想絞りパラメータ、撮影距離に相当する仮想撮影距離と撮像装置情報に基づいて、各多視点画像をシフトした後に重み付け加算して出力画像を得る。図8は、リフォーカス処理の流れを示すフローチャートである。
Refocusing process The refocusing process is a process for synthesizing multi-viewpoint images and generating an image with an arbitrary shooting distance and an arbitrary depth of field. Specifically, based on the virtual aperture parameter for determining the depth of field, the virtual shooting distance corresponding to the shooting distance, and the imaging device information, each multi-viewpoint image is shifted and weighted and added to obtain an output image. . FIG. 8 is a flowchart showing the flow of the refocus process.

まず、仮想絞りパラメータに基づいて各撮像部の撮影画像に対する重み係数が、ガウス関数に従って算出される(ステップ801)。図9の(a)は、仮想絞りパラメータと重み係数の関係を示している。図9の(a)において、wmは任意の対象撮像部Pmにおける重み係数を示し、Lmはセンター撮像部Pcから対象撮像部Pmまでの距離を示す(図9の(b)参照)。被写界深度は、ガウス関数を決定する標準偏差の値が小さいほど深くなり、標準偏差の値が大きいほど浅くなることが分かる。 First, a weighting coefficient for a captured image of each imaging unit is calculated according to a Gaussian function based on the virtual aperture parameter (step 801). FIG. 9A shows the relationship between the virtual aperture parameter and the weighting coefficient. In FIG. 9A, w m represents a weighting factor in an arbitrary target imaging unit P m , and L m represents a distance from the center imaging unit P c to the target imaging unit P m ((b) in FIG. 9). reference). It can be seen that the depth of field becomes deeper as the standard deviation value that determines the Gaussian function is smaller and becomes shallower as the standard deviation value is larger.

次に、各撮像部による撮影画像のシフト量が、仮想撮影距離に基づいて算出される(ステップ802)。仮想撮影距離をdとした場合の対象画像Imの水平方向のシフト量Δi(m,d)及び垂直方向のシフト量Δj(m,d)は、以下の式(1)で表される。 Next, the shift amount of the captured image by each imaging unit is calculated based on the virtual imaging distance (step 802). Horizontal shift amount Δi of the target image I m when the virtual object distance was d (m, d) and vertical shift amount .DELTA.j (m, d) is represented by the following formula (1).

ここで、W、Hはそれぞれ画像の水平方向、垂直方向の画像サイズ、θwは撮像部の水平視野角、θhは撮像部の垂直視野角である。また、(sm,tm)は、図9の(b)のxy平面上における対象撮像部Pmの位置座標、(s’,t’)はxy平面上におけるセンター撮像部Pcの位置座標である。 Here, W and H are the horizontal and vertical image sizes of the image, θ w is the horizontal viewing angle of the imaging unit, and θ h is the vertical viewing angle of the imaging unit. Further, (s m , t m ) is the position coordinate of the target imaging unit P m on the xy plane of FIG. 9B, and (s ′, t ′) is the position of the center imaging unit P c on the xy plane. Coordinates.

最後に、ステップ802で算出したシフト量に応じてずらした画像を、ステップ801で算出した重み係数をかけて合成する(ステップ803)。当該合成処理によって得られる出力画像Hは、次式で表される。   Finally, the image shifted according to the shift amount calculated in step 802 is combined by applying the weighting factor calculated in step 801 (step 803). An output image H obtained by the synthesis process is expressed by the following equation.

なお、ここでのwmは、対象撮像部Pmによる撮影画像Imに対する重み係数を意味する。 Incidentally, w m here means the weighting factor for the captured image I m by the target imaging unit P m.

以上のような処理により、各撮像部の撮影画像を、仮想撮影距離dに近いほど像のずれが少なくなるように画像を重ね合わせて合成することができ、仮想撮影距離dにピントが合った画像を得ることができる。また、仮想絞りパラメータに応じて重み係数を決定することで、アウトフォーカス部分のぼけ量をコントロールすることができる。   Through the processing as described above, the captured images of the respective imaging units can be superimposed and combined so that the image shift is smaller as the virtual shooting distance d is closer, and the virtual shooting distance d is in focus. An image can be obtained. In addition, by determining the weighting factor according to the virtual aperture parameter, it is possible to control the amount of blur in the out-of-focus portion.

ライブビュー画像生成処理
上述したリフォーカス処理と同様の考え方で撮影画像をずらすことで、プリズムタイプ画像(フォーカスエリア)を任意の位置に表示したライブビュー画像を生成することができる。リフォーカス処理では、各撮像部による撮影画像のずれ量を、ピントが合っている部分は小さくし、ピントが外れるほど大きくなるようにして画像を合成した。同様に、指定された撮影距離に応じて各撮像部による撮影画像をずらして表示することで、仮想的にスプリットプリズムを実現したスプリットプリズムイメージを生成することができる。
Live View Image Generation Processing A live view image in which a prism type image (focus area) is displayed at an arbitrary position can be generated by shifting the captured image in the same way as the refocus processing described above. In the refocusing process, the amount of deviation of the captured image by each imaging unit is reduced at the in-focus portion, and the image is synthesized so as to increase as the focus is removed. Similarly, a split prism image that virtually realizes a split prism can be generated by shifting and displaying the captured images by the respective imaging units in accordance with the designated shooting distance.

図10は、ライブビュー画像生成処理の流れを示すフローチャートである。   FIG. 10 is a flowchart showing the flow of live view image generation processing.

まず、各プリズム領域に、図4のフローチャートのステップ403で決定された撮像部がそれぞれ関連付けられる(ステップ1001)。ここで、プリズム領域とは、フォーカスエリアとして決定された位置に表示されるプリズムタイプ画像の構成要素である。例えば、スプリットプリズムイメージの場合は、2つに分割された領域のそれぞれの領域を指す(以下、一方の領域を「プリズム領域RA」、他方の領域を「プリズム領域RB」として説明する)。図11は、各プリズム領域と撮像部との関連付けを説明する図である。図11の例では、上半分のプリズム領域RAには右端中央の撮像部PAが、下半分のプリズム領域RBには左端中央の撮像部PBが、それぞれ関連付けられている。 First, the imaging units determined in step 403 of the flowchart of FIG. 4 are associated with each prism area (step 1001). Here, the prism area is a component of the prism type image displayed at the position determined as the focus area. For example, in the case of a split prism image, it refers to each of the two divided areas (hereinafter, one area is described as “prism area R A ” and the other area as “prism area R B ”). . FIG. 11 is a diagram illustrating the association between each prism region and the imaging unit. In the example of FIG. 11, the upper half of the prism region R A right end center of the imaging unit P A is the prism region R B of the lower half left center of the imaging unit P B, respectively associated with.

次に、リフォーカス処理と同様、図4のフローチャートのステップ403で選択された撮像部による撮影画像のシフト量を計算する(ステップ1002)。   Next, as in the refocus process, the shift amount of the captured image by the imaging unit selected in step 403 of the flowchart of FIG. 4 is calculated (step 1002).

シフト量を計算すると、続いて、プリズム領域RA及びプリズム領域RBの位置を取得する(ステップ1003)。 When calculating the shift amount, subsequently, to obtain the position of the prism region R A and the prism region R B (step 1003).

最後に、各撮像部から得た撮影画像を合成して、ライブビュー画像を生成する(ステップ1004)。ここで、リフォーカス処理におけるステップ803では、各撮像部の撮影画像に対して重み付け加算して合成を行っていた。本処理においては、生成されるライブビュー画像のエリア毎に、異なる撮像部で撮影された画像(画素)を使用した合成処理を行う。具体的に、どのエリアにどの撮像部の撮影画像の画素を使用するのかについては、以下のとおりである。
プリズム領域RAのエリア: 撮像部PAの撮影画像IAの画素
プリズム領域RBのエリア: 撮像部PBの撮影画像IBの画素
その他のエリア : センター撮像部Pcの撮影画像ICの画素
Finally, the captured images obtained from the respective imaging units are combined to generate a live view image (step 1004). Here, in step 803 in the refocusing process, weighted addition is performed on the captured image of each imaging unit to perform synthesis. In this process, for each area of the live view image to be generated, a composition process using images (pixels) photographed by different imaging units is performed. Specifically, in which area the pixel of the captured image of which imaging unit is used is as follows.
Area of the prism region RA : Pixels of the captured image I A of the imaging unit P A Area of the prism region R B : Pixels of the captured image I B of the imaging unit P B Other areas: Captured image I C of the center imaging unit P c Pixels

本合成処理によって生成されるライブビュー画像をSとした場合、Sを構成する画素の画素値は次式で表される。   When the live view image generated by the synthesis process is S, the pixel value of the pixels constituting S is expressed by the following equation.

図12は、本合成処理の内容を視覚的に表現した説明図である。上記のとおり、プリズム領域RAのエリアには撮像部PAの撮影画像IAの画素、プリズム領域RBのエリアには撮像部PBの撮影画像IBの画素、その他のエリアにはセンター撮像部Pcの撮影画像ICの画素が、それぞれ使用されることが示されている。 FIG. 12 is an explanatory diagram visually representing the contents of the composition process. As described above, the pixels of the captured image I A of the imaging section P A is the area of the prism region R A, the pixels of the captured image I B of the image pickup unit P B in the area of the prism region R B, in other areas Center It is shown that the pixels of the captured image I C of the imaging unit P c are used.

上記のようにして生成されたライブビュー画像が画像表示部107に表示され、ライブビュー表示が行われる。   The live view image generated as described above is displayed on the image display unit 107, and live view display is performed.

本実施例では、スプリットプリズムイメージを撮影者が認識しやすくなるようにセンター撮像部Pcの撮影画像Icの輝度を調整することで、ライブビュー画像内におけるスプリットプリズムイメージの範囲(フォーカスエリア)を周囲から目立たせる。すなわち、プリズムタイプ画像以外の部分の画素に用いられる撮影画像Icについて、例えばα=0.7として、当該部分の輝度を落とす。図13は、撮影画像Icの輝度を落とすことで、左斜め上に位置するスプリットプリズムイメージの範囲を周囲から目立たせたライブビュー画像の一例である。 In the present embodiment, the range (focus area) of the split prism image in the live view image is adjusted by adjusting the brightness of the captured image I c of the center imaging unit P c so that the photographer can easily recognize the split prism image. Make it stand out from the surroundings. That is, the captured image I c used in the pixel in the portion other than the prism-type images, as for example, alpha = 0.7, dimming of the partial. 13, by decreasing the luminance of the captured image I c, which is an example of a live view image stand out the scope of the split prism image from the surroundings is located in the upper left.

なお、スプリットプリズムイメージに代えてマイクロプリズムイメージを採用する場合には、例えば、プリズム領域RAとプリズム領域RBをタイル状に交互に配置することでマイクロプリズムイメージを実現できる。あるいは、図14の(a)のようにセンター撮像部Pcの上下左右に位置する撮像部、又は図14の(b)のようにセンター撮像部Pcの右斜め上、右斜め下、左斜め上、左斜め下に位置する撮像部の撮影画像を使用し、4視差の画像をタイル状に並べても良い。さらに、スプリットプリズムイメージとマイクロプリズムイメージとを組み合せ、フォーカスエリアの中心にスプリットプリズムイメージを配し、スプリットプリズムイメージの周囲にマイクロプリズムイメージを配するようにしてもよい。 In the case of adopting the microprisms image instead of the split prism image, for example, a prism region R A and the prism region R B can be realized microprism image by alternately arranging tiles. Alternatively, the imaging unit is positioned above and below the right and left center imaging unit P c as shown in (a) of FIG. 14, or FIG. 14 (b) like the center upper right of the image pickup unit P c, lower right, left A captured image of the imaging unit located diagonally above and diagonally to the left may be used, and four parallax images may be arranged in a tile shape. Further, the split prism image and the micro prism image may be combined, the split prism image may be disposed at the center of the focus area, and the micro prism image may be disposed around the split prism image.

以上のとおり、本実施例に係る画像処理の方法によれば、フォーカスのずれを像のずれとして確認することが可能なライブビュー表示が可能となり、電子ファインダ式を採用した多眼カメラにおいても迷いの無い正確なフォーカシング操作を行うことができる。   As described above, according to the image processing method according to the present embodiment, it is possible to perform live view display in which a focus shift can be confirmed as an image shift, and even a multi-view camera adopting an electronic viewfinder method is at a loss. It is possible to perform an accurate focusing operation without any problem.

[実施例2]
実施例1では、ライブビュー画像内におけるフォーカスエリアの範囲を明確にするため、センター撮像部Pcによる撮影画像Icの輝度を調整しすることでフォーカスエリア内のプリズムタイプ画像を目立たせたライブビュー画像を生成した。次に、フォーカスエリア内は先鋭度が高い像、その他の部分は先鋭度が低い像にして、フォーカスエリアを明確に認識できるようにする態様について実施例2として説明する。なお、実施例1との差異は図10のフローチャートのステップ1004における処理の内容のみであり、その他の部分は共通するので、ここでは差異点について説明することとする。
[Example 2]
In the first embodiment, in order to clarify the focus area range in the live view image, the brightness of the captured image I c by the center imaging unit P c is adjusted to make the prism type image in the focus area stand out. A view image was generated. Next, an embodiment in which an image having a high sharpness in the focus area and an image having a low sharpness in the other areas so that the focus area can be clearly recognized will be described as a second embodiment. Note that the difference from the first embodiment is only the content of the process in step 1004 of the flowchart of FIG. 10 and the other parts are common, so the difference will be described here.

本実施例では、図10のフローチャートのステップ1004において、センター撮像部Pcの撮影画像Icにぼかしフィルタを適用した画像Bcを用意し、これを用いてライブビュー画像Sを生成する。本合成処理によって生成されるライブビュー画像をSとした場合、を構成する画素の画素値は次式で表される。 In this embodiment, in step 1004 of the flowchart of FIG. 10, prepared image B c according to the blur filter to the captured image I c of the center image pickup unit P c, to generate a live view image S by using this. When the live view image generated by the synthesis process is S, the pixel value of the pixels constituting the is expressed by the following equation.

図15は、撮影画像Icの先鋭度を低くすることで、左斜め上に位置するスプリットプリズムイメージの範囲を周囲から目立たせたライブビュー画像の一例である。 15, by lowering the sharpness of the captured image I c, which is an example of a live view image stand out the scope of the split prism image from the surroundings is located in the upper left.

本実施例に係る画像処理の方法によっても、フォーカスのずれを像のずれとして確認することが可能なライブビュー表示が可能となり、電子ファインダ式を採用した多眼カメラにおいても迷いの無い正確なフォーカシング操作を行うことができる。特に、銀塩カメラに慣れ親しんだ撮影者でも違和感の少ないファインダの見えが実現できる。   The image processing method according to the present embodiment also enables live view display in which a focus shift can be confirmed as an image shift, and accurate focusing without any hesitation even in a multi-view camera adopting an electronic viewfinder method. The operation can be performed. In particular, a photographer who is familiar with a silver halide camera can realize a viewfinder with little discomfort.

[実施例3]
実施例1では、スプリットプリズムイメージの分割方向をカメラ設定メニューでユーザの指定に基づいて決定していた。次に、スプリットプリズムイメージの分割方向を自動で決定する態様について、実施例3として説明する。なお、実施例1との差異は図4のフローチャートのステップ402における処理の内容のみであり、その他の部分は共通するので、ここでは差異点について説明することとする。
[Example 3]
In the first embodiment, the split direction of the split prism image is determined based on the user's designation in the camera setting menu. Next, an aspect in which the split direction of the split prism image is automatically determined will be described as a third embodiment. Note that the difference from the first embodiment is only the content of the process in step 402 of the flowchart of FIG. 4, and the other parts are common, so the difference will be described here.

スプリットプリズムによるフォーカシングにおいては、スプリットプリズムの分割方向と直交するエッジが存在するのが望ましい。そこで、本実施例では、センター撮像部Pcの撮影画像Icのうち、スプリットプリズムイメージに対応する部分について直線検出を行い、検出された直線に基づいてスプリットプリズムイメージの分割方向を決定する。直線検出の手法には既知の様々な方法(例えば、ハフ変換)を適用可能である。 In focusing by a split prism, it is desirable that an edge perpendicular to the split direction of the split prism exists. Therefore, in this embodiment, straight line detection is performed on the portion corresponding to the split prism image in the captured image I c of the center imaging unit P c , and the split direction of the split prism image is determined based on the detected straight line. Various known methods (for example, Hough transform) can be applied to the straight line detection method.

図16は、本実施例に係るスプリットプリズムイメージの分割方向を自動決定する処理の流れを示すフローチャートである。   FIG. 16 is a flowchart showing a flow of processing for automatically determining the split direction of the split prism image according to the present embodiment.

まず、分割方向決定部230は、プリズム領域についてエッジを検出する(ステップ1601)。   First, the division direction determination unit 230 detects an edge in the prism area (step 1601).

そして、分割方向決定部230は、検出されたエッジに対してハフ変換を適用し直線を検出する(ステップ1602)。   Then, the division direction determination unit 230 applies a Hough transform to the detected edge to detect a straight line (step 1602).

続いて、分割方向決定部230は、検出された直線と、スプリットプリズムイメージの分割方向との内積を取る(ステップ1603)。   Subsequently, the division direction determination unit 230 takes an inner product of the detected straight line and the division direction of the split prism image (step 1603).

最後に、分割方向決定部230は、内積が最小となるような方向を、スプリットプリズムイメージの分割方向として決定する(ステップ1604)。   Finally, the division direction determination unit 230 determines the direction that minimizes the inner product as the division direction of the split prism image (step 1604).

このように本実施例によれば、スプリットプリズムイメージの分割方向を直線検出の結果に基づいて自動で決定される。したがって、ユーザはスプリットプリズムイメージの分割方向に対し注意を払う必要がなくなり、常に最適な状態でフォーカス操作を行うことが可能になる。   As described above, according to the present embodiment, the division direction of the split prism image is automatically determined based on the result of the straight line detection. Therefore, the user need not pay attention to the split direction of the split prism image, and the focus operation can always be performed in an optimum state.

Claims (10)

複数の撮像部と、撮影範囲をリアルタイムに表示するライブビュー表示を行う画像表示部とを備えた多眼方式の撮像装置であって、
前記ライブビュー表示におけるフォーカスエリアの位置を決定するフォーカスエリア決定手段と、
前記複数の撮像部のうちの所定の撮像部で撮影された視差のある画像を用いてプリズムタイプ画像を生成し、当該生成されたプリズムタイプ画像を前記フォーカスエリア決定手段で決定された位置に配置したライブビュー画像を生成するライブビュー画像生成手段と
を備えることを特徴とする多眼方式の撮像装置。
A multi-lens imaging device including a plurality of imaging units and an image display unit that performs live view display for displaying a shooting range in real time,
Focus area determining means for determining the position of the focus area in the live view display;
A prism type image is generated using a parallax image captured by a predetermined imaging unit among the plurality of imaging units, and the generated prism type image is arranged at a position determined by the focus area determining unit. And a live view image generating means for generating a live view image.
前記ライブビュー画像生成手段は、前記プリズムタイプ画像以外の部分について、輝度を落としたライブビュー画像を生成することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the live view image generation unit generates a live view image with reduced brightness for a portion other than the prism type image. 前記ライブビュー画像生成手段は、前記プリズムタイプ画像以外の部分について、先鋭度を低くしたライブビュー画像を生成することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the live view image generation unit generates a live view image with a low sharpness for a portion other than the prism type image. 前記プリズムタイプ画像は、スプリットプリズムを仮想的に表現したスプリットプリズムイメージであることを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the prism type image is a split prism image that virtually represents a split prism. 前記プリズムタイプ画像は、マイクロプリズムを仮想的に表現したマイクロプリズムイメージであることを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the prism type image is a microprism image that virtually represents a microprism. 前記スプリットプリズムイメージの分割方向を決定する分割方向決定手段をさらに備え、
前記分割方向と前記複数の撮像部とは関連付けられており、
前記ライブビュー画像生成手段は、決定された分割方向に基づき、前記関連付けられた撮像部で撮影された前記視差のある画像を用いて、前記スプリットプリズムイメージを生成する
ことを特徴とする請求項4に記載の撮像装置。
A split direction determining means for determining a split direction of the split prism image;
The division direction and the plurality of imaging units are associated with each other,
5. The live view image generation unit generates the split prism image using the parallax image captured by the associated imaging unit based on the determined division direction. The imaging device described in 1.
前記分割方向決定手段は、ユーザからの指定に基づいて、前記プリズムタイプ画像の分割方向を決定することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the division direction determination unit determines a division direction of the prism type image based on designation from a user. 前記分割方向決定手段は、前記プリズムタイプ画像の生成に用いられる画像の前記スプリットプリズムイメージに対応する部分について直線検出を行い、当該直線検出の結果に基づいて、前記スプリットプリズムイメージの分割方向を決定することを特徴とする請求項6に記載の撮像装置。   The division direction determining unit performs straight line detection on a portion corresponding to the split prism image of an image used for generating the prism type image, and determines a split direction of the split prism image based on a result of the straight line detection. The imaging apparatus according to claim 6. 複数の撮像部と、撮影範囲をリアルタイムに表示するライブビュー表示を行う画像表示部とを備えた多眼方式の撮像装置におけるフォーカシングのための方法であって、
前記ライブビュー表示におけるフォーカスエリアの位置を決定するフォーカスエリア決定ステップと、
前記複数の撮像部のうちの所定の撮像部で撮影された視差のある画像を用いてプリズムタイプ画像を生成し、当該生成されたプリズムタイプ画像を前記フォーカスエリア決定ステップで決定された位置に配置したライブビュー画像を生成するライブビュー画像生成ステップと
を含むことを特徴とする方法。
A method for focusing in a multi-lens imaging device including a plurality of imaging units and an image display unit that performs live view display for displaying a shooting range in real time,
A focus area determination step for determining a position of the focus area in the live view display;
A prism type image is generated using a parallax image captured by a predetermined imaging unit among the plurality of imaging units, and the generated prism type image is arranged at the position determined in the focus area determination step. A live view image generating step for generating a live view image.
コンピュータを請求項1〜8の何れか1項に記載の撮像装置として機能させるためのプログラム。   The program for functioning a computer as an imaging device of any one of Claims 1-8.
JP2011267724A 2011-12-07 2011-12-07 Image capturing method, image capturing apparatus, and program Active JP5822700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011267724A JP5822700B2 (en) 2011-12-07 2011-12-07 Image capturing method, image capturing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011267724A JP5822700B2 (en) 2011-12-07 2011-12-07 Image capturing method, image capturing apparatus, and program

Publications (2)

Publication Number Publication Date
JP2013121050A JP2013121050A (en) 2013-06-17
JP5822700B2 true JP5822700B2 (en) 2015-11-24

Family

ID=48773502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011267724A Active JP5822700B2 (en) 2011-12-07 2011-12-07 Image capturing method, image capturing apparatus, and program

Country Status (1)

Country Link
JP (1) JP5822700B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3035282A4 (en) 2013-09-11 2017-07-05 Sony Corporation Image processing device and method
JP6126034B2 (en) * 2014-03-26 2017-05-10 富士フイルム株式会社 Imaging apparatus and display method thereof
WO2018088212A1 (en) * 2016-11-08 2018-05-17 ソニー株式会社 Image processing device, image processing method, and program
CN109923853B (en) * 2016-11-08 2021-03-26 索尼公司 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2013121050A (en) 2013-06-17

Similar Documents

Publication Publication Date Title
JP4497211B2 (en) Imaging apparatus, imaging method, and program
JP5214826B2 (en) Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium
JP5595499B2 (en) Monocular stereoscopic imaging device
JP5127787B2 (en) Compound eye photographing apparatus and control method thereof
JP5368350B2 (en) Stereo imaging device
JP6838994B2 (en) Imaging device, control method and program of imaging device
JPH09181966A (en) Image processing method and device
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
JP2009054130A (en) Image processor, image processing method, and digital still camera
JP2010093422A (en) Imaging apparatus
JP5263310B2 (en) Image generation apparatus, imaging apparatus, and image generation method
CN104853066B (en) Camera device, image capture method
JP2010050502A (en) Image processor, image processing method, and image processing program
JPWO2013038863A1 (en) Monocular stereoscopic photographing apparatus, photographing method and program
WO2013146066A1 (en) Image processing device and method, and imaging device
JP2011229116A (en) Image processing device, compound-eye digital camera, and program
JP5822700B2 (en) Image capturing method, image capturing apparatus, and program
JP2010091669A (en) Imaging device
JP5611469B2 (en) Stereoscopic imaging apparatus and method
US20160275657A1 (en) Imaging apparatus, image processing apparatus and method of processing image
JP2016018116A (en) Focus adjustment device, focus adjustment method and program, and imaging apparatus
JP2010177860A (en) Image composition apparatus, imaging apparatus, and image composition method
US8004598B2 (en) Focus adjustment apparatus and image capturing apparatus
JP2013017125A (en) Imaging apparatus and display method for monitoring image of the same
JP2006267767A (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151006

R151 Written notification of patent or utility model registration

Ref document number: 5822700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151