WO2012132277A1 - 撮影装置およびライブビュー画像表示方法 - Google Patents

撮影装置およびライブビュー画像表示方法 Download PDF

Info

Publication number
WO2012132277A1
WO2012132277A1 PCT/JP2012/001739 JP2012001739W WO2012132277A1 WO 2012132277 A1 WO2012132277 A1 WO 2012132277A1 JP 2012001739 W JP2012001739 W JP 2012001739W WO 2012132277 A1 WO2012132277 A1 WO 2012132277A1
Authority
WO
WIPO (PCT)
Prior art keywords
point
depth
live view
focus
field
Prior art date
Application number
PCT/JP2012/001739
Other languages
English (en)
French (fr)
Inventor
雅孝 三宅
安齋 潤
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2012132277A1 publication Critical patent/WO2012132277A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/30Focusing aids indicating depth of field
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics

Definitions

  • the depth of field is the distance in focus, and if the depth of field is shallow, only one of two subjects with different distances is in focus, and one of them is blurred. On the other hand, when the depth of field is deep, both close and far objects will be in focus when taken together.
  • FIG. 7 shows an image including an indicator 702 indicating the depth of field, that is, a focused range, and character information 703 that represents the range of the depth of field in characters on the captured image of the subject. (See, for example, Patent Document 2).
  • the user designates a plurality of in-focus points so that the in-focus state as intended by the user can be realized, and these points are There is known a method of setting an aperture (F value) by calculation so that all are in focus and the entire area defined by those points is in focus.
  • Patent Document 3 the technique described in Patent Document 3 is such that the user designates a plurality of focusing points, all these points are in focus, and the entire area defined by these points is in focus. (F value) is set by calculation, but it is only to focus on the selected in-focus point or the area defined by them, and other parts than the selected in-focus point, for example, backgrounds 803 and 808 in FIG. The user does not know how the image will appear.
  • An imaging device of the present invention includes an imaging element that images a subject, a lens that forms an image of the subject on the imaging element, an aperture determination unit that determines an aperture value of an aperture that adjusts the brightness of the lens, An AF control unit for specifying a focal point, an AF distance measuring unit for detecting the distance from the own apparatus to the focal point and other points in the subject, the distance detected by the AF distance measuring unit, and the aperture value
  • An AF control unit for specifying a focal point
  • an AF distance measuring unit for detecting the distance from the own apparatus to the focal point and other points in the subject, the distance detected by the AF distance measuring unit, and the aperture value
  • a depth-of-field calculating unit that calculates the depth of field at each point, a conversion table that stores a correlation between the depth of field and the pop-out amount, and the object based on the conversion table.
  • a preview image generation unit that generates a preview image by replacing the difference between the depth of field of another point calculated by the depth-of-field calculation unit
  • the live view image display method of the present invention is a method of performing autofocus / automatic exposure at the center point of the display screen and displaying the live view image on the display screen when half-pressing of the shutter is detected.
  • the live view image display method of the present invention it is possible to clearly recognize the degree of blurring, which part is blurred, and where the degree of blur is the same, and the focus point and the blur condition. It is possible to easily take a photograph intended by the user while linking the two.
  • the live view image display method of the present invention includes a step of changing an aperture value (F value) when a release of a shutter is detected and a left / right flick of the display screen is detected, and a center of the display screen
  • F value aperture value
  • a focus point that minimizes the distance difference between each point is calculated while the aperture value (F value) is fixed, and the focus point is moved; and the center of the display screen
  • the live view image display method of the present invention it is possible to surely perform shooting by alerting that the camera needs to be fixed in order to capture the image intended by the user.
  • the live view image display method of the present invention it is possible to adjust the degree of blur for each divided portion of the captured image by increasing the distance measuring points.
  • the distance measurement points it is possible to roughly set the degree of blur, and to provide the user with a degree of freedom of setting.
  • the distance between a plurality of points is measured, and it is clearly determined whether the depth of field is in reference to the in-focus point. If the image is deviated, and if it is off, the photograph intended by the user can be easily taken by changing the 3D depth according to the degree of the deviation.
  • FIG. 6 is a flowchart for explaining a live view image display method according to an embodiment of the present invention. In the conventional method, an image including depth of field and character information is displayed superimposed on a captured image of a subject.
  • (A), (b) is an example which changes the F value set so that it can focus on the several focus point designated on the LCD screen in the conventional method.
  • FIG. 1 is a diagram for explaining a schematic configuration of a photographing apparatus according to an embodiment of the present invention.
  • the photographing apparatus of the present embodiment includes a liquid crystal display (LCD) 101 that displays a live view image, a touch panel 102 that adjusts the live view image according to touch and flick, and a 3D lens that captures a 3D image.
  • LCD liquid crystal display
  • a lens 103 an AE control unit 104 that controls automatic exposure (AE), an AF control ranging control unit 105 that controls ranging in autofocus (AF), and a ranging point that stores the distance to the ranging point
  • AE automatic exposure
  • ranging point that stores the distance to the ranging point
  • a distance storage unit 106 a distance measurement number control unit 107 that controls the number of distance measurement points on the LCD 101, an overall control unit 108 that controls the entire photographing apparatus, and a calculation unit for the depth of field of each distance measurement point.
  • the photographing apparatus displays the distance (displacement amount) from the depth of field at the set aperture value at a plurality of distance measuring points by replacing it with the 3D stereoscopic depth.
  • the same amount of deviation from the depth of field that is, a portion that is blurred to the same extent, has the same amount of 3D depth.
  • the technology for changing the 3D depth itself uses an existing technology.
  • the camera side When the user presses the shutter halfway with the subject A1 at the center point as the focus point, autofocus and automatic exposure are performed. That is, after the user focuses on the subject A1 at the center point, the camera side also measures distances at the other four points, that is, the subjects A2, B1, B2, and C, and determines the camera aperture value (F value). From the relationship, determine the degree of out-of-focus (existing technology). The degree of blur is expressed to the user by a 3D effect. In other words, the greater the blur, the deeper the three-dimensional depth (in FIG. 2 (b), the 3D depth is taken in front, but it may be in the back).
  • the photographing apparatus of the present embodiment it is possible to clearly recognize which part is difficult to understand as to the degree of blur, and how much the part is blurred and where the degree of blur is the same.
  • the live view display unit is usually small and difficult to view, and in Patent Document 2, it is difficult to attach an image with an actual image because of numerical values.
  • Patent Document 3 the degree of blur other than the in-focus point is not known. According to the present embodiment, a photograph intended by the user can be easily taken while linking the focus point and the degree of blur.
  • the photographing apparatus of the present embodiment automatically calculates an aperture value (F value) corresponding to the portion and adjusts the aperture value accordingly. Change the 3D stereoscopic depth.
  • FIG. 3 is an explanatory diagram in the case of adjusting the steps shown in FIGS. 2A and 2B so that the photographing intended by the user can be performed.
  • the autofocus (AF) point is changed to the touched point, and when the liquid crystal display screen is flicked, the aperture value (F value) setting is changed.
  • FIG. 3A is a preview image after auto-focusing as in FIG. 2B, where the subjects A1 and A2 are at the same distance from the user, and the subjects B1 and B2 are in front of the subject. C is further in front, and each subject is displayed in 3D. Since the subject A1 is focused, a focus mark (black circle) is displayed on the subject A1, and focus candidate marks (white circles) are displayed on the subjects A2, B1, B2, and C.
  • focus point when the focus point is changed to the subject C in FIG. 3A, when the subject C is touched, the focus point moves to the subject C as shown in FIG. That is, a focus mark (black circle) is attached to the subject C, and focus candidate marks (white circles) are displayed on the subjects A1, A2, B1, and B2.
  • the user can perform desired photographing without being aware of the camera settings only by operating while viewing the live view image.
  • FIG. 4A when the subject A1 is focused, when the shutter speed becomes slower than a certain value, the angle of the stereoscopic image of the subject A1 is changed to warn the user.
  • the speed of change varies depending on the degree of camera shake.
  • FIG. 4B shows how the 3D depth of the subject A1 fluctuates with time and warns the user.
  • FIG. 5 is an explanatory diagram when the size of the adjustment portion is changed by flicking the screen up and down to increase or decrease the distance measurement points.
  • FIG. 5A shows a preview image before autofocus
  • FIG. 5B shows a preview image after autofocus.
  • the subjects A1 and A2 are at the same distance from the user
  • the subjects B1 and B2 are in front
  • the subject C is further in front.
  • the subjects A2 and B1 are grouped into the subject D
  • the subjects B2 and C are grouped into the subject E, as shown in FIG. I ’m going to do it.
  • the upper flick increases the distance measuring point and subdivides the size of the adjustment portion.
  • the photographing apparatus of the present embodiment it is possible to adjust the degree of blur for each portion obtained by dividing the photographed image by increasing the distance measuring points.
  • the distance measurement points it is possible to roughly set the degree of blur, and to provide the user with a degree of freedom of setting.
  • FIG. 6 is a flowchart for explaining the live view image display method according to the embodiment of the present invention.
  • a shutter operation is detected (step S601), and when half-pressing of the shutter is detected, autofocus (AF) / automatic exposure (AE) at the center point of the liquid crystal display screen is performed. (Step S603).
  • AF autofocus
  • AE automatic exposure
  • step S603 On the other hand, when full-pressing of the shutter is detected in step S601, the shutter is immediately released and shooting is performed (step S631).
  • step S605 distance measurement is performed at points other than the center point of the liquid crystal display screen (step S605), and the amount of blur at each point is determined (step S607). Then, a 3D image is synthesized / displayed according to the amount of blur (step S609).
  • step S611 a shutter operation is detected (step S611), and when full-pressing of the shutter is detected, focusing is performed and the shutter is released, and shooting is performed (step S631).
  • step S613 a screen operation is detected (step S613), and when a flick is detected, the aperture value (F value) is changed (step S615).
  • step S613 if a screen operation other than a flick is detected in step S613, another operation is determined (step S617), and if a touch on the center frame of the liquid crystal display screen is detected, an aperture value (F value).
  • F value an aperture value
  • step S625 the amount of blur at each point is determined (step S625), and a 3D image is synthesized / displayed according to the amount of blur (step S627).
  • step S629 a shutter operation is detected (step S629), and if half-pressing of the shutter is detected, the process returns to step 603 and starts again from the beginning. If full-pressing of the shutter is detected, adjustment is performed to release the shutter, and shooting is performed (step S631). On the other hand, if the shutter operation is an operation other than full pressing and half pressing, the process returns to step S613 to continue the adjustment.
  • the distance between a plurality of points is measured, and whether or not it is within the depth of field with reference to the in-focus point. If it is clearly recognizable and deviated, the photograph intended by the user can be easily taken by changing the 3D depth according to the degree of deviation.
  • the present invention can be used as a photographing apparatus and a live view image display method that can easily capture a photograph intended by a user while using a camera equipped with a 3D lens and linking a focus point and a blur condition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる撮影装置を提供する。本撮像装置は、自装置から被写体の中における合焦点および他の点までの距離を検出するAF測距部と、検出された距離と絞り値に基づいて、各点の被写界深度を計算する被写界深度演算部と、他の点の被写界深度と合焦点の被写界深度との差分を飛び出し量に置き換えて、プレビュー画像として生成するプレビュー画像生成部と、を備える。

Description

撮影装置およびライブビュー画像表示方法
 本発明は、撮影装置およびライブビュー画像表示方法に関し、特に、3Dレンズを搭載したカメラを用いて、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる撮影装置およびライブビュー画像表示方法に関する。
 従来、デジタルカメラを用いて被写体の撮影を行なう際、ユーザが被写体の合焦ポイントを指定して撮影できることはよく知られている。しかしながら、合焦したポイント以外の箇所の焦点が合っているか、言い換えるとピントのボケ具合を知るのは困難であった。これは、ピントの合う範囲、つまり被写界深度をライブビューで確認することが困難なことに由来する。
 そこで、オートフォーカス終了後のマニュアルフォーカス動作で、被写界深度に応じた撮影効果を簡易に確認するために、撮影時の絞り(F値)を固定して、ライブビューを表示する(絞り込み測光)技術が知られている(例えば、特許文献1参照)。
 被写界深度とは、ピントが合う距離的な広さのことであり、被写界深度が浅いと、距離が異なる2つの被写体のうちどちらかだけにピントが合い、片方はボケてしまう。一方、被写界深度が深いと、近いものと遠いものを一緒に撮影した時、両方にピントが合う。
 この被写界深度は、被写体までの距離、絞り値等から算出可能なため、合焦する範囲を数値で表すことが可能である。このため、被写界深度を容易に確認するために、オートフォーカス時に絞り(F値)、および被写体までの距離から被写界深度を計算し、被写界深度をユーザに報知する技術が知られている。
 図7は、表示部701の下側に、被写界深度、すなわちピントの合う範囲を表すインジケータ702および被写界深度の範囲を文字で表した文字情報703を含む画像を被写体の撮像画像上に重ねて表示させたものである(例えば、特許文献2参照)。
 また、遠近競合する画像であっても、ユーザの意図通りとなるような合焦状態を実現して撮影を行なうことができるように、ユーザが複数の合焦ポイントを指定し、それらのポイントが全て合焦、またそれらのポイントにより規定されたエリア全体が合焦点するように、絞り(F値)を計算により設定する方法が知られている。
 図8(a)は、液晶表示(LCD)画面802上に指定した複数の合焦ポイント801,804で合焦できるように、設定するF値を変更する例であり、図8(b)は、液晶表示画面807上に指定した複数の合焦ポイント805,809で規定されるエリア806を合焦できるように、設定するF値を変更する例である(例えば、特許文献3参照)。
 また一方で最近の3D技術では、被写体を立体的に表示したり、その立体角度や立体の深さを変えることが可能となっている。
日本国特開2005-184657号公報 日本国特開2003-319246号公報 日本国特許第3607237号明細書
 デジタルカメラで被写体を撮影する場合、デジタルカメラに搭載された液晶表示画面において実際にプレビューで見える画像と、撮影した画像を印刷もしくは、パソコン(PC)等により表示した時に見える画像とでは、映り方が違っている。
 また、撮影時に被写体にオートフォーカス枠をあててフォーカスを合わせても、プレビュー画像では、オートフォーカス枠以外の箇所がどの程度ボケているか分からず、できあがる写真をイメージして、撮影することができない。
 特許文献1に記載された解決法は、撮影時の絞りに対してライブビューで表示することを対策としているが、その場合、F値を大きくしていくと画面が暗くなり、ボケ具合が分りにくくなったり、実際の明るさとは違うため、意図した写真を取りづらくなる。
 また、特許文献2に記載された技術は、オートフォーカス時に絞り値(F値)、および被写体までの距離から被写界深度を計算して、その被写界深度をユーザに報知するものであり、図7に示すようにカメラからの距離が10cm~30cmの範囲にピントがあっていることを示すことができるが、実際の写真のイメージが掴みにくい。
 また、特許文献3に記載された技術は、ユーザが複数の合焦ポイントを指定し、それらのポイントが全て合焦、またそれらのポイントにより規定されたエリア全体が合焦点するように、絞り値(F値)を計算により設定するが、選択した合焦ポイントもしくは、それらによって規定されたエリアを合焦することのみであり、選択した合焦ポイント以外の部分、例えば図8における背景803,808の写り方がどのようになるかユーザには分からない。
 本発明は、上記従来の事情に鑑みてなされたものであって、3Dレンズを搭載したカメラを用いて、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる撮影装置およびライブビュー画像表示方法を提供することを目的としている。
 本発明の撮影装置は、被写体を撮像する撮像素子と、前記撮像素子に前記被写体の像を結像するレンズと、前記レンズの明るさを調節する絞りの絞り値を決定する絞り決定部と、合焦点を指定するAF制御部と、自装置から被写体の中における合焦点および他の点までの距離を検出するAF測距部と、前記AF測距部で検出された距離と前記絞り値に基づいて、各点の被写界深度を計算する被写界深度演算部と、前記被写界深度と飛び出し量との相関関係を記憶する変換テーブルと、前記変換テーブルに基づいて、前記被写界深度演算部で計算された他の点の被写界深度と前記合焦点の被写界深度との差分を飛び出し量に置き換えて、プレビュー画像として生成するプレビュー画像生成部と、を備えた撮影装置である。
 本発明の撮影装置によれば、複数のポイントの距離を測定し、それが合焦ポイントを基準とした被写界深度に入っているか、また外れている場合は、そのはずれ程度に応じて、3Dの深さを変化させることにより、ユーザの意図する写真を容易に写すことができる。
 また、本発明のライブビュー画像表示方法は、シャッターの半押しが検出された場合に、表示画面の中心点でオートフォーカス/自動露出を行ない、前記表示画面にライブビュー画像を表示する方法であって、前記表示画面の中心点以外の他のポイントで距測を行なうステップと、前記各ポイントのボケ量を決定するステップと、前記各ボケ量に応じて3D画像を合成/表示するステップと、を有するライブビュー画像表示方法である。
 本発明のライブビュー画像表示方法によれば、ボケ具合という分かり難さを、どの部分がどの程度ボケるのか、またボケの程度が同じ箇所はどこかを明確に認識でき、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる。
 また、本発明のライブビュー画像表示方法は、シャッターのリリースが検出され、さらに前記表示画面の左右フリックが検出された場合に、絞り値(F値)を変更するステップと、前記表示画面の中心枠のタッチが検出された場合に、前記絞り値(F値)を固定したまま、各ポイントの距離差分が最小となるフォーカス点を算出し、フォーカス点を移動するステップと、前記表示画面の中心枠以外のタッチが検出された場合に、前記絞り値(F値)を固定したまま、タッチ箇所にフォーカス点を移動するステップと、を有するライブビュー画像表示方法である。
 本発明のライブビュー画像表示方法によれば、ユーザはライブビューイメージを見ながら操作するのみで、カメラの設定を意識することなく、所望の撮影が可能となる。
 また、本発明のライブビュー画像表示方法は、変更した絞り値(F値)が一定値以上となった場合に、その超過程度に応じて、3D画像の一部を動作させ、ユーザに警告を行なうステップ、を有するライブビュー画像表示方法である。
 本発明のライブビュー画像表示方法によれば、ユーザの意図した画像を撮影するために、カメラを固定させる必要があることを注意喚起することで、撮影を確実に行なわせることが可能となる。
 また、本発明のライブビュー画像表示方法は、前記表示画面の上下フリックが検出された場合に、測距ポイントの領域の大きさを変化させ、前記測距ポイントの数を増減させるステップ、を有するライブビュー画像表示方法である。
 本発明のライブビュー画像表示方法によれば、測距点を増やすことで、撮影画像を分割した部分毎にボケの程度を調整することが可能となる。一方、測距点を減らすことで、大まかにボケの程度を設定することが可能となり、ユーザに設定の自由度を提供することが可能となる。
 以上説明したように、本発明にかかる撮影装置およびライブビュー画像表示方法によれば、複数のポイントの距離を測定し、それが合焦ポイントを基準とした被写界深度に入っているかを明瞭に認識でき、また外れている場合は、そのはずれ程度に応じて、3Dの深さを変化させることにより、ユーザの意図する写真を容易に写すことができる。
本発明の実施の形態にかかる撮影装置の概略構成を説明するための図である。 (a)、(b)は本発明の実施形態においてオートフォーカス前のプレビューイメージおよびオートフォーカス後のプレビューイメージを示す。 (a)~(d)は本発明の実施形態においてユーザの意図した撮影ができるように調整する場合の説明図である。 (a)、(b)は本発明の実施形態においてシャッター速度が一定の値より遅くなった場合にユーザに警告する場合の説明図である。 (a)~(c)は本発明の実施形態においてユーザが画面を上下にフリックし、調整部分の大きさを変化させる場合の説明図である。 本発明の実施形態にかかるライブビュー画像表示方法を説明するためにフローチャートである。 従来方法において、被写界深度および文字情報を含む画像を被写体の撮像画像上に重ねて表示した例である。 (a)、(b)は従来方法において、LCD画面上に指定した複数の合焦ポイントで合焦できるように設定するF値を変更する例である。
 図1は、本発明の実施の形態にかかる撮影装置の概略構成を説明するための図である。本実施形態の撮影装置は、ライブビュー画像を表示する液晶表示装置(LCD)101と、タッチおよびフリックに応じてライブビュー画像を調整するためのタッチパネル102と、3D画像を撮影する3Dレンズを含むレンズ103と、自動露出(AE)を制御するAE制御部104と、オートフォーカス(AF)における測距を制御するAF制御測距制御部105と、測距点までの距離を記憶する測距点距離記憶部106と、LCD101における測距ポイントの数を制御する測距数制御部107と、撮影装置の全体を制御する全体制御部108と、各測距ポイントの被写界深度を演算部する被写界深度演算部109と、タッチパネル102に対するタッチジェスチャを解読するタッチジェスチャ解読部110と、被写体に対して、設定した絞り値における被写界深度からの隔たり(ズレ量)を、3Dの立体深度に置き換えて表示させる3D画像生成部111と、自動計算した絞り値(F値)が限界値以上となった場合にユーザに警告を行なう基準となる絞り限界値を格納する絞り限界値テーブル112と、全体制御部108の制御のもとでシャッターを操作するシャッター操作部113とを有する。
 本実施形態の撮影装置は、被写界深度および、3D技術を利用してユーザの意図する写真を容易に写すことができるようにするものである。このため、複数のポイントの距離を測定し、それが合焦ポイントを基準とした被写界深度に入っているのか、また外れている場合は、そのはずれ程度に応じて、3Dの深さを変化させる。なお、本実施形態の撮影装置では、ライブビューで見える映像は、実際の3D立体図とは違い、ピンボケの具合が同じ部分が、同じ3D深度を持つことになる。
 本実施形態の撮影装置は、ライブビュー時に、複数の測距点において、設定した絞り値における被写界深度からの隔たり(ズレ量)を、3Dの立体深度に置き換えて表示させる。この時、被写界深度とのズレ量が同じ、つまり同じ程度にボケる部分は、同じ量の3D深度を持たせることとする。なお、3D深度自体を変化させる技術は既存の技術を利用する。
 図2(a)は、オートフォーカス前のプレビューイメージを示し、図2(b)は、オートフォーカス後のプレビューイメージを示す。図2(a)に示すオートフォーカス前のプレビューイメージにおいて、被写体A1,A2はユーザからみて同じ距離にあり、被写体B1,B2はその手前にあり、被写体Cは更にその手前にある。
 ユーザが中心ポイントの被写体A1をフォーカスポイントとして、シャッターを半押しにすると、オートフォーカスおよび自動露出が行なわれる。すなわち、ユーザが中心ポイントの被写体A1にフォーカスを合わせて後、カメラ側では、他の4点、すなわち被写体A2,B1,B2,Cでも距離測定を行ない、カメラの絞り値(F値)との関係から、ピントのボケ具合を判断する(既存技術)。そのボケ具合を3D効果によりユーザに表現する。つまりボケが大きいほど、立体深度を深くしていく(図2(b)では、手前に3D深度をとっているが奥にとってもよい)。
 本実施形態の撮影装置によれば、ボケ具合という分かり難さを、どの部分がどの程度ボケるのか、またボケの程度が同じ箇所はどこかを明確に認識することができる。従来の技術では、ライブビュー表示部が通常は小さく、視認が難しく、特許文献2では数値のため実際の画像とのイメージがつき難く、特許文献3では合焦点以外のボケ具合が分らないが、本実施形態によれば、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる。
 また、本実施形態の撮影装置は、ユーザが焦点を合わせたい部分や、ボケの程度を変更(調整)した場合、それに相応した絞り値(F値)を自動計算し、その絞り値にあわせて、3D立体深度を変化させる。
 図3は、図2(a)、(b)のステップに対してユーザの意図した撮影ができるように調整する場合の説明図である。基本操作として、液晶表示画面にタッチすると、タッチしたポイントにオートフォーカス(AF)ポイントが変更され、液晶表示画面をフリックすると絞り値(F値)設定が変更される。
 例えば、図3(a)は、図2(b)と同様にオートフォーカス後のプレビューイメージであり、被写体A1,A2はユーザからみて同じ距離にあり、被写体B1,B2はその手前にあり、被写体Cは更にその手前にあり、各被写体が3D表示されている。また、被写体A1をフォーカスしているため、被写体A1にフォーカスマーク(黒丸)が表示され、被写体A2,B1,B2,Cにフォーカス候補マーク(白丸)が表示されている。
 フォーカス点を変えたい時は、変更したい箇所をタッチすることでフォーカス点が変わり、相応して3D深度も全体的に変化する。この場合、絞り値(F値)は固定されたままであり、ユーザが選択した箇所にオートフォーカス点が変更される。
 例えば、図3(a)においてフォーカス点を被写体Cに変更する場合は、被写体Cをタッチすることにより、図3(b)に示すように、被写体Cにフォーカス点が移動する。すなわち、被写体Cにフォーカスマーク(黒丸)が付き、被写体A1,A2,B1,B2にフォーカス候補マーク(白丸)が表示される。
 一方、絞り値(F値)を変更せず、被写体に対して全体的にフォーカスを合わせたい時は、現フォーカス点をタッチすることで、各ポイントができるだけ被写界深度内に入るように自動的にフォーカス点が選択され、相応して3D深度も全体的に浅くなる。
 例えば、図3(a)において全体的にフォーカスを合わせたい時は、現フォーカス点である被写体A1をタッチすることで、図3(c)に示すように、自動的にフォーカス点が被写体B2に選択され、相応して3D深度も全体的に変化する。
 また、フォーカス点を変更せず、被写体に対して全体的にフォーカスを合わせたい、もしくはその逆の時は、画面を左右にフリックすることで、絞り値(F値)を変化させて、再度オートフォーカス(AF)を行なう。この場合、図3(d)に示すように、オートフォーカス点はそのまま(被写体A1)であり、絞り値(F値)が変更される。すなわち、全体的にフォーカスが合うようになり、3D深度が全体的に浅くなる。
 本実施形態の撮影装置によれば、ユーザは、ライブビューイメージを見ながら操作するのみで、カメラの設定を意識させることなく、所望の撮影が可能となる。
 また、本実施形態の撮影装置は、ユーザ操作(調整)の結果、自動計算した絞り値(F値)が一定値以上(大きくなった)となった場合、その超過程度に応じて、3D画像の一部を動作(回転)させ、ユーザに警告を行なう。
 すなわち、絞り値(F値)を大きくする(全体にピントをあわせる)と、その分シャッター速度が遅くなるため、手振れ問題が発生してくる。このため、ある限度を超えたら、手振れが発生することをユーザに知らしめる。
 例えば、図4(a)に示すように被写体A1にフォーカスしている場合、シャッター速度が一定の値より遅くなった場合は、被写体A1の立体像の角度を変えて、ユーザに警告する。その変化の仕方は、手振れの度合いによって、速度を変える。図4(b)は、被写体A1の3D深度が時間と共に変動し、ユーザに警告を行なう様子を示す。
 本実施形態の撮影装置によれば、ユーザの意図した画像を撮影するために、カメラを固定させる必要があることを注意喚起することで、撮影を確実に行なわせることが可能となる(ユーザが注意喚起を守ることにより、意図した画像をとることが可能となる)。
 また、本実施形態の撮影装置は、ユーザ操作(調整)によって、測距点を増減させる。図5は、ユーザが画面を上下にフリックし、測距ポイントを増減させることにより、調整部分の大きさを変化させる場合の説明図である。
 図5(a)は、オートフォーカス前のプレビューイメージ、図5(b)は、オートフォーカス後のプレビューイメージである。図5(a)において、図2(a)と同様に、被写体A1,A2はユーザからみて同じ距離にあり、被写体B1,B2はその手前にあり、被写体Cは更にその手前にある。
 次に、中心ポイントの被写体A1をフォーカスポイントとして、シャッターを半押しにすると、オートフォーカスおよび自動露出が行なわれ、ピントのボケ具合を判断し、図5(b)に示すように、そのボケ具合を3D効果によりユーザに表現する。
 次に、液晶表示画面を下フリックすることにより、図5(c)に示すように、被写体A2,B1が被写体Dにまとめられ、被写体B2,Cが被写体Eにまとめられ、ユーザの調整ポイントを大ぐくりする。また、上フリックではその逆に測距ポイントを増加させ、調整部分の大きさを細分する。
 本実施形態の撮影装置によれば、測距点を増やすことで、撮影画像を分割した部分毎にボケの程度を調整することが可能となる。一方、測距点を減らすことで、大まかにボケの程度を設定することが可能となり、ユーザに設定の自由度を提供することが可能となる。
 図6は、本発明の実施形態にかかるライブビュー画像表示方法を説明するためにフローチャートである。ユーザが撮影を開始する場合、シャッター操作を検出し(ステップS601)、シャッターの半押しが検出された場合、液晶表示画面の中心点でのオートフォーカス(AF)/自動露出(AE)が行われる(ステップS603)。一方、ステップS601において、シャッターの全押しが検出されると即座にシャッターが切れ、撮影が行われる(ステップS631)。
 次に、液晶表示画面の中心点以外の他ポイントでの距測が行われ(ステップS605)、各ポイントのボケ量を決定する(ステップS607)。そして、ボケ量に応じて3D画像を合成/表示する(ステップS609)。
 続いて、シャッター操作が検出され(ステップS611)、シャッターの全押しが検出された場合は、合焦してシャッターが切られ、撮影が行われる(ステップS631)。一方、シャッターのリリースを検出した場合は、画面操作が検出され(ステップS613)、フリックが検出された場合に絞り値(F値)が変更される(ステップS615)。
 一方、ステップS613において、フリック以外の画面操作が検出された場合は、他の操作が判断され(ステップS617)、液晶表示画面の中心枠のタッチが検出された場合に、絞り値(F値)固定のまま、各ポイントの距離差分が最小となるフォーカス点を算出し、フォーカス点を移動する(ステップS619)。
 また、ステップS617において、中心枠のタッチ以外の操作が検出された場合は、更に操作が判断され(ステップS621)、液晶表示画面の他点のタッチが検出された場合に、絞り値(F値)固定のままタッチ箇所にフォーカス点を移動する(ステップS623)。
 次に、各ポイントのボケ量を決定し(ステップS625)、ボケ量に応じて3D画像を合成/表示する(ステップS627)。そして、シャッター操作が検出され(ステップS629)、シャッターの半押しが検出された場合は、ステップ603に戻り、最初からやり直す。また、シャッターの全押しが検出された場合は、調整してシャッターを切り、撮影が行われる(ステップS631)。一方、シャッター操作が、全押しおよび半押し以外の操作である場合は、ステップS613に戻り、調整を継続する。
 以上説明したように、本実施形態にかかる撮影装置およびライブビュー画像表示方法によれば、複数のポイントの距離を測定し、それが合焦ポイントを基準とした被写界深度に入っているかを明瞭に認識でき、また外れている場合は、そのはずれ程度に応じて、3Dの深さを変化させることにより、ユーザの意図する写真を容易に写すことができる。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2011年3月28日出願の日本特許出願No.2011-070509に基づくものであり、その内容はここに参照として取り込まれる。
 本発明は、3Dレンズを搭載したカメラを用いて、フォーカス点およびボケ具合を連携させながら、ユーザの意図する写真を容易に写すことができる撮影装置およびライブビュー画像表示方法として利用可能である。
101 LCD
102 タッチパネル
103 レンズ
104 AE制御部
105 AF制御測距制御部
106 測距点距離記憶部
107 測距数制御部
108 全体制御部
109 被写界深度演算部
110 タッチジェスチャ解読部
111 3D画像生成部
112 絞り限界値テーブル
113 シャッター操作部
701 表示部
702 インジケータ
703 文字情報
801,804,805,809 合焦ポイント
802,807 LCD画面
803,808 背景
806 合焦エリア

Claims (5)

  1.  被写体を撮像する撮像素子と、
     前記撮像素子に前記被写体の像を結像するレンズと、
     前記レンズの明るさを調節する絞りの絞り値を決定する絞り決定部と、
     合焦点を指定するAF制御部と、
     自装置から被写体の中における合焦点および他の点までの距離を検出するAF測距部と、
     前記AF測距部で検出された距離と前記絞り値に基づいて、各点の被写界深度を計算する被写界深度演算部と、
     前記被写界深度と飛び出し量との相関関係を記憶する変換テーブルと、
     前記変換テーブルに基づいて、前記被写界深度演算部で計算された他の点の被写界深度と前記合焦点の被写界深度との差分を飛び出し量に置き換えて、プレビュー画像として生成するプレビュー画像生成部と、を備えた撮影装置。
  2.  シャッターの半押しが検出された場合に、表示画面の中心点でオートフォーカス/自動露出を行ない、前記表示画面にライブビュー画像を表示する方法であって、
     前記表示画面の中心点以外の他のポイントで距測を行なうステップと、
     前記各ポイントのボケ量を決定するステップと、
     前記各ボケ量に応じて3D画像を合成/表示するステップと、
    を有するライブビュー画像表示方法。
  3.  請求項2記載のライブビュー画像表示方法であって、
     シャッターのリリースが検出され、さらに前記表示画面の左右フリックが検出された場合に、絞り値を変更するステップと、
     前記表示画面の中心枠のタッチが検出された場合に、前記絞り値を固定したまま、各ポイントの距離差分が最小となるフォーカス点を算出し、フォーカス点を移動するステップと、
     前記表示画面の中心枠以外のタッチが検出された場合に、前記絞り値を固定したまま、タッチ箇所にフォーカス点を移動するステップと、を有するライブビュー画像表示方法。
  4.  請求項3記載のライブビュー画像表示方法であって、
     変更した絞り値が一定値以上となった場合に、その超過程度に応じて、3D画像の一部を動作させ、ユーザに警告を行なうステップ、を有するライブビュー画像表示方法。
  5.  請求項3記載のライブビュー画像表示方法であって、
     前記表示画面の上下フリックが検出された場合に、測距ポイントの領域の大きさを変化させ、前記測距ポイントの数を増減させるステップ、を有するライブビュー画像表示方法。
PCT/JP2012/001739 2011-03-28 2012-03-13 撮影装置およびライブビュー画像表示方法 WO2012132277A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011070509A JP2012203352A (ja) 2011-03-28 2011-03-28 撮影装置およびライブビュー画像表示方法
JP2011-070509 2011-03-28

Publications (1)

Publication Number Publication Date
WO2012132277A1 true WO2012132277A1 (ja) 2012-10-04

Family

ID=46930070

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/001739 WO2012132277A1 (ja) 2011-03-28 2012-03-13 撮影装置およびライブビュー画像表示方法

Country Status (2)

Country Link
JP (1) JP2012203352A (ja)
WO (1) WO2012132277A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015180609A1 (zh) * 2014-05-30 2015-12-03 努比亚技术有限公司 一种实现自动拍摄的方法、装置及计算机存储介质
JP2015225340A (ja) * 2014-05-23 2015-12-14 プレストン ハワード カメラのフォーカスを合わせるための方法、装置、システム、およびソフトウェア
CN105187719A (zh) * 2015-08-21 2015-12-23 深圳市金立通信设备有限公司 一种拍摄方法及终端
WO2016154806A1 (zh) * 2015-03-27 2016-10-06 华为技术有限公司 一种自动变焦的方法和装置
CN112712536A (zh) * 2020-12-24 2021-04-27 Oppo广东移动通信有限公司 图像处理方法、芯片及电子装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6608966B2 (ja) * 2016-01-28 2019-11-20 マクセル株式会社 撮像装置
CN109842760A (zh) * 2019-01-23 2019-06-04 罗超 一种模拟人眼视物的影像拍摄与回放方法
DE102022207014A1 (de) * 2022-07-08 2024-01-11 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Kamera-Assistenzsystem

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266388A (ja) * 1998-03-17 1999-09-28 Canon Inc デジタルカメラ及び撮影方法並びに記憶媒体
JP2005136480A (ja) * 2003-10-28 2005-05-26 Fuji Photo Film Co Ltd 撮影装置
JP2010177741A (ja) * 2009-01-27 2010-08-12 Olympus Corp 撮像装置
JP2011010194A (ja) * 2009-06-29 2011-01-13 Nikon Corp ボカシ画像形成装置及びそれを備えたカメラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266388A (ja) * 1998-03-17 1999-09-28 Canon Inc デジタルカメラ及び撮影方法並びに記憶媒体
JP2005136480A (ja) * 2003-10-28 2005-05-26 Fuji Photo Film Co Ltd 撮影装置
JP2010177741A (ja) * 2009-01-27 2010-08-12 Olympus Corp 撮像装置
JP2011010194A (ja) * 2009-06-29 2011-01-13 Nikon Corp ボカシ画像形成装置及びそれを備えたカメラ

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225340A (ja) * 2014-05-23 2015-12-14 プレストン ハワード カメラのフォーカスを合わせるための方法、装置、システム、およびソフトウェア
WO2015180609A1 (zh) * 2014-05-30 2015-12-03 努比亚技术有限公司 一种实现自动拍摄的方法、装置及计算机存储介质
WO2016154806A1 (zh) * 2015-03-27 2016-10-06 华为技术有限公司 一种自动变焦的方法和装置
CN106464799A (zh) * 2015-03-27 2017-02-22 华为技术有限公司 一种自动变焦的方法和装置
US10317777B2 (en) 2015-03-27 2019-06-11 Huawei Technologies Co., Ltd. Automatic zooming method and apparatus
CN105187719A (zh) * 2015-08-21 2015-12-23 深圳市金立通信设备有限公司 一种拍摄方法及终端
CN112712536A (zh) * 2020-12-24 2021-04-27 Oppo广东移动通信有限公司 图像处理方法、芯片及电子装置
WO2022134718A1 (zh) * 2020-12-24 2022-06-30 Oppo广东移动通信有限公司 图像处理方法、芯片及电子装置
CN112712536B (zh) * 2020-12-24 2024-04-30 Oppo广东移动通信有限公司 图像处理方法、芯片及电子装置

Also Published As

Publication number Publication date
JP2012203352A (ja) 2012-10-22

Similar Documents

Publication Publication Date Title
WO2012132277A1 (ja) 撮影装置およびライブビュー画像表示方法
JP5231277B2 (ja) 撮像装置、撮像方法
JP2015194672A (ja) 撮像装置
JP4652998B2 (ja) 撮影装置
JP2008070513A (ja) 撮像装置
JP2010091669A (ja) 撮像装置
JP2013126177A (ja) 表示制御装置、撮像装置および表示制御プログラム
JP6432038B2 (ja) 撮像装置
US20160275657A1 (en) Imaging apparatus, image processing apparatus and method of processing image
JP6326631B2 (ja) 撮像装置
JP2007266657A (ja) 撮影装置
JP5153021B2 (ja) 撮影装置、撮影方法及びプログラム
JP6032967B2 (ja) 撮像装置、レンズ装置および撮像装置の制御方法
JP5928016B2 (ja) 撮像装置及び撮像方法
JP2008113466A (ja) 電子カメラ
JP2009224882A (ja) 撮像装置、撮像装置の表示方法、プログラム及びコンピュータ読み取り可能な記録媒体
JP5104645B2 (ja) デジタルカメラ
JP4674472B2 (ja) デジタルカメラ
JP2008067168A (ja) デジタルカメラ
JP2010282107A (ja) 撮像装置及びその制御方法
JP2007264250A (ja) 撮影装置及びプログラム
JP6089232B2 (ja) 撮像装置
JP2009118515A (ja) 電子カメラ
JP5344770B2 (ja) 撮影装置
JP2002023241A (ja) フォーカス情報表示機能を有するカメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12763696

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12763696

Country of ref document: EP

Kind code of ref document: A1