WO2013146020A1 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
WO2013146020A1
WO2013146020A1 PCT/JP2013/054981 JP2013054981W WO2013146020A1 WO 2013146020 A1 WO2013146020 A1 WO 2013146020A1 JP 2013054981 W JP2013054981 W JP 2013054981W WO 2013146020 A1 WO2013146020 A1 WO 2013146020A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
live view
shift
optical system
display device
Prior art date
Application number
PCT/JP2013/054981
Other languages
English (en)
French (fr)
Inventor
貴嗣 青木
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014507550A priority Critical patent/JP5643464B2/ja
Priority to EP13767872.8A priority patent/EP2835961B1/en
Publication of WO2013146020A1 publication Critical patent/WO2013146020A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position

Definitions

  • the present invention relates to an image display device, and more particularly, to an image display device that includes an optical viewfinder and an electronic viewfinder and can superimpose them.
  • an electronic image of a subject acquired by a photographing optical system such as a photographing lens and an image sensor is displayed on a liquid crystal monitor provided on the back of the camera body, and the composition and focus state are displayed.
  • a device that performs a confirmation is provided, but in recent years, a model provided with a finder for confirming the composition and in-focus state apart from the liquid crystal monitor on the back surface is becoming widespread.
  • viewfinder systems include an optical viewfinder (OVF: Optical View Finder, hereinafter referred to as OVF) and an electronic viewfinder (EVF: ElectronicElectroView Finder, hereinafter referred to as EVF), each having advantages and disadvantages.
  • OVF has certain advantages over EVF, such as “no delay in response to display”, “display image is clear”, “it is easy to determine the composition because it can be seen outside the shooting range (by method)” There is.
  • EVF has advantages over OVF, such as “display of reproduced images and menus (including superimposed display)”. Therefore, in a digital camera (imaging device) including both OVF and EVF, it is preferable that OVF / EVF can be switched as appropriate according to the situation.
  • a technique described in Patent Document 1 is known as an imaging apparatus that can switch a finder system.
  • OVF movable mirror is inserted in the optical path and the optical image of the subject is visually recognized by the viewfinder eyepiece
  • live view mode real-time image generated by the image sensor is displayed on the display unit
  • EVF a movable mirror is contrasted from an optical path and an electronic image of a subject acquired by an image sensor is viewed on a liquid crystal monitor
  • a technique described in Patent Document 2 is known as an imaging apparatus that can automatically switch the finder method.
  • a shooting condition determination unit that determines conditions such as a remaining battery level, a light / dark difference in a shooting scene, a subject distance, and the like is provided to automatically switch between OVF and EVF based on the determination result. I have to.
  • the present invention has been made in view of such circumstances, and in an image display device capable of superimposing an optical viewfinder and an electronic viewfinder, image shift in the superimposed display of OVF and EVF images is reduced.
  • An object of the present invention is to provide an image display device capable of performing the above.
  • an image display apparatus guides an imaging unit that captures a live view image, a display unit that displays a live view image captured by the imaging unit, and an optical image to an eyepiece. Corrects image displacement between the viewfinder optical system, superimposing means that superimposes the image based on the live view image displayed on the display means and the optical image, and leads to the eyepiece, and the optical image associated with the display delay of the live view image And correction means for performing.
  • live view image means that the image output from the image sensor is not recorded on a recording medium or the like so that the photographer can confirm the angle of view and subject before shooting and recording by pressing the shutter button. (Temporary recording in RAM) refers to an image displayed on the image display unit.
  • the correction unit corrects the image shift between the optical image and the live view image due to the display delay of the subject image displayed by the display unit. That is, since the display delay time of the subject image of the display means in EVF can be grasped in advance, the image shift is corrected by this display delay time.
  • the correction means includes an angular velocity sensor that detects an angular velocity of the apparatus main body, and corrects an image shift between the optical image that is grasped in advance and the live view image according to the angular velocity detected by the angular velocity sensor. Is preferred.
  • the image display device further includes an angular velocity sensor, and preferably corrects it according to the angular velocity detected by the angular velocity sensor and the display delay time of the display means that can be grasped in advance, thereby preferably displaying the superimposed OVF and EVF images. Image shift can be reduced.
  • the finder optical system has a correction lens that tilts the optical axis of the finder optical system, and the correction means controls the correction lens to optically correct the image shift.
  • the display unit includes a shift unit that shifts a live view image to be displayed, and the correction unit controls the shift unit to correct the image shift.
  • the shift unit shifts the live view image displayed on the display unit.
  • the imaging unit includes an imaging optical system that receives the subject image via the imaging optical system and outputs a live view image indicating the subject image
  • the shift unit includes a camera shake correction lens of the imaging optical system. It is preferable to shift or shift the image sensor.
  • the image display device is preferably an imaging device in which an imaging unit acquires a live view image before actual shooting and acquires a recorded image to be recorded on a recording medium in the actual shooting state.
  • the image based on the live view image adds information necessary for shooting to the live view image.
  • Examples of the image based on the live view image include a face frame and an AF frame.
  • the correction means has panning detection means for detecting panning in the state of actual photographing, and in advance during the period in which panning is detected by the panning detection means, according to the angular velocity detected by the angular velocity sensor in advance. It is preferable to correct an image shift between the grasped optical image and the live view image.
  • the image shift in the superimposed display of the OVF and EVF images is extremely large when panning. Therefore, the image shift may be corrected only during a period in which panning is detected by the panning detection means.
  • FIG. 1 is a block diagram showing an embodiment of an imaging apparatus according to the present invention.
  • the imaging device 1 is a digital camera that records captured still images and moving images on a memory card 10, and the operation of the entire camera is centrally controlled by a central processing unit (CPU) 12.
  • CPU central processing unit
  • the operation unit 14 of the imaging apparatus 1 includes a power switch, a shutter button, an optical viewfinder mode, an electronic viewfinder mode, an optical-electronic superposition viewfinder mode, a macro mode, a still image shooting mode, a moving image shooting mode, a playback mode, and an automatic focus adjustment (AF mode), a mode selector switch for switching manual focus adjustment (MF mode), and the like, and a multifunction cross key for outputting various command signals such as zoom and frame advance.
  • Various operation signals from the operation unit 14 are applied to the CPU 12.
  • the image light indicating the subject is imaged on the light receiving surface of the image pickup device (CCD) 20 through the focus lens that can be moved manually, the image pickup optical system 16 including the image pickup lens, and the diaphragm 18. Is done.
  • a focus lens, an imaging optical system 16 including an imaging lens, a diaphragm, and an imaging device (CCD) can be cited.
  • the signal charge accumulated in the CCD 20 is sequentially read out as a voltage signal corresponding to the signal charge by a transfer pulse applied from the CCD driver 22.
  • the CCD 20 has a so-called electronic shutter function that controls the charge accumulation time (shutter speed) of each photosensor according to the timing of the shutter gate pulse.
  • the voltage signal sequentially read from the CCD 20 is applied to the analog processing unit 24.
  • the analog processing unit 24 includes signal processing circuits such as a sampling hold circuit, a color separation circuit, and a gain adjustment circuit.
  • the analog processing unit 24 performs correlated double sampling (CDS) processing and color separation processing on each of the R, G, and B color signals.
  • CDS correlated double sampling
  • the signal level is adjusted (pre-white balance processing).
  • the signal output from the analog processing unit 24 is converted into a digital signal (hereinafter referred to as “CCDRAW data”) by the A / D converter 26 and then stored in a temporary storage device 28 such as an SDRAM.
  • the temporary storage device 28 has a storage capacity capable of temporarily storing a plurality of CCDRAW data.
  • the storage capacity of the temporary storage device 28 is not limited to this.
  • the timing generator (TG) 30 provides timing signals to the CCD driver 22, the analog processing unit 24 and the A / D converter 26 in accordance with instructions from the CPU 12, and the circuits are synchronized by this timing signal. ing.
  • the ROM 32 stores programs and adjustment values in advance, and these programs and adjustment values are read as appropriate.
  • the signal processing unit 34 adjusts the gains of the R, G, and B signals to perform white balance (WB) correction, and has a predetermined gamma characteristic for each of the WB corrected R, G, and B signals.
  • a gamma correction unit that performs gamma correction according to the stored ROM table, a color interpolation processing unit that performs color interpolation processing corresponding to the color filter array of the CCD 20, and generation processing (YC conversion) of luminance data Y and color difference data Cr and Cb.
  • a YC processing unit that performs an edge enhancement by adding an aperture signal to the luminance data Y, a noise reduction processing unit that performs a noise reduction process such as a smoothing process and a median filter process, and color difference data Cr and Cb
  • a saturation emphasizing unit that increases or decreases the gain of the signal, and sequentially performs signal processing on the CCDRAW data stored in the temporary storage device 28 by each processing unit.
  • the image data processed by the signal processing unit 34 is encoded by the video encoder 38 and is output to a small liquid crystal display unit (LCD) 40 which is a display device which is one mode of the display unit. Displayed on the display screen.
  • LCD liquid crystal display unit
  • images continuously shot at a predetermined interval by the CCD 20 are processed for image display and then output to the LCD 40 and displayed as a live view image.
  • the CCDRAW data photographed through the photographing optical system 16 and the CCD 20 and stored in the temporary storage device 28 is subjected to various signal processing by the signal processing unit 34 and converted into YC data. Thereafter, the YC data is output to the compression / decompression processing unit 36, and a predetermined compression process such as JPEG (Joint Photographic Experts Group) is executed.
  • JPEG Joint Photographic Experts Group
  • the automatic exposure (AE) detection unit 37 for example, integrates the G signals of the entire image, or integrates the G signals that are weighted differently in the central part and the peripheral part of the screen, and outputs the integrated value to the CPU 12.
  • the CPU 12 calculates the brightness of the subject (shooting Ev value) from the integrated value input from the AE detection unit 37, and sets the F value of the diaphragm 18 and the electronic shutter (shutter speed) of the CCD 20 based on the shooting Ev value.
  • the diaphragm 18 is controlled based on the determined F value
  • the charge accumulation time in the CCD 20 is controlled via the CCD driver 22 based on the determined shutter speed.
  • the focus shift amount calculation unit 46 detects the phase difference of the parallax image in the predetermined focus area among the parallax images obtained from the phase difference pixels of the CCD 20 including the phase difference pixel, and uses this as the information indicating the phase difference. Based on this, the amount of defocus (defocus amount) is obtained.
  • the amount of focus deviation is based on an output signal of a known phase difference sensor or the like including a separator lens and a sensor for detecting the imaging position of two images separated by the separator lens. May be detected.
  • the focus shift amount calculated by the focus shift amount calculation unit 46 can be used to control the focus lens of the photographing optical system 16 so that the focus shift amount becomes 0 in the AF mode, and will be described later. In addition, it is used for display control of the live view image on the LCD 40 in the MF mode.
  • the focus lens position of the photographing optical system 16 is detected by the position sensor 48 and sent to the CPU 12. Based on the detection output of the position sensor 48, the CPU 12 determines the distance of the subject that is in focus according to the current position of the focus lens. Note that the position of the focus lens and the subject distance corresponding to the position are stored in advance in the ROM 32 or the like, and the CPU 12 reads the subject distance corresponding to the position of the focus lens from the ROM 32. Further, the subject distance may be measured by a baseline long triangular distance measuring sensor or the like. The subject distance thus measured can be used to control the focus lens of the photographing optical system 16 in the AF mode, and the live view image display control on the LCD 40 in the MF mode as described later. Used for. The position sensor 48 also detects the position (zoom position) of the zoom lens of the photographing optical system 16 and outputs information on the zoom position to the CPU 12.
  • the imaging apparatus 1 includes an optical finder (OVF) having an objective lens 50, an eyepiece lens 52, and a liquid crystal shutter 64 as one aspect of the finder optical system.
  • the liquid crystal shutter 64 is controlled by the CPU 12 and is in a transmissive state when the optical viewfinder is used. As a result, the optical image of the subject passes through the liquid crystal shutter 64 and can be observed by the eyepiece lens 52 through the objective lens 50.
  • a beam splitter 54 is provided between the objective lens 50 and the eyepiece lens 52, and the beam splitter 54 generates an optical image of a subject incident on the objective lens 50 and a live view image displayed on the LCD 40. Used as a means of synthesis. That is, the optical image incident on the objective lens 50 can be observed by the eyepiece 52 through the beam splitter 54, and the live view image displayed on the LCD 40 is reflected by the beam splitter 54 at a right angle and is in the eyepiece. Observation is possible with the lens 52.
  • the LCD 40, the beam splitter 54, and the eyepiece lens 52 constitute an electronic viewfinder (EVF) that can observe a live view image.
  • EVF electronic viewfinder
  • the liquid crystal shutter 82 which is one mode of the superimposing unit is set to the transmission state, the live view image of the LCD 40 and the optical image transmitted through the objective lens 50 can be superimposed and displayed.
  • the EVF live view image includes a live view image in which information necessary for shooting is added. Examples of information necessary for shooting include a face frame and an AF frame.
  • the imaging apparatus 1 includes a hybrid finder that enables switching between OVF optical image display, EVF image display, and superimposed display of OVF and EVF images.
  • the parallax occurs between the optical image in the predetermined focus area and the live view image according to the distance of the subject in the focus area.
  • the CPU 12 moves the display position of the live view image displayed on the LCD 40 so as to correct the parallax generated according to the determined subject distance. Thereby, it is possible to display the optical image in the focus area so that the live view image matches.
  • FIG. 2 is a diagram illustrating an example of a finder image displayed on the hybrid finder having the above-described configuration, in which an OVF optical image is indicated by a solid line, and an EVF live view image is indicated by a dotted line.
  • the EVF live view image is accompanied by a display delay. This is because the EVF live view image is displayed on the display screen of the LCD 40 from the CCD 20 via the analog processing unit 24, the A / D converter 26, the temporary storage device 28, the signal processing unit 34, and the video encoder 38. Display delay occurs.
  • the subject image displayed on the EVF through the photographing optical system has a time difference compared to the subject image viewed by the photographer with the OVF, and the angle of view is surely shifted due to the time difference.
  • the image shift between the optical image and the live view image (EVF live view image) associated with the display delay of the subject image displayed by the display unit 40 is corrected by the correction unit 60. I made it.
  • the correcting means 60 includes an angular velocity sensor 62.
  • 3 to 5 are excerpts of the parts of the EVF optical system and the OVF optical system of FIG. 1, and further include an angular velocity sensor 62 in FIG.
  • the angular velocity sensor 62 detects the angular velocity of the main body of the imaging apparatus, and can correct the image shift between the optical image and the live view image that are grasped in advance according to the detected angular velocity.
  • the optical axis of the optical image that can be confirmed by the OVF optical system 92 is shifted to match the optical axis of the live view image with a display delay that is confirmed by the EVF optical system 90.
  • the OVF optical system 92 is configured by shifting the optical axis of the live view image with a display delay confirmed by the EVF optical system 90 as shown in FIGS. 4 and 5 and correcting the image shift between the image and the live view image.
  • the image shift between the optical image and the live view image is corrected by matching with the optical axis of the optical image that can be confirmed by the above.
  • the OVF optical system 92 includes a correction lens 70.
  • the display delay time of the subject image of the display means in the EVF optical system 90 can be grasped in advance. Then, the angle panned by the angular velocity sensor 62 is grasped, and the correction lens 70 detected by the angular velocity sensor 62 in the OVF optical system 92 is shifted in the same manner as the camera shake correction of the photographing optical system 16. That is, the optical image that can be confirmed by the OVF optical system 92 is delayed in accordance with the delay time of the live view image with a display delay confirmed by the EVF optical system 90. Thereby, the image shift
  • the EVF optical system 90 includes a shift unit 72.
  • the display delay time of the subject image of the display means in the EVF optical system 90 can be grasped in advance. Then, the angle panned by the angular velocity sensor 62 is grasped, and the subject image displayed on the LCD 40 is shifted by the shift means 72 detected by the angular velocity sensor 62 in the EVF optical system 90. That is, it is advanced by the delay time of the live view image of the EVF optical system 90 according to the optical image that can be confirmed by the OVF optical system 92. Thereby, the image shift
  • the photographing optical system 16 of the EVF optical system 90 includes a correction lens 74.
  • the display delay time of the subject image of the display means in the EVF optical system 90 can be grasped in advance. Then, the angle panned by the angular velocity sensor 62 is grasped, and the correction lens 74 of the photographing optical system 16 of the EVF optical system 90 is shifted by the amount detected by the angular velocity sensor 62. That is, the subject image is advanced by the delay time of the live view image by the correction lens 74 of the photographing optical system 16 of the EVF optical system 90 in accordance with the optical image that can be confirmed by the OVF optical system 92.
  • difference in the superimposed display of the image of OVF and EVF can be reduced.
  • the correction lens 74 is provided with the camera shake correction mechanism of the shooting optical system 16
  • the camera shake correction mechanism of the shooting optical system 16 can be used as it is.
  • the CCD 20 may be shifted.
  • FIG. 6 includes panning detection means 80 in the second embodiment.
  • the panning detection means 80 detects panning in the shooting state. Then, only during the period in which panning is detected by the panning detection means 80, the image shift between the optical image and the live view image that are grasped in advance is corrected according to the angular velocity detected by the angular velocity sensor 62.
  • the image shift in the superimposed display of the OVF and EVF images is extremely large when panning. Therefore, the image shift is corrected only during the period in which panning is detected by the panning detection means.
  • the imaging apparatus 1 shown in FIG. 1 and FIGS. 3 to 6 has an OVF optical axis different from the optical axis of the photographing optical system, but the OVF optical axis has the same optical axis as the photographing optical system.
  • Some single-lens reflex finder having the present invention can also be applied. Further, the present invention can be applied to an image display device other than the photographing device.
  • the exposure time in the photographing system for creating an EVF display image may be extended. In that case, since the display delay time changes, it is necessary to calculate by changing the display delay time as the exposure time of the photographing system changes.
  • SYMBOLS 1 ... Imaging device, 10 ... Memory card, 12 ... Central processing unit (CPU), 14 ... Operation part, 16 ... Shooting optical system, 18 ... Aperture, 20 ... Imaging device (CCD), 32 ... ROM, 34 ... Signal processing , 37 ... AE detector, 40 ... display means (LCD), 46 ... focus amount calculation section, 50 ... objective lens, 52 ... eyepiece, 54 ... beam splitter, 60 ... correction means, 62 ... angular velocity sensor, 64 ... Liquid crystal shutter, 70 ... Correction lens (shift means), 72 ... Shift means, 74 ... Correction lens (shift means), 80 ... Panning detection means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

本発明は光学式ビューファインダと電子式ビューファインダとの画像の重畳表示での画像ずれを軽減することができる画像表示装置を提供するものである。本発明の画像表示装置は両方を重畳させた被写体像において、表示手段40により表示された被写体像の表示遅れに伴う光学像とライブビュー画像との画像ずれを補正する補正手段60を備えるようにするものである。

Description

画像表示装置
 本発明は、画像表示装置に関し、特に光学式ビューファインダと電子式ビューファインダとを備えそれらが重畳可能な画像表示装置に関する。
 デジタルカメラ(撮像装置)の技術分野ではこれまで、撮影レンズ及び撮像素子等の撮影光学系により取得した被写体の電子像をカメラ本体の背面に設けた液晶モニタに表示して構図や合焦状態の確認を行うものが一般的であったが、近年、背面の液晶モニタとは別に構図や合焦状態確認のためのファインダを設けた機種が普及しつつある。このようなファインダの方式には光学式ビューファインダ(OVF:Optical View Finder、以下OVF)と電子式ビューファインダ(EVF:Electronic View Finder、以下EVF)とがあり、それぞれ長所・短所を有する。
 具体的にはOVFでは「表示に応答遅れがない」、「表示画像が鮮明である」、「(方式により)撮影範囲外が見えることで構図を決めやすい」等、EVFに対し一定の優位性がある。一方EVFはOVFに対し、「再生画像やメニューの表示(重畳表示を含む)が可能である」等、使用上の優位点がある。したがってOVFとEVFとの双方を備えるデジタルカメラ(撮像装置)においては、状況に応じて適宜OVF・EVFを切り替えられるようにすることが好ましい。
 ファインダ方式を切り替えられるようにした撮像装置として、例えば特許文献1に記載の技術が知られている。特許文献1に記載の技術ではOVF(可動ミラーを光路に挿入してファインダ接眼部で被写体の光学像を視認)と、ライブビューモード(撮像素子で生成されたリアルタイムの画像を表示部に表示させるモード)が可能なEVF(可動ミラーを光路から対比させて、撮像素子で取得した被写体の電子像を液晶モニタで視認)とを切替可能なデジタル一眼レフカメラにおいて、ユーザによる各種操作に基づいてOVF・EVFの切替を行うようにしている。
 またファインダ方式を自動的に切り替えられるようにした撮像装置として、例えば特許文献2に記載の技術が知られている。特許文献2に記載の技術では、バッテリ残量や撮影シーン中の明暗差、被写体距離等の条件を判定する撮影条件判定手段を設け判定の結果に基づいてOVFとEVFとを自動的に切り替えるようにしている。
特開2009-303258号公報 特開2004- 85935号公報
 しかしながら、OVF・EVFを切り替えられる特許文献1,2のような画像表示装置において、OVFとEVFとを重畳させてファインダ接眼部で被写体像を視認すると、OVFでの被写体像とEVFでの被写体像とのずれが生じてしまうという問題があった。これは、EVFの表示手段により表示される被写体像の表示遅れに依るものであり、その時間差によりOVFとEVFの画像とで画像ずれが起き、目立ってしまうものである。特に、撮像装置をパンニングした際には、このずれが大きく、目立ってしまう。
 本発明はこのような事情に鑑みてなされたもので、光学式ビューファインダと電子式ビューファインダとを重畳させることができる画像表示装置において、OVFとEVFの画像の重畳表示での画像ずれを軽減することができる画像表示装置を提供することを目的とする。
 上記目的を達成するために、本発明の画像表示装置は、ライブビュー画像を撮像する撮像手段と、撮像手段により撮像されたライブビュー画像を表示する表示手段と、光学像を接眼部に導くファインダ光学系と、表示手段に表示されたライブビュー画像に基づく画像と光学像とを重畳させて接眼部に導く重畳手段と、ライブビュー画像の表示遅れに伴う光学像との画像ずれを補正する補正手段と、を備えている。なお、「ライブビュー画像」とは、撮影者がシャッタボタンを押して撮影・記録する前に、画角や被写体などを確認できるように、撮像素子から出力された画像を記録メディア等に記録せず(RAMへ一時記録)に、画像表示部に表示する画像をいうものである。
 本発明では、補正手段により、表示手段により表示された被写体像の表示遅れに伴う光学像とライブビュー画像との画像ずれを補正するようにした。即ち、EVFでの表示手段の被写体像の表示遅れ時間はあらかじめ把握できるものなので、この表示遅れ時間で画像ずれを補正するようにした。
 これにより、OVFとEVFの画像の重畳表示での画像ずれを軽減することができる。
 上記発明において、補正手段は、装置本体の角速度を検出する角速度センサを備え、角速度センサにより検出された角速度に応じて、あらかじめ把握されている光学像とライブビュー画像との画像ずれを補正することが好ましい。
 画像表示装置には更に角速度センサを備えて、角速度センサにより検出された角速度とあらかじめ把握できている表示手段の表示遅れ時間に応じて補正させることで、好ましくOVFとEVFの画像の重畳表示での画像ずれを軽減することができる。
 上記発明において、ファインダ光学系は、ファインダ光学系の光軸を傾斜させる補正レンズを有し、補正手段は、補正レンズを制御して画像ずれを光学的に補正することが好ましい。
 または、上記発明において、表示手段は、表示されるライブビュー画像をシフトさせるシフト手段を有し、補正手段は、シフト手段を制御して画像ずれを補正することが好ましい。この場合、シフト手段は、表示手段に表示するライブビュー画像をシフトさせることが好ましい。または、撮像手段は、撮影光学系と撮影光学系を介して被写体像を受光し、被写体像を示すライブビュー画像を出力する撮像素子を有し、シフト手段は、撮影光学系の手振れ補正レンズをシフト又は撮像素子をシフトさせることが好ましい。
 画像表示装置は、撮像手段が、本撮影前にライブビュー画像を取得し、本撮影の状態にて記録媒体に記録する記録画像を取得する撮像装置であることが好ましい。
 上記発明において、ライブビュー画像に基づく画像は、ライブビュー画像に撮影に必要な情報を加味する。ライブビュー画像に基づく画像とは、一例として、顔枠、AF枠が挙げられる。
 上記発明において、補正手段は、本撮影の状態にてパンニングを検出するパンニング検出手段を有し、パンニング検出手段によりパンニングが検出された期間中だけ、角速度センサにより検出された角速度に応じて、あらかじめ把握されている光学像とライブビュー画像との画像ずれを補正することが好ましい。
 OVFとEVFの画像の重畳表示での画像ずれは、パンニングの際が極めて大きい。したがって、パンニング検出手段によりパンニングが検出された期間中だけ画像ずれを補正してもよい。
 本発明によれば、OVFとEVFの画像の重畳表示での画像ずれを軽減することができる。
本発明に係る撮像装置の一実施態様を示すブロック図である。 本発明の実施態様を示す説明図である。 本発明に係る撮像装置の他の一実施態様を示す概略図である。 本発明に係る撮像装置の他の一実施態様を示す概略図である。 本発明に係る撮像装置の他の一実施態様を示す概略図である。 本発明に係る撮像装置の他の一実施態様を示すブロック図である。
 以下、添付図面を参照しながら、本発明を実施するための形態を詳細に説明する。ここで、図中、同一の記号で示される部分は、同様の機能を有する同様の要素である。なお、以下、本発明を撮像装置について説明するが、当該撮像装置は本発明に係る画像表示装置の構成を全て備えているため、撮像装置だけでなく画像表示装置について本発明は成り立つ。
 <撮像装置の全体構成>
本発明に係る撮像装置の全体構成について図面を参照して説明する。図1は、本発明に係る撮像装置の一実施形態を示すブロック図である。
 図1に示すように、撮像装置1は、撮影した静止画や動画をメモリカード10に記録するデジタルカメラであり、カメラ全体の動作は、中央処理装置(CPU)12によって統括制御されている。
 撮像装置1の操作部14は、電源スイッチ、シャッタボタン、光学ファインダモード、電子ビューファインダモード、光学-電子重畳ファインダモード、マクロモード、静止画撮影モード、動画撮影モード、再生モード、自動焦点調節(AFモード)、手動焦点調節(MFモード)等を切り替えるためのモード切替スイッチ、ズームやコマ送り等の各種の指令信号を出力するマルチファンクションの十字キー等を含む。この操作部14からの各種の操作信号は、CPU12に加えられるようになっている。
 撮影モードが設定されると、被写体を示す画像光は、手動操作により移動可能なフォーカスレンズ、撮像レンズを含む撮影光学系16及び絞り18を介して撮像素子(CCD)20の受光面に結像される。なお、撮像手段の一態様として、フォーカスレンズ、撮像レンズを含む撮像光学系16、絞り、及び撮像素子(CCD)が挙げられる。次いで、CCD20に蓄積された信号電荷は、CCDドライバ22から加えられる転送パルスによって信号電荷に応じた電圧信号として順次読み出される。尚、CCD20は、シャッタゲートパルスのタイミングによって各フォトセンサの電荷蓄積時間(シャッタスピード)を制御する、いわゆる電子シャッタ機能を有している。
 このCCD20から順次読み出された電圧信号は、アナログ処理部24に加えられる。アナログ処理部24は、サンプリングホールド回路、色分離回路、ゲイン調整回路等の信号処理回路を含み、相関二重サンプリング(CDS)処理並びにR,G,Bの各色信号に色分離処理され、各色信号の信号レベルの調整(プリホワイトバランス処理)が行われる。アナログ処理部24から出力された信号は、A/D変換器26によりデジタル信号(以下「CCDRAWデータ」という)に変換された後、SDRAMなどの一時記憶装置28に記憶される。
 一時記憶装置28は、複数枚分のCCDRAWデータを一時記憶可能な記憶容量を有している。尚、一時記憶装置28の記憶容量はこれに限定されない。また、タイミングジェネレータ(TG)30は、CPU12の指令に従ってCCDドライバ22、アナログ処理部24及びA/D変換器26に対してタイミング信号を与えており、このタイミング信号によって各回路の同期が取られている。
 ROM32には、あらかじめプログラムや調整値などが記憶されており、これらのプログラムや調整値は適宜読み出される。
 信号処理部34は、R、G、B信号のゲインを調整してホワイトバランス(WB)補正を行うWBゲイン部と、WB補正された各R、G、B信号に対して所定のガンマ特性が記憶されたROMテーブルに従ってガンマ補正するガンマ補正部と、CCD20のカラーフィルタ配列に対応した色補間処理を行う色補間処理部と、輝度データY及び色差データCr、Cbの生成処理(YC変換)を行うYC処理部と、輝度データYにアパーチャ信号を付加して輪郭強調を行う輪郭強調部と、平滑化処理、メディアンフィルタ処理などのノイズ低減処理を行うノイズ低減処理部と、色差データCr、Cbのゲインを増減する彩度強調部とを有しており、一時記憶装置28に記憶されたCCDRAWデータに対して各処理部で順次信号処理を行う。
 信号処理部34で処理された画像データは、ビデオエンコーダ38においてエンコーディングされ、表示手段の一態様である表示装置である小型の液晶表示部(LCD)40に出力され、これにより被写体像がLCD40の表示画面上に表示される。
 尚、撮影準備段階では、CCD20により所定のインターバルで連続撮影された画像が、画像表示用の処理がされた後、LCD40に出力され、ライブビュー画像として表示される。
 一方、シャッタボタンの全押し時には、撮影光学系16及びCCD20を介して撮影され、一時記憶装置28に記憶されたCCDRAWデータは、信号処理部34で各種の信号処理が施されてYCデータに変換され、その後、YCデータは圧縮伸長処理部36に出力され、JPEG(Joint Photographic Experts Group)などの所定の圧縮処理が実行される。そして、圧縮処理された圧縮データは、メディアコントローラ42及びカードインタフェース44を介してメモリカード10に記録される。
 自動露出(AE)検出部37は、例えば、画像全体のG信号を積算し、又は画面中央部と周辺部とで異なる重み付けをしたG信号を積算し、その積算値をCPU12に出力する。CPU12は、AE検出部37から入力する積算値より被写体の明るさ(撮影Ev値)を算出し、この撮影Ev値に基づいて絞り18のF値及びCCD20の電子シャッタ(シャッタスピード)を所定のプログラム線図に従って決定し、その決定したF値に基づいて絞り18を制御するとともに、決定したシャッタスピードに基づいてCCDドライバ22を介してCCD20での電荷蓄積時間を制御する。
 また、ピントずれ量算出部46は、位相差画素を含むCCD20の位相差画素から得られる視差画像のうちの所定のフォーカスエリア内の視差画像の位相差を検出し、この位相差を示す情報に基づいてピントずれ量(デフォーカス量)を求める。尚、位相差画素を含むCCD20の代わりに、セパレータレンズ、該セパレータレンズにより分離した2つの像の結像位置を検出するセンサ等を含む公知の位相差センサ等の出力信号に基づいてピントずれ量を検出するようにしてもよい。
 このピントずれ量算出部46により算出されるピントずれ量は、AFモード時にピントずれ量が0になるように撮影光学系16のフォーカスレンズを制御するために使用することができるとともに、後述するようにMFモード時にLCD40上のライブビュー画像の表示制御に使用される。
 また、撮影光学系16のフォーカスレンズ位置は、位置センサ48により検出され、CPU12に送られる。CPU12は、位置センサ48の検出出力に基づいて現在のフォーカスレンズの位置によりピントが合う被写体の距離を求める。尚、フォーカスレンズの位置とその位置に対応する被写体距離とはあらかじめROM32等に記憶されており、CPU12は、このROM32からフォーカスレンズの位置に対応する被写体距離を読み出す。また、被写体距離の測定は、基線長三角測距センサ等により行うようにしてもよい。このようにして測距された被写体距離は、AFモード時に撮影光学系16のフォーカスレンズを制御するために使用することができるとともに、後述するようにMFモード時にLCD40上のライブビュー画像の表示制御に使用される。前記位置センサ48は、撮影光学系16の変倍レンズの位置(ズーム位置)も検出し、そのズーム位置の情報をCPU12に出力する。
 更に、この撮像装置1は、ファインダ光学系の一態様として、対物レンズ50と、接眼レンズ52と、液晶シャッタ64とを有する光学ファインダ(OVF)とを備えている。この液晶シャッタ64は、CPU12によって制御され、光学ファインダを使用する場合には透過状態になる。これにより、被写体の光学像は、液晶シャッタ64を透過し、対物レンズ50を通して接眼レンズ52により観察可能になる。
 対物レンズ50と接眼レンズ52との間には、ビームスプリッタ54が設けられており、このビームスプリッタ54は、対物レンズ50に入射する被写体の光学像と、LCD40に表示されるライブビュー画像とを合成する手段として使用される。即ち、対物レンズ50に入射する光学像は、ビームスプリッタ54を透過して接眼レンズ52により観察することができ、また、LCD40に表示されるライブビュー画像は、ビームスプリッタ54により直角に反射され接眼レンズ52により観察することができる。
 前記LCD40、ビームスプリッタ54及び接眼レンズ52によりライブビュー画像を観察することができる電子ビューファインダ(EVF)が構成される。ここで、液晶シャッタ82を遮光状態にすることにより、接眼レンズ52からはLCD40からの画像のみ観察可能にすることができる。また、重畳手段の一態様である液晶シャッタ82を透過状態にすることにより、LCD40のライブビュー画像と対物レンズ50を透過した光学像との重畳表示も可能になる。なお、本実施形態において、EVFのライブビュー画像には、ライブビュー画像に撮影に必要な情報が加味されたものも含まれる。撮影に必要な情報の一例としては、顔枠、AF枠が挙げられる。
 即ち、この撮像装置1は、OVFの光学像表示、EVFの画像表示、OVFとEVFの画像の重畳表示との切り替えを可能にするハイブリッドファインダを備えている。
 撮影光学系16の光軸とOVFの光軸とは異なるため、所定のフォーカスエリアの光学像とライブビュー画像とは、そのフォーカスエリア内の被写体の距離に応じてパララックスが発生する。CPU12は、前記求めた被写体距離に応じて発生するパララックスを補正すべくLCD40に表示させるライブビュー画像の表示位置を移動させる。これにより、フォーカスエリア内の光学像とライブビュー画像とが一致するように表示させることができる。
 <第1の実施形態> 本発明の第1の実施形態について図面を参照して説明する。
 図1に示すように、本発明に係る撮像装置1は、補正手段60を備える。図2は、上記構成のハイブリッドファインダに表示されるファインダ像の一例を示す図であり、OVFの光学像を実線で示し、EVFのライブビュー画像を点線で示している。
 OVFの光学像と撮影光学系によるEVFのライブビュー画像とを重ねて表示するハイブリッドファインダでは、EVFのライブビュー画像は表示遅れが伴う。これは、EVFのライブビュー画像は、CCD20からアナログ処理部24、A/D変換器26、一時記憶装置28、信号処理部34、ビデオエンコーダ38を経て、LCD40の表示画面上に表示されるため、表示遅れが生じるものである。撮影者がOVFで見ている被写体像と比べ、撮影光学系を通してEVFに表示される被写体像は時間差ができてしまい、その時間差による画角ズレが必ず起こってしまう。
 本実施形態では、図2のように、補正手段60により表示手段40により表示された被写体像の表示遅れに伴う光学像とライブビュー画像(EVFのライブビュー画像)との画像ずれを補正するようにした。
 即ち、EVFでの表示手段の被写体像の表示遅れ時間はあらかじめ把握できるものなので、この表示遅れ時間で画像ずれを補正するようにした。
 これにより、OVFとEVFの画像の重畳表示での画像ずれを軽減することができる。
 <第2の実施形態>
 本発明の第2の実施形態について図面を参照して説明する。
 図3~図5に示すように、補正手段60には角速度センサ62を備えている。なお、図3~図5は、図1のEVF光学系とOVF光学系との部分を抜粋して記載したものであり、図1において更に角速度センサ62を備えたものである。角速度センサ62で撮像装置本体の角速度を検出し、検出された角速度に応じて、あらかじめ把握されている光学像とライブビュー画像との画像ずれを補正することができる。
 具体的には、図3のように、OVF光学系92で確認できる光学像の光軸をシフトさせてEVF光学系90で確認される表示遅れのあるライブビュー画像の光軸に合わせることで光学像とライブビュー画像との画像ずれを補正する形態と、図4や図5のように、EVF光学系90で確認される表示遅れのあるライブビュー画像の光軸をシフトさせてOVF光学系92で確認できる光学像の光軸に合わせることで光学像とライブビュー画像との画像ずれを補正する形態と、がある。
 図3は、OVF光学系92に補正レンズ70を備えている。EVF光学系90での表示手段の被写体像の表示遅れ時間はあらかじめ把握できている。そして、角速度センサ62によりパンニングされた角度を把握し、OVF光学系92において角速度センサ62で検知した分補正レンズ70を撮影光学系16の手振れ補正と同じ要領でシフトさせる。即ち、EVF光学系90で確認される表示遅れのあるライブビュー画像の遅れ時間分に合わせて、OVF光学系92で確認できる光学像を遅らせる。これにより、OVFとEVFの画像の重畳表示での画像ずれを軽減することができる。
 図4は、EVF光学系90にシフト手段72を備えている。EVF光学系90での表示手段の被写体像の表示遅れ時間はあらかじめ把握できている。そして、角速度センサ62によりパンニングされた角度を把握し、EVF光学系90において角速度センサ62で検知した分シフト手段72でLCD40に表示させる被写体像をシフトさせる。即ち、OVF光学系92で確認できる光学像に合わせて、EVF光学系90のライブビュー画像の遅れ時間分早める。これにより、OVFとEVFの画像の重畳表示での画像ずれを軽減することができる。
 図5は、EVF光学系90の撮影光学系16に補正レンズ74を備えている。EVF光学系90での表示手段の被写体像の表示遅れ時間はあらかじめ把握できている。そして、角速度センサ62によりパンニングされた角度を把握し、EVF光学系90の撮影光学系16の補正レンズ74において角速度センサ62で検知した分シフトさせる。即ち、OVF光学系92で確認できる光学像に合わせて、EVF光学系90の撮影光学系16の補正レンズ74でライブビュー画像の遅れ時間分被写体像を早める。これにより、OVFとEVFの画像の重畳表示での画像ずれを軽減することができる。なお、この撮影光学系16に補正レンズ74は、撮影光学系16の手振れ補正機構が備えられている場合には、撮影光学系16の手振れ補正機構をそのまま用いることができる。また、図示しないが、CCD20をシフトさせても良い。
 <第3の実施形態>
 図6は、上記第2の実施形態において、パンニング検出手段80を備えたものである。パンニング検出手段80は、撮影の状態にてパンニングを検出する。そして、パンニング検出手段80によりパンニングが検出された期間中だけ、角速度センサ62により検出された角速度に応じて、あらかじめ把握されている光学像とライブビュー画像との画像ずれを補正する。
 OVFとEVFの画像の重畳表示での画像ずれは、パンニングの際が極めて大きい。したがって、パンニング検出手段によりパンニングが検出された期間中だけ画像ずれを補正する。
 [その他]
 図1や図3~6に示した撮像装置1は、OVFの光軸が撮影光学系の光軸と異なるものが適用されているが、OVFの光軸が撮影光学系と同一の光軸を有する一眼レフレックス式ファインダなどにも本発明は適用できるものもある。また、撮影装置以外の画像表示装置においても本発明は適用できる。
 なお、本発明では、EVFの表示遅れ時間分の補正量を積算するために、表示遅れ時間分の角速度センサの値や補正量を一時記憶装置28などに記憶する必要がある。また、被写体によってはEVF表示用画像(ライブビュー画像)作成のための撮影系での露光時間が延びる場合がある。その場合には、表示遅れ時間が変わってしまうため、撮影系の露光時間が変化するのに従い表示遅れ時間を変えて演算する必要がある。
 本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
 1…撮像装置、10…メモリカード、12…中央処理装置(CPU)、14…操作部、16…撮影光学系、18…絞り、20…撮像素子(CCD)、32…ROM、34…信号処理部、37…AE検出部、40…表示手段(LCD)、46…ピントずれ量算出部、50…対物レンズ、52…接眼レンズ、54…ビームスプリッタ、60…補正手段、62…角速度センサ、64…液晶シャッタ、70…補正レンズ(シフト手段)、72…シフト手段、74…補正レンズ(シフト手段)、80…パンニング検出手段

Claims (9)

  1.  ライブビュー画像を撮像する撮像手段と、
     前記撮像手段により撮像されたライブビュー画像を表示する表示手段と、
     光学像を接眼部に導くファインダ光学系と、
     前記表示手段に表示されたライブビュー画像に基づく画像と前記光学像とを重畳させて前記接眼部に導く重畳手段と、
     前記ライブビュー画像の表示遅れに伴う光学像との画像ずれを補正する補正手段と、
     を備えた画像表示装置。
  2.  前記補正手段は、装置本体の角速度を検出する角速度センサを備え、前記角速度センサにより検出された角速度に応じて、あらかじめ把握されている前記光学像とライブビュー画像との画像ずれを補正する請求項1に記載の画像表示装置。
  3.  前記ファインダ光学系は、該ファインダ光学系の光軸を傾斜させる補正レンズを有し、前記補正手段は、前記補正レンズを制御して前記画像ずれを光学的に補正する請求項2に記載の画像表示装置。
  4.  前記表示手段は、表示されるライブビュー画像をシフトさせるシフト手段を有し、前記補正手段は、前記シフト手段を制御して前記画像ずれを補正する請求項2に記載の画像表示装置。
  5.  前記シフト手段は、前記表示手段に表示するライブビュー画像をシフトさせる請求項4に記載の画像表示装置。
  6.  前記撮像手段は、撮影光学系と該撮影光学系を介して被写体像を受光し、被写体像を示すライブビュー画像を出力する撮像素子を有し、
     前記シフト手段は、前記撮影光学系の手振れ補正レンズをシフト又は前記撮像素子をシフトさせる請求項4に記載の画像表示装置。
  7.  前記画像表示装置は、前記撮像手段が、本撮影前にライブビュー画像を取得し、本撮影の状態にて記録媒体に記録する記録画像を取得する撮像装置である請求項1から6の何れか1項に記載の画像表示装置。
  8.  前記ライブビュー画像に基づく画像は、ライブビュー画像に撮影に必要な情報を加味する請求項1から7の何れか1項に記載の画像表示装置。
  9.  前記補正手段は、撮影の状態にてパンニングを検出するパンニング検出手段を有し、前記パンニング検出手段によりパンニングが検出された期間中だけ、前記角速度センサにより検出された角速度に応じて、あらかじめ把握されている前記光学像と前記ライブビュー画像との画像ずれを補正する請求項7又は8に記載の画像表示装置。
PCT/JP2013/054981 2012-03-28 2013-02-26 画像表示装置 WO2013146020A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014507550A JP5643464B2 (ja) 2012-03-28 2013-02-26 画像表示装置
EP13767872.8A EP2835961B1 (en) 2012-03-28 2013-02-26 Image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012073118 2012-03-28
JP2012-073118 2012-03-28

Publications (1)

Publication Number Publication Date
WO2013146020A1 true WO2013146020A1 (ja) 2013-10-03

Family

ID=49259297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/054981 WO2013146020A1 (ja) 2012-03-28 2013-02-26 画像表示装置

Country Status (3)

Country Link
EP (1) EP2835961B1 (ja)
JP (1) JP5643464B2 (ja)
WO (1) WO2013146020A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012293A (ja) * 2019-07-05 2021-02-04 株式会社リコー 撮影装置及び撮影方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069377A (ja) * 1999-08-27 2001-03-16 Minolta Co Ltd デジタルカメラ
JP2003078785A (ja) * 2001-08-30 2003-03-14 Olympus Optical Co Ltd カメラのファインダ装置
JP2004085935A (ja) 2002-08-27 2004-03-18 Olympus Corp カメラ
JP2009303258A (ja) 2005-12-06 2009-12-24 Panasonic Corp デジタルカメラ
WO2012035877A1 (ja) * 2010-09-17 2012-03-22 富士フイルム株式会社 撮影装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012035822A1 (ja) * 2010-09-17 2012-03-22 富士フイルム株式会社 ファインダ装置の表示制御方法及びその装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069377A (ja) * 1999-08-27 2001-03-16 Minolta Co Ltd デジタルカメラ
JP2003078785A (ja) * 2001-08-30 2003-03-14 Olympus Optical Co Ltd カメラのファインダ装置
JP2004085935A (ja) 2002-08-27 2004-03-18 Olympus Corp カメラ
JP2009303258A (ja) 2005-12-06 2009-12-24 Panasonic Corp デジタルカメラ
WO2012035877A1 (ja) * 2010-09-17 2012-03-22 富士フイルム株式会社 撮影装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2835961A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012293A (ja) * 2019-07-05 2021-02-04 株式会社リコー 撮影装置及び撮影方法
JP7302343B2 (ja) 2019-07-05 2023-07-04 株式会社リコー 撮影装置及び撮影方法

Also Published As

Publication number Publication date
JP5643464B2 (ja) 2014-12-17
EP2835961A1 (en) 2015-02-11
JPWO2013146020A1 (ja) 2015-12-10
EP2835961A4 (en) 2015-11-11
EP2835961B1 (en) 2017-01-11

Similar Documents

Publication Publication Date Title
JP5635211B2 (ja) 撮像装置
JP5322783B2 (ja) 撮像装置及び該撮像装置の制御方法
US8823857B2 (en) Image apparatus
JP5054583B2 (ja) 撮像装置
JP5567140B2 (ja) 撮影装置
JP5650351B2 (ja) 撮像装置及び電子ビューファインダ表示方法
WO2012002307A1 (ja) 単眼立体撮像装置
JP4860568B2 (ja) 撮影装置
JP5343588B2 (ja) 撮像装置
WO2013031349A1 (ja) 撮影装置及び撮影方法
JP2011022501A (ja) 複眼撮像装置
JPH0933791A (ja) レンズ駆動装置及び撮像装置
WO2013047481A1 (ja) 撮影装置、撮影方法、記録媒体およびプログラム
JP2008271024A (ja) 画像処理装置および方法並びにプログラム
JP5948997B2 (ja) 撮像装置及び撮像方法
JP5643464B2 (ja) 画像表示装置
JP5457240B2 (ja) 立体撮像装置
JP2010204385A (ja) 立体撮像装置および立体撮像方法
JP5366693B2 (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
JP2010134291A (ja) 撮像装置及びその制御方法
JP5144469B2 (ja) 撮像装置及びその制御方法
JP5530569B2 (ja) 撮影装置及びファインダの表示方法
JP2011180545A (ja) 撮像装置
JP5157559B2 (ja) 電子カメラ
JP2011085945A (ja) 撮影装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13767872

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014507550

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2013767872

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013767872

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE